fisica - Grandes Ofertas

Anuncio
Acreditalo ® Derechos Reservados
FISICA
FISICA – DINAMICA
DINAMICA
Estudia el movimiento de los objetos y de su respuesta a las fuerzas. Las descripciones del movimiento
comienzan con una definición cuidadosa de magnitudes como el desplazamiento, el tiempo, la
velocidad, la aceleración, la masa y la fuerza.
Isaac Newton demostró que la velocidad de los objetos que caen aumenta continuamente durante su
caída. Esta aceleración es la misma para objetos pesados o ligeros, siempre que no se tenga en cuenta
la resistencia del aire (rozamiento). Newton mejoró este análisis al definir la fuerza y la masa, y
relacionarlas con la aceleración.
Para los objetos que se desplazan a velocidades próximas a la velocidad de la luz, las leyes de Newton
han sido sustituidas por la teoría de la relatividad de Albert Einstein. Para las partículas atómicas y
subatómicas, las leyes de Newton han sido sustituidas por la teoría cuántica. Pero para los fenómenos
de la vida diaria, las tres leyes del movimiento de Newton siguen siendo la piedra angular de la dinámica
(el estudio de las causas del cambio en el movimiento).
Las leyes del movimiento de Newton
Con la formulación de las tres leyes del movimiento, Isaac Newton estableció las bases de la dinámica.
Primera ley de Newton (Equilibrio)
Un cuerpo permanece en reposo o en movimiento rectilíneo uniforme (M.R.U. = velocidad constante) si
la fuerza resultante es nula (ver condición de equilibrio).
El que la fuerza ejercida sobre un objeto sea cero no significa necesariamente que su velocidad sea
cero. Si no está sometido a ninguna fuerza (incluido el rozamiento), un objeto en movimiento seguirá
desplazándose a velocidad constante.
Para que haya equilibrio, las componentes horizontales de las fuerzas que actúan sobre un objeto
deben cancelarse mutuamente, y lo mismo debe ocurrir con las componentes verticales. Esta condición
es necesaria para el equilibrio, pero no es suficiente. Por ejemplo, si una persona coloca un libro de pie
sobre una mesa y lo empuja igual de fuerte con una mano en un sentido y con la otra en el sentido
opuesto, el libro permanecerá en reposo si las manos están una frente a otra. (El resultado total es que
el libro se comprime). Pero si una mano está cerca de la parte superior del libro y la otra mano cerca de
la parte inferior, el libro caerá sobre la mesa. Para que haya equilibrio también es necesario que la suma
de los momentos en torno a cualquier eje sea cero. Los momentos dextrógiros (a derechas) en torno a
todo eje deben cancelarse con los momentos levógiros (a izquierdas) en torno a ese eje. Puede
demostrarse que si los momentos se cancelan para un eje determinado, se cancelan para todos los
ejes. Para calcular la fuerza total, hay que sumar las fuerzas como vectores.
a) Condición de equilibrio en el plano: la sumatoria de todas las fuerzas aplicadas y no aplicadas
debe ser nula y, la sumatoria de los momentos de todas las fuerzas con respecto a cualquier
punto debe ser nula.
Σ Fx = 0
Σ Fy = 0
Σ MF = 0
1
Acreditalo ® Derechos Reservados
b) Condición de equilibrio en el espacio: la sumatoria de todas las fuerzas aplicadas y no aplicadas
debe ser nula y, la sumatoria de los momentos de todas las fuerzas con respecto a los tres ejes
de referencia debe ser nula.
Σ Fx = 0
Equilibrio de fuerzas Σ Fy = 0
Equilibrio de
momentos
Σ Fz = 0
Σ My = 0
Σ Mx = 0
Σ Mz = 0
Segunda ley de Newton (masa)
Para entender cómo y por qué se aceleran los objetos, hay que definir la fuerza y la masa. Una fuerza
neta ejercida sobre un objeto lo acelerará, es decir, cambiará su velocidad. La aceleración será
proporcional a la magnitud de la fuerza total y tendrá la misma dirección y sentido que ésta. La
constante de proporcionalidad es la masa m del objeto. La masa es la medida de la cantidad de
sustancia de un cuerpo y es universal.
Cuando a un cuerpo de masa m se le aplica una fuerza F se produce una aceleración a.
F = m.a [ N ] [ Kg ]
Unidades: En el Sistema Internacional de unidades (SI), la aceleración a se mide en metros por segundo
cuadrado, la masa m se mide en kilogramos, y la fuerza F en newtons.
Se define por el efecto que produce la aceleración en la fuerza a la cual se aplica. Un newton se define
como la fuerza necesaria para suministrar a una masa de 1 kg una aceleración de 1 metro por segundo
cada segundo.
Un objeto con más masa requerirá una fuerza mayor para una aceleración dada que uno con menos
masa. Lo asombroso es que la masa, que mide la inercia de un objeto (su resistencia a cambiar la
velocidad), también mide la atracción gravitacional que ejerce sobre otros objetos. Resulta
sorprendente, y tiene consecuencias profundas, que la propiedad inercial y la propiedad gravitacional
estén determinadas por una misma cosa. Este fenómeno supone que es imposible distinguir si un punto
determinado está en un campo gravitatorio o en un sistema de referencia acelerado. Albert Einstein hizo
de esto una de las piedras angulares de su teoría general de la relatividad, que es la teoría de la
gravitación actualmente aceptada.
Se deduce que:
1 kg = 9,81 N
En particular para la fuerza peso:
P = m.g
Tercera ley de Newton (acción y reacción)
Cuando a un cuerpo se le aplica una fuerza (acción o reacción), este devuelve una fuerza de igual
magnitud, igual dirección y de sentido contrario (reacción o acción).
Por ejemplo, en una pista de patinaje sobre hielo, si un adulto empuja suavemente a un niño,no sólo
existe la fuerza que el adulto ejerce sobre el niño, sino que el niño ejerce una fuerza igual pero de
sentido opuesto sobre el adulto. Sin embargo, como la masa del adulto es mayor, su aceleración será
menor.
La tercera ley de Newton también implica la conservación del momento lineal, el producto de la masa
por la velocidad. En un sistema aislado, sobre el que no actúan fuerzas externas, el momento debe ser
constante. En el ejemplo del adulto y el niño en la pista de patinaje, sus velocidades iniciales son cero,
por lo que el momento inicial del sistema es cero. Durante la interacción operan fuerzas internas entre el
2
Acreditalo ® Derechos Reservados
adulto y el niño, pero la suma de las fuerzas externas es cero. Por tanto, el momento del sistema tiene
que seguir siendo nulo. Después de que el adulto empuje al niño, el producto de la masa grande y la
velocidad pequeña del adulto debe ser igual al de la masa pequeña y la velocidad grande del niño. Los
momentos respectivos son iguales en magnitud pero de sentido opuesto, por lo que su suma es cero.
Otra magnitud que se conserva es el momento angular o cinético. El momento angular de un objeto en
rotación depende de su velocidad angular, su masa y su distancia al eje. Cuando un patinador da
vueltas cada vez más rápido sobre el hielo, prácticamente sin rozamiento, el momento angular se
conserva a pesar de que la velocidad aumenta. Al principio del giro, el patinador tiene los brazos
extendidos. Parte de la masa del patinador tiene por tanto un radio de giro grande. Cuando el patinador
baja los brazos, reduciendo su distancia del eje de rotación, la velocidad angular debe aumentar para
mantener constante el momento angular.
Un libro colocado sobre una mesa es atraído hacia abajo por la atracción gravitacional de la Tierra y es
empujado hacia arriba por la repulsión molecular de la mesa. Como se ve se cumplen todas las leyes de
Newton.
Cuarta ley de Newton (gravitación)
Fg = G.m1.m2 / r ²
La fuerza entre dos partículas de masas m1 y m2 y, que están separadas por una distancia r, es una
atracción que actúa a lo largo de la línea que une las partículas, en donde G es la constante universal
que tiene el mismo valor para todos los pares de partículas.
En 1798 Sir Henry Cavendish realizó la primera medición experimental de la constante G utilizando para
ello una balanza de torsión. El valor aceptado actualmente es:
G = 6,67.10-11 N.m²/kg²
Fuerza elástica:
Una fuerza puede deformar un resorte, como alargarlo o acortarlo. Cuanto mayor sea la fuerza, mayor
será la deformación del resorte (Δx), en muchos resortes, y dentro de un rango de fuerzas limitado, es
proporcional a la fuerza:
Fe = -k. Δx
k: Constante que depende del material y dimensiones del resorte.
Δx: Variación del resorte con respecto a su longitud normal.
Fuerza normal:
Fuerza normal al plano e igual pero de sentido contrario a la componente normal al plano, de la fuerza
peso.
N = cos α.m.g
Fuerza de rozamiento:
Fuerza aplicada y contraria al movimiento y que depende de la calidad de la superficie del cuerpo y de la
superficie sobre la cual se desliza.
3
Acreditalo ® Derechos Reservados
Fr = μ.N
μ :Coeficiente de rozamiento.
Fuerza de rozamiento estática: fuerza mínima a vencer para poner en movimiento un cuerpo.
Fuerza de rozamiento cinética: fuerza retardadora que comienza junto con el movimiento de un cuerpo.
En el caso de deslizamiento en seco, cuando no existe lubricación, la fuerza de rozamiento es casi
independiente de la velocidad. La fuerza de rozamiento tampoco depende del área aparente de contacto
entre un objeto y la superficie sobre la cual se desliza. El área real de contacto (la superficie en la que
las rugosidades microscópicas del objeto y de la superficie de deslizamiento se tocan realmente) es
relativamente pequeña. Cuando un objeto se mueve por encima de la superficie de deslizamiento, las
minúsculas rugosidades del objeto y la superficie chocan entre sí, y se necesita fuerza para hacer que
se sigan moviendo. El área real de contacto depende de la fuerza perpendicular entre el objeto y la
superficie de deslizamiento. Frecuentemente, esta fuerza no es sino el peso del objeto que se desliza. Si
se empuja el objeto formando un ángulo con la horizontal, la componente vertical de la fuerza dirigida
hacia abajo se sumará al peso del objeto. La fuerza de rozamiento es proporcional a la fuerza
perpendicular total.
Centro de gravedad
En cuanto al tamaño o peso del objeto en movimiento, no se presentan problemas matemáticos si el
objeto es muy pequeño en relación con las distancias consideradas. Si el objeto es grande, se emplea
un punto llamado centro de masas, cuyo movimiento puede considerarse característico de todo el
objeto. Si el objeto gira, muchas veces conviene describir su rotación en torno a un eje que pasa por el
centro de masas.
El centro de gravedad o baricentro o centro de masas, es un punto donde puede suponerse
encontrada todo el área,peso o masa de un cuerpo y tener ante un sistema externo de fuerzas un
comportamiento equivalente al cuerpo real.
PRESION
Las fórmulas espantan, generalmente porque hay que pensar mucho y porque cuesta entenderlas. Los
invitamos a hacer un pequeño esfuerzo para entender una. Es una tarea que vale la pena:
La letra P indica presión y se define como la fuerza (F) aplicada sobre una determinada superficie (S).
En realidad no se trata de una ley, es solo una definición.
Si no sabés como leer una fórmula puede aprender fácilmente. Observá que si el valor de la superficie
crece, la presión disminuye. Pero si el valor de la superficie decrece, la presión aumenta. Los valores de
P y S se comportan como niños en los extremos de un sube y baja; cuando uno sube, el otro baja y
viceversa.
Por último la presión se mide, por ejemplo, en Kg/cm ². Vemos en acción esta fórmula en muchos casos
en el mundo cotidiano.
Contacto
Cuando usted empuja algo, la fuerza que está haciendo se distribuye en toda la superficie de contacto
entre su mano y el objeto.
Cuanto más superficie de contacto haya, menor será la presión. Empujar apoyando ambas manos
disminuye la presión sobre las misma y sobre el propio objeto.
Por ejemplo, si cierra el puño y prueba presionar contra una pared, sentirá mayor dolor que al empujar
con la palma. Esto no es solo porque la palma es blanda y el puño expone los huesos, sino que también
se debe a que el puño hace contacto en una menor superficie y concentra más la fuerza aplicada. Por
esta razón los que practican las artes marciales hacen flexiones con los nudillos en lugar de usar la
mano entera. El mismo peso se distribuye de maneras distintas en ambos casos; más concentrado en el
puño, más disperso en la mano.
4
Acreditalo ® Derechos Reservados
Todos los golpes duros de las artes marciales buscan disminuir la superficie de contacto para concentrar
la fuerza; así se pega con el metatarso (pie),nudillos, punta de los dedos, etc.
Calzado
¿Qué sucede si una dama con tacos altos quiere caminar sobre un terreno fangoso? Seguramente se
hundirá, es que todo su peso se concentra en la pequeña superficie de apoyo que le brinda ese par de
zapatos.
Para evitar hundirse, debe aumentar la superficie de apoyo. Recuerde que aumentando esa variable
disminuye la presión (como en el sube y baja). Por esta razón tanto las raquetas (zapatos) para nieve
como los esquís buscan aumentar la superficie de contacto para disminuir la presión de apoyo y así no
hundirse en la nieve.
Pero a veces se persigue el fin opuesto. Pensando en los tacos altos se puede ver que unos zapatos así
servirían si lo que se busca es justamente hundirse en el terreno. Es el caso de los botines de fútbol.
También es el caso de los zapatos de alpinista, hechos con puntas filosas en la base que se aferran al
resbaloso hielo. Esas puntas reducen al mínimo la superficie de contacto aumentando al máximo la
presión. El resultado es un gran agarre en el hielo.
Puntas agudas
Cuando tomamos un tenedor, no pensamos que lo que hace que el mismo pinche es justamente la
menor superficie de apoyo de sus puntas. Toda la fuerza se concentra en esos cuatro puntos. Un clavo
concentra toda la fuerza del golpe dado en su cabeza sobre su punta, al igual que las tachuelas. La
cabeza chata de las chinches permite hacer fuerza sobre ella y concentrarla en un solo punto, el de
apoyo. El principio es similar al de los clavos, pero la amplia superficie de la cabeza permite hacer
fuerza con los propio dedos sin lastimarse. En el caso de los alfileres, como están destinados para
atravesar cosas blandas como tela,a lo sumo papel, la fuerza requerida no es muy grande, y alcanza
una pequeña cabeza para evitar que el alfiler se clave en el dedo que empuja. El filo del cuchillo
presenta el mismo principio de disminución de la superficie para aumentar la presión.
Podemos pensar en muchos otros objetos del estilo, como ser espadas, flechas, escarbadientes,
arpones, el aparato bucal de los mosquitos para picar, las estacas y más.
Analicemos dos casos interesantes
Arados: Los arados, sean arrastrados por animales o máquinas, tienen un gran peso y una mínima
superficie de apoyo en sus cuchillas porque la idea es justamente que se introduzcan en tierra para
removerla.
5
Acreditalo ® Derechos Reservados
Patines para hielo: La cuchilla de estos patines parece contradecir el principio que venimos viendo.
¿No se usan acaso zapatos afilados para agarrarse en el hielo? Es verdad, pero nos falta considerar
dos pequeñas cosas.
La primera es que se trata de un filo, no de una aguja. El filo tiene libertad de moverse longitudinalmente
pero no a los lados (como el caso del cuchillo), así que el agarre del patín sobre el hielo evitará que se
deslice de costado. Y segundo, hay algo que decir sobre el hielo. Cuando este es presionado, se derrite
momentáneamente. Disminuyendo la superficie de apoyo del patinador en solo dos cuchillas, se
aumenta mucho la presión sobre el hielo,obligando al mismo que se encuentra bajo las cuchillas a
derretirse un poco. Esto lo torna sumamente resbaladizo y le permite deslizarse suavemente. Cuando la
cuchilla se retira del lugar el agua formada rápidamente vuelve a congelarse dado que regresa a su
presión normal.
Transporte
El peso de un automóvil (que es una fuerza) se distribuye en una superficie de apoyo que no es toda la
rueda,sino solo la parte en contacto con el suelo. Las ruedas vienen a ser como los calzados de los
automóviles.
El número elevado de ruedas en un transporte pesado busca disminuir la presión sobre el pavimento.
También se puede reforzar ese efecto aumentando el tamaño de las mismas, lo que aumenta la
superficie de contacto, o haciéndolas más anchas (patonas). En estos casos entran los ómnibus,
camiones y vehículos todo terreno.
Si decimos que las ruedas son los zapatos de los transportes, ¿Qué clase de rueda se parecería al
esquí? El esquí busca aumentar la superficie para disminuir la presión y no hundirse en la nieve. El
equivalente en "ruedas" es la llamada oruga. Se trata de una cinta sinfín con numerosas y pequeñas
ruedas en el interior que distribuyen el peso sobre esa cinta. Las orugas son tan útiles para transportes
en la nieve como en el barro o terrenos pantanosos; hablamos de los camiones de la Antártida,de
tanques de guerra o máquinas para la construcción.
6
Acreditalo ® Derechos Reservados
Las cadenas que se agregan a los vehículos para circular en caminos helados, no mejoran el asunto de
la presión pero sí el del agarre. Equivaldría a hablar de zapatos de alpinista.
¿Existe algún transporte que busque minimizar el apoyo para ejercer una fuerte presión sobre la base?
Parecería ridículo que exista algo así pues se hundiría y no podría avanzar.
Si juntamos dos metales, estos deslizarán entre sí. Pero si entre ambos la presión se hace muy fuerte,
habrá adherencia, y la misma es la base de cualquier transporte, por ejemplo entre la goma y el asfalto.
Una rueda que no se adhiera al camino no serviría como transporte.
Pero para construir algo así debería haber carreteras cubiertas de metal, los vehículos tendrían ruedas
metálicas y deberían pesar mucho para lograr la adherencia rueda carretera.
Resolver:
1) Una fuerza de 10 kgf actúa sobre una masa que se desplaza con una velocidad de 20 cm/s y al cabo
de 5 s le hace adquirir una velocidad de 8 cm/s, ¿cuál es la masa del cuerpo?.
Ver solución al final de ésta página
2) Si la tensión en el cable de un ascensor es de 2800 N, el peso del ascensor es de 300 kgf y
transporta a una persona de 80 kgf de peso. Calcular:
a) ¿Qué aceleración tiene?.
b) ¿El ascensor sube o baja?.
Ver solución al final de ésta página
3) Calcular para el sistema de la figura su aceleración y la tensión en la cuerda si m1 = 12 kg, m2 = 8 kg
y α = 30°.
Ver solución al final de ésta página
4) Con los datos del problema anterior calcular α para que el sistema tenga una aceleración de 3 m/s ².
Ver solución al final de ésta página
Desarrollo:
1) Datos:
F = 10 kgf = 10 kgf.(9,80665 m/s ²)/ 1 kgf = 98,0665 N
v1 = 20 cm/s = 20 cm/s.(1 m/100 cm) = 0,2 m/s
v2 = 8 cm/s = 8 cm/s.(1 m/100 cm) = 0,08 m/s
t=5s
De acuerdo a los datos la fuerza le produce a la masa una desaceleración.
F = -98,0665 N
Primero, empleando ecuaciones de cinemática, calculamos la aceleración (negativa) producida por la
fuerza.
v2 - v1 = a.t
a = (v2 - v1)/t
a = (0,08 m/s - 0,2 m/s)/5 s
a = -0,024 m/s ²
Luego:
F = m.a
m = F/a
m = -98,0665 N/(-0,024 m/s ²)
m = 4086,1 kg
2) Datos:
7
Acreditalo ® Derechos Reservados
T = 2800 N
PA = 300 kgf = 300 kgf.(9,80665 m/s ²)/ 1 kgf = 2942 N
PP = 80 kgf = 80 kgf.(9,80665 m/s ²)/ 1 kgf = 784,5 N
Se adopta g = 10 m/s ²
a) La condición de equilibrio es:
∑F = 0
Pero como hay movimiento:
∑F = m.a
La masa es:
m = (PA + PP)/g
m = (2942 N + 784,5 N)/10 m/s ²
m = 372,65 kg
Las fuerzas sobre el eje (tomando el eje positivo hacia arriba) son:
T - PA - PP = m.a
a = (T - PA - PP)/m
a = (2800 N - 2942 N - 784,5 N)/372,65 kg
a = -2,49 m/s ²
b) Como la aceleración del sistema es negativa el ascensor desciende.
3) Datos:
m1 = 12 kg
m2 = 8 kg
α = 30°
Se adopta g = 10 m/s ²
Los gráficos correspondientes a las masas puntuales son:
Nos interesa particularmente el movimiento a lo largo del eje "x", la condición de equilibrio es:
∑ Fx = 0
Pero como hay movimiento:
∑ Fx = m.a
La ecuación en el eje "x" es:
8
Acreditalo ® Derechos Reservados
P2x - T = m2.a
T = P2.sen 30° - m2.a (para la masa 2)
T = m1.a (para la masa 1)
Igualando:
m1.a = P2.sen 30° - m2.a
m2 )
m1.a + m2.a = P2.sen 30°
a = 8 kg.(10 m/s ²).0,5/(12 kg + 8 kg)
a = 40 N/20 kg
(m1 + m2).a = P2.sen 30°
a = P2.sen 30°/(m1 +
a = 2 m/s ²
Luego:
T = m1.a
T = 12 kg.2 m/s ²
T = 24 N
4) Datos:
m1 = 12 kg
m2 = 8 kg
a = 3 m/s ²
Se adopta g = 10 m/s ²
Los gráficos son los mismos del ejercicio n° 3.
Para el caso:
∑ Fx = m.a
P2x - T = m2.a
T = P2.sen α - m2.a (para la masa 2)
T = m1.a (para la masa 1)
Igualando:
m1.a = P2.sen α - m2.a
m1.a + m2.a = P2.sen α
sen α = (12 kg + 8 kg).(3 m/s ²)/(8 kg.10 m/s ²)
α = arcsen 0,75
(m1 + m2).a/P2 = sen α
sen α = 0,75
α = 48° 35´ 25"
9
Acreditalo ® Derechos Reservados
FISICA – ELECTRODINAMICA
CARGAS ELECTRICAS
Las cargas en los conductores pueden moverse con cierta libertad. La corriente eléctrica constituye un
movimiento continuado de las cargas libres. La cantidad de carga que circula por un conductor en la
unidad de tiempo es la intensidad de corriente. Los responsables de mantener la corriente en un circuito
eléctrico son los generadores eléctricos, los cuales suministran al circuito la energía precisa para ello.
Dos leyes de naturaleza experimental descubiertas por Georg Simon Ohm y James Prescott Joule
respectivamente aportan algunas relaciones que facilitan el estudio científico de la corriente eléctrica.
La característica esencial de los conductores, sean éstos sólidos, líquidos o gaseosos, consiste en que
disponen de partículas cargadas que pueden moverse con bastante libertad bajo la acción de campos
eléctricos. Cuando un conductor descargado se pone en contacto con un cuerpo cargado se produce un
desplazamiento de la carga del uno a otro por efecto de las fuerzas eléctricas. Si ambos están
aislados,el movimiento de las cargas libres durará unos instantes entre tanto el sistema de cargas
encuentra una configuración de equilibrio en la cual las fuerzas eléctricas que se ejercen sobre cada una
de las cargas se compensan mutuamente. Esto es lo que sucede cuando un hilo metálico se conecta
por uno de sus extremos a uno solo de los bornes de una pila. Sin embargo, cuando se conecta el otro
extremo del conductor al segundo borne, se produce un movimiento continuado de cargas en el
conductor. Se tiene en tal caso una corriente eléctrica. La parte de la física que se ocupa del estudio de
este tipo de movimiento de las cargas eléctricas a través de un conductor recibe el nombre de
electrocinética.
LA CORRIENTE ELECTRICA
Movimiento de cargas y corriente eléctrica
La presencia de un campo eléctrico permanente en el seno de un conductor es la causa del movimiento
continuado de las cargas libres. En términos de potencial puede decirse que para que se mantenga una
corriente eléctrica es necesario que exista una diferencia de potencial constante entre los extremos del
conductor. Si ésta disminuye por efecto de la circulación de las cargas, el campo eléctrico llega a
hacerse nulo y cesa el movimiento. Esta es la situación que corresponde a esos desplazamientos de
carga que se producen cuando un conductor aislado se carga o descarga eléctricamente.
Debido a su facilidad de manejo, en electrocinética para describir las propiedades del campo en el
interior de un conductor se recurre a la noción de diferencia de potencial,también denominada tensión
eléctrica porque de ella depende el movimiento de las cargas libres de un punto a otro. El sentido de la
corriente eléctrica depende no sólo del signo de la diferencia de potencial, sino también del signo de los
elementos portadores de carga o cargas móviles presentes en el conductor.
En un conductor metálico los portadores de carga son los electrones (-), por lo que su desplazamiento
se producirá del extremo del conductor a menor potencial hacia el extremo a mayor potencias, o en
términos de signos desde el polo negativo hacia el positivo. En una disolución salina los portadores de
carga son iones tanto positivos como negativos; cuando se somete dicha disolución a una diferencia de
potencial constante, como la producida entre los bornes de una pila, se generarán movimientos de carga
de sentidos opuestos; las cargas positivas se desplazarán por la disolución del extremo de mayor
potencial al de menor potencial,o lo que es lo mismo, del polo positivo de la pila al polo negativo, y las
negativas en sentido contrario. Algo semejante sucede en un medio gaseoso ionizado como el que se
produce en el interior de un tubo fluorescente o de neón sometido a una diferencia de potencial intensa.
Benjamin Franklin fue el primero en asignar un sentido de circulación a la corriente eléctrica en los
conductores metálicos. El supuso que era la electricidad positiva la que, como un fluido sutil, se
desplazaba por el interior del conductor. Según dicha suposición, la corriente eléctrica circularía del polo
positivo al negativo. Más de un siglo después la moderna teoría atómica revelaba que los electrones son
los portadores de carga en los metales, de modo que el sentido real de la corriente resulta ser
justamente el opuesto al avanzado por Franklin. Por razones históricas y dado que en la electrocinética
el sentido de circulación de la corriente no tiene mayor trascendencia, se sigue aceptando como sentido
convencional el postulado por Franklin. Sin embargo, en otras partes de la física, como la electrónica, la
distinción entre ambos resulta importante.
La intensidad de la corriente eléctrica
Junto a la idea de movimiento de partículas, la noción de corriente eléctrica lleva asociada la de
transporte de carga eléctrica de un punto a otro. La importancia de dicho transporte en términos de
10
Acreditalo ® Derechos Reservados
cantidad se expresa mediante la magnitud intensidad de corriente eléctrica que se define como la carga
total que circula por el conductor en la unidad de tiempo. En forma de ecuación se puede escribir como:
I = q/t
(10.1)
La unidad de intensidad de corriente en el SI recibe el nombre de ampere (A) por el científico André
Marie Ampere y equivale a un transporte de carga que se produzca a razón de 1 coulomb (C) en cada
segundo (s),1 A = 1 C/s. En un metal, en donde la corriente eléctrica es debida únicamente al
movimiento de electrones, sólo el transporte de carga negativa contribuye al valor de la intensidad. En
las disoluciones iónicas, al ser conducida la corriente tanto por iones positivos como negativos, se
produce una doble contribución de ambos tipos de carga a la intensidad de corriente eléctrica.
Voltímetro y amperímetro
El galvanómetro, cuyo nombre honra a Galvani, aprovecha el efecto magnético de la corriente eléctrica.
Consta, en esencia, de un imán entre cuyos polos se dispone una bobina que puede girar sobre un eje
dispuesto perpendicularmente al plano del imán. Una aguja solidaria con el bastidor de la bobina hace
visible, sobre una escala graduada, el posible movimiento de aquélla. Este movimiento se halla
impedido en ausencia de corriente por dos muelles recuperadores o resortes en espiral Cuando se hace
pasar una corriente por la bobina, aparece una fuerza magnética entre la bobina y el imán que desvía la
aguja de su posición inicial tanto más cuanto mayor es la intensidad de corriente.
Un amperímetro se utiliza para medir intensidades y consiste, básicamente, en un galvanómetro con un
shunt o resistencia en paralelo con la bobina, de magnitud lo suficientemente pequeña como para
conseguir que prácticamente toda, la corriente se desvíe por ella y que el aparato de Medida perturbe lo
menos posible las condiciones del circuito. Los amperímetros se conectan en serie con el circuito, es
decir, se intercalan entre los puntos en donde se desea medir la intensidad.
Un voltímetro se utiliza para medir diferencias de potencial entre dos puntos cualesquiera y viene a ser
un galvanómetro con una importante resistencia asociada en serie con él. El conjunto se conecta en
paralelo o derivación entre los puntos cuya diferencia de potencial se desea medir. Si la resistencia total
del voltímetro es mucho mayor que la del circuito, entre tales puntos la corriente se derivará en su mayor
parte por el tramo que ofrece menor resistencia a su paso y sólo una fracción de ella atravesará el
voltímetro. Con ello se logra que la perturbación que introduce en el circuito el aparato de medida sea
despreciable.
Aplicación del concepto de intensidad de corriente
Por una bombilla de 40 W conectada a la red de 220 V circula una corriente de intensidad
aproximadamente igual a 0,2 A. ¿Durante cuánto tiempo ha de estar conectada la bombilla para que a
través de ella haya pasado una carga de 4,5 C? ¿Cuántos electrones habrán circulado por la bombilla
en ese intervalo?. La expresión que define la magnitud intensidad de corriente viene dada por:
I = q/t
t = q/i
sustituyendo se tiene:
t = 4,5 C/0,2 A
t = 22,5 s
Para averiguar el número de electrones que han circulado por la bombilla es preciso saber que 1
18
coulomb equivale a 6,27x10 veces la carga del electrón. Si en el intervalo de tiempo considerado han
18 19 circulado 4,5 C, el número de electrones resulta ser: número de e =4,5 C.6,27.10 e /C = 2,8.10 e
GENERADORES ELECTRICOS
El movimiento de los electrones por un conductor metálico como consecuencia de una diferencia de
potencial entre sus extremos puede compararse con el flujo de agua entre depósitos situados a diferente
altura y conectados mediante una tubería. Cuando se llena el depósito superior el agua desciende, pero
dicho movimiento dura sólo en tanto se mantiene una diferencia entre los niveles de agua en ambos
depósitos. Para mantener el agua en continua circulación es necesario intercalar una bomba que eleve
de nuevo el agua desde el depósito inferior al superior. El papel de la bomba en dicho circuito hidráulico
es el de comunicar a la masa de agua que lo atraviesa la energía suficiente como para salvar la
diferencia de altura entre los dos depósitos, lo que equivale de hecho a mantener constante la diferencia
de niveles del agua entre ambos depósitos aun a pesar del flujo continuo que los atraviese.
Para mantener una corriente eléctrica en un conductor es preciso que exista una diferencia de potencial
constante entre sus extremos; hace falta, pues, un dispositivo que juegue un papel análogo al de la
bomba en el circuito hidráulico. Dicho dispositivo recibe el nombre de generador.Una asociación de
conductores con un generador constituye un circuito eléctrico en donde puede tener lugar un
movimiento continuado de cargas. El generador mantiene constante la diferencia de potencial entre dos
puntos del circuito, o dicho en otros términos, genera un campo eléctrico en el conductor que es el
responsable de la corriente.
Fuerza electromotriz de un generador
La fuerza electromotriz es la magnitud que caracteriza el comportamiento del generador en un circuito
eléctrico. En el caso de una bomba hidráulica la potencia mecánica representa la energía que suministra
al circuito por unidad de tiempo. En los circuitos eléctricos se define la fuerza electromotriz de un
generador y se representa mediante la letra ε, como la energía que cede el generador al circuito por
11
Acreditalo ® Derechos Reservados
cada unidad de carga que lo atraviesa y que se invierte en incrementar su energía potencial eléctrica.
Cada carga al pasar por el generador recibe una dosis de energía que podrá gastar después en su
recorrido a lo largo del circuito. Con frecuencia, se emplean las iniciales f.e.m. para designar esta
magnitud, que siendo una energía se la denomina impropiamente fuerza. Según su definición la f.e.m.
se expresará en unidades de energía partido por unidades de carga. Este es también el caso de las
magnitudes potencial y diferencia de potencial. Por tal motivo su unidad en el SI es el volt.
Tipos de generadores
El tipo de generadores más conocido es el generador químico, al cual pertenece la pila eléctrica o pila
seca. Transforma energía producida en ciertas reacciones químicas en energía eléctrica capaz de
mantener una diferencia de potencial constante entre sus polos o bornes. Una pila cinc-carbón, como
las que se emplean para alimentar un aparato de radio portátil, está formada por dos elementos o
electrodos de diferentes sustancias. Uno es de cinc y tiene forma de envoltura cilíndrica, el otro es una
barrita de carbón. Entre ambos existe una pasta intermedia o electrolito que contribuye al proceso de
generación de tensión. La reacción química que se produce en el electrodo de cinc libera electrones,
con lo que éste se convierte en un polo negativo (cátodo); la que se produce en el electrodo de carbón
da lugar a una disminución de electrones, resultando de signo positivo (ánodo). La tensión producida por
una pila es constante y al aplicarla sobre un circuito eléctrico produce una corriente continua. Este tipo
de corriente se caracteriza porque el sentido del movimiento de los portadores de carga se mantiene
constante.
La pila de combustible es otro tipo de generador químico de uso frecuente en el suministro de energía
eléctrica a naves espaciales. Recibe este nombre porque las sustancias que participan en las
correspondientes reacciones químicas son, en parte, introducidas desde el exterior como si de un
combustible se tratara. Una pila de combustible típica es la que se basa en las reacciones hidrógenooxígeno que se producen con pérdida de electrones en un electrodo y ganancia en el otro, dando lugar a
una diferencia de potencial capaz de producir una corriente eléctrica exterior.
Un termopar es un generador termoeléctrico que transforma calor en electricidad. Se produce cuando
dos hilos conductores unidos entre sí por sus extremos respectivos se someten a una diferencia de
temperatura, sumergiendo una de las soldaduras en hielo fundente y aplicando a la otra la llama de un
mechero. Entre ambos puntos se genera una diferencia de potencial que aumenta con la temperatura y
puede detectarse con un aparato de medidas eléctricas. Dicho efecto generador de electricidad
conocido como efecto Seebeck se emplea principalmente en la medida de temperaturas.
La célula fotovoltaica es un generador que transforma la energía luminosa en energía eléctrica. Se basa
en la, capacidad de los semiconductores para conducir la electricidad en un sentido dado, pero no en el
opuesto. Al incidir la luz sobre la célula, arranca algunos electrones de sus átomos, electrones que se
acumulan en una región determinada a expensas de la pérdida de electrones en la región opuesta.
Estas dos regiones constituyen los polos negativo y positivo, respectivamente, de la célula cuya
diferencia de potencial se mantendrá constante en tanto no varíe la intensidad luminosa que alcanza su
superficie.
El generador electromagnético se basa en el fenómeno de la inducción electromagnética. Cuando un
conductor cerrado se hace girar en el seno del campo magnético producido por un imán se genera en su
interior una diferencia de potencial capaz de producir una corriente eléctrica. Es el tipo de generador
denominado alternador que se emplea en las grandes plantas de producción de energía eléctrica. En
ellas, diferentes formas de energía, cuya naturaleza depende del tipo de central, se invierten en mover
grandes bobinas de conductores, haciéndolas girar en el seno de campos magnéticos. De este modo se
producen tensiones eléctricas entre sus bornes cuya polaridad positiva/negativa, se invierte
alternativamente con el tiempo a razón de cincuenta veces en cada segundo. Cuando esta tensión se
aplica a un circuito eléctrico, produce en él una corriente alterna que se caracteriza por una inversión
alternativa, con idéntica frecuencia, del sentido del movimiento de los portadores de carga.
LA LEY DE OHM
Diferencia de potencial e intensidad de corriente
En un conductor el movimiento de cargas eléctricas es consecuencia de la existencia de una tensión
eléctrica entre sus extremos. Por ello la intensidad de corriente que circula por el conductor y la tensión
o diferencia de potencial deben estar relacionadas. Otros fenómenos de la física presentan una cierta
semejanza con la conducción eléctrica; así el flujo de calor entre dos puntos depende de la diferencia de
temperaturas entre ellos y la velocidad de caída de un cuerpo por un plano inclinado es función de la
diferencia de alturas. Ese tipo de analogías, y en particular la relativa a la conducción del calor, sirvió de
punto de partida al físico alemán Georg Simon Ohm (1787-1854) para investigar la conducción eléctrica
en los metales. En 1826 llegó a establecer que en los conductores metálicos el cociente entre la
diferencia de potencial entre sus extremos y la intensidad de corriente que lo atraviesa es una cantidad
constante, o en otros términos, que ambas magnitudes son directamente proporcionales. Esta relación
de proporcionalidad directa entre tensión e intensidad recibe el nombre de ley de Ohm. Representando,
como es habitual en electrocinética,la tensión eléctrica por V y no por Δ V, la ley de Ohm se puede
escribir en la forma:
I = G.V
(10.2)
12
Acreditalo ® Derechos Reservados
donde G es una constante característica de cada conductor que recibe el nombre de conductancia.
Curva característica de un conductor y concepto de resistencia
Se denomina curva característica I-V de un conductor a la línea que se obtiene cuando se representa
gráficamente la variación de la intensidad de corriente I que atraviesa un conductor con la diferencia de
potencial o tensión V aplicada entre sus extremos. Su forma es característica de cada conductor,de ahí
su nombre. La determinación experimental de una curva característica se efectúa mediante un montaje
que permita aplicar a los extremos de un conductor cualquiera una tensión variable y que a la vez haga
posible la medida tanto de la tensión aplicada como de la intensidad de corriente que constituye la
respuesta del conductor. Algunas curvas características I-V son lineales, lo que equivale a decir que en
sus conductores correspondientes ambas magnitudes eléctricas son directamente proporcionales. Esto
es lo que viene a establecer la ley de Ohm para los conductores metálicos.
En la curva característica I-V de un conductor metálico la pendiente de la gráfica coincide con la
constante de G que, de acuerdo con su definición, constituye una medida de la aptitud para la
conducción eléctrica del cuerpo considerado. Cuanto mayor sea G, mayor será la inclinación de la
característica I-V y, por tanto, mayor la intensidad que circulará por el conductor para una misma
diferencia de potencial. La inversa de la conductancia G se denomina resistencia eléctrica y se
representa por la letra R:
R = 1/G
Desde un punto de vista físico, la resistencia R de un conductor constituye una medida de la oposición
que presenta éste al paso de la corriente eléctrica. En los metales los electrones han de moverse a
través de los átomos de la estructura cristalina del propio metal. Tales obstáculos al movimiento libre de
las cargas contribuyen, en su conjunto, al valor de la resistencia R. La expresión (10.2) puede escribirse,
haciendo intervenir a la resistencia, en la forma:
V = I.R
(10.3)
que constituye la expresión más conocida de la ley de Ohm. A partir de la ecuación anterior se define el
ohm (Ω) como unidad de resistencia eléctrica en la forma:
1 ohm (Ω) = 1 volt (V)/1 ampere (A)
El hecho experimentalmente observado de que no todos los conductores posean características I-V
rectilíneas indica que no todos cumplen la ley de Ohm. Es ésta, por tanto, una ley de carácter restringido
que sólo puede aplicarse a cierto tipo de conductores llamados óhmicos. En los no óhmicos la
resistencia no tiene un valor constante, sino que éste depende de la tensión que se aplique entre los
extremos del conductor.
Resistividad y conductividad
Experimentos con hilos metálicos de diferentes longitudes y grosores llevaron a Ohm a establecer el
concepto de resistencia al observar que la intensidad I de corriente era inversamente proporcional a la
longitud l del conductor y directamente proporcional a su sección S o grosor. Cuando este
descubrimiento se combina con la relación de proporcionalidad inversa entre R e I resulta la relación:
R = ρ .l/s
(10.4)
donde ρ es una constante característica del tipo de metal que constituye el hilo conductor considerado.
Dicha constante se denomina resistividad y equivale a una resistencia específica referida a una longitud
y sección unidad. Se expresa en ohm x metro (Ω.m). La inversa de la resistividad recibe el nombre de
-1
-1
conductividad y se representa por la letra σ (σ = 1/ ρ) . Se expresa en Ω .m y caracteriza el
comportamiento de un material como conductor eléctrico. En los metales, σ toma valores del orden de
107 Ω-1.m-1 y en los aisladores típicos como el vidrio o la parafina alcanza 10-14 en el primer material y
107 Ω-1.m-1 en el segundo. Los materiales semiconductores presentan valores de σ intermedios.
El significado energético de la ley de Ohm
Dado que la diferencia de potencial V constituye una energía por unidad de carga, la ley de Ohm puede
ser interpretada en términos de energía. Las colisiones de los electrones en los metales con los nudos
de la red cristalina llevan consigo una disipación de energía eléctrica. Dicho fenómeno es el responsable
de la pérdida o caída de potencial V que se detecta, en mayor o menor medida, entre los extremos de
un conductor, e indica que cada unidad de carga pierde energía al pasar de uno a otro punto a razón de
V julios por cada coulomb de carga que lo atraviese.
Si se aplica el principio general de conservación de la energía a los fenómenos eléctricos, la ley de
Ohm, definida por la expresión (10.3), puede ser considerada como una ecuación de conservación en
donde el primer miembro representa la energía perdida en el circuito por cada unidad de carga en
movimiento y el segundo la energía cedida al exterior por cada coulomb que circula entre los puntos
considerados.
Comprobación experimental de la ley de ohm
Cuando entre los extremos de un conductor se establece una diferencia de potencial V, aparece en él
una corriente eléctrica de intensidad i que lo atraviesa. Dado que I es consecuencia de V, debe existir
una relación entre sus valores respectivos. Para conductores metálicos dicha relación es lineal o de
13
Acreditalo ® Derechos Reservados
proporcionalidad directa y constituye la ley de Ohm. La comprobación experimental de la ley de Ohm
pueda efectuarse con la ayuda de los siguientes medios: una fuente de f.e.m. cuya tensión de salida
pueda graduarse a voluntad, una resistencia metálica que hará las veces de conductor, problema cuyo
comportamiento se desea estudiar, un voltímetro,un amperímetro y cables de conexión.
Con la ayuda de un montaje determinado se modifica la tensión de salida de la fuente actuando sobre el
mando circular o potenciómetro. Para cada posición del potenciómetro se efectúan sendas lecturas en el
voltímetro y el amperímetro. Se ordenan las parejas de valores I/V correspondientes en una tabla y a
continuación se representan en una gráfica. Dentro del error experimental,los puntos de la gráfica se
ajustarán a una recta que pasa por el origen, indicando así una relación de proporcionalidad directa
entre intensidad y tensión. La obtención de tal relación lineal constituirá una comprobación de la ley de
Ohm.
LA SUPERCONDUCTIVIDAD
La superconductividad es una propiedad que presentan algunos materiales sometidos a ciertas
condiciones especiales, de conducir la electricidad sin oponer ninguna resistencia y, por tanto, sin
disipar energía por efecto Joule. Aun cuando el fenómeno de la superconductividad fue descubierto por
Onnes en 1911, hasta hace sólo unos años resultaba necesario, para conseguir tal propiedad, someter
a ciertos metales a temperaturas próximas al cero absoluto (- 273 °C). Investigaciones recientes han
conseguido sintetizar materiales de tipo cerámica capaces de convertirse en superconductores a
temperaturas mucho más altas. La desenfrenada carrera científica que se ha desatado en este campo
permite albergar la esperanza de conseguir, a corto plazo, materiales superconductores a temperaturas
muy próximas a la ambiente.
La importancia de este logro científico puede resultar decisiva en un buen número de aplicaciones
técnicas. Cabe destacar la posibilidad de fabricar electroimanes a base de superconductores con un
costa reducido, lo cual abarataría la construcción de algunos sofisticados aparatos de diagnóstico
médico que emplean potentes imanes, facilitaría la producción de la energía del futuro y permitiría
construir medios de transporte terrestre ultrarrápidos y económicos basados en la sustentación o
levitación magnética. Un tren experimental alemán de estas características ha conseguido una velocidad
de 406 km/h. Este tipo de trenes, al desplazarse sin entrar en contacto con el suelo, evitan los efectos
indeseables del rozamiento y equivalen a aviones que se muevan en vuelo rasante.
POTENCIA
Potencia y energía de un generador
La energía eléctrica We que suministra un generador al circuito eléctrico depende de la cantidad de
carga que lo atraviese. Dado que la fuerza electromotriz de un generador representa la energía que
suministra al circuito por cada unidad de carga que lo atraviesa, se podrá escribir:
Energía total suministrada = Energía x carga / carga
es decir:
We = q. ε
Pero de acuerdo con la definición de intensidad eléctrica,la carga eléctrica q se puede escribir como el
producto de la intensidad por el tiempo (10.1); luego la energía eléctrica suministrada por el generador al
circuito en un tiempo t vendrá dada por la expresión:
We = ε .i.t
(10.5)
La potencia P de un generador representa la energía eléctrica que cede al circuito por unidad de tiempo:
P = We/t
(10.6)
Combinando las anteriores ecuaciones resulta para P la expresión:
P = ε .i
(10.7)
Al igual que la potencia mecánica, la potencia eléctrica se expresa en watts (W).
Efectos caloríficos de la corriente eléctrica. Ley de Joule
El calentamiento de los conductores por el paso de la corriente eléctrica fue uno de los primeros efectos
observados por los científicos estudiosos de los fenómenos eléctricos,sin embargo, habría de pasar
algún tiempo antes de que se conociera la magnitud de tal efecto calorífico y los factores de los que
depende. James Prescott Joule (1818-1889) se interesó desde joven en la medida de temperaturas de
motores eléctricos,lo que le permitió hacia 1840 encontrar la ley que rige la producción de calor por el
paso de una corriente eléctrica a través de un conductor. La ley de Joule establece que la cantidad de
calor producida es directamente proporcional a la resistencia R del conductor, al cuadrado de la
intensidad de corriente I que lo atraviesa y al tiempo t. Es decir:
Q = I ².R.t
(10.8)
El efecto calorífico, también llamado efecto Joule, puede ser explicado a partir del mecanismo de
conducción de los electrones en un metal. La energía disipada en los choques internos aumenta la
14
Acreditalo ® Derechos Reservados
agitación térmica del material, lo que da lugar a un aumento de la temperatura y a la consiguiente
producción de calor. La ley de Joule, por su parte, puede ser enfocada como una consecuencia de la
interpretación energética de la ley de Ohm. Si I.R representa la energía disipada por cada unidad de
carga, la energía total que se disipa en el conductor en forma de calor, cuando haya sido atravesado por
una carga q, será:
Q = q.I.R
Pero dado que q = I.t, se tiene finalmente:
Q = I ².R.t
que es precisamente la ley de Joule. La potencia calorífica representa el calor producido en un
conductor en la unidad de tiempo. Su expresión se deduce a partir de la ley de Joule en la forma:
P = Q/t = i ².R.t/t = i ².R
(10.9)
Puesto que el calor es una forma de energía, se expresa en joules (J) y la potencia calorífica en watts
(W). Cuando se combinan las ecuaciones (10.9) y (10.3) resulta otra expresión para la potencia eléctrica
consumida en un conductor:
P = I.R.I = I.V
Fuerza electromotriz y diferencia de potencial
(10.10)
La noción de fuerza electromotriz de un generador como energía que comunica el circuito por cada
unidad de carga que lo atraviesa, está referida a un generador ideal o puro. En tal caso toda la energía
que produce el generador la cede íntegramente al circuito, por lo cual la fuerza electromotriz ε coincide
exactamente con la diferencia de potencial V constante que mantiene entre sus bornes:
ε=V
(10.11)
En realidad, una pila, una batería o un alternador son en sí mismos elementos conductores que forman
parte del circuito por donde pasa la corriente y en mayor o menor medida oponen, como tales, una cierta
resistencia al movimiento de las cargas. Ello significa que el generador, al formar parte del circuito, se
calienta y disipa, por tanto, una cierta cantidad de calor. La idea de balance de energía a la que equivale
la interpretación de la ley de Ohm en términos energéticos puede entonces extenderse al caso de un
generador con el propósito de encontrar la relación entre ε y V en esta nueva situación. Aplicando la
conservación de la energía por unidad de carga a los extremos del generador, se tiene:
Energía disponible por unidad de carga = Energía producida por el generador por unidad de carga Energía disipada por efecto Joule por unidad de carga
que en forma de símbolos resulta ser:
V = ε - i.r
(10.12)
Esta ecuación se conoce como ley de Ohm generalizada a un generador y permite determinar la
diferencia de potencial que es capaz de mantener entre sus bornes un generador real, esto es, con
resistencia interna r no despreciable.
Aplicación de la ley de joule
La ley de Joule permite calcular la energía disipada en forma de calor en un conductor. Su expresión
matemática es Q = I ².R.t, siendo R la resistencia en ohms, I la intensidad de corriente en amperios y t el
tiempo en segundos. Para elevar la temperatura del agua en 1 °C se necesitan 4,2 J por cada gramo.
Se trata de determinar, aplicando la ley de Joule,el valor de la resistencia eléctrica que debe tener un
calentador eléctrico para que, conectado a un enchufe de 220 V,sea capaz de elevar la temperatura de
un litro de agua de 15 °C a 80 °C en cinco minutos. La energía calorífica necesaria para elevar la
temperatura del agua de 15 °C a 80 °C será:
5
Q = 1 kg.(80 °C - 15 °c).4,2 J/kg °C = 2,73.10 .J
pues un litro de agua corresponde a un kilogramo de masa y 4,2 representa el calor en joules por gramo
y grado centígrado (calor específico). Dado que se dispone del valor de la tensión, pero no de la
Intensidad, será necesario transformar la ley de Joule de modo que en la fórmula correspondiente
aparezca aquélla y no ésta. Recurriendo a la ley de Ohm V = i.R se tiene:
Q = (V/R) ².R.t = V ².t/R
Despejando R y sustituyendo los valores conocidos resulta:
5
R = V ².t/Q = (220 V) ².300 s/2,73.10 J = 53,2.Ω
Aplicación del concepto de potencia eléctrica
En una bombilla ordinaria puede leerse la inscripción 60 W-220 V. Con estos datos se trata de
determinar: a) la intensidad de corriente que pasa por la bombilla cuando está conectada a la red. b) El
valor en Ω de su resistencia eléctrica. c) La energía eléctrica expresada en joules y en kW-h que
consume al cabo de dos horas de estar encendida.
15
Acreditalo ® Derechos Reservados
La potencia eléctrica P consumida en una resistencia puede expresarse bien en la forma P = I.V siendo I
la intensidad de corriente , V la caída de potencial entre sus extremos, bien en la forma P = I ². R que
combina la anterior ecuación con la ley de Ohm V = I.R.
a) El valor de la intensidad se obtiene a partir de la primera ecuación sustituyendo los datos que
aparecen grabados en la bombilla:
P = i.V
i = P/V = 60 W/220 V
0,27 A
b) El valor de la resistencia puede calcularse, bien utilizando la segunda expresión de la potencia, bien a
partir de la ley de Ohm:
V = i.R
R = V/i = V ²/P = (220 V) ²/60 W
807Ω
c) El valor de la energía eléctrica consumida en joules resulta de aplicar la noción de potencia como
energía por unidad de tiempo:
P = We/t
We = P.t
Dado que cada hora consta de 3 600 segundos, resulta:
5
We = 60.2.3600 = 4,32.10 .J
-
Recordando que 1 W = 10 ³ kW, el resultado en kW-h vendrá dado por:
We = 60.10-³.kW.2.h = 0,12.kW.h
Circuitos de corriente continua
Un circuito eléctrico está formado por la asociación de una serie de elementos conductores que hacen
posible el mantenimiento por su interior de una corriente eléctrica. Si los generadores producen una
diferencia de potencial constante entre sus bornes o polos, la corriente producida será continua. Tal es
el caso de las pilas y de las baterías.
En los circuitos de corriente continua pueden distinguirse básicamente dos tipos de elementos, los
generadores y los receptores. Los primeros aportan al circuito la energía necesaria para mantener la
corriente eléctrica, los segundos consumen energía eléctrica y, o bien la disipan en forma de calor,como
es el caso de las resistencias, o bien la convierten en otra forma de energía, como sucede en los
motores.
Una pila en un circuito eléctrico se representa mediante el símbolo:
que refleja la polaridad del generador. Una resistencia se representa por el símbolo:
Para simplificar el estudio, se supone que las magnitudes o parámetros característicos de estos
elementos se concentran en los puntos del circuito donde se representan. Así,la resistencia de los
cables de conexión o se desprecia o se supone concentrada en un punto como si se tratara de un
elemento de circuito más. El estudio cuantitativo de los circuitos eléctricos de corriente continua se
efectúa como una aplicación de dos principios básicos:
El principio de conservación de la energía referido a la unidad de carga eléctrica, según el cual en todo
el circuito, o en cualquier tramo de él, la energía que pierde la corriente eléctrica es igual a la energía
cedida por el circuito al exterior. Es, en esencia, la ley de Ohm generalizada e interpretada como
balance de energías.
El principio de no acumulación de cargas, que indica que las cargas no pueden acumularse. Eso
significa que si no hay bifurcaciones, la intensidad de corriente es la misma en todo el circuito, y si las
hay, la intensidad de corriente que entra en un nudo o punto de bifurcación ha de ser igual a la suma de
las que salen de él.
Tales principios se conocen también como leyes de Kirchhoff.
Asociación de resistencias
Existen dos modos fundamentales de conectar o asociar las resistencias entre sí, en serie y en paralelo
o derivación. En la asociación en serie las resistencias se conectan una tras otra de modo que por todas
ellas pasa la misma intensidad de corriente. En la asociación en paralelo la conexión se efectúa uniendo
los dos extremos de cada una de ellas a un mismo par de puntos. En este caso la diferencia de
potencial entre los extremos de cualquiera de las resistencias asociadas es la misma, pero, de acuerdo
con el principio de no acumulación de cargas, la intensidad total que llega al nudo o punto de bifurcación
se reparte entre ellas.
Se denomina resistencia equivalente de una asociación de resistencias a aquella resistencia única por la
que podría sustituirse la asociación sin alterar la intensidad que circula por el circuito. En el caso de una
asociación en serie de tres resistencias, la fórmula de la resistencia equivalente Re se obtiene como
sigue. De acuerdo con la ley de Ohm aplicada a cada una de ellas, se tiene:
V1 = I.R1 ; V2 = I.R2 ; V3 = I.R3
16
Acreditalo ® Derechos Reservados
donde V1, V2 y V3 son las tensiones entre sus extremos respectivos e I la intensidad de corriente que las
atraviesa, igual para todas ellas. De acuerdo con el principio de conservación de energía referido a la
unidad de carga, la cantidad total de energía que pierde la unidad de carga al atravesar las tres
resistencias será igual a la suma de las cantidades que pierde en cada resistencia, es decir:
V = V1 + V2 + V3 = IR1 + IR2 + IR3 = I.(R1 + R2 + R3)
Si la ley de Ohm se aplica a la asociación en su conjunto, se tiene: V = I.Re
Comparando ambas ecuaciones resulta:
e
= R1 + R2 + R3
(10.13)
Ecuación que puede generalizarse a cualquier número de resistencias.
Si la asociación fuera en paralelo, al llegar al nudo la corriente se reparte entre las diferentes
resistencias y, de acuerdo con el principio de no acumulación de cargas, se cumplirá, en este caso, la
relación
I = I1 + I2 + I3
con V1 = V2 = V3 = V
Aplicando la ley de Ohm a cada resistencia, resulta ahora:
V = I1.R1 ; V = I2.R2 ; V = I3.R3
Para la asociación en su conjunto se tendrá:
V = I.Re
Si se sustituyen los valores de I,I1, I2 e I3 en la ecuación de las intensidades se obtiene:
V/Re = V/R1 + V/R2 + V/R3
es decir:
1/Re = 1/R1 + 1/R2 + 1/R3
(10.14)
En este caso es la suma de los inversos la que da lugar,no a la resistencia equivalente, sino a su
inverso. Por tal motivo en este tipo de asociación el valor de la Re,resulta ser inferior al de la más
pequeña de las resistencias asociadas.
Análisis de circuitos
En el estudio del comportamiento de cualquiera de las partes o de los elementos de un circuito, se
precisa conocer cuál es la intensidad de corriente que circula por él. La determinación de la intensidad o
intensidades de corriente que circulan por todos y cada uno de los elementos de un circuito dado recibe
el nombre de análisis de circuito.
En el caso de circuitos simples con un solo generador, o con 1arios asociados en serie, es posible llevar
a término el análisis de circuitos aplicando de forma general los principios anteriormente considerados,
así como las fórmulas de asociación de resistencias. Sin embargo, cuando existen 1arios generadores
distribuidos por diferentes bifurcaciones o ramas el problema del análisis se complica y es preciso
recurrir a procedimientos más potentes y también más laboriosos.
Ejemplo del análisis de un circuito eléctrico: Con cuatro bombillas de 2, 3, 4 y 6 Ω de resistencia
eléctrica y una pila de 4,5 1 se monta un circuito como el de la figura. Se trata de: a) Analizar el circuito.
b) Determinar la diferencia de potencial entre los puntos A y B. c) Calcular la energía que cede la pila al
circuito en un minuto.
a) Analizar un circuito eléctrico significa determinar la intensidad, o intensidades, de corriente que
circulan por él. En circuitos con un solo generador (o con 1arios asociados en serie) el procedimiento
consta de las siguientes etapas:
1. Determinar la resistencia equivalente de todo el circuito. Ello equivale a convertirlo en otro equivalente
simplificado del tipo representado en la figura adjunta. En el presente caso se trata de una asociación
mixta serie-paralelo:
Re (serie) = R3 + R4 = 2 Ω + 4 Ω = 6 Ω
Re (paralelo) = R1.R2/(R1 + R2) = 6 Ω.3 Ω/(6 Ω + 3 Ω) = 2 Ω
pues
1/Re = 1/R1 + 1/R2
Re (total) = Re (serie) + Re(paralelo) = 6 Ω + 2 Ω
2. Aplicar la ley de Ohm al circuito equivalente simplificado:
ε = i.Re (total)
i = 4,5 V/8 Ω
i = ε /Re(total)
0,6 A
3. Si, como en el caso presente, el circuito presenta derivaciones, calcular las intensidades que circulan
por cada una de las ramas. De acuerdo con el principio de no acumulación de las cargas:
I = I1 + I2 es decir I1 + I2 = 0,6 A
17
Acreditalo ® Derechos Reservados
Dado que en toda asociación en paralelo los puntos de confluencia o nodos son los mismos, la tensión
entre ellos es la misma y, por tanto, aplicando la ley de Ohm, resulta:
1 = R1.I1 = R2.I2 es decir 3 Ω.I1 = 6 Ω.I2
Resolviendo el sistema de ecuaciones:
I1 + I2 = 0,6 A
3Ω.I1 = 6Ω.I2
resulta:
I1 = 0,4 A e I2 = 0,2 A
b) Una 1ez el circuito ha sido analizado es posible responder a cualquier otra pregunta sobre el mismo.
La diferencia de potencial entre A y B se calcula efectuando un balance de energía por unidad de carga.
Cuando una carga unidad procedente de B pasa por la pila recibe ε joules de energía y al pasar por la
resistencia R3 pierde I.R3, luego el balance total será:
VB - VA = ε - l.R3
es decir: V BA = 4,5 V - 2 Ω.0,6 A = 3,3 V
c) La energía que cede el generador al circuito en un tiempo t viene dada, de acuerdo con el concepto
de potencia, por el producto de la potencia del generador por el tiempo:
Ee = P.t = ε .I.t = 4,5 V.0,6 A.60 s = 162 J
ELECTRODINAMICA
Resolver:
1) Se requiere una fuerza de 0,01 N para sostener una carga de 12 μ C,calcule la intensidad del campo
eléctrico.
Resolución:
-2
datos: F = 0,01 N = 10 N
q = 12 μ C = 1,2.10-5 C
E = F/q
E = 10-2 N/1,2.10-5 C
E = 833,33 N/C
2) ¿Cuánto trabajo se requiere para transportar una carga de 12 C de un punto a otro cuando la
diferencia de potencial entre ellos es de 500 V?.
Resolución:
datos: q = 12 C
V = 500 V
V = L/q
L = V.q
L = 500 V.12 C
L = 6000 J
3) Se requiere un trabajo de 600 J para transportar una carga de 60 C desde una terminal a otra de una
batería. ¿Cuál es la diferencia de potencial entre los terminales?.
Resolución:
datos: q = 60 C
L = 600 J
V = L/q
V = 600 J/60 C
V = 10 V
4) En una batería la diferencia de potencial entre bornes es de 6,3 V. ¿Cuánto trabajo se requiere para
transportar 12 C entre terminales?.
Resolución:
datos: q = 12 C
V = 6,3 V
V = L/q
L = V.q
L = 6,3 V.12 C
L = 75,6 J
5)
a) ¿Cuál es la intensidad del campo eléctrico en un punto colocado a la mitad entre una carga positiva
de 100 μ C y una negativa de 50 μ C separadas 20 cm?.
b) ¿Y si ambas fueran negativas de 50 μ C?.
Resolución:
datos: q1 = 100 μ C = 10-4 C
q2 = -50 μ C = -5.10-5 C
-1
r = 20 cm = 2.10 m
18
Acreditalo ® Derechos Reservados
rm = 2.10-1 m/2
rm = r/2
rm = 10-1 m
a) F1 = k0.q1.q/rm ² y F2 = k0.q2.q/rm ²
E = F/q
E = (F1 + F2)/q
9
E = (k0.q1.q/rm ² + k0.q2.q/rm ²)/q E = q.k0.(q1 + q2)/q.rm ²
-4
-5
-1
E = 9.10 (Nm ²/C ²).(10 C - 5.10 C)/(10 m) ²
N/C
9
-5
E = k0.(q1 + q2)/rm ²
-2
E = 9.10 (Nm ²/C ²).5.10 C/10 m ²
E = 4,5.107
b) si q1 = q2 = -5.10-5 C
E = k0.(q1 + q2)/rm ²
9
E = k0.2.q1/rm ²
-4
-2
E = -9.10 (Nm ²/C ²).10 C/10 m ²
E = 9.109 (Nm ²/C ²).2.(- 5.10-5 C)/(10-1 m) ²
E = -9.107 N/C
6) Tres capacitores de 2, 3 y 6 μ F se conectan en serie a una fuente de 10 V.
a) Encuentre el número de μ C de carga de cada uno.
b) Calcule la caída de tensión en cada capacitor.
Resolución:
datos: C1 = 2 μ F
C2 = 3 μ F
C3 = 6 μ F
V = 10 V
a) C = q/V
q = C.V
q1 = C1.V
q1 = 2 μ F.10 V
q1 = 20 μ C
q2 = C2.V
q2 = 3 μ F.10 V
q2 = 30 μ C
q3 = C3.V
q3 = 6 μ F.10 V
q3 = 60 μ C
b) 1/C = 1/C1 + 1/ C2 + 1/C3
1/C = 6 μ F/6 μ F ²
q = C.V
1/C = 1/2 μ F + 1/3 μ F + 1/6 μ F
1/C =1/ μ F
q = 1 μ F.10 V
1/C = (3 μ F + 2 μ F + 1 μ F)/6 μ F ²
C=1μF
q = 10 μ C
V = q/C
V1 = q/C1
V1 = 10 μ C/2 μ F
V1 = 5 V
V2 = q/C2
V2 = 10 μ C/3 μ F
V2 = 3,33 V
V3 = q/C3
V3 = 10 μ C/6 μ F
V3 = 1,66 V
7) Encuentre la capacitancia, expresada en μ F de un capacitor que tiene 240 μ C con una batería de
120 V.
Resolución:
datos: q = 240 μ C
V = 120 V
C = q/V
C = 240 μ C/120 V
C=2μF
8) Encuentre la capacitancia, expresada en Faradios, de un capacitor que fue construido pegando una
hoja de papel de estaño en ambos lados de una de papel de parafina de área 625 cm ² y de espesor s =
0,0025 cm.
Resolución:
-2
datos: A = 625 cm ² = 6,25.10 m ²
s = 0,0025 cm = 2,5.10-5 m
C = Κ.ε0.A/s
C = 2,1.8,85415.10-12 (C ²/Nm ²). 6,25.10-2 m ²/2,5.10-5 m
C = 4,65.10-8 C ²/Nm
-8
C = 4,65.10 F
9) Un capacitor de placas paralelas separadas una distancia s = 0,02 m está sometido a una tensión de
200 V.
a) Encuentre la intensidad del campo eléctrico entre placas, expresada en V/cm y en N/C.
b) Encuentre la aceleración de un protón (H+) en ese campo, sabiendo que mH+ =3,32.10-27 kg y qH+ =
1,06.10-13 C.
19
Acreditalo ® Derechos Reservados
Resolución:
datos: s = 0,02 m
V = 200 V
+
-27
mH = 3,32.10 kg
qH+ = 1,06.10-13 C
a) E = -V/s
E = 200 V/0,02 m
E = 10000 (V/m).1 m/100 cm
E = 10000 V/m
E = 10000 V/m
E = 100 V/cm
E = 10000 (N.m/C)/m
b) E = F/q
F = q.E y F = m.a
q.E = m.a
a = q.E/m
a = 1,06.10
-13
E = 10000 N/C
C.10000 (N/C)/3,32.10-27 kg
a = 3,193.1017 m/s ²
Resolver:
1) Por un conductor pasa una corriente de 120 C en 3 minutos. ¿Cuál es la intensidad de la corriente en
A y mA?.
Respuesta: 0,66 A y 660 mA
2) Por un conductor circula una corriente eléctrica de 10 A durante 10 minutos. ¿Cuál es la carga
eléctrica correspondiente?.
Respuesta: 6000 C
3) En el caso del problema anterior, ¿cuantas ues(q) y cuantos electrones circularon por el conductor?.
12
Respuesta: 18.10
22
ues(q) y 36.10
electrones
4) ¿Cuál es la caída de tensión que se produce en un conductor cuando circula por él una corriente de
25 A y su resistencia es de 12 Ω?.
Respuesta: 300 V
5) Una corriente de 20 A circula por un conductor de 50 m de longitud y 0,1 mm ² de sección, ¿cuál es la
tensión si el conductor es de aluminio?.
Respuesta: 256 V
6) Calcular la intensidad de una corriente sabiendo que la carga eléctrica es de 3000 C y el tiempo que
dura el pasaje es de 5 minutos.
Respuesta: 10 A
7) Por un conductor circulan durante ¼ de hora 54.1022 electrones,calcular la intensidad de esa
corriente.
Respuesta: 10 A
8) Por un conductor circula una corriente eléctrica de 10 A durante 10 minutos. ¿Cuál es la carga
eléctrica correspondiente?.
Respuesta: 6000 C
9) En el caso del problema anterior ¿cuántas ues(q) y cuántos electrones circularon por el conductor?.
Respuesta: 18.1012 ues(q) y 36.1022 e
10) Por un conductor de 8 Ωde resistencia circula una corriente de 6 A, ¿cuál es la tensión de esa
corriente?.
Respuesta: 480 V
11) La intensidad de una corriente es de 25 A, si la tensión es de 220 V, ¿cuál es la resistencia del
conductor?.
Respuesta: 8,8 Ω
12) ¿Cuál es la diferencia de potencial que debe aplicarse a un conductor de 110 Ωde resistencia para
que la intensidad sea de 4 A?.
Respuesta: 440 V
13) ¿Cuál es la caída de tensión que se produce en un conductor cuando circula por él una corriente de
25 A y su resistencia es de 12 Ω?.
Respuesta: 300 V
14) ¿Qué cantidad de electricidad en Coulomb habrá pasado por un conductor en ½ hora, si la
intensidad de la corriente es de 15 A?.
Respuesta: 27000 C
15) En el caso del problema anterior ¿cuántas ues(q) y cuántos electrones circularon por el conductor?.
Respuesta: 81.1012 ues(q) y 164.1022
20
Acreditalo ® Derechos Reservados
FISICA – HIDRODINAMICA
DINAMICA DE FLUIDOS O HIDRODINAMICA
Esta rama de la mecánica de fluidos se ocupa de las leyes de los fluidos en movimiento; estas leyes son
enormemente complejas, y aunque la hidrodinámica tiene una importancia práctica mayor que la
hidrostática,sólo podemos tratar aquí algunos conceptos básicos.
Euler fue el primero en reconocer que las leyes dinámicas para los fluidos sólo pueden expresarse de
forma relativamente sencilla si se supone que el fluido es incompresible e ideal, es decir, si se pueden
despreciar los efectos del rozamiento y la viscosidad. Sin embargo, como esto nunca es así en el caso
de los fluidos reales en movimiento, los resultados de dicho análisis sólo pueden servir como estimación
para flujos en los que los efectos de la viscosidad son pequeños.
a) Flujos incompresibles y sin rozamiento
Estos flujos cumplen el llamado teorema de Bernoulli, que afirma que la energía mecánica total de un
flujo incompresible y no viscoso (sin rozamiento) es constante a lo largo de una línea de corriente. Las
líneas de corriente son líneas de flujo imaginarias que siempre son paralelas a la dirección del flujo en
cada punto, y en el caso de flujo uniforme coinciden con la trayectoria de las partículas individuales de
fluido. El teorema de Bernoulli implica una relación entre los efectos de la presión, la velocidad y la
gravedad, e indica que la velocidad aumenta cuando la presión disminuye. Este principio es importante
para predecir la fuerza de sustentación de un ala en vuelo.
Ecuación de continuidad: (para flujo estacionario e incompresible, sin fuentes ni sumideros, por
evaluarse a lo largo de una línea de corriente).
1) Ley de conservación de la masa en la dinámica de los fluidos:
A1.v1 = A2.v2 = constante.
Recordar que p = F/A
F = p.A
Flujo de volúmen: (caudal).
Φ = A .v [m ³/s]
Ecuación de Bernoulli: (principio de conservación de la energía) para flujo ideal (sin fricción).
p1 + δ.v1 ²/2 + δ.g.h1 = p2 + δ.v2 ²/2 + δ.g.h2 = constante
p1/δ + v1 ²/2 + g.h1 = p2/δ + v2 ²/2 + g.h2
p/ δ = energía de presión por unidad de masa.
g.h = energía potencial por unidad de masa.
v ²/2 = energía cinética por unidad de masa.
Ecuación de Bernoulli para flujo en reposo: v1 = v2 = 0
p1 + δ.g.h1 = p2 + δ.g.h2
b) Flujos viscosos: movimiento laminar y turbulento
Los primeros experimentos cuidadosamente documentados del rozamiento en flujos de baja velocidad a
través de tuberías fueron realizados independientemente por Poiseuille y por Gotthilf Heinrich Ludwig
Hagen. El primer intento de incluir los efectos de la viscosidad en las ecuaciones matemáticas se debió
a Navier e, independientemente, a Sir George Gabriel Stokes, quien perfeccionó las ecuaciones básicas
para los fluidos viscosos incompresibles. Actualmente se las conoce como ecuaciones de Navier-
21
Acreditalo ® Derechos Reservados
Stokes, y son tan complejas que sólo se pueden aplicar a flujos sencillos. Uno de ellos es el de un fluido
real que circula a través de una tubería recta.
El teorema de Bernoulli no se puede aplicar aquí,porque parte de la energía mecánica total se disipa
como consecuencia del rozamiento viscoso, lo que provoca una caída de presión a lo largo de la
tubería. Las ecuaciones sugieren que, dados una tubería y un fluido determinados, esta caída de
presión debería ser proporcional a la velocidad de flujo. Los experimentos demostraron que esto sólo
era cierto para velocidades bajas; para velocidades mayores, la caída de presión era más bien
proporcional al cuadrado de la velocidad.
Este problema se resolvió cuando Reynolds demostró la existencia de dos tipos de flujo viscoso en
tuberías. A velocidades bajas, las partículas del fluido siguen las líneas de corriente (flujo laminar), y los
resultados experimentales coinciden con las predicciones analíticas. A velocidades más elevadas,
surgen fluctuaciones en la velocidad del flujo, o remolinos (flujo turbulento), en una forma que ni siquiera
en la actualidad se puede predecir completamente.
Reynolds también determinó que la transición del flujo laminar al turbulento era función de un único
parámetro, que desde entonces se conoce como número de Reynolds. Si el número de Reynolds (que
carece de dimensiones y es el producto de la velocidad, la densidad del fluido y el diámetro de la tubería
dividido entre la viscosidad del fluido) es menor de 2.000, el flujo a través de la tubería es siempre
laminar; cuando los valores son mayores a 3000 el flujo es turbulento. El concepto de número de
Reynolds es esencial para gran parte de la moderna mecánica de fluidos.
Los flujos turbulentos no se pueden evaluar exclusivamente a partir de las predicciones calculadas, y su
análisis depende de una combinación de datos experimentales y modelos matemáticos; gran parte de la
investigación moderna en mecánica de fluidos está dedicada a una mejor formulación de la turbulencia.
Puede observarse la transición del flujo laminar al turbulento y la complejidad del flujo turbulento cuando
el humo de un cigarrillo asciende en aire muy tranquilo. Al principio, sube con un movimiento laminar a
lo largo de líneas de corriente, pero al cabo de cierta distancia se hace inestable y se forma un sistema
de remolinos entrelazados.
Ecuación de Bernoulli para flujo real (con fricción)
p1/δ + v1 ²/2 + g.h1 = p2/δ + v2 ²/2 + g.h2 + H0
H0 = perdida de energía por rozamiento desde 1 hasta 2.
c) Flujos de la capa límite
Los flujos pueden separarse en dos regiones principales. La región próxima a la superficie está formada
por una delgada capa límite donde se concentran los efectos viscosos y en la que puede simplificarse
mucho el modelo matemático. Fuera de esta capa límite, se pueden despreciar los efectos de la
viscosidad, y pueden emplearse las ecuaciones matemáticas más sencillas para flujos no viscosos.
La teoría de la capa límite ha hecho posible gran parte del desarrollo de las alas de los aviones
modernos y del diseño de turbinas de gas y compresores.
d) Flujos compresibles
El interés por los flujos compresibles comenzó con el desarrollo de turbinas de vapor por el británico
Parsons y el sueco Laval. En esos mecanismos se descubrió por primera vez el flujo rápido de vapor a
través de tubos, y la necesidad de un diseño eficiente de turbinas llevó a una mejora del análisis de los
flujos compresibles. El interés por los flujos de alta velocidad sobre superficies surgió de forma temprana
en los estudios de balística,donde se necesitaba comprender el movimiento de los proyectiles.
Uno de los principios básicos del flujo compresible es que la densidad de un gas cambia cuando el gas
se ve sometido a grandes cambios de velocidad y presión. Al mismo tiempo, su temperatura también
cambia, lo que lleva a problemas de análisis más complejos. El comportamiento de flujo de un gas
compresible depende de si la velocidad de flujo es mayor o menor que la velocidad del sonido.
El sonido es la propagación de una pequeña perturbación, u onda de presión, dentro de un fluido. Para
un gas, la velocidad del sonido es proporcional a la raíz cuadrada de su temperatura absoluta. La
velocidad del sonido en el aire a 20 °C (293 Kelvin en la escala absoluta), es de unos 344 metros por
segundo. Si la velocidad de flujo es menor que la velocidad del sonido (flujo subsónico),las ondas de
presión pueden transmitirse a través de todo el fluido y así adaptar el flujo que se dirige hacia un objeto.
Por tanto, el flujo subsónico que se dirige hacia el ala de un avión se ajustará con cierta distancia de
antelación para fluir suavemente sobre la superficie. En el flujo supersónico, las ondas de presión no
pueden viajar corriente arriba para adaptar el flujo. Por ello, el aire que se dirige hacia el ala de un avión
en vuelo supersónico no está preparado para la perturbación que va a causar el ala y tiene que cambiar
de dirección repentinamente en la proximidad del ala, lo que conlleva una compresión intensa u onda de
choque. El ruido asociado con el paso de esta onda de choque sobre los observadores situados en
tierra constituye el estampido sónico de los aviones supersónicos. Frecuentemente se identifican los
flujos supersónicos por su número de Mach, que es el cociente entre la velocidad de flujo y la velocidad
del sonido. Por tanto, los flujos supersónicos tienen un número de Mach superior a 1.
Viscosidad
Propiedad de un fluido que tiende a oponerse a su flujo cuando se le aplica una fuerza. Los fluidos de
alta viscosidad presentan una cierta resistencia a fluir; los fluidos de baja viscosidad fluyen con facilidad.
22
Acreditalo ® Derechos Reservados
La fuerza con la que una capa de fluido en movimiento arrastra consigo a las capas adyacentes de
fluido determina su viscosidad, que se mide con un recipiente (viscosímetro) que tiene un orificio de
tamaño conocido en el fondo. La velocidad con la que el fluido sale por el orificio es una medida de su
viscosidad.
La viscosidad de un fluido disminuye con la reducción de densidad que tiene lugar al aumentar la
temperatura. En un fluido menos denso hay menos moléculas por unidad de volumen que puedan
transferir impulso desde la capa en movimiento hasta la capa estacionaria. Esto, a su vez, afecta a la
velocidad de las distintas capas. El momento se transfiere con más dificultad entre las capas, y la
viscosidad disminuye. En algunos líquidos, el aumento de la velocidad molecular compensa la reducción
de la densidad. Los aceites de silicona, por ejemplo, cambian muy poco su tendencia a fluir cuando
cambia la temperatura, por lo que son muy útiles como lubricantes cuando una máquina está sometida a
grandes cambios de temperatura.
TENSION SUPERFICIAL
El efecto de las fuerzas intermoleculares es de tirar las moléculas hacia el interior de la superficie de un
liquido, manteniéndolas unidas y formando una superficie lisa. La tensión superficial mide las fuerzas
internas que hay que vencer para poder expandir el área superficial de un liquido. La energía necesaria
para crear una mueva área superficial, trasladando las moléculas de la masa liquida a la superficie de la
misma, es lo que se llama tensión superficial. A mayor tensión superficial, mayor es la energía necesaria
para transformar las moléculas interiores del liquido a moléculas superficiales. El agua tiene una alta
tensión superficial, por los puentes de hidrogeno.
1.- Para hacer el primer experimento necesitas una aguja de coser bien seca, un Tenedor y un Vaso
lleno con agua de la canilla hasta un centímetro de su borde superior. Coloca la Aguja sobre los dientes
del Tenedor y, con estos en posición horizontal, sumergirlos con cuidado y lentamente en el Vaso con
agua. Cuando la Aguja toque el agua retira con cuidado tenedor del vaso sin tocar la aguja. La Aguja
flotará aún después de retirado el Tenedor. Si observas de cerca la superficie del agua verás como esta
parece hundirse por el peso de la Aguja.
2.- Para realizar el segundo experimento necesitas un Vaso, un Plato hondo, Agua y algunas Monedas.
Apoya el Vaso en el Plato hondo. Seca con un repasador los bordes del mismo. Llena el Vaso con Agua
hasta el ras sin que se derrame en el Plato ni una gota. Luego, con cuidado y por el borde del Vaso,
introducir en el Vaso las monedas de a una hasta que el Agua del Vaso desborde. Observarás, que
antes de que desborde el Agua, esta puede llenar el Vaso algunos milímetros más debido al fenómeno
de la Tensión Superficial.
3.- Para realizar el tercer Experimento necesitas una Brocha de Pintor y un Recipiente con Agua. Si
observas primero la Brocha cuando las cerdas están secas apreciarás que las mismas aparecen más
bien separadas.
Al sumergir la Brocha en el Recipiente con Agua observarás que las cerdas tienden a juntarse debido a
la Tensión Superficial.
BALANCES MACROSCOPICOS
BALANCE DE MASA
∂/∂t ∫v ρ.dv = ρ2.<v2>.A2 - ρ1.<v1>.A1
BALANCE DE CANTIDAD DE MOVIMIENTO
∂/∂t ∫v ρ.v.dv = -Δ.(ρ.<v ²>.A + p.A) + F + p
Estado estacionario:
F = Δ(ρ .<v ²>.A + p.A)
Si
Perfiles planos turbulentos:
∂/∂t ∫v ρ.v.dv = -Δ.(<v>.G + p.A) + F + p
BALANCE DE ENERGIA TOTAL
Estado estacionario:
23
Acreditalo ® Derechos Reservados
Perfiles planos turbulentos:
<v³>/<v> = <v ²> = <v> ²
BALANCE DE ENERGIA MECANICA
Wf: pérdidas por fricción.
Estado estacionario:
W/G.g: Energía/masa
Expresado en metros:
Altura desarrollada: Δ(< v ² >/2.g) = Hb
Altura geométrica: Δz = Hg
Altura de presión: Δ(p/ ρ .g) = Hp
Potencia de la bomba: Pb = HT.Q. ρ .g/ η
FISICA – INERCIA
Resolver:
1) ¿Cuál será la aceleración de la gravedad en un lugar donde el péndulo cumple una oscilación en 1,2
s, si su longitud es de 0,357 m?.
Respuesta: 9,8024 m/s ².
2) En un mismo lugar, dos péndulos oscilan empleando 2 y 4 s, respectivamente, ¿cuántas veces es
más largo el segundo que el primero?.
Respuesta: 4 veces.
3) Un reloj de péndulo que está en La Plata es llevado hasta Tierra del Fuego, si la aceleración de la
gravedad en La Plata es de 9,79 m/s ² y en Tierra del Fuego es de 9,82 m/s ², ¿atrasa o adelanta?,
¿cuánto?.
Respuesta: atrasa 0,081 s.
4) Calcular la aceleración de la gravedad en un lugar donde un péndulo de 2 m posee un período de
2,84 s.
Respuesta: 9,77 m/s ².
Responder:
1) ¿Qué entiende por volante?.
2) En las rotaciones, ¿se cumple el principio de inercia?, ¿cómo lo enuncia?.
3) ¿Qué es la cupla de arranque y frenado?.
4) ¿Qué es período, frecuencia y amplitud en el movimiento pendular?.
5) ¿Cuáles son las leyes del péndulo?, exprese su enunciado.
6) ¿Qué es péndulo de torsión?.
7) ¿Cuál es el tiempo de oscilación del péndulo?
FISICA - ELECTROMAGNETISMO
24
Acreditalo ® Derechos Reservados
OPTICA
Rama de la física que se ocupa de la propagación y el comportamiento de la luz. En un sentido amplio,
la luz es la zona del espectro de radiación electromagnética que se extiende desde los rayos X hasta las
microondas, e incluye la energía radiante que produce la sensación de visión. El estudio de la óptica se
divide en dos ramas, la óptica geométrica y la óptica física.
Naturaleza de la luz
La energía radiante tiene una naturaleza dual, y obedece a leyes que pueden explicarse a partir de una
corriente de partículas o paquetes de energía, los llamados fotones, o a partir de un tren de ondas
transversales (Movimiento ondulatorio). El concepto de fotón se emplea para explicar las interacciones
de la luz con la materia que producen un cambio en la forma de energía, como ocurre con el efecto
fotoeléctrico o la luminiscencia. El concepto de onda suele emplearse para explicar la propagación de la
luz y algunos de los fenómenos de formación de imágenes. En las ondas de luz, como en todas las
ondas electromagnéticas, existen campos eléctricos y magnéticos en cada punto del espacio, que
fluctúan con rapidez. Como estos campos tienen, además de una magnitud,una dirección determinada,
son cantidades vectoriales. Los campos eléctrico y magnético son perpendiculares entre sí y también
perpendiculares a la dirección de propagación de la onda. La onda luminosa más sencilla es una onda
senoidal pura, llamada así porque una gráfica de la intensidad del campo eléctrico o magnético trazada
en cualquier momento a lo largo de la dirección de propagación sería la gráfica de un seno.
La luz visible es sólo una pequeña parte del espectro electromagnético. En el espectro visible, las
diferencias en longitud de onda se manifiestan como diferencias de color. El rango visible va desde,
aproximadamente, 350 nanómetros (violeta) hasta unos 750 nanómetros (rojo), un nanómetro, nm, es
una milmillonésima de metro. La luz blanca es una mezcla de todas las longitudes de onda visibles.
La velocidad de la luz en las sustancias materiales es menor que en el vacío, y varía para las distintas
longitudes de onda; este efecto se denomina dispersión. La relación entre la velocidad de la luz en el
vacío y la velocidad de una longitud de onda determinada en una sustancia se conoce como índice de
refracción de la sustancia para dicha longitud de onda. El índice de refracción del aire es 1,00029 y
apenas varía con la longitud de onda. En la mayoría de las aplicaciones resulta suficientemente preciso
considerar que es igual a 1.
Las leyes de reflexión y refracción de la luz suelen deducirse empleando la teoría ondulatoria de la luz
introducida. El principio de Huygens afirma que todo punto en un frente de ondas inicial puede
considerarse como una fuente de ondas esféricas secundarias que se extienden en todas las
direcciones con la misma velocidad, frecuencia y longitud de onda que el frente de ondas del que
proceden. Con ello puede definirse un nuevo frente de onda que envuelve las ondas secundarias. Como
la luz avanza en ángulo recto a este frente de ondas, el principio de Huygens puede emplearse para
deducir los cambios de dirección de la luz.
Cuando las ondas secundarias llegan a otro medio u objeto, cada punto del límite entre los medios se
convierte en una fuente de dos conjuntos de ondas. El conjunto reflejado vuelve al primer medio, y el
conjunto refractado entra en el segundo medio. El comportamiento de los rayos reflejados y refractados
puede explicarse por el principio de Huygens. Es más sencillo, y a veces suficiente, representar la
propagación de la luz mediante rayos en vez de ondas. El rayo es la línea de avance, o dirección de
propagación, de la energía radiante. En la óptica geométrica se prescinde de la teoría ondulatoria de la
luz y se supone que la luz no se difracta. La trayectoria de los rayos a través de un sistema óptico se
determina aplicando las leyes de reflexión y refracción.
Optica física
Esta rama de la óptica se ocupa de aspectos del comportamiento de la luz tales como su emisión,
composición o absorción, así como de la polarización, la interferencia y la difracción.
Polarización de la luz
Los átomos de una fuente de luz ordinaria emiten pulsos de radiación de duración muy corta. Cada
pulso procedente de un único átomo es un tren de ondas prácticamente monocromático (con una única
longitud de onda). El vector eléctrico correspondiente a esa onda no gira en torno a la dirección de
propagación de la onda, sino que mantiene el mismo ángulo, o acimut, respecto a dicha dirección. El
ángulo inicial puede tener cualquier valor. Cuando hay un número elevado de átomos emitiendo luz, los
ángulos están distribuidos de forma aleatoria, las propiedades del haz de luz son las mismas en todas
direcciones, y se dice que la luz no está polarizada. Si los vectores eléctricos de todas las ondas tienen
el mismo ángulo acimutal (lo que significa que todas las ondas transversales están en el mismo plano),
se dice que la luz está polarizada en un plano, o polarizada linealmente.
Cualquier onda electromagnética puede considerarse como la suma de dos conjuntos de ondas: uno en
el que el vector eléctrico vibra formando ángulo recto con el plano de incidencia y otro en el que vibra de
forma paralela a dicho plano. Entre las vibraciones de ambas componentes puede existir una diferencia
de fase, que puede permanecer constante o variar de forma constante. Cuando la luz está linealmente
polarizada, por ejemplo, esta diferencia de fase se hace 0 o 180°. Si la relación de fase es aleatoria,
pero una de las componentes es más intensa que la otra, la luz está en parte polarizada. Cuando la luz
25
Acreditalo ® Derechos Reservados
es dispersada por partículas de polvo, por ejemplo, la luz que se dispersa en un ángulo de 90° con la
trayectoria original del haz está polarizada en un plano, lo que explica por qué la luz procedente del cenit
está marcadamente polarizada.
Para ángulos de incidencia distintos de 0 o 90°, la proporción de luz reflejada en el límite entre dos
medios no es igual para ambas componentes de la luz. La componente que vibra de forma paralela al
plano de incidencia resulta menos reflejada. Cuando la luz incide sobre un medio no absorbente con el
denominado ángulo de Brewster, la parte reflejada de la componente que vibra de forma paralela al
plano de incidencia se hace nula. Con ese ángulo de incidencia, el rayo reflejado es perpendicular al
rayo refractado; la tangente de dicho ángulo de incidencia es igual al cociente entre los índices de
refracción del segundo medio y el primero.
Algunas sustancias son anisotrópicas, es decir, muestran propiedades distintas según la dirección del
eje a lo largo del cual se midan. En esos materiales, la velocidad de la luz depende de la dirección en
que ésta se propaga a través de ellos. Algunos cristales son birrefringentes, es decir, presentan doble
refracción. A no ser que la luz se propague de forma paralela a uno de los ejes de simetría del cristal (un
eje óptico del cristal), la luz se separa en dos partes que avanzan con velocidades diferentes. Un cristal
uniáxico tiene uno de estos ejes. La componente cuyo vector eléctrico vibra en un plano que contiene el
eje óptico es el llamado rayo ordinario; su velocidad es la misma en todas las direcciones del cristal, y
cumple la ley de refracción de Snell. La componente que vibra formando un ángulo recto con el plano
que contiene el eje óptico constituye el rayo extraordinario, y la velocidad de este rayo depende de su
dirección en el cristal. Si el rayo ordinario se propaga a mayor velocidad que el rayo extraordinario, la
birrefringencia es positiva; en caso contrario la birrefringencia es negativa.
Cuando un cristal es biáxico, la velocidad depende de la dirección de propagación para todas las
componentes. Se pueden cortar y tallar los materiales birrefringentes para introducir diferencias de fase
específicas entre dos grupos de ondas polarizadas, para separarlos o para analizar el estado de
polarización de cualquier luz incidente. Un polarizador sólo transmite una componente de la vibración,
ya sea reflejando la otra mediante combinaciones de prismas adecuadamente tallados o absorbiéndola.
El fenómeno por el que un material absorbe preferentemente una componente de la vibración se
denomina dicroísmo. El material conocido como Polaroid presenta dicroísmo; está formado por
numerosos cristales dicroicos de pequeño tamaño incrustados en plástico, con todos sus ejes
orientados de forma paralela. Si la luz incidente es no polarizada, el Polaroid absorbe aproximadamente
la mitad de la luz. Los reflejos de grandes superficies planas, como un lago o una carretera mojada,
están compuestos por luz parcialmente polarizada, y un Polaroid con la orientación adecuada puede
absorberlos en más de la mitad. Este es el principio de las gafas o anteojos de sol Polaroid.
Los llamados analizadores pueden ser físicamente idénticos a los polarizadores. Si se cruzan un
polarizador y un analizador situados consecutivamente, de forma que el analizador esté orientado para
permitir la transmisión de las vibraciones situadas en un plano perpendicular a las que transmite el
polarizador, se bloqueará toda la luz procedente del polarizador.
Las sustancias ópticamente activas giran el plano de polarización de la luz linealmente polarizada. Un
cristal de azúcar o una solución de azúcar, pueden ser ópticamente activos. Si se coloca una solución
de azúcar entre un polarizador y un analizador cruzados tal como se ha descrito antes, parte de la luz
puede atravesar el sistema. El ángulo que debe girarse el analizador para que no pase nada de luz
permite conocer la concentración de la solución. El polarímetro se basa en este principio.
Algunas sustancias (como el vidrio y el plástico) que no presentan doble refracción en condiciones
normales pueden hacerlo al ser sometidas a una tensión. Si estos materiales bajo tensión se sitúan
entre un polarizador y un analizador, las zonas coloreadas claras y oscuras que aparecen proporcionan
información sobre las tensiones. La tecnología de la fotoelasticidad se basa en la doble refracción
producida por tensiones.
También puede introducirse birrefrigencia en materiales normalmente homogéneos mediante campos
magnéticos y eléctricos. Cuando se somete un líquido a un campo magnético fuerte, puede presentar
doble refracción. Este fenómeno se conoce como efecto Kerr. Si se coloca un material apropiado entre
un polarizador y un analizador cruzados, puede transmitirse o no la luz según si el campo eléctrico en el
material está conectado o desconectado. Este sistema puede actuar como un conmutador o modulador
de luz extremadamente rápido.
Interferencia y difracción
Cuando dos haces de luz se cruzan pueden interferir, lo que afecta a la distribución de intensidades
resultante. La coherencia de dos haces expresa hasta qué punto están en fase sus ondas. Si la relación
de fase cambia de forma rápida y aleatoria, los haces son incoherentes. Si dos trenes de ondas son
coherentes y el máximo de una onda coincide con el máximo de otra, ambas ondas se combinan
produciendo en ese punto una intensidad mayor que si los dos haces no fueran coherentes. Si son
coherentes y el máximo de una onda coincide con el mínimo de la otra, ambas ondas se anularán entre
sí parcial o totalmente, con lo que la intensidad disminuirá. Cuando las ondas son coherentes, puede
formarse un diagrama de interferencia formado por franjas oscuras y claras. Para producir un diagrama
de interferencia constante,ambos trenes de onda deben estar polarizados en el mismo plano. Los
átomos de una fuente de luz ordinaria irradian luz de forma independiente, por lo que una fuente
extensa de luz suele emitir radiación incoherente. Para obtener luz coherente de una fuente así, se
26
Acreditalo ® Derechos Reservados
selecciona una parte reducida de la luz mediante un pequeño orificio o rendija. Si esta parte vuelve a
separarse mediante una doble rendija, un doble espejo o un doble prisma y se hace que ambas partes
recorran trayectorias de longitud ligeramente diferente antes de combinarlas de nuevo, se produce un
diagrama de interferencias. Los dispositivos empleados para ello se denominan interferómetros; se
emplean para medir ángulos pequeños,como los diámetros aparentes de las estrellas, o distancias
pequeñas, como las desviaciones de una superficie óptica respecto a la forma deseada. Las distancias
se miden en relación a la longitud de onda de la luz empleada. El primero en mostrar un diagrama de
interferencias fue Thomas Young, en el experimento ilustrado en la figura 8. Un haz de luz que había
pasado previamente por un orificio, iluminaba una superficie opaca con dos orificios. La luz que pasaba
por ambos orificios formaba un diagrama de franjas circulares sucesivamente claras y oscuras en una
pantalla. En la ilustración están dibujadas las ondulaciones para mostrar que en puntos como A, C o E
(intersección de dos líneas continuas), las ondas de ambos orificios llegan en fase y se combinan
aumentando la intensidad. En otros puntos, como B o D (intersección de una línea continua con una
línea de puntos), las ondas están desfasadas 180° y se anulan mutuamente.
Las ondas de luz reflejadas por las dos superficies de una capa transparente extremadamente fina
situada sobre una superficie lisa pueden interferir entre sí. Las irisaciones de una fina capa de aceite
sobre el agua se deben a la interferencia, y demuestran la importancia del cociente entre el espesor de
la capa y la longitud de onda de la luz. Puede emplearse una capa o varias capas de materiales
diferentes para aumentar o disminuir la reflectividad de una superficie. Los separadores de haz dicroicos
son conjuntos de capas de distintos materiales, cuyo espesor se fija de forma que una banda de
longitudes de onda sea reflejada y otra sea transmitida. Un filtro interferencial construido con estas
capas transmite una banda de longitudes de onda extremadamente estrecha y refleja el resto de las
longitudes. La forma de la superficie de un elemento óptico puede comprobarse presionándolo contra un
patrón y observando el diagrama de franjas que se forma debido a la capa delgada de aire que queda
entre ambas superficies.
La luz que incide sobre el borde de un obstáculo es desviada, o difractada, y el obstáculo no genera una
sombra geométrica nítida. Los puntos situados en el borde del obstáculo actúan como fuente de ondas
coherentes, y se forma un diagrama de interferencias denominado diagrama de difracción. La forma del
borde del obstáculo no se reproduce con exactitud, porque parte del frente de ondas queda cortado.
Como la luz pasa por una abertura finita al atravesar una lente, siempre se forma un diagrama de
difracción alrededor de la imagen de un objeto. Si el objeto es extremadamente pequeño, el diagrama
de difracción aparece como una serie de círculos concéntricos claros y oscuros alrededor de un disco
central, llamado disco de Airy. Esto ocurre incluso con una lente libre de aberraciones. Si dos partículas
están tan próximas que los dos diagramas se solapan y los anillos brillantes de una de ellas coinciden
con los anillos oscuros de la segunda, no es posible resolver (distinguir) ambas partículas.
En óptica, el análisis de Fourier permite representar un objeto como una suma de ondas senoidales
sencillas,llamadas componentes. A veces se analizan los sistemas ópticos escogiendo un objeto cuyas
componentes de Fourier se conocen y analizando las componentes de Fourier de la imagen. Estos
procedimientos determinan la llamada función de transferencia óptica. En ocasiones, el empleo de este
tipo de técnicas permite extraer información de imágenes de baja calidad. También se han aplicado
teorías estadísticas al análisis de las imágenes formadas.
Una red de difracción está formada por varios miles de rendijas de igual anchura y separadas por
espacios iguales (se consiguen rayando el vidrio o el metal con una punta de diamante finísima). Cada
rendija produce un diagrama de difracción, y todos estos diagramas interfieren entre sí. Para cada
longitud de onda se forma una franja brillante en un lugar distinto. Si se hace incidir luz blanca sobre la
red, se forma un espectro continuo. En instrumentos como monocromadores, espectrógrafos o
espectrofotómetros se emplean prismas y redes de difracción para proporcionar luz prácticamente
monocromática o para analizar las longitudes de onda presentes en la luz incidente.
Emisión estimulada
Los átomos de una fuente de luz corriente (como una bombilla incandescente, una lámpara fluorescente
o una lámpara de neón) producen luz por emisión espontánea, y la radiación que emiten es incoherente.
Si un número suficiente de átomos absorben energía de manera que resultan excitados y acceden a
estados de mayor energía en la forma adecuada,puede producirse la emisión estimulada. La luz de una
determinada longitud de onda puede provocar la producción de más luz con la misma fase y dirección
que la onda original, por lo que la radiación será coherente. La emisión estimulada amplifica la radiación
con una longitud de onda determinada, y la luz generada presenta una desviación del haz muy baja. El
material excitado puede ser un gas, un sólido o un líquido, pero su forma (o la forma de su recipiente)
debe ser tal que forme un interferómetro en el que la longitud de onda que se amplifica se refleje
numerosas veces en un sentido y otro. Una pequeña parte de la radiación excitada se transmite a través
de uno de los espejos del interferómetro. Este dispositivo se denomina láser, que en inglés corresponde
al acrónimo de "amplificación de luz por emisión estimulada de radiación". El proceso de suministrar
energía a un número elevado de átomos para llevarlos a un estado adecuado de energía superior se
denomina bombeo. El bombeo puede ser óptico o eléctrico. Como un láser puede emitir pulsos de
energía extremadamente alta con una desviación de haz muy pequeña, es posible detectar, por
ejemplo, luz láser enviada a la Luna y reflejada de vuelta a la Tierra, lo que permite medir con precisión
27
Acreditalo ® Derechos Reservados
la distancia Tierra-Luna. El haz intenso y estrecho del láser ha encontrado aplicaciones prácticas en
cirugía y en el corte de metales.
Gabor fue el primero en observar que si se pudiera registrar el diagrama de difracción de un objeto y
conservar también la información sobre la fase, la imagen del objeto podría reconstruirse iluminando con
luz coherente el diagrama de difracción registrado. Si se iluminara el diagrama de interferencia con una
longitud de onda mayor que la empleada para producirlo, aparecería un aumento de tamaño. Como la
fase absoluta de una onda luminosa no puede detectarse directamente, era necesario proporcionar un
haz de referencia coherente con el haz que iluminaba el objeto,para que interfiriera con el diagrama de
difracción y proporcionara información sobre la fase. Antes del desarrollo del láser, el proyecto de Gabor
estaba limitado por la falta de fuentes de luz coherente lo bastante intensas.
Un holograma es un registro fotográfico de la interferencia entre un haz de referencia y el diagrama de
difracción del objeto. Para generar un holograma, la luz procedente de un único láser se divide en dos
haces. El haz de referencia ilumina la placa fotográfica (por ejemplo, a través de una lente y un espejo) y
el segundo haz ilumina el objeto. El haz de referencia y la luz reflejada por el objeto forman un diagrama
de difracción sobre la placa fotográfica. Si una vez revelado el holograma se ilumina con luz coherente,
no necesariamente de la misma longitud de onda que la empleada para crearlo, puede obtenerse una
imagen tridimensional del objeto. Es posible producir hologramas de un objeto teórico mediante
ordenadores o computadoras, y después pueden reconstruirse las imágenes de esos objetos.
Los haces láser intensos y coherentes permiten estudiar nuevos efectos ópticos producidos por la
interacción de determinadas sustancias con campos eléctricos, y que dependen del cuadrado o de la
tercera potencia de la intensidad de campo. Esta rama de la óptica se denomina óptica no lineal, y las
interacciones que estudia afectan al índice de refracción de las sustancias. El efecto Kerr antes
mencionado pertenece a este grupo de fenómenos.
Se ha observado la generación armónica de luz. Por ejemplo, la luz láser infrarroja con longitud de onda
de 1,06 micrómetros puede convertirse en luz verde con longitud de onda de 0,53 micrómetros (es decir,
justo la mitad) mediante un cristal de niobato de sodio y bario. Es posible producir fuentes de luz
coherente ampliamente sintonizables en la zona de la luz visible y el infrarrojo cercano bombeando
medios adecuados con luz o con radiación de menor longitud de onda. Se puede lograr que un cristal de
niobato de litio presente fluorescencia roja, amarilla y verde bombeándolo con luz láser azul verdosa con
una longitud de onda de 488 nanómetros. Algunos fenómenos de difusión pueden ser estimulados con
un único láser para producir pulsos de luz intensos en una amplia gama de longitudes de onda
monocromáticas. Los efectos ópticos no lineales se aplican en el desarrollo de moduladores eficaces de
banda ancha para sistemas de comunicación.
Espectro
Serie de colores semejante a un arco iris (por este orden: violeta, azul, verde, amarillo, anaranjado y
rojo) que se produce al dividir una luz compuesta como la luz blanca en sus colores constituyentes. El
arco iris es un espectro natural producido por fenómenos meteorológicos. Puede lograrse un efecto
similar haciendo pasar luz solar a través de un prisma de vidrio.
Cuando un rayo de luz pasa de un medio transparente como el aire a otro medio transparente, por
ejemplo vidrio o agua, el rayo se desvía; al volver a salir al aire vuelve a desviarse. Esta desviación se
denomina refracción; la magnitud de la refracción depende de la longitud de onda de la luz. La luz
violeta, por ejemplo, se desvía más que la luz roja al pasar del aire al vidrio o del vidrio al aire. Así, una
mezcla de luces roja y violeta se dispersa al pasar por un prisma en forma de cuña y se divide en dos
colores.
Los aparatos para observar visualmente un espectro se denominan espectroscopios; los que sirven para
observar y registrar un espectro fotográficamente se llaman espectrógrafos; los empleados para medir la
intensidad de las diferentes partes del espectro se denominan espectrofotómetros. La ciencia que utiliza
los espectroscopios, espectrógrafos y espectrofotómetros para estudiar los espectros se conoce como
espectroscopia. Para medidas espectroscópicas extremadamente precisas se emplean interferómetros.
En el siglo XIX, los científicos descubrieron que más allá del extremo violeta del espectro podía
detectarse una radiación invisible para el ojo humano pero con una marcada acción fotoquímica; se la
denominó radiación ultravioleta. Igualmente, más allá del extremo rojo del espectro se detectó radiación
infrarroja que aunque era invisible transmitía energía, como demostraba su capacidad para hacer subir
un termómetro. Como consecuencia, se redefinió el término espectro para que abarcara esas
radiaciones invisibles, y desde entonces se ha ampliado para incluir las ondas de radio más allá del
infrarrojo y los rayos X y rayos gamma más allá del ultravioleta.
En la actualidad, el término espectro se aplica frecuentemente en un sentido más amplio a cualquier
distribución ordenada producida por el análisis de un fenómeno complejo. Un sonido complejo, como por
ejemplo un ruido, puede analizarse como un espectro acústico formado por tonos puros de diferentes
frecuencias. Igualmente, una mezcla compleja de elementos o isótopos con distinta masa atómica
puede ser separada en una secuencia ordenada según su masa atómica y denominada espectro de
masas.
La espectroscopia no sólo ha proporcionado un método importante y sensible para el análisis químico,
sino que ha sido el principal instrumento para descubrimientos en campos aparentemente no
28
Acreditalo ® Derechos Reservados
relacionados, como la astrofísica o la teoría atómica. En general, los cambios en el movimiento de los
electrones exteriores de los átomos dan lugar a espectros en la región visible, infrarroja y ultravioleta.
Los cambios en el movimiento de los electrones interiores de los átomos pesados producen espectros
de rayos X. Los cambios en la configuración del núcleo de un átomo producen espectros de rayos
gamma. Los cambios en la configuración de las moléculas producen espectros visibles e infrarrojos.
Los distintos colores de luz tienen en común el ser radiaciones electromagnéticas que se desplazan con
la misma velocidad, aproximadamente 300.000 kilómetros por segundo. Se diferencian en su frecuencia
y longitud de onda (la frecuencia es igual a la velocidad de la luz dividida entre la longitud de onda). Dos
rayos de luz con la misma longitud de onda tienen la misma frecuencia y el mismo color. La longitud de
onda de la luz es tan corta que suele expresarse en nanómetros (nm), que equivalen a una
milmillonésima de metro, o una millonésima de milímetro. La longitud de onda de la luz violeta varía
entre unos 400 y 450 nm, y la de la luz roja entre unos 620 y 760 nm.
Oscilación
En física, química e ingeniería, movimiento repetido de un lado a otro en torno a una posición central, o
posición de equilibrio. El recorrido que consiste en ir desde una posición extrema a la otra y volver a la
primera,pasando dos veces por la posición central, se denomina ciclo. El número de ciclos por segundo,
o hercios (Hz), se conoce como frecuencia de la oscilación.
Cuando se pone en movimiento un péndulo o se puntea la cuerda de una guitarra, el péndulo y la
cuerda acaban deteniéndose si no actúan sobre ellos otras fuerzas. La fuerza que hace que dejen de
oscilar se denomina amortiguadora. Con frecuencia, estas fuerzas son fuerzas de rozamiento, pero en
un sistema oscilante pueden existir otras fuerzas amortiguadoras, por ejemplo eléctricas o magnéticas.
Frecuencia natural
Cualquier objeto oscilante tiene una ´frecuencia natural´, que es la frecuencia con la que tiende a vibrar
si no se le perturba. Por ejemplo, la frecuencia natural de un péndulo de 1 m de longitud es de 0,5 Hz, lo
que significa que el péndulo va y vuelve una vez cada 2 segundos. Si se le da un ligero impulso al
péndulo cada 2 segundos, la amplitud de la oscilación aumenta gradualmente hasta hacerse muy
grande. El fenómeno por el que una fuerza relativamente pequeña aplicada de forma repetida hace que
la amplitud de un sistema oscilante se haga muy grande se denomina resonancia. Muchos problemas
graves de vibración en ingeniería son debidos a la resonancia. Por ejemplo, si la frecuencia natural de la
carrocería de un automóvil es la misma que el ritmo del motor cuando gira a una velocidad determinada,
la carrocería puede empezar a vibrar o a dar fuertes sacudidas. Esta vibración puede evitarse al montar
el motor sobre un material amortiguador, por ejemplo hule o goma, para aislarlo de la carrocería.
Flameo
Un tipo peligroso de vibración es la oscilación repentina y violenta conocida como flameo. Este
fenómeno se produce sobre todo en las superficies de control de los aviones, pero también ocurre en los
cables eléctricos cubiertos de escarcha cuando la velocidad del viento es elevada. Uno de los casos de
flameo más espectaculares provocó en 1940 el hundimiento de un puente en Tacoma, Estados Unidos.
La causa fue un viento huracanado cuya velocidad potenció la vibración del puente.
En el flameo, la amplitud de vibración de una estructura puede aumentar tan rápidamente como para
que ésta se desintegre casi de forma instantánea. Por eso, impedir el flameo es muy importante a la
hora de diseñar puentes y aviones. En el caso de los aviones, el análisis de flameo suele
complementarse con pruebas realizadas con una maqueta del avión en un túnel aerodinámico.
Frecuencia
Término empleado en física para indicar el número de veces que se repite en un segundo cualquier
fenómeno periódico. La frecuencia es muy importante en muchas áreas de la física, como la mecánica o
el estudio de las ondas de sonido.
Las frecuencias de los objetos oscilantes abarcan una amplísima gama de valores. Los temblores de los
terremotos pueden tener una frecuencia inferior a 1, mientras que las veloces oscilaciones
electromagnéticas de los rayos gamma pueden tener frecuencias de 1020 o más. En casi todas las
formas de vibración mecánica existe una relación entre la frecuencia y las dimensiones físicas del objeto
que vibra. Por ejemplo, el tiempo que necesita un péndulo para realizar una oscilación completa
depende en parte de la longitud del péndulo; la frecuencia de vibración de la cuerda de un instrumento
musical está determinada en parte por la longitud de la cuerda. En general, cuanto más corto es el
objeto, mayor es la frecuencia de vibración.
En todas las clases de movimiento ondulatorio, la frecuencia de la onda suele darse indicando el
número de crestas de onda que pasan por un punto determinado cada segundo. La velocidad de la
onda y su frecuencia y longitud de onda están relacionadas entre sí. La longitud de onda (la distancia
entre dos crestas consecutivas) es inversamente proporcional a la frecuencia y directamente
proporcional a la velocidad. En términos matemáticos, esta relación se expresa por la ecuación v = l f,
donde v es la velocidad, f es la frecuencia y l (la letra griega lambda) es la longitud de onda. A partir de
esta ecuación puede hallarse cualquiera de las tres cantidades si se conocen las otras dos.
La frecuencia se expresa en hercios (Hz); una frecuencia de 1 Hz significa que existe 1 ciclo u oscilación
por segundo. Heinrich Rudolf Hertz fue el primero en demostrar la naturaleza de la propagación de las
29
Acreditalo ® Derechos Reservados
ondas electromagnéticas. Las unidades como kilohercios (kHz) (miles de ciclos por segundo),
megahercios (MHz) (millones de ciclos por segundo) y gigahercios (GHz) (miles de millones de ciclos
por segundo) se usan para describir fenómenos de alta frecuencia como las ondas de radio. Estas
ondas y otros tipos de radiación electromagnética pueden caracterizarse por sus longitudes de onda o
por sus frecuencias. Las ondas electromagnéticas de frecuencias extremadamente elevadas, como la
luz o los rayos X, suelen describirse mediante sus longitudes de onda, que frecuentemente se expresan
en nanómetros (un nanómetro,abreviado nm, es una milmillonésima de metro). Una onda
electromagnética con una longitud de onda de 1 nm tiene una frecuencia de aproximadamente 300
millones de GHz.
Resolver:
1) Frente a una lente convergente de 20 cm de distancia focal y sobre su eje se coloca un objeto,
calcular la distancia objeto-lente para que la distancia imagen-lente sea el doble.
Respuesta: 30 cm
2) Repetir el ejercicio anterior para el caso que la imagen sea virtual.
Respuesta: 10 cm
3) Construir la de un objeto OH que está frente a una lente convergente, entre el foco y la lente. Analizar
sus características.
4) Un objeto OH está frente a una lente divergente, entre el foco y el infinito, encontrar la imagen y
analizar sus características.
5) Un objeto está situado a 0,6 m de una lente convergente cuya distancia focal es de 0,3 m. ¿A qué
distancia se forma la imagen?.
Respuesta: 0,6 m
6) Delante de una lente divergente cuya distancia focal es 0,8 m, hay un objeto a 0,6 m. ¿A qué
distancia está la imagen?.
Respuesta: -12/35 m
7) Exprese en dioptrías la potencia de una lente divergente de distancia focal -80 cm.
Respuesta: -5/4
8) Dibujar la imagen de un objeto cuya distancia a una lente convergente es mayor que F. Trace la
figura que indique las propiedades de la imagen.
9) Un objeto está a 20 cm de una lente convergente cuya distancia focal es de 30 cm. ¿A qué distancia
se forma la imagen?. Trace previamente la figura que corresponda.
Respuesta: -60 cm
OPTICA
LA REVOLUCION DE LA ILUMINACION
El mundo se iluminará de forma diferente dentro de algunos años. Los ingenieros de los Sandia National
Laboratories y de otros organismos de investigación están trabajando en un proyecto que establecerá
las bases científicas y tecnológicas para la sustitución de las actuales bombillas incandescentes y tubos
fluorescentes por diodos semiconductores emisores de luz.
30
Acreditalo ® Derechos Reservados
Los LEDs serán los protagonistas de la denominada "iluminación de estado sólido", una revolución
comparable a la que experimentó la electrónica hace 50 años,cuando las lámparas y los tubos de vacío
fueron reemplazados por semiconductores. Y tal como ocurrió en la revolución microelectrónica, la
iluminación de estado sólido podría proporcionar nuevas aplicaciones que aún desconocemos.
Como explica James Gee, uno de los líderes del proyecto, los LEDs ya se encuentran en juguetes,
electrónica de consumo,luces de tráfico, grandes pantallas exteriores, etc. Se trata de dispositivos que
deben ser duraderos, compactos y operar a baja temperatura. En algunas aplicaciones los LEDs
también ahorran dinero, ya que consumen menos energía. Así,en las señales de tráfico, consumen sólo
una décima parte de lo que gastan las bombillas tradicionales, lo que permite que se paguen por sí
mismos en el plazo aproximado de un año.
A medida que la tecnología avance, se espera que la iluminación de estado sólido supere de forma
amplia a otras fuentes de luz, tanto en coste como en rendimiento.
Los LEDs, que ahora pueden servir también como fuente de luz blanca, son 10 veces más eficientes
que las bombillas incandescentes y dos veces más que los fluorescentes. Así, el reemplazo de estos
sistemas tradicionales por LEDs de nuevo diseño colaborará en la reducción del consumo mundial de
energía.
La iluminación es en la actualidad responsable del 20 por ciento del consumo eléctrico. En una nación
industrializada,el uso de la tecnología de estado sólido para esta tarea reduciría el consumo en un 10
por ciento.
Los LEDs fueron desarrollados en 1962 por la compañía General Electric. En 1968 empezaron a ser
incorporados en diversos productos. Sin embargo, hasta 1985 sólo eran utilizados en aplicaciones de
escasa señal. A partir de esta fecha, su potencia se vio aumentada y se abrieron nuevas vías de
utilización. En 1993 se desarrolló un LED de luz azul, después paulatinamente mejorado. Hoy en día,
existen LEDs eficientes para luz de colores diversos, del rojo al azul, pasando por el verde, lo que
permite generar luz blanca para iluminación.
El principal problema es que las fuentes de luz basadas en LEDs son caras (en dos órdenes de
magnitud respecto a las bombillas comerciales), y no serán prácticas hasta que su coste se reduzca o
aumente su eficiencia. Este es precisamente el objetivo del LEDsproject.
LA BOMBILLA FRIA
Las bombillas de filamentos de tungsteno, las más utilizadas en todo el mundo como fuente de luz,
queman nuestras manos si las tocamos. Son famosas por generar más calor que luz, un despilfarro de
energía que científicos de los Sandia National Laboratories pretenden evitar con un nuevo diseño que
convierte la mayor parte de la radiación infrarroja desperdiciada en frecuencias de luz visible.
Para conseguirlo, han preparado un filamento de tungsteno fabricado con un patrón cristalino interno.
Con él, la eficiencia de la bombilla eléctrica incandescente pasa de un 5 por ciento a más de un 60 por
ciento.
31
Acreditalo ® Derechos Reservados
Este invento podría reducir en gran medida el consumo energético en todo el mundo, y paliar las
deficiencias de iluminación de muchos hogares. Pero la tecnología también promete mayores eficiencias
en aplicaciones térmico-fotovoltaicas. Los sistemas fotovoltaicos funcionan mejor cuando se les
suministra energía procedente de generadores de calor que emiten en longitudes de onda óptimas.
Shawn Lin y Jim Fleming son los responsables de este avance. Se han basado en los trabajos sobre
cristales fotónicos de silicio realizados por Eli Yablonovitch, de la UCLA, hace más de una década. Su
capacidad de transmitir rayos de luz a frecuencias elegidas y desviar sus trayectorias sin pérdida de
energía los hace muy interesantes. Pero también lo es su habilidad de detener otras frecuencias,
evitando su paso a través de ellos.
La fabricación de los cristales tridimensionales con tungsteno permite soportar altas temperaturas y
aprovechar las emisiones de luz en el rango visible. En cuanto a las radiaciones infrarrojas, éstas se ven
suprimidas y la energía térmica de excitación es redirigida hacia el espectro visible, aumentando su
rendimiento.
Lo más curioso es que la lógica del proceso aún no ha sido explicada. Podría ocurrir que la luz variara
su velocidad al propagarse a través de tales estructuras, pero aún deben efectuarse nuevos estudios
teóricos que lo confirmen.
EL RAYO MANIPULADOR
Varios científicos han creado un rayo de luz ultravioleta, parecido a un láser y altamente enfocado,
mediante un dispositivo que cabe sobre una mesa. Creen que esta fuente de luz podrá utilizarse para
medir y manipular objetos a una escala de pocos nanómetros. El rayo promete romper algunas de las
barreras del progreso tecnológico.
El tamaño ha sido uno de los principales obstáculos que los investigadores han encontrado a la hora de
desarrollar, o incluso ver, los diminutos componentes de la próxima generación de ordenadores o
máquinas nanoscópicas. Son más pequeños que la longitud de onda de la luz utilizada para iluminarlos.
Es cierto que los microscopios electrónicos y otros sistemas similares pueden ver estructuras muy
pequeñas, pero muchas mediciones esenciales requieren microscopios ópticos, que están limitados por
la longitud de onda de sus fuentes de luz.
Para solucionar esto, Margaret Murnane y Henry Kapteyn, de la University of Colorado, han desarrollado
una nueva fuente de luz de longitud de onda muy corta. La luz ultravioleta, cuya longitud de onda es de
sólo unas decenas de nanómetros, puede pulsar más lentamente que cualquier otro sistema y tiene un
foco muy ajustado, difícil de conseguir por otros medios.
La ciencia de la nanotecnología podrá ahora seguir avanzando a mayor velocidad, gracias a la
disponibilidad de una herramienta que permite hace mediciones e interacciones a nivel de una sola
molécula.
La luz ultravioleta del dispositivo se produce mediante un proceso llamado HHG (high harmonic
generation). Se dispara un láser de luz visible sobre un gas, creando un fuerte campo magnético. El
campo ioniza el gas, separando los electrones de sus átomos. Los electrones recolisionarán entonces
con los átomos ionizados, y oscilarán dentro del campo magnético. Como resultado de ello, saldrá del
sistema un chorro de fotones bien sincronizados, en la longitud de onda de la luz ultravioleta. El rayo
está tan enfocado que su diámetro es el más pequeño del mundo, de 20 a 30 veces más pequeño que
el más común de los láseres de helio-neón, y cientos de veces más intenso. Un rayo producido de esta
forma que empezara con un diámetro de un centímetro en la superficie de la Tierra, sólo se habrá
32
Acreditalo ® Derechos Reservados
expandido hasta los 30 metros cuando llegue a la distancia de la Luna. Un láser convencional habría
alcanzado un diámetro de al menos un kilómetro.
La luz obtenida mediante el nuevo método servirá para observar el comportamiento de las moléculas, y
ayudará pronto a los ingenieros a alinear y probar algunos sistemas de fabricación. Asimismo, permitirá
crear hologramas biológicos de alta resolución.
LUZ DE BURBUJAS DE GAS
Una burbuja de gas excitada por ultrasonidos convierte una pequeña fracción de la energía sónica en
luz. Este fenómeno, denominado sonoluminiscencia, ha venido observándose desde hace décadas.
Ahora, químicos de la University of Illinois han conseguido por primera vez medir las reacciones
químicas y la emisión de luz de una única burbuja de agua excitada por ondas de sonido.
Ken Suslick y Yuri Didenko, autores del trabajo, conocen bien el fenómeno. Cuando se aplican
ultrasonidos a un líquido, se produce un proceso llamado cavitación, que implica la formación,
crecimiento, compresión y colapso de burbujas microscópicas. Estas pequeñas oscilaciones pueden
causar un intenso calor y presión, similares a las condiciones producidas a gran escala por las
explosiones u ondas de choque. Esta excitación puede ocasionar también la emisión de cortos destellos
de luz.
El uso de ultrasonidos para inducir reacciones químicas de alta energía podría tener interesantes
aplicaciones industriales y médicas. Pero, antes, los científicos necesitar cuantificar la energía y las
partículas moleculares liberadas dentro de una única burbuja aislada.
El experimento de Illinois mostró que a medida que las burbujas pulsantes de agua colapsan, crean
temperaturas lo bastante altas como para romper las moléculas.
En este proceso, menos de una millonésima de energía sónica es convertida en luz. Mil veces más
energía se va en la formación de átomos, fragmentos moleculares e iones. La mayor parte de la energía
sónica es convertida en energía mecánica, causando ondas de choque y movimiento en el líquido que
rodea a la burbuja de gas.
La cavitación, que dirige el colapso implosivo de estas burbujas, crea temperaturas parecidas a las que
se encuentran en la superficie del Sol y presiones como las del fondo del océano. Este fenómeno ofrece
un medio de concentrar la energía difusa del sonido en una forma químicamente útil.
Se estiman diversas aplicaciones, como la eliminación del azufre de la gasolina, la mejora de las
reacciones químicas utilizadas para fabricar fármacos, etc.
LA FUENTE ELECTROLUMINISCENTE MAS PEQUEÑA
33
Acreditalo ® Derechos Reservados
Utilizando emisiones de fotones procedentes de moléculas individuales de plata, investigadores del
Georgia Institute of Technology han creado la que se supone es la fuente de luz electroluminiscente más
diminuta del mundo.
El trabajo es también la primera demostración de la existencia de electroluminiscencia de moléculas
individuales, una investigación que podría llevarnos a nuevos tipos de interconexiones ópticas a escala
nanométrica, microscopia óptica de alta resolución, litografía nanométrica y otras aplicaciones donde se
requieren fuentes de luz muy pequeñas. Dado que se sabe que las moléculas individuales emiten un
único fotón a un tiempo, la técnica podría usarse como base para un sistema de procesamiento de
información cuántica de alta eficiencia, y para criptografía.
Aunque el efecto fue detectado por primera vez en moléculas de plata compuestas por 2-8 átomos, los
investigadores ya han demostrado la existencia de electroluminiscencia en grupos de cobre, lo que
sugiere que el efecto podría aplicarse a otros metales.
Robert Dickson y sus colegas explican que empezaron con películas delgadas de óxido de plata que no
son electroluminiscentes. Exponiendo la película a una corriente eléctrica de aproximadamente un
amperio, "activaron" algunas de las moléculas del óxido de plata, que aparecieron entonces dentro de
regiones "descoloridas" en la película. Cuando se aplicaron electrodos a esta última y se aplicó una
corriente alterna, una fina línea de grupos de plata empezó a emitir en colores que variaban
dependiendo de su tamaño. El sistema operó a temperatura ambiente.
Observando de cerca el proceso, se puede ver claramente que las emisiones proceden de moléculas
individuales. Parpadean y presentan patrones de emisión dipolares.
La electroluminiscencia aparece cuando un electrón se recombina con una molécula cargada
positivamente, de la cual se ha extraído un único electrón. En primer lugar se retira el electrón, para
crear la carga positiva. Después, se inyecta otro rápidamente en un estado diferente de la misma
molécula. La diferencia de cargas provocará una recombinación y la emisión de un fotón.
Aunque la aplicación de corriente continua produce electroluminiscencia en los grupos activados de
plata, un voltaje de corriente alterna de alta frecuencia (sobre los 150 MHz) produce una respuesta
hasta 10.000 veces mayor. Esto prolonga la vida útil de los grupos emisores y reduce la cantidad de
corriente necesaria para producir luz.
La electroluminiscencia tiene muchas aplicaciones, pero los investigadores prefieren primero entender
bien el proceso básico: cuál es la naturaleza de la emisión, cómo ocurre ésta, etc.
ESPEJOS COMBINADOS
34
Acreditalo ® Derechos Reservados
Cuatro ojos, mejor que uno. El interferómetro VLT, situado en el observatorio Paranal del European
Southern Observatory, ha superado las pruebas preliminares durante las cuales se combinaron por
parejas los rayos de luz procedentes de sus cuatro grandes telescopios, cada uno de ellos de 8,2
metros de diámetro (UT).
Los ensayos se efectuaron durante las noches del 15 al 16 de septiembre y del 16 al 17 del mismo mes.
Los ingenieros creen que todo salió conforme a lo previsto, y que estamos ante un paso adelante hacia
la pronta disponibilidad de un instrumento sin parangón para la observación astronómica.
No es nada fácil asegurar que el cuarteto de telescopios, llamados ANTU, KUEYEN, MELIPAL y
YEPUN, cada uno de ellos un gigante masivo equipado con espejos activos controlados por ordenador,
pueda trabajar conjuntamente, enviando sus rayos de luz hacia un punto focal común. Pero esto es
precisamente lo que se ha conseguido: emparejar los cuatro telescopios, coordinando sus rayos de luz,
lo que permitirá futuras observaciones de alta precisión y sensibilidad.
Cada uno de los telescopios es por sí solo una formidable herramienta de observación. Pero es difícil
construir espejos o grupos de espejos de diámetros totales mucho mayores que los del VLTI. Por eso,
se prefiere utilizar la técnica interferométrica, que permite la combinación de la luz recogida por varios
instrumentos, como si ésta procediera de uno solo de mucho mayor diámetro (y por tanto, con mayor
capacidad de captación).
Aún estamos lejos de utilizar el VLTI de forma rutinaria y obtener imágenes interferométricas muy claras,
pero las pruebas, que trataban de ensayar los sistemas, confirman que ello será pronto posible. De
momento, sirvieron para demostrar directamente la capacidad de resolución en 2D del VLTI, lo cual se
consiguió después de múltiples mediciones de una estrella distante. Durante los próximos seis meses
están previstas pruebas técnicas semejantes, algunas de los cuales se efectuarán junto al instrumento
interferométrico MIDI, que se instalará pronto en Paranal.
Las tareas de combinación de la luz procedente de los cuatro telescopios son complicadas por cuanto
es necesario apuntar a cada uno de ellos hacia el mismo objetivo con una precisión absoluta,
garantizando un seguimiento exacto a pesar del movimiento de rotación de la Tierra. Los cuatro rayos
de luz son dirigidos hacia un punto focal, donde ahora mismo se halla el instrumento VINCI.
35
Acreditalo ® Derechos Reservados
FISICA – RESISTENCIA DE LOS MATERIALES
FUERZA ELASTICA
Resortes: Los resortes reales se comportan según la siguiente ecuación, conocida como la Ley de
Hooke: las tensiones son proporcionales a las elongaciones. Los materiales que responden a esta ley
son perfectamente elásticos.
F = k.Δx
k: magnitud de la fuerza por unidad de elongación, que depende de cada resorte [N/m].
Δx = xf - xo [m]
Tensión o esfuerzo: es la relación entre una carga y la superficie sobre la que actúa. Se considera
como tal a la reacción que opone el material de un cuerpo frente a una solicitación externa (de tensión,
compresión, cortante) que tiende a producir un cambio en su tamaño o forma.
σ = F/A
σ = ε .E
E: módulo de elasticidad del material. [N/m ²; kg/cm ²]
A: sección del material [m ²; cm ²]
Elongaciones: un cuerpo sometido a la acción de fuerzas externas sufre alargamientos o acortamientos
en una dirección dada que reciben el nombre de deformaciones.
Deformación específica:
ε = Δl/l Δl: elongación
l: longitud origina
acortamiento ε < 0
alargamiento ε > 0
Dentro del límite de proporcionalidad (σ p), el módulo de elasticidad de un material dado es constante,
dependiendo solo de la naturaleza del material.
36
Acreditalo ® Derechos Reservados
De 0 hasta a,se llama recta de Hooke. Sin embargo hasta b inclusive, cuando descargamos la pieza
recupera su longitud original (entre 0 y b, el material es elástico).
Modulo de Young: es la constancia de la relación entre tensiones y deformación específica.
E = σ / ε = constante
Esta relación es la expresión analítica de la ley de Hooke.
Elasticidad: una deformación se llama elástica cuando desaparece completamente (recuperable) una
vez que cesa la causa que la produjo.
Plasticidad: una deformación plástica es aquella que no desaparece (irreversible) con la anulación de la
causa. La plasticidad de los materiales esta dada por su capacidad de poder deformarse sin por ello
sufrir fractura. Un material es tanto más dúctil cuanto más extendido es su diagrama σ - ε en el sentido
del eje ε .
A medida que aumenta la resistencia de los materiales disminuye la deformación específica y por lo
tanto su ductilidad. Se dice entonces que el material va ganando en fragilidad.
La maleabilidad como propiedad de los materiales, específicamente metálicos, constituye en realidad
una fase de la ductilidad.
Tenacidad: es la capacidad de un material para absorber simultáneamente esfuerzos y deformaciones
de consideración sin llegar a la fractura.
Rigidez: es la capacidad de resistir una deformación elástica por efecto de una tensión.
Fluencia: en los materiales tenaces el período plástico comienza teóricamente a partir del punto a
(límite de proporcionalidad), que constituye el final del período de proporcionalidad (recta de Hooke). En
realidad,el material suele ser elástico, un poco más allá de dicho punto, hasta el punto b (límite de
elasticidad).
MOVIMIENTO ARMONICO
La ecuación general del movimiento armónico simple es:
X = A.cos (ω .t + θ 0)
puede escribirse en la forma equivalente:
X = B.sin ω .t + C.cos ω .t
a) Determínense las expresiones de las amplitudes de B y C en función de la amplitud A y del ángulo de
fase inicial θ 0.
b)
X = A.cos (ω .t + θ 0)
X = B.sin ω .t + C.cos ω .t
X = A.(cos ω .t . cos θ 0- sin ω .t . sin θ 0)
X = -A.sin ω .t . sin θ 0 + A.cos ω .t . cos θ 0
B = -A.sin θ 0
C = A.cos θ 0
a) 2. Un cuerpo de 0,25 kg. De masa está sometido a una fuerza elástica restauradora, con constante
de recuperación k =25N/m.
b) Dibújense la gráfica de la energía potencial elástica U en función del desplazamiento x en un intervalo
de x comprendido entre -0,3m y + 0,3 m. Tómense 1 cm = 1J en el eje vertical y 1 cm = 0,05m en el eje
horizontal.
El cuerpo inicia su oscilación con energía potencial inicial de 0,6J y energía cinética inicial de 0,2 J. A
partir de la gráfica, respóndanse las cuestiones siguientes:
U = k.x ²/2
x
U
0
0
±0,05
0,031
± 0,10
0,125
±0,15
0,281
± 0,20
0,500
± 0,25
0,781
± 0,30
1,125
37
Acreditalo ® Derechos Reservados
c) ¿Cuál es la amplitud de la oscilación?.
A=?
ET = ω ².A ²/2
ω ² = k/m
ω ² = 25/0,25 = 100
A = √2.(0,8)/100 = 0,12 m
d) ¿Cuál es la energía potencial cuando el valor de desplazamiento es la mitad que el de la amplitud?.
Ep = k.x ²/2
x = 0,6 m
Ep = 25.0,6/2 = 4 J
e) ¿Para que valor del desplazamiento son iguales la energía cinética y potencial?
Ep = k.x ²/2
0,6 = 25.x ²/2
x =± 0,219 m
f) ¿Cuál es la rapidez del cuerpo en el punto medio de su trayectoria?.
Calcúlense:
Ec = m.v ²/2
v = ±√2.0,2/0,25 = ±1,26 m/s
g) El período T1.
T = 1/f = 0
2.π.f = √k/m
ƒ = √k/m/2.π = √25/0,25/2.π
f = 1,59 Hz
T = 0,628 s
h) La frecuencia f1 y
f = 1,59 Hz
i) La frecuencia angular ω .
ω=?
k = m. ω ²
ω = √k/m = √25/0,25
ω = 10 rad/s
38
Acreditalo ® Derechos Reservados
j) ¿Cuál es el ángulo de fase inicial θ 0si la amplitud A = 15 cm, el desplazamiento inicial x0 = 7,5 cm y la
velocidad inicial Vo es negativa?.
La posición del móvil que describe un M.A.S. en función del tiempo viene dada por la ecuación:
X = A.cos.(ω .t + θ o)
entonces no da que:
X = A.cos. θ o
por lo que para este caso como son las condiciones iniciales (t = 0) se deduce que:
ω .t 0
nos da pro consiguiente:
7,5 = 15.cos θ 0
θ0 = arc cos (7,5/15) = 1,047 rad
2) Un cuerpo está vibrando con movimiento armónico simple de 15 cm de amplitud y 4Hz de frecuencia,
calcúlense:
a) Los valores máximos de la aceleración y de la velocidad.
A = 15 cm
F = 4 Hz
a máximo = ?
V máximo = ?
a = -A. ω ².cos ω .t
a máximo = A. ω ²
a máximo = 15.25 ²
a máximo = 9375 cm/s ² = 93,75 m/s ²
ω = 2.π.f
ω = 2.π.4
ω = 25
V máximo = ω .A
25.0,15 = 3,76 m/s
b) La aceleración y la velocidad cuando el desplazamiento es 9 cm, y.
a = ? y la V = ? cuando x = 9 cm
a = - ω ².x
a = -25 ².9
a = -56,84 m/s ²
V = ± 3,02 m/s
c) El tiempo necesario para desplazarse desde la posición de equilibrio a un punto situado a 12 cm de la
misma.
x = A.cos ω .t
12/15 = cos 25.t
cos 25.t =0,8
25.t = cos-1 0,8
39
Acreditalo ® Derechos Reservados
25.t = 0,64
t = 0,025 s
3) Un cuerpo de 10gr. De masa se mueve con movimiento armónico simple de 24 cm. De amplitud y 4s.
de período: El desplazamiento es + 24 cm. Para t = 0. Calcúlense:
a) La posición del cuerpo cuando t = 0,5 s.
m = 10 g
A = 24 cm
T=4s
x = 24 cm para t = 0
t = 0,5 s
x=?
x = A.cos 2.π.f.t
x = 24.cos (2.π.0,5/4)
x = 16,97 cm
b) La magnitud y dirección de la fuerza que actúa sobre el cuerpo cuando t = 0,5s.
F = -k.x
F = -m. ω ².x
ω = 2.π.f
F = -10.(2.π./4) ².19,97
-1
F = 418,71 g. cm
la dirección está hacia abajo, porque al no completarse todavía el período (X = 16,97), la fuerza lleva a
la masa hacia abajo hasta su máxima amplitud.
c) El tiempo mínimo necesario para que el cuerpo se mueva desde la posición inicial al punto en que x =
-12 cm, y
Δt = ?
x = A.cos ω .t
x/A = cos ω .t
arc cos (x/A) = ω .t
Δt = [arccos (-12/24)]/(2.π /4)
Δt = 1,33 s
d) La velocidad de dicho cuerpo cuando x = -12 cm.
V
x = 12 cm
V = -A. ω .cos ω .t
V = -24.(2 π /4).cos (1,33.π /2)
-1
V = -18,67 cm.s
4) El movimiento del pistón del motor de un automóvil es aproximadamente armónico simple.
a) Si la carrera de un pistón (dos veces la amplitud) es 10 cm y el motor gira a
3600 rev/mm., calcúlese la aceleración del pistón al final de la carrera.
2.A = 10 cm
A = 5 cm = 0,05 m
f = 3600 (rev/min).(1 min/60 s) = 60 Hz
40
Acreditalo ® Derechos Reservados
a máximo = k.x/m
a máximo = (2.π.f) ².A
a máximo = (2.π.60) ².0,05
a máximo = 7106 m.s ²
b) Si el pistón tiene una masa de 0,5 kg, ¿qué fuerza resultante ha de ejercerse sobre él en ese punto?.
m = 0,5 kg
F = m.a
F = 0,5.7106
F = 3553 N
c) ¿Cuál es la velocidad del pistón, en kilómetros por hora, en el punto medio de su carrera?.
V = ? en el punto medio, la velocidad es máxima.
V máximo = ω .A
ω = 2 π.f
V máximo = (2 π.f).A
V máximo = (2 π.60).0,05
V máximo = 18,85 m/s = 67,9 km/h
5) Un cuerpo de 2 kg. De masa está suspendido de un resorte de masa despreciable, y se produce un
alargamiento de 20 cm.
m = 2 kg
x = 20 cm
a) ¿Cuál es la constante de recuperación del resorte?.
F = -k.x
m.g/x = k
k = 2.9,8/0,2 = 98 N/m
b) ¿Cuál es el período de oscilación del cuerpo si se tira hacia abajo y se abandona así mismo?.
k = m. ω ²
ω = √k/m = 7 rad/s
ω = 2.π.f
f = ω /2.π = 1,11 Hz
T = 1/f = 0,89 s
c) ¿Cuál sería el período de un cuerpo de 4 kg de masa pendiente del mismo resorte?.
m = 4 kg
-1
ω = 4,94 rad.s
T = 1,26 s
6) La escala de una balanza de resorte que registra de 0 a 180N tiene 9 cm de longitud. Se observa que
un cuerpo suspendido de la balanza oscila verticalmente a 1,5 Hz. ¿Cuál es la masa del cuerpo?.
Despréciese la masa del resorte.
41
Acreditalo ® Derechos Reservados
F = 180 N
f = 1,5 Hz
F = -k.x
k = -F/x
Por lo que si sustituímos en la ecuación se tiene que:
k = |-2000 N/m|
k = m.ω ²
ω = 2.π.ƒ
ω = 2.π.1,5
ω = 9,42 rad/s
Sustituyendo:
m = k/ω ²
m = (2000 N/m)/(9,42 rad/s) ²
m = 22,53 kg
FISICA – TERMODINAMICA
EL CALOR
Cantidades de calor
Aun cuando no sea posible determinar el contenido total de energía calorífica de un cuerpo, puede
medirse la cantidad que se toma o se cede al ponerlo en contacto con otro a diferente temperatura.
Esta cantidad de energía en tránsito de los cuerpos de mayor temperatura a los de menor
temperatura es precisamente lo que se entiende en física por calor.
La ecuación calorimétrica
La experiencia pone de manifiesto que la cantidad de calor tomada (o cedida) por un cuerpo es
directamente proporcional a su masa y al aumento (o disminución) de temperatura que experimenta.
La expresión matemática de esta relación es la ecuación calorimétrica.
(8.6)
Q = ce.m.(Tf - Ti)
donde Q representa el calor cedido o absorbido, la masa del cuerpo y Tf y Ti las temperaturas final e
inicial respectivamente. Q será positivo si la temperatura final es mayor que la inicial (Tf> Ti) y
negativo en el caso contrario (Tf< Ti). La letra c representa la constante de proporcionalidad
correspondiente y su valor es característico del tipo de sustancia que constituye el cuerpo en
cuestión. Dicha constante se denomina calor específico. Su significado puede deducirse de la
ecuación (8.6). Si se despeja c,de ella resulta:
42
Acreditalo ® Derechos Reservados
ce = Q/ m.(Tf - Ti)
El calor específico de una sustancia equivale, por tanto, a una cantidad de calor por unidad de masa
y de temperatura; o en otros términos, es el calor que debe suministrarse a la unidad de masa de
una sustancia dada para elevar su temperatura un grado.
Unidades de calor
La ecuación calorimétrica (8.6) sirve para determinar cantidades de calor si se conoce la masa del
cuerpo, su calor específico y la diferencia de temperatura, pero además permite definir la caloría
como unidad de calor. Si por convenio se toma el agua líquida como sustancia de referencia
asignando a su calor específico un valor unidad, la caloría resulta de hacer uno el resto de las
variables que intervienen en dicha ecuación.
Una caloría es la cantidad de calor necesaria para elevar en un grado centígrado (1 °C) la
temperatura de un gramo de agua. Esta definición, que tiene su origen en la época en la que la
teoría del calórico estaba en plena vigencia, se puede hacer más precisa si se considera el hecho de
que el calor específico del agua varía con la temperatura. En tal caso la elevación de un grado
centígrado a la que hace referencia la anterior definición ha de producirse entre 14,5 y 15,5 °C a la
presión atmosférica.
Una vez identificado el calor como una forma de energía y no como un fluido singular, la distinción
entre unidades de calor y unidades de energía perdió significado. Así, la unidad de calor en el SI
coincide con la de energía y es el joule (J), habiendo quedado la caloría reducida a una unidad
práctica que se ha mantenido por razones históricas,pero que va siendo progresivamente
desplazada por el joule.
Calor específico y capacidad calorífica
La ecuación calorimétrica puede escribirse también en la forma:
(8.7)
Q = C.(Tf - Ti)
expresando así que en un cuerpo dado la cantidad de calor cedido o absorbido es directamente
proporcional a la variación de temperatura. La nueva constante de proporcionalidad C recibe el
nombre de capacidad calorífica
C = Q/(T Tf - Ti)
y representa la cantidad de calor que cede o toma el cuerpo al variar su temperatura en un grado. A
diferencia del calor específico, la capacidad calorífica es una característica de cada cuerpo y se
expresa en el SI en J/K. Su relación con el calor específico resulta de comparar las ecuaciones (8.6)
y (8.7) en las que ambas magnitudes están presentes:
(8.8)
C = m.ce
De acuerdo con esta relación, la capacidad calorífica de un cuerpo depende de su masa y de la
naturaleza de la sustancia que lo compone.
Ejemplo de la determinación del calor específico: El calor específico de un cuerpo puede
determinarse mediante el calorímetro. Dado que éste es un atributo físico característico de cada
sustancia, la comparación del valor obtenido con los de una tabla estándar de calores específicos
puede ayudar a la identificación de la sustancia que compone el cuerpo en cuestión.
Se pretende identificar el metal del que está formada una medalla. Para ello se determina su masa
mediante una balanza que arroja el valor de 25 g. A continuación se calienta al « baño María »,hasta
alcanzar una temperatura de 85 °C y se introduce en el interior de un calorímetro que contiene 50 g de
agua a 16,5 °C de temperatura. Al cabo de un cierto tiempo y tras utilizar varias veces el agitador, la
columna del termómetro del calorímetro deja de subir señalando una temperatura de equilibrio de 19,5
°C. ¿De qué metal puede tratarse?
Si se aplica la ecuación de conservación de la energía expresada en la forma, calor tomado = - calor
cedido, resulta:
Q1 = - Q2
m1.ce1.(T - T1) = - m2.ce2.(T - T2)
considerando en este caso el subíndice 1 referido al agua y el 2 referido a la moneda. Sustituyendo
valores en la ecuación anterior, se,tiene:
50 g.1 (cal/g.°C).(19,5 °C - 16,5 °C) = - 25 g. ce2.(19,5 °C - 85 °C)
Operando y despejando ce2 resulta:
150 (cal/g.°C) = 1 637,5. ce2
ce2 = 0,09 cal/g.°C
Si se compara el resultado con una tabla de calores específicos de metales, se concluye que puede
tratarse de cobre. Otras propiedades físicas como el color, por ejemplo, confirmarán el resultado.
Medida del calor
De acuerdo con el principio de conservación de la energía, suponiendo que no existen pérdidas, cuando
dos cuerpos a diferentes temperaturas se ponen en contacto, el calor tomado por uno de ellos ha de ser
43
Acreditalo ® Derechos Reservados
igual en cantidad al calor cedido por el otro. Para todo proceso de transferencia calorífica que se realice
entre dos cuerpos puede escribirse entonces la ecuación:
Q1 = - Q2
en donde el signo - indica que en un cuerpo el calor se cede, mientras que en el otro se toma.
Recurriendo a la ecuación calorimétrica, la igualdad anterior puede escribirse en la forma:
m1.ce1.(Te - T1) = - m2.ce2.(Te- T2) (8.9)
donde el subíndice 1 hace referencia al cuerpo frío y el subíndice 2 al caliente. La temperatura Teen
el equilibrio será superior a T1 e inferior a T2. La anterior ecuación indica que si se conocen los
valores del calor específico, midiendo temperaturas y masas, es posible determinar cantidades de
calor. El aparato que se utiliza para ello se denomina calorímetro. Un calorímetro ordinario consta de
un recipiente de vidrio aislado térmicamente del exterior por un material apropiado. Una tapa cierra el
conjunto y dos pequeños orificios realizados sobre ella dan paso al termómetro y al agitador, los
cuales se sumergen en un líquido llamado calorimétrico, que es generalmente agua.
Cuando un cuerpo a diferente temperatura que la del agua se sumerge en ella y se cierra el
calorímetro, se produce una cesión de calor entre ambos hasta que se alcanza el equilibrio térmico.
El termómetro permite leer las temperaturas inicial y final del agua y con un ligero movimiento del
agitador se consigue una temperatura uniforme. Conociendo el calor específico y la masa del agua
utilizada, mediante la ecuación calorimétrica se puede determinar la cantidad de calor cedida o
absorbida por el agua.
En este tipo de medidas han de tomarse las debidas precauciones para que el intercambio de calor
en el calorímetro se realice en condiciones de suficiente aislamiento térmico. Si las pérdidas son
considerables no será posible aplicar la ecuación de conservación Q1 = - Q2 y si ésta se utiliza los
resultados estarán afectados de un importante error.
La ecuación (8.9) puede aplicarse únicamente a aquellos casos en los cuales el calentamiento o el
enfriamiento del cuerpo problema no lleva consigo cambios de estado físico (de sólido a líquido o
viceversa, por ejemplo). A partir de ella y con la ayuda del calorímetro es posible determinar también
el calor específico del cuerpo si se conocen las temperaturas T1, T2 y Te, las masas m1y m2 y el calor
específico del agua.
CALOR Y TRABAJO
Relación entre calor y trabajo
Si calor y trabajo son ambos formas de energía en tránsito de unos cuerpos o sistemas a otros,
deben estar relacionadas entre sí. La comprobación de este tipo de relación fue uno de los objetivos
experimentales perseguidos con insistencia por el físico inglés James Prescott Joule (1818-1889).
Aun cuando efectuó diferentes experimentos en busca de dicha relación, el más conocido consistió
en determinar el calor producido dentro de un calorímetro a consecuencia del rozamiento con el
agua del calorímetro de un sistema de paletas giratorias y compararlo posteriormente con el trabajo
necesario para moverlas.
La energía mecánica puesta en juego era controlada en el experimento de Joule haciendo caer unas
pesas cuya energía potencial inicial podía calcularse fácilmente de modo que el trabajo W, como
variación de la energía mecánica, vendría dado por:
W = Δ Ep = m.g.h
siendo m la masa de las pesas, h la altura desde la que caen y g la aceleración de la gravedad. Por
su parte, el calor liberado por la agitación del agua que producían las aspas en movimiento daba
lugar a un aumento de la temperatura del calorímetro y la aplicación de la ecuación calorimétrica:
Q = m c (Tf- Ti)
permitía determinar el valor de Q y compararlo con el de W. Tras una serie de experiencias en las
que mejoró progresivamente sus resultados, llegó a encontrar que el trabajo realizado sobre el
sistema y el calor liberado en el calorímetro guardaban siempre una relación constante y
aproximadamente igual a 4,2. Es decir, por cada 4,2 joules de trabajo realizado se le comunicaba al
calorímetro una cantidad de calor igual a una caloría. Ese valor denominado equivalente mecánico
del calor se conoce hoy con más precisión y es considerado como 4,184 joules/calorías. La relación
numérica entre calor Q y trabajo W puede,entonces, escribirse en la forma:
W (joules) = 4,18.Q (calorías)
La consolidación de la noción de calor como una forma más de energía, hizo del equivalente
mecánico un simple factor de conversión entre unidades diferentes de una misma magnitud física, la
energía; algo parecido al número que permite convertir una longitud expresada en pulgadas en la
misma longitud expresada en centímetros.
Máquinas térmicas
Junto a la conversión de trabajo en calor puesta de manifiesto en las experiencias de Joule, la
transformación efectuada en sentido inverso es físicamente realizable. Los motores de explosión que
mueven, en general, los vehículos automóviles y la máquina de vapor de las antiguas locomotoras
44
Acreditalo ® Derechos Reservados
de carbón, son dispositivos capaces de llevar a cabo la transformación del calor en trabajo mecánico.
Este tipo de dispositivos reciben el nombre genérico de máquinas térmicas.
En todas las máquinas térmicas el sistema absorbe calor de un foco caliente; parte de él lo
transforma en trabajo y el resto lo cede al medio exterior que se encuentra a menor temperatura.
Este hecho constituye una regla general de toda máquina térmica y da lugar a la definición de un
parámetro característico de cada máquina que se denomina rendimiento y se define como el
cociente entre el trabajo efectuado y el calor empleado para conseguirlo. Expresado en tantos por
ciento toma la forma:
η (%) = W.100/Q
Ninguna máquina térmica alcanza un rendimiento del cien por cien. Esta limitación no es de tipo
técnico, de modo que no podrá ser eliminada cuando el desarrollo tecnológico alcance un nivel
superior al actual; se trata, sin embargo, de una ley general de la naturaleza que imposibilita la
transformación íntegra de calor en trabajo. Por tal motivo las transformaciones energéticas que
terminan en calor suponen una degradación de la energía, toda vez que la total reconversión del
calor en trabajo útil no está permitida por las leyes naturales.
Ejemplo de la relación calor-trabajo: En una experiencia como la de Joule se ha utilizado un peso de 10
kg que se ha elevado a una altura de 2 m. Si el calorímetro completo incluyendo las aspas equivale a
una masa de agua de 1,5 kg y la temperatura inicial es de 15 °C, determínese la temperatura final que
alcanzará el agua, admitiendo que todo el trabajo mecánico se convierte en calor dentro del calorímetro.
(Considérese el calor específico del agua c = 4,18.10³ J/kg.K). De acuerdo con el principio de
conservación de la energía, el trabajo mecánico se convierte íntegramente en calor:
W=Q
Siendo en este caso W = m g h y Q = m´ ce.(Tf - Ti).
Igualando ambas expresiones y despejando Tf se tiene:
m g h = m´ ce.(Tf - Ti)
Tf = (m.g.h + m´.ce.Ti)/m´.ce
y sustituyendo resulta finalmente:
Tf (K) = [10 g.9,8 m/s ².2 m + 1,5 g.4,18.10³ (cal/g.°C).(15 K + 273 K)]/1,5 g.4,18.10³ (cal/g.°C)
Tf (K) =
es decir:
tf (°C) = 288 - 273 = 15 °C
EL CALOR
El calor es una manifestación de la energía provocada por el movimiento molecular. Al calentarse un
cuerpo, aumenta la energía cinética de las moléculas, produciéndose choques más o menos violentos,
según la cantidad de calor entregada.
El calor es susceptible de medir; lo que se efectúa teniendo en cuenta dos magnitudes fundamentales:
intensidad de calor y cantidad de calor.
1- La intensidad de calor está relacionada con la velocidad del movimiento molecular estableciéndose
para medirla una práctica que da una idea del grado o nivel del calor que tiene un cuerpo determinado.
Arbitrariamente se fijan parámetros comparativos que permiten determinar dicho nivel de calor, al que se
denomina temperatura. Se dice que un cuerpo con gran velocidad molecular tiene más temperatura o
más nivel de calor que otro.
2- La cantidad de calor de un cuerpo representa la suma de las energías térmicas de todas las
moléculas que lo componen. Es decir que mientras la intensidad de calor o temperatura indica el grado
de movimiento molecular o el nivel de calor de un cuerpo, esta magnitud señala su contenido total de
calor.
Se demuestra que la cantidad de calor de un cuerpo es función de la masa del cuerpo y de su
temperatura, o lo que es lo mismo, del número de moléculas que lo componen y de su nivel de
intensidad térmica o velocidad molecular.
Para determinar la cantidad de calor se ha establecido un valor característico, que depende de las
particularidades de cada cuerpo, que se denomina calor específico. Se define como calor específico
a la cantidad de calor necesario para elevar en 1 °C la temperatura de la unidad de masa de una
sustancia.
El calor específico,si bien depende de la temperatura en forma muy leve, puede suponerse constante
para cada sustancia en particular, a los fines de su aplicación práctica. Como unidad se usa el agua a
presión atmosférica normal, considerándose una temperatura normal de 15 °C que está dentro del
entorno de las aplicaciones prácticas.
De esa manera, el calor específico igual a 1, sería la cantidad de calor necesaria para elevar la
temperatura de 1 kg de agua en 1 °C (14,5 a 15,5) a presión atmosférica normal. A esta cantidad de
calor se la denomina (kcal) kilocaloría,y sería entonces la unidad de cantidad de calor.
45
Acreditalo ® Derechos Reservados
Para ello, la unidad de calor específico valdrá:
Ce = kcal/Kg.°C
El SIMELA o Sistema Métrico Legal Argentino, ha establecido como unidad de calor el Joule . La
equivalencia es la siguiente:
1 Kcal = 4185,5 joule
Calor sensible y calor latente
Cuando definimos la unidad de calor, mencionamos que el agregado de dicha energía provocaba un
aumento de la temperatura, a ese estado calórico cuya variación de nivel puede determinarse mediante
un termómetro, que es sensible a ella, se denomina calor sensible.
Se representa por la fórmula:
Q = m.ce.(t°f - t°i)
Q es la cantidad de calor entregada o recibida por un cuerpo (Kcal)
m es la masa del cuerpo (Kg)
Ce es el calor específico de la sustancia (Kcal/Kg.°C)
T ° i es la temperatura inicial del cuerpo (°C)
T ° f es la temperatura final del cuerpo (°C)
Ejemplo 1: Calentar 1 kg de agua de 10 a 100 °C. ¿Qué cantidad de calor sensible se le ha agregado?
Si
Q = m.ce.(t°f - t°i)
Q = 1 kg.(1 kcal/kg.°C).(100 °C - 10 °C)
Q = 90 kcal
Sin embargo, sucede que cuando se esta materializando un cambio de estado físico, se verifica que el
agregado o sustracción de calor no origina variación de temperatura. En efecto, por ejemplo, si se
tiene agua en ebullición, durante todo el proceso que esta dura, la temperatura se mantiene constante
en los 100 °C, aunque se le agregue calor continuamente.
A ese calor que agregado a una sustancia no origina cambio de nivel térmico o temperatura, se lo
denomina calor latente, o sea, como su nombre lo indica, ese calor se encuentra latente, y se
consume en la acción de transformación física.
Q = m.c vl
Donde:
C vl es el calor latente de vaporización (kcal/kg)
El calor latente de vaporización del agua (100 °C) es 539 kcal/kg
El calor latente de fusión del agua (0 °C) es 80 kcal/kg
Ver Gráfico
Propagación del calor
Todo cuerpo con una determinada cantidad de calor, tiene la propiedad de cederlo a otro cuerpo,
siempre que éste se encuentre a menor temperatura.
Es decir, existe un flujo térmico que consiste en la cesión del calor de los puntos de mayor temperatura.
De esa manera, entonces, la energía térmica se transfiere del nivel térmico o temperatura más alto al
más bajo, hasta alcanzar un estado de equilibrio o igual temperatura.
Los fenómenos que intervienen en la transmisión del calor son tres:
1. Convección
2. Radiación
3. Conducción
1 - Conducción
La transmisión del calor por conducción es típica de los sólidos. Se origina por la agitación molecular
provocada por el calor que se transmite progresivamente, sin modificar la distancia relativa de las
moléculas.
La velocidad con que el material deja pasar el calor por conducción,depende de su conductividad que es
una propiedad que tiene cada material.
Hay materiales que conducen más que otros. Los metales son mucho más conductores del calor que,
por ejemplo, los materiales de cerramiento de una construcción.
La conducción del calor se establece por un coeficiente λ de la conductividad térmica, que es un valor
determinado para cada elemento en particular.
Ejemplo 2: Hallar la cantidad de canto rodado necesario para un acumulador solar que recibe 10000
Kcal/día si se quiere alcanzar una T ° f = 75 °C y partiendo de una T ° i = 20 °C (Ce = 0.29 Cal/g.°C).
46
Acreditalo ® Derechos Reservados
Q = 10000 Kcal = 10000000 Cal
T ° f = 75 °C
T ° i = 20 °C
Ce = 0.29 Cal/g.°C
m= ?
Si:
Q = m.ce.(tf - ti)
m = Q/[ce.(tf - ti)]
m = 10000000 cal/[(0,29 cal/g.°C).(75 °C - 20 °C)]
m = 10000000 cal/[(0,29 cal/g.°C).55 °C]
m = 626959,24 g
m = 626,96 kg
Ejemplo 3:
a - Qué cantidad de calor será necesaria para calentar el agua de una pileta que contiene 25000 litros
de agua, si se desea aumentar su temperatura de 20 °C a 30 °C?
m = 25000 l = 25000 Kg
T ° i = 20 °C
T ° f = 35 °C
Ce = 1 Kcal/kg.°C
Q = m.Ce.Δ T °
Q = 25000 Kg.(1 Kcal/Kg.°C). (30 °C - 20 °C)
Q = 25000 Kg.1 (Kcal/Kg.°C). 10 °C
Q = 250000 Kcal
b - Qué tiempo se necesitará para entregar estas calorias al agua si se emplea gas natural? Poder
calorífico del gas = 8000 Kcal/h.
8000 Kcal
1h
250000 Kcal
t = 250000 Kcal.1 h/8000 Kcal
t = 31.25 h
Ejemplo 4: Si mezclamos 1 l de agua a 92 °C con 0.5 l de agua 20 °C, qué temperatura alcanzará la
mezcla?
m1.ce.(-tf + ti1) = m2.ce.(tf - ti2)
-m1.ce.tf + m1.ce.ti1 = m2.ce.tf - m2.ce.ti2
m2.ce.ti2 + m1.ce.ti1 = m2.ce.tf + m1.ce.tf
ce.(m2.ti2 + m1.ti1) = (m2 + m1).ce.tf
(m2.ti2 + m1.ti1)/(m2 + m1) = tf
(1 l.92 °C + 0,5 l.20 °C)/(1 l + 0,5 l) = tf
tf = 102 l.°C/1,5 l
tf = 68 °C
Unidades de Energía
Unidades de Potencia
1 kgm = 9,8 J
1 cal = 4,18 J
1 Kcal = 427 kgm
1 C.V. = 735 W
1kgm/s = 9,8 W
-
47
Acreditalo ® Derechos Reservados
Convección
La forma de transmisión de calor por convección es propia de los fluidos, por ejemplo, en nuestro caso
el aire o el agua. Por efecto de la variación de su peso debido a un aumento o disminución de
temperatura, se establece en ellos una circulación permanente y continua. Ese movimiento del fluido
produce, entonces, la transferencia del calor por convección,que se orienta desde los puntos calientes a
los fríos.
Se utiliza para su determinación un coeficiente Hc que tiene en cuenta la convección y cierta radiación,
y se denomina coeficiente de transmitancia.
Q = Hc.A.Δ T °
Radiación
La forma de transmisión del calor por radiación se produce en el vacío igual que la radiación de la luz en
forma de ondas electromagnéticas. De esa manera el proceso de transferencia de calor por radiación no
esta vinculado a soporte o vehículo material alguno, no pudiendo ser explicado como en los casos
anteriores en términos de moléculas que chocan o se desplazan.
Se define entonces la radiación térmica como la transmisión de calor de un cuerpo a otro sin
contacto directo, en forma de energía radiante.
Entonces un cuerpo caliente transforma una parte de su contenido de calor en energía radiante sobre su
superficie, la cual se emite en forma de ondas, que al ser absorbidas por otro cuerpo, se manifiesta en
forma de calor. Se desprende de ello que para que la energía radiante pueda ser convertida en calor es
necesario que sea absorbida por una sustancia.
Todos los cuerpos absorben y además emiten energía radiante, dependiendo de la temperatura a que
se encuentren y de sus características físicas.
El cuerpo negro es un cuerpo ideal que emite y absorbe el máximo el calor por radiación. Por ello
cuando un cuerpo esta constituido por superficies oscuras, emite y absorbe el calor por radiación en
gran proporción, ocurriendo todo lo contrario cuando se trata de cuerpos de superficies blancas o
brillantes.
Los cuerpos calientes emiten mayor cantidad de calor que los fríos, habiendo un continuo intercambio
de energía radiante entre las sustancias que se encuentran a distintas temperaturas.
La fórmula para su cálculo es:
R = r.A.(T °/100)4.T °
r : constante de radiación
T ° : temperatura en grados kelvin
T °1 > T °2
En el siguiente ejemplo se indican las tres formas de trasmisión de calor. Supóngase que en un local se
ubica un recipiente que contiene agua caliente. Se origina una trasferencia de calor del agua caliente al
aire del local, debido a la diferencia de temperatura.
Si se analiza el proceso de trasferencia a través de la pared del recipiente se observa que en una
primera etapa el calor fluye del agua caliente a la cara interior de la pared por convección, originándose
el movimiento de la misma debido que al enfriarse aumenta su densidad y desciende. Luego el calor se
trasmite por conducción a través de la pared, y por último se entrega al local por convección al aire
produciendose la circulación del mismo debido a que al calentarse disminuye su densidad y asciende, y
48
Acreditalo ® Derechos Reservados
por radiación a los distintos elementos del entorno que rodean al recipiente. El aire es prácticamente
diatérmico,o sea no absorbe en forma directa el calor por radiación.
Coeficiente de transmitancia total K
Para los cálculos de la transferencia de calor de una pared o elemento de la construcción se utiliza un
coeficiente de transferencia de calor total, que tiene en cuenta los fenómenos indicados precedentemente
y permite simplificar dichos cálculos.
Se define al coeficiente de transmitancia total K como la cantidad de calor en kcal, que se transmite
totalmente en una hora a través de un m ² de superficie, existiendo una diferencia de temperatura de 1°
C entre el ambiente interno y externo.
Q = K.A.(T °1 - T °2)
Siendo:
Q : Cantidad de calor que se transmite (kcal/h)
K : Coeficiente de transmitancia térmica (kcal/h.m ².°C). Según tablas.
A : Area (m ²).
T °1 : Temperatura del aire en la cara más caliente (°C).
T °2 : Temperatura del aire en la cara más fria (°C).
Los coeficientes K para las construcciones normales están tabulados por la Norma IRAM 11.601, pero
para muros especiales o de características especiales deben calcularse.
Determinación del coeficiente de transmitancia total K
Para el cálculo de transmitancia total K, se emplea la siguiente fórmula:
Se denomina resistencia total Rt a la inversa de K, es decir:
Rt = 1/K
49
Acreditalo ® Derechos Reservados
A su vez, las inversas de α, se denominan resistencias superficiales.
R si = 1/ α i y R se = 1/ α e
λ: coeficiente de conductibilidad térmica(kcal/m.h.°C).
α i: coeficiente superficial interior (kcal/h.m ².°C).
α e: coeficiente superficial exterior (kcal/h.m ².°C).
K: coeficiente de transmitancia térmica total(kcal/h.m ².°C).
R t: resistencia a la transmitancia térmica total (m ³.h.°C/kcal).
R si: resistencia superficial interior (m ³.h.°C/kcal).
R se: resistencia superficial exterior (m ³.h.°C/kcal).
e: espesor de los materiales (m).
De esa manera, la ecuación será:
Rt = 1/λ = Rsi + e1/λ1 + e2/λ2 + ... + Rc + Rse
Donde Rc es la resistencia que opone al pasaje de calor en caso de cámaras de aire.
Ejemplo 5 : Calcular la resistencia térmica total de un muro, formado por mampostería de 12 cm de
espesor, una cámara de aire de 2 cm y un panderete de mampostería de 5 cm interior.
Rt = 1/λ = Rsi + e1/λ1 + e2/λ2 + Rc + Rse
Rt = 0,61 m ².h.°C/kcal
O sea:
k = 1/Rt
k = 1/(0,61 m ².h.°C/kcal)
k = 1,64 kcal/m ².h.°C
En este mismo ejemplo ¿qué pasaría si en lugar de la cámara de aire se utilizara lana de vidrio de 2 cm
de espesor?
50
Acreditalo ® Derechos Reservados
Rt = 1/λ = Rsi + e1/λ1 + e2/λ2 + e3/λ3 + Rse
Se aprecia, entonces, que mejora notablemente la resistencia térmica del muro aplicándole aislante
térmico.
Ejemplo 6 : Calcular la cantidad de calor que fluye a través de una lámina de aluminio de 2 mm de
espesor, si la diferencia de temperatura es de 20 °C.
H = (K/e).A.Δ T °
H = ((0,49 cal/s.cm.°C)/0,2 cm).20 °C
H = 49 cal/s
Ejemplo 7 : Se tiene un recipiente cúbico de vidrio de 1 m ² de superficie en sus 6 caras, calcular la
temperatura final si entrega 80 Kcal/h y su temperatura inicial es de 20 °C.
Q = m.ce.(tf - ti)
tf = Q/m.ce + ti
Lado = √A/6
Volumen = Lado³ = 0,068 m ³
tf = (80 kcal/h)/[(68 kg).(1 kcal/kg.°C.h)] + 20 °C
tf = 21,18 °C
Ejemplo 8 : Según Normas IRAM el K de un ladrillo en una pared de 30 cm de espesor es de 1,62
kcal/m ². h.°C, entonses hallar λ para una mampostería de 1 m ² y luego el flujo de calor para una
variación térmica de 1 °C.
k = λ/e
λ = e.k
k = (1,64 kcal/m ².h.°C).(1000 cal/1 kcal).(1 m ²/10000 cm ²).(1 h/3600 s)
k = 0,000045 cal/cm ².s.°C
λ = 30 cm.0,000045 cal/cm ².s.°C
λ = 0,00135 cal/cm.s.°C
A = 1 m ² = 10000 cm ²
H = A.λ.Δt/e
H = 10000 cm ².(0,00135 cal/cm.s.°C).(1 °C/30 cm
H = 0,45 cal/s
Ejemplo 9 : Se tiene un termotanque de 0,5 m de diámetro, 1,2 m de altura y una aislación térmica de
espuma de poliestireno de 2 cm de espesor; calcular:
a) La cantidad de calor necesaria para elevar su temperatura en 20 °C.
b) Si se desea mantener una temperatura interior de 60 °C y la temperatura media exterior es de 20 °C,
calcular las pérdidas de calor hacia el exterior.
c) Calcular el rendimiento del equipo.
d) Calcular el gas consumido anualmente para cubrir las pérdidas.
51
Acreditalo ® Derechos Reservados
S = π.d.h + π.d ²/4
S = 3,14.50 cm.120 cm + 3,14.(50 cm) ²/4
S = 20802,5 cm ²
V = π.h.d ²/4
V = 3,14.120 cm.(50 cm) ²/4
V = 235500 cm ³
m = 235,5 kg
a)
Q = m.ce.(tf - ti)
Q = 235,5 kg.(1 kcal/kg.°C).20 °C
Q = 4710 kcal
b)
H = A.λ.Δt/e
H = (20802,5 cm ²/2 cm).(0,00002 cal/cm ².s.°C).40 °C
H = 8,321 cal/s
H = 29,96 kcal/h
c)
Rendimiento
R = Q agua/Q gas
R = 4710 kcal.100%/9300 kcal
R = 50,65 %
d)
H año = (29,96 kcal/h).(8760 h/año)
H año = 262449,6 kcal/año
Calorías perdidas = H año/R
H año/R = (262449,6 kcal/año)/50,65 %
H año/R = 129518,9 kcal/año
Gas perdido = Calorías perdidas/calorias del gas/m ³
Gp = (129518,9 kcal/año)/(9300 kcal/m ³)
Gp = 13,93 m ³/año
Ejemplo 10: ¿Qué cantidad de calor se perderá de un recipiente que contiene 500 cm ³ de agua a 70 °C
durante 45´?. Si la temperatura ambiente es de 18 °C y el recipiente esta recubierto de poliestireno
expandido de 9,52 mm de espesor. λ = 0,03 kcal/h.m.°C
A = π.d.h + π.d ²/4
A = 3,14.7,6 cm.19,5 cm + 3,14.(7,6 cm) ²/4
A = 556,03 cm ²
A = 0,055603 m ²
Δt = tf - ti
Δt = 70 °C - 18 °C
Δt = 52 °C
H = A.λ.Δt/e
H = (0,055603 m ²/0,00952 m).(0,03 cal/m ².h.°C).52 °C
H = 9,11 kcal/h
H* = (9,11 kcal/h).0,75 h
H* = 6,83 kcal
Hallar la temperatura final a los 45 minutos.
Δ T ° = -Q/m.Ce (es negativa debido a que pierde T °)
Δt = ti - te = -Q/m.ce
52
Acreditalo ® Derechos Reservados
ti = te - Q/m.ce
ti = 70 °C - 6,83 kcal/[(0,5 kg).(1 kcal/kg.°C)]
ti = 56,33 °C
Ejemplo 11: Se tiene una resistencia eléctrica a la cual se le han medido las siguientes características:
U = 220 v I = 1,75 A cos φ = 0,95
Se sabe que P = U.I. cos φ, que Δ T ° producira esta resistencia eléctrica cuando calienta 500 cm ³ de
agua durante 120 segundos.
P = 220 v . 1,75 A.. 0,95
P = 365,75 w
E = P/t
E = 365,75 W.120 s.1 h/3600 s
E = 12,192 W.h
Sabiendo que 860 kcal = 1 kw
E = 12,192 W.h.(860 kcal/1 kW).(1 kW/1000 W)
E = 10,485 kcal
Δt = Q/m.ce
Δt = 10,485 kcal/[(0,5 kg).(1 kcal/kg.°C)]
Δt = 20,97 °C
Hallar el costo:
Costo = Valor (kW.h).E
Costo = (0,15 $/kW.h)/0,012192 kW.h
Costo = $ 0,0018
Hallar la temperatura final para a) 45 min y b) 20 min.
H = A.λ.Δt/e
H = (0,055603 m ²/0,00952 m).(0,03 cal/m ².h.°C).52 °C
H = 7,97 kcal/h
a)
H1 = (7,97 kcal/h).0,75 h
H1 = 5,98 kcal
Δt1 = H1/m.ce
Δt1 = (5,98 kcal)/[(0,5 kg).(1 kcal/kg.°C)]
Δt1 = 11,96 °C
t1 = 60,04 °C
b)
H2 = (7,97 kcal/h).0,33 h
H2 = 2,63 kcal
Δt2 = H2/m.ce
Δt2 = (2,63 kcal)/[(0,5 kg).(1 kcal/kg.°C)]
Δt2 = 5,26 °C
t2 = 66,74 °C
Hallar la temperatura final para: c) 10 min; d) 30 min; e) 40 min; f) 50 min y g) 60min, y luego graficar la
temperatura en función del tiempo.
c)
H3 = (7,97 kcal/h).0,17 h
H3 = 1,35 kcal
Δt3 = H3/m.ce
Δt3 = (1,35 kcal)/[(0,5 kg).(1 kcal/kg.°C)]
Δt3 = 2,71 °C
t3 = 67,29 °C
d)
H4 = (7,97 kcal/h).0,50 h
H4 = 3,99 kcal
53
Acreditalo ® Derechos Reservados
Δt4 = H4/m.ce
Δt4 = (3,99 kcal)/[(0,5 kg).(1 kcal/kg.°C)]
Δt4 = 7,98 °C
t4 = 62,02 °C
e)
H5 = (7,97 kcal/h).0,66 h
H5 = 5,31 kcal
Δt5 = H5/m.ce
Δt5 = (5,31 kcal)/[(0,5 kg).(1 kcal/kg.°C)]
Δt5 = 10,62 °C
t5 = 59,38 °C
f)
H6 = (7,97 kcal/h).0,83 h
H6 = 6,64 kcal
Δt6 = H6/m.ce
Δt6 = (6,64 kcal)/[(0,5 kg).(1 kcal/kg.°C)]
Δt6 = 13,28 °C
t6 = 56,72 °C
g)
H7 = (7,97 kcal/h).1 h
H7 = 7,97 kcal
Δt7 = H7/m.ce
Δt7 = (7,97 kcal)/[(0,5 kg).(1 kcal/kg.°C)]
Δt7 = 15,94 °C
t7 = 54,06 °C
Ver Gráfico
Ejemplo 12: Hallar la pérdida por convección en el siguiente caso:
T ° i = 70 °C
T °e = 10 °C
T °s = 25 °C
S=1m²
t=1h
Q = 45,05 kcal
CICLOS TERMODINAMICOS
Resulta útil tratar los procesos termodinámicos basándose en ciclos: procesos que devuelven un
sistema a su estado original después de una serie de fases, de manera que todas las variables
termodinámicas relevantes vuelven a tomar sus valores originales. En un ciclo completo, la energía
interna de un sistema no puede cambiar, puesto que sólo depende de dichas variables. Por tanto, el
calor total neto transferido al sistema debe ser igual al trabajo total neto realizado por el sistema.
Un motor térmico de eficiencia perfecta realizaría un ciclo ideal en el que todo el calor se convertiría en
trabajo mecánico. El ciclo de Carnot, es un ciclo termodinámico que constituye el ciclo básico de todos
los motores térmicos,y demuestra que no puede existir ese motor perfecto. Cualquier motor térmico
pierde parte del calor suministrado. El segundo principio de la termodinámica impone un límite superior
a la eficiencia de un motor, límite que siempre es menor del 100%. La eficiencia límite se alcanza en lo
que se conoce como ciclo de Carnot.
Ciclo Otto
54
Acreditalo ® Derechos Reservados
En el punto a la mezcla de nafta y aire ya está en el cilindro.
ab: contracción adiabática.
cd: expansión adiabática.
bc: calentamiento isocórico.
ad: enfriamiento isocórico.
R: relación de compresión.
Cp: calor específico a presión constante
Cv: calor específico a volumen constante
γ = Cp/Cv (Sears 419 - Tabla 18.1)
η = 1 - 1/R(γ - 1)
Para un R = 8, y un γ = 1,4 (aire), η = 0,56
Ciclo diesel
El gasoil se inyecta durante la carrera ab.
ab: contracción adiabática.
cd: expansión adiabáticas.
ad: enfriamiento isocórico.
bc: expansión y calentamiento isobárica.
R: relación de compresión.
Cp: calor específico a presión constante
Cv: calor específico a volumen constante
γ = Cp/Cv (Sears 419 - Tabla 18.1)
( γ - 1)
η = 1 - 1/R
Para un R = 15-20, y un γ = 1,4 (aire), η = 0,65-0,70
Ciclo de Carnot
55
Acreditalo ® Derechos Reservados
Una máquina de Carnot es perfecta, es decir, convierte la máxima energía térmica posible en trabajo
mecánico. Carnot demostró que la eficiencia máxima de cualquier máquina depende de la diferencia
entre las temperaturas máxima y mínima alcanzadas durante un ciclo. Cuanto mayor es esa diferencia,
más eficiente es la máquina. Por ejemplo, un motor de automóvil sería más eficiente si el combustible se
quemara a mayor temperatura o los gases de escape salieran a menor temperatura.
ab y cd: contracciones y expansiones isotérmicas.
bc y ad: contracciones y expansiones adiabáticas.
η = W/QH
η= (QH - QC)/QH
η = 1 - QC/ QH
QH = W ab = n.R.TH.ln Vb/Va
QC = W cd = n.R.TC.ln Vc/Vd
QC/QH = TC/TH
η = 1 - TC/TH
Ciclo de refrigeración
Los sistemas de compresión emplean cuatro elementos en el ciclo de refrigeración: compresor,
condensador, válvula de expansión y evaporador.
En el evaporador, el refrigerante se evapora y absorbe calor del espacio que está enfriando y de su
contenido.
A continuación, el vapor pasa a un compresor movido por un motor que incrementa su presión, lo que
aumenta su temperatura (entrega trabajo al sistema).
El gas sobrecalentado a alta presión se transforma posteriormente en líquido en un condensador
refrigerado por aire o agua.
Después del condensador, el líquido pasa por una válvula de expansión, donde su presión y
temperatura se reducen hasta alcanzar las condiciones que existen en el evaporador.
QH = QC - L
η = - QC /L
L = QC-QH
- QC/(QC-QH)
Sistemas de absorción
Algunos refrigeradores domésticos funcionan mediante el principio de absorción. En ellos, una llama de
gas calienta una disolución concentrada de amoníaco en agua en un recipiente llamado generador, y el
amoníaco se desprende en forma de vapor y pasa a un condensador. Allí se licúa y fluye hacia el
56
Acreditalo ® Derechos Reservados
evaporador, igual que en el sistema de compresión. Sin embargo, en lugar de pasar a un compresor al
salir del evaporador, el amoníaco gaseoso se reabsorbe en la solución diluida y parcialmente enfriada
procedente del generador, para formar de nuevo una disolución concentrada de amoníaco. Este proceso
de reabsorción se produce en un recipiente llamado absorbedor, desde donde el líquido concentrado
fluye de vuelta al generador para completar el ciclo.
FISICA – TRABAJO Y ENERGIA
TRABAJO
Una fuerza constante genera trabajo cuando, aplicada a un cuerpo, lo desplaza a lo largo de una
determinada distancia.
Mientras se realiza trabajo sobre el cuerpo, se produce una transferencia de energía al mismo, por lo
que puede decirse que el trabajo es energía en movimiento. Por otra parte, si una fuerza constante no
produce movimiento, no se realiza trabajo. Por ejemplo, el sostener un libro con el brazo extendido no
implica trabajo alguno sobre el libro, independientemente del esfuerzo necesario. El trabajo se expresa
en Joules (J).
Cuando la fuerza tiene la dirección de movimiento.
L = F.d
L: Trabajo realizado por la fuerza.
Cuando la fuerza aplicada tiene una inclinación α con respecto al movimiento.
L = F.cos α .d
Todas las fuerzas perpendiculares al movimiento no realizan trabajo.
La fuerza puede no ser mecánica,como ocurre en el levantamiento de un cuerpo o en la aceleración de
un avión de reacción; también puede ser una fuerza electrostática, electrodinámica o de tensión
superficial.
Energía
La magnitud denominada energía enlaza todas las ramas de la física. En el ámbito de la física, debe
suministrarse energía para realizar trabajo. La energía se expresa en joules (J). Existen muchas formas
de energía: energía potencial eléctrica y magnética, energía cinética, energía acumulada en resortes
estirados, gases comprimidos o enlaces moleculares,energía térmica e incluso la propia masa.
Energía cinética
Cuando una fuerza aumenta la velocidad de un cuerpo también se realiza trabajo, como ocurre por
ejemplo en la aceleración de un avión por el empuje de sus reactores. Cuando un cuerpo se desplaza
con movimiento variado desarrolla energía cinética.
Ec = ½.m.v ²
L = F.d
L = Ec
F.d = ½.m.v ²
Ec: Energía cinética.
El trabajo realizado por la fuerza resultante que actúa sobre una partícula es igual a la variación de la
energía cinética de dicha partícula.
Δ Ec = Ec2 - Ec1
L = Ec2 - Ec1
F.d = ½.m.(v ²2 - v ²1)
Δ Ec: Variación de la energía cinética.
Energía potencial
Cuando se levanta un objeto desde el suelo hasta la superficie de una mesa, por ejemplo, se realiza
trabajo al tener que vencer la fuerza de la gravedad,dirigida hacia abajo; la energía comunicada al
cuerpo por este trabajo aumenta su energía potencial. Si se realiza trabajo para elevar un objeto a una
altura superior, se almacena energía en forma de energía potencial gravitatoria.
Cuando un cuerpo varía su altura desarrolla energía potencial.
Ep = m.g.h
L = F.d
L = Ep
P.d = m.g.h
Ep: Energía potencial.
El trabajo realizado por la fuerza peso es igual a la variación de la energía potencial.
Δ Ep = Ep2 - Ep1
57
Acreditalo ® Derechos Reservados
L = Ep2 - Ep1
P.d = m.g.(h2 - h1)
Δ Ep: Variación de la energía potencial.
En todas las transformaciones entre un tipo de energía y otro se conserva la energía total, y se conoce
como teorema de la energía mecánica (Δ EM). Por ejemplo, si se ejerce trabajo sobre una pelota de
goma para levantarla, se aumenta su energía potencial gravitatoria. Si se deja caer la pelota, esta
energía potencial gravitatoria se convierte en energía cinética. Cuando la pelota choca contra el suelo,
se deforma y se produce fricción entre las moléculas de su material. Esta fricción se transforma en calor
o energía térmica.
Fuerzas conservativas
Para un cuerpo de masa m que se mueve del punto 1 al 2 y luego del punto 2 al 1.
Una fuerza es conservativa si el trabajo efectuado por ella sobre una partícula que se mueve en
cualquier viaje de ida y vuelta es 0.
Δ EM = 0
Δ EM : Variación de la energía mecánica.
Trabajo de fuerzas conservativas:
L = Δ EM
Δ EM = Δ Ec + Δ Ep
L = Δ Ec + Δ Ep
Fuerzas no conservativas
Para un cuerpo de masa m que se mueve del punto 1 al 2 y luego del punto 2 al 1.
Una fuerza es no conservativa si el trabajo efectuado por ella sobre una partícula que se mueve
en cualquier viaje de ida y vuelta es distinto de 0.
Δ EM ≠ 0
Δ EM = HO
Δ EM: Variación de la energía mecánica.
HO : Trabajo de la fuerza de rozamiento.
Trabajo de fuerzas no conservativas:
L = Δ EM + HO
L = Δ Ec + Δ Ep + HO
Siendo: HO = Fr.d
Potencia
La potencia desarrollada por una fuerza aplicada a un cuerpo es el trabajo realizado por ésta durante el
tiempo de aplicación. La potencia se expresa en watt (W).
P=L/t
P = F.d / t
v=d/t
P = F.v
También:
P = (Δ Ec + Δ Ep + HO)/t
Si no hay fuerza de rozamiento
P = (Δ Ec +Δ Ep)/t
Si no cambio su altura
P = (Δ Ec)/t
P: potencia
Caballo de vapor: Unidad tradicional para expresar la potencia mecánica, es decir, el trabajo mecánico
que puede realizar un motor por unidad de tiempo; suele abreviarse por CV. En el Sistema Internacional
de unidades, la unidad de potencia es el vatio; 1 caballo de vapor equivale a 736 vatios. Su valor original
era, por definición, 75 kilográmetros por segundo.
Resolver:
1) Transformar 250 kgf.m a Joul y kW.h.
Ver solución al final de ésta página
58
Acreditalo ® Derechos Reservados
2) ¿Cuántos kgf.m y Joul representan 25 kW.h?.
Ver solución al final de ésta página
3) Indicar cuántos Joul y kW.h son 125478 kgm.
Ver solución al final de ésta página
4) Indicar el trabajo necesario para deslizar un cuerpo a 2 m de su posición inicial mediante una fuerza
de 10 N.
Ver solución al final de ésta página
5) ¿Qué trabajo realiza un hombre para elevar una bolsa de 70 kgf a una altura de 2,5 m?. Expresarlo
en:
a) kgf.m
b) Joule
c) kW.h
Ver solución al final de ésta página
6) Un cuerpo cae libremente y tarda 3 s en tocar tierra. Si su peso es de 4 N, ¿qué trabajo deberá
efectuarse para elevarlo hasta el lugar desde donde cayo?. Expresarlo en:
a) Joule.
b) kgm.
Ver solución al final de ésta página
Responder:
1) ¿Qué es el trabajo mecánico?.
2) ¿En que unidades se mide el trabajo?.
3) ¿Cuáles son sus equivalencias?.
4) Si se levanta un cuerpo desde el suelo, ¿hay trabajo?.
5) ¿Las máquinas simples, realizan trabajo?.
Resultados:
1)
1 kgf.m
9,807 J
250 kgf.m
x = 250 kgf.m × 9,807 J/1 kgf.m
x = 2451,75 J
1 W = 1 J/s
1kW = 1.000 J/s
1kW.h = 1.000 J.3.600 s/s
1kW.h = 3.600.000 J s/s
1 J = 1kW.h/3.600.000
1 kgf.m
9,807 J/3.600.000
250 kgf.m
x = 250 kgf.m × 9,807 J/3.600.000 kgf.m
-4
x = 6,81.10 kW.h
2)
1 kW.h
3.600.000 J
25 kW.h
x = 25 kW × 3.600.000 J/1 kW.h
7
x = 9.10 J
1 kW.h
3.600.000 kgf.m/9.807
25 kW.h
x = 25 kW.h × 9,807 × 3.600.000 J/1 kW.h
x = 9.177.118 kgf.m
3)
1 kgf.m
125.478 kgf.m
9,807 J
x = 125.478 kgf.m × 9,807 J/1 kgf.m
59
Acreditalo ® Derechos Reservados
x = 1.230.563 J
1 kgf.m
9,807 J/3.600.000
125.478 kgf.m
x = 125.478 kgf.m × 9,807 J/3.600.000 kgf.m
x = 0,3418 kW.h
4)
L=F×d
L = 10 N × 2 m
L = 20 J
5)
a) L = F × d
L = 70 kgf × 2,5 m
L = 175 kgf.m
b) L = 175 kgf.m × 9,807 J/kgf.m
L = 1716,225 J
a) L = 175 kgf.m × 9,807 J/3.600.000 kgf.m
L = 0,000477 kW.h
6)
L = F.d
En éste caso se trata de la fuerza peso, por lo tanto:
L = P.d
y al ser un movimiento vertical la distancia es la altura:
L = P.h
Mediante cinemática calculamos la altura para caída libre.
h = ½.g.t ²
h = ½ × 9,807 (m/s ²) × (3 s) ²
h = ½ × 9,807 (m/s ²) × 9 s ²
h = 44,1315 m
Luego:
a) L = P × h
L = 4 N × 44,1315 m
b) L = 176,526 J/(9,807 kgf.m × J)
L = 176,526 J
L = 18 kgf.m
UNIDADES Y MEDIDAS
60
Acreditalo ® Derechos Reservados
M.K.S.
Técnico
Técnico
M.K.S.
M.K.S.
Otros
Masa
m
kg = 0,06852 slug
slug = 14,59 kg
kg =2,205 lb
Longitud
e
m = 3,28pie
pie = 0,3048 m
m = 39,3 plg
Tiempo
t
s=s
s=s
s=s
Velocidad
v = e/t
m/s = 3,28pie/s
pie/s = 0,3048 m/s
m/s = 2,237 mi/h
Aceleración
a = F/m = v/t
m/s ² = 3,28pie/s ²
pie/s ² = 0,3048 m/s ²
m/s ² = 8503,2 mi/h ²
Fuerza
Peso
F = m.a
N = 0,102 kg
kg = 9,807 N
N = 0,2248 lbf
Trabajo
Energía
L = F.e
J = 0,000948BTU
BTU = 1055 J
J = 0,2389 cal
Potencia
P = L/t
W = 3,413 BTU/h
BTU/h = 0,293 W
W =0,00134 hp
Presión
p = F/A
Pa = 0,000145 lbf/plg ²
lbf/plg ² = 6895 Pa
Pa =0,0000102 kg/cm ²
Densidad
δ = m/V
kg/m ³ = 0,00194
slug/pie³
slug/pie³ = 515,4 kg/m
³
kg/m ³ = 0,0003613
lb/plg³
Peso
específico
ρ = P/V =
δ.m/V
N/m ³ = 0,002888 kg/pie³ kg/pie³ = 346,27 N/m ³
N/m ³ =0,00000167
kg/plg³
Momento
M = F.d
Unidad/Sistema
N.m = 0,3347 kg.pie
C.G.S
M.K.S
kg.pie= 2,988 N.m
Técnico otros 1
otros 2
Masa
gr.
Kg
slug
Lb
Longitud
cm.
m
m
pulg.
pie
Tiempo
s
s
s
s
s
Velocidad
cm/s
m/s
m/s
pulg/s
pie/s
Aceleración
cm/s ²
m/s ²
m/s ²
pulg/s ²
pie/s ²
Fuerza
dina
N
Kgf
Lbf
Presión
N.m = 0,102 kg.m
dina/cm ² Pa = N/m ² Kgf/m ² Lbf/pulg ² atmósfera o lbf/pie ²
Trabajo
ergio
(J) Joule
B.T.U
Potencia
ergio/s
Watt (J/s)
H.P
C.V
cal/s
Momento
dina.cm
N.m
Kgm
Lbf.pulg
Lbf.pie
cal
61
Acreditalo ® Derechos Reservados
QUIMICA – COMPUESTOS QUIMICOS
LA ENERGIA EN LAS REACCIONES QUIMICAS
El estudio de las reacciones químicas desde un punto de vista energético mejora la descripción de los
procesos químicos. La entalpía o contenido energético cambia al pasar de los reactivos a los productos
y, junto con la entropía o grado de desorden, determina el que una reacción se produzca o no
espontáneamente. La variación de entalpía en una reacción química no depende del camino seguido
por la reacción, sino sólo de los estados inicial y final.
Las reacciones químicas son procesos de transformación o cambio de unas sustancias en otras. En
ciertas ocasiones, el interés de este tipo de procesos se centra en la obtención de nuevos productos
útiles para la medicina o para la industria; en otras, se persigue la obtención de energía; tal es el caso,
por ejemplo, de la combustión de la gasolina o del carbón. En general, las reacciones químicas llevan
consigo cambios materiales y también cambios energéticos.
El estudio de los procesos químicos requiere,por tanto, algo más que cálculos sobre cuánta cantidad de
productos se forma a partir de una cantidad dada de reactivos. La determinación de la cantidad de
energía puesta en juego en una reacción o la explicación de su carácter espontáneo constituyen
algunas de las cuestiones o aspectos energéticos de las reacciones químicas.
ENERGIA Y PROCESOS QUIMICOS
Conceptos fundamentales
Toda reacción química lleva asociada una variación observable de energía que puede manifestarse en
forma luminosa, eléctrica, mecánica o calorífica, siendo esta última, con mucho, la más frecuente. Para
estudiar un proceso químico desde un punto de vista energético, se suele considerar separadamente el
conjunto de sustancias en transformación, denominado genéricamente sistema , del resto, que recibe el
nombre de medio o entorno . De acuerdo con lo anterior, las reacciones químicas implican una
transferencia de energía que en unas ocasiones se lleva a cabo del sistema al medio y en otras en
sentido inverso. Si la reacción lleva consigo un desprendimiento de calor del sistema al medio, se
denomina exotérmica . Por el contrario, si el proceso químico implica la absorción de una cierta cantidad
de calor del medio por parte del sistema, se denomina endotérmica .
Todas las reacciones de combustión son exotérmicas; así, la reacción de combustión del hidrógeno
libera gran cantidad de calor:
H2 + ½O2
H2 O + calor
Por el contrario, la reacción de descomposición del carbonato de calcio es endotérmica pues requiere la
aportación al sistema de una cierta cantidad de energía calorífica del medio:
CaCO3 + calor
CO2 + CaO
La cantidad de calor desprendido o absorbido en una reacción química, referida a las cantidades de
sustancias, en número de moles, que figuran en la correspondiente ecuación química ajustada, se
denomina calor de reacción . Se expresa en kilocalorías (kcal) o en kilojulios (kJ) y suele situarse en el
segundo miembro de la ecuación; en el caso de que se trate de una reacción endotérmica irá precedido
de un signo menos.
Los calores de reacción dependen de las condiciones de presión, temperatura y estado físico (sólido,
líquido o gaseoso) del sistema; por ello, cuando se pretendan hacer cálculos de energía deben
especificarse en la ecuación química dichas condiciones.
Así la reacción de formación del agua se escribirá en forma completa como:
H2 (g; 1 atmósfera) + ½O2 (g; 1 atmósfera)
298 K
H2 O (g; 1 atmósfera) + 241,8 kJ
Dado que las diferentes sustancias son gaseosas, se ha hecho explícita la presión. En ocasiones, se
sobreentiende que los calores de reacción están referidos a unas condiciones estándar de presión y
temperatura, por lo general 1 atmósfera y 298 K, señalándose únicamente el estado físico. La ecuación
química resultante de añadir toda esta información recibe el nombre de ecuación termoquímica .
El contenido energético de las sustancias químicas
Si en los procesos químicos se producen cesiones o absorciones de energía del sistema al medio, cabe
pensar que tanto los reactivos como los productos almacenan una determinada cantidad de energía,
siendo la diferencia entre ambas la que entra en juego en la reacción química. A tal cantidad de energía
almacenada por cada una de las sustancias se le denomina contenido energético o entalpía y se
representa mediante la letra H.
De acuerdo con esto, en las reacciones endotérmicas el contenido energético de los productos es
superior al de los reactivos; el sistema ha pasado de un estado inicial menos energético a otro final más
energético, y para ello ha sido preciso la absorción de la correspondiente cantidad de energía del medio.
En las reacciones exotérmicas sucede, por el contrario, que el contenido energético de los productos es
inferior al de los reactivos, de modo que el estado final del sistema es menos energético que el estado
62
Acreditalo ® Derechos Reservados
inicial; el sistema ha perdido energía cediéndosela al medio. En aquellas reacciones en las cuales las
condiciones de presión y temperatura se mantienen constantes, la diferencia Δ H de contenido
energético del sistema entre los estados final e inicial, o lo que es lo mismo, la energía puesta en juego
en el proceso, coincide con el calor de reacción que aparece de forma explícita en la ecuación
termoquímica. En las reacciones endotérmicas la variación de entalpía es positiva, Δ H > 0, mientras
que en las exotérmicas es negativa, Δ H < 0.
Cabe preguntarse cuál es, finalmente, la razón por la que en las reacciones químicas se producen estos
cambios de energía. La respuesta se encuentra en la propia naturaleza de los procesos químicos. Una
reacción química implica una ruptura de enlaces y una posterior recomposición de los átomos
resultantes en moléculas diferentes, formadas por nuevos enlaces.
No todos los enlaces son igual de fuertes, es decir, la energía necesaria para romperlos (energía de
enlace) es, en general, diferente, de ahí que toda reorganización implique una variación del contenido
energético del sistema. Si los enlaces de los productos son, en conjunto, más débiles que los de los
reactivos, podrá haber producción de energía y la reacción será exotérmica. Si por el contrario, los
enlaces de los productos son más fuertes que los de los reactivos, habrá sido necesario un aporte de
energía y la reacción será entonces endotérmica.
LA ESPONTANEIDAD DE LAS REACCIONES
El principio de mínima energía
Como en toda la naturaleza, también en las reacciones químicas opera el principio de mínima energía
según el cual los sistemas materiales tienden a evolucionar en el sentido en el que disminuye su energía
potencial. Una bola rueda por un plano inclinado hasta encontrar la posición más baja, que es la de
menor energía; un muelle comprimido se expande para conseguir una condición de mínima deformación
y, por tanto, de mínima energía acumulada, y una reacción química evoluciona hacia estados de menor
contenido energético.
Sucede, en ocasiones, que siendo el contenido energético de los productos inferior al de los reactivos, el
sistema en cuestión no evoluciona espontáneamente como cabría esperar según el principio de mínima
energía. En una parte de los casos, esto es debido a que se precisa una cierta cantidad de energía, por
lo general pequeña, para poner en marcha la reacción, de la misma manera que es preciso dar un
impulso inicial a un bloque de madera para que descienda por un plano inclinado. Esta dosis de energía
inicial se denomina energía de activación y se emplea en la ruptura de los primeros enlaces, que
suministrará energía propia suficiente como para mantener la reacción por sí misma.
El principio de máximo desorden
De acuerdo con el principio de mínima energía,considerado aisladamente, ninguna reacción
endotérmica podría ser espontánea, pues en este tipo de reacciones la energía del sistema aumenta.
Sin embargo, existen en la naturaleza reacciones y procesos que, siendo endotérmicos, se producen
espontáneamente. Ello indica que, junto con la energía, otro factor debe condicionar el carácter
espontáneo de una reacción química. Ese factor adicional es el grado de desorden , también
denominado entropía (S) .
La entropía depende de factores tales como el número de partículas en juego o el estado físico de las
sustancias. Así el estado gaseoso es más desordenado que el líquido o que el sólido y corresponde, por
lo tanto, a una mayor entropía.
Junto con la tendencia a alcanzar el estado de mínima energía, los sistemas químicos tienden de forma
natural a alcanzar el estado de máximo desorden y son ambos factores los que controlan conjuntamente
el carácter espontáneo de las reacciones químicas.
Un balance entre energía y desorden
El hecho observado de que la espontaneidad de las reacciones químicas dependa no sólo de la energía
sino también del desorden, puede explicarse a partir de la siguiente ecuación entre magnitudes físicas:
Δ G = Δ H - T Δ S (23.1)
donde H es el contenido energético o entalpía, T es la temperatura absoluta, S es la entropía y G la
llamada energía libre de Gibbs . Esta magnitud G a la que contribuyen tanto la entalpía como la
entropía, es la que determina el carácter espontáneo de una reacción química. En todos los procesos
espontáneos la energía libre del sistema disminuye, es decir, el valor final de G es menor que el inicial y,
por tanto, Δ G es negativa. De acuerdo con la anterior ecuación, tal disminución (Δ G < 0) podrá ser
debida a una disminución del contenido energético H ( Δ H < 0), a un aumento del desorden (Δ S > 0) o
a ambos.
El resultado final de ese balance entre energía y desorden es entonces el responsable de la
espontaneidad de la reacción. Si T.Δ Ses mayor que Δ H aunque el proceso sea endotérmico (Δ H > 0)
será espontáneo (Δ G < 0). Tal es el caso de la reacción:
N2O4 (g)
2.NO2 (g)
que no es espontánea a 258 K y sí lo es a 358 K, porque, a esa temperatura, el término de desorden T.δ
S predomina sobre el de energía Δ H, con lo que Δ G resulta negativo. Este ejemplo muestra la
63
Acreditalo ® Derechos Reservados
importancia que tiene el factor temperatura a la hora de establecer si una reacción química es o no
espontánea.
Toda reacción exotérmica (Δ H < 0) en la que tenga lugar un aumento de entropía (Δ S > 0) es
espontánea (Δ G < 0). La reacción de descomposición del agua oxigenada constituye un ejemplo:
2.H2 O2 (g; 1 atmósfera)
298 K
2.H2 O (g; 1 atmósfera) + O2 (g; 1 atmósfera) + 211 kJ
En este proceso aumenta el número de partículas (a igualdad de estado gaseoso de reactivos y
productos) por lo que aumenta el desorden; pero además, desprende calor (Δ H < 0). Ambas
circunstancias contribuyen a que la energía libre disminuya y así, el proceso tiene lugar
espontáneamente.
Además de las consideradas anteriormente,existen otras posibilidades para ese balance definido por la
ecuación (23.1). La tabla adjunta las resume esquemáticamente.
APLICACION: EVOLUCION DE UNA REACCION QUIMICA
La reacción de síntesis del amoníaco:
3.H2 (g) + N2 (g)
2.NH3 (g)
viene acompañada, en las condiciones de 298 K de temperatura y una atmósfera de presión, por los
siguientes cambios en las variables termodinámicas H y S:
Δ H = -22,1 kcal
Δ S =-47,4.10-³ kcal/k
Discútase en qué condiciones la reacción se efectuará espontáneamente.
Dado que Δ H es negativa hay una pérdida de contenido energético por parte del sistema, o lo que es lo
mismo, la reacción es exotérmica. Por su parte la entropía disminuye como corresponde a una
disminución en el número de moléculas que pasa de ser cuatro para los reactivos a dos para el
producto.
Para averiguar si a la temperatura considerada la reacción evoluciona espontáneamente será preciso
determinar Δ G y particularmente su signo:
-
Δ G = Δ H - T.Δ S = -22,1 - [298 - (-47,4) .10 ³] = 8,0 kcal
La Δ G resulta negativa, por tanto la reacción es espontánea. Un aumento de temperatura no favorece
la reacción; en efecto, al aumentar la temperatura el segundo término se hace más positivo y por tanto Δ
G resulta menos negativo.
LA LEY DE HESS
Calor de formación y calor de reacción
El calor de formación Δ Hf de una sustancia química representa la energía liberada o consumida durante
la formación de dicha sustancia, en condiciones normales, a partir de los elementos que la constituyen.
Si en tales condiciones se consideran nulos los contenidos energéticos H de los elementos, el calor de
formación Δ Hf de un compuesto coincide con su contenido energético o entalpía. Si se compara la
definición de calor de formación con la de calor de reacción se observa que el calor de formación es un
tipo particular de calor de reacción (el correspondiente a reacciones de formación o de síntesis de un
compuesto).
La determinación de calores de reacción puede efectuarse de un modo experimental si la reacción
correspondiente se lleva a cabo de forma aislada y controlada en el interior de un calorímetro. Sin
embargo, en ocasiones, esto no es posible porque tienen lugar varias reacciones simultáneamente,y no
una sola. En tales casos es posible determinarlos de una forma indirecta, recurriendo a una propiedad
de la entalpía; el hecho de que H sea una función de estado , esto es, que dependa exclusivamente de
los estados inicial y final del sistema, permite calcular calores de reacción a partir del conocimiento de
procesos intermedios.
Ley de Hess
El calor de formación Δ H1 del monóxido de carbono, CO:
C (grafito, s) + ½.O2 (g)
CO (g) ΔH1
no puede determinarse directamente porque en las condiciones en que se produce, parte del CO se
transforma en CO2 . Sin embargo, sí que es posible medir directamente, con la ayuda del calorímetro,
los calores de reacción de los siguientes procesos:
CO (g) + ½.O2 (g)
CO2 (g)
ΔH2 = 282,6 kJ/mol
C (grafito, s) + O2 (g)
ΔH3 = -392,9 kJ/mol
CO2 (g)
El conjunto de estas tres reacciones puede escribirse en la forma:
64
Acreditalo ® Derechos Reservados
Dado que el efecto térmico de una reacción no depende del camino, sino sólo de los estados inicial y
final, se podrá escribir:
Δ H3 = Δ H1 + Δ H2
y por tanto:
Δ H1 = Δ H3 - Δ H2 = -392,9 + 282,6 = 110,3 kJ/mol
Dicho de otro modo cuando una reacción, C + ½.O2
con signos) de otras reacciones:
C + O2
CO2
C + ½.O2
CO2
CO, escribirse como la suma algebraica (suma
(ΔH2 )
C + ½.O2 (-ΔH3 )
CO
(ΔH1 )
su calor de reacción es la suma algebraica de los calores de tales reacciones
(Δ H1 = Δ H2 - Δ H3 ). O en otros términos: el calor de la reacción de un determinado proceso químico es
siempre el mismo, cualquiera que sea el camino seguido por la reacción, o sus etapas intermedias.
El contenido de este enunciado recibe el nombre de Ley de Hess . De acuerdo con esa misma ley, los
calores de reacción pueden calcularse a partir de los calores de formación de reactivos y productos.
El siguiente diagrama representa los procesos de formación y reacción de reactivos y productos, y sus
relaciones en términos energéticos:
Aplicando la ley de Hess a los dos diferentes caminos que conectan reactivos y productos e igualando
ambos términos resulta:
Δ H = -Δ Hf (reactivos) + 0 + Δ Hf (productos)
es decir:
Δ H = Δ Hf (productos) - Δ Hf (reactivos)
Por tanto, el calor de reacción de un proceso químico resulta ser igual a la diferencia entre los calores
de formación de los productos y los calores de formación de los reactivos:
Δ H =(suma calores de formación de productos) - (suma calores de formación de reactivos)
CALOR DE REACCION Y ENERGIA DE ENLACE
La energía de enlace es la cantidad de energía que se libera en la formación de un enlace entre átomos
cuando reaccionan en estado gaseoso. Constituye una medida de la fuerza del enlace covalente; así,
por ejemplo, a un enlace sencillo carbono-carbono le corresponde una energía de enlace de -83,1
kcal/mol; a uno doble -147 kcal/mol y a uno triple -194 kcal/mol. Desde el punto de vista de la
termoquímica,se puede interpretar como la variación de entalpía H correspondiente a una reacción del
tipo:
A (g) + B (g)
A - B (g)
efectuada en condiciones de 1 atmósfera de presión y 298 K de temperatura, siendo A y B los átomos
considerados. La energía de enlace Δ H(A - B) es siempre negativa, pues en la unión disminuye el
contenido energético del sistema, haciéndose más estable.
La aplicación de la ley de Hess permite determinar el calor de reacción a partir de las energías de
enlace y viceversa. Como ejemplo de la primera posibilidad puede considerarse el cálculo del calor de
reacción del proceso:
H-C≡C-H +
H2
H3 C-CH3
acetileno hidrógeno
etano
en el cual se rompen dos enlaces H — H y un enlace C ≡C y aparecen un enlace
65
Acreditalo ® Derechos Reservados
C —C y cuatro enlaces H —C nuevos. El balance global de estas operaciones parciales en términos de
variación del contenido energético será:
Δ Hf = Δ H(C — C) + 4Δ H(C— H) - [Δ H(C ≡ C) + 2Δ H(H— H)]
A partir de las energías de enlace correspondientes, supuestas conocidas, se calcula entonces el calor
de reacción.
Como ejemplo de la segunda posibilidad, se presenta el cálculo de la energía de enlace H —Cl a partir
del calor de formación Δ Hf del HCI y de las energías de los enlaces H —H y Cl — Cl (supuestas
conocidas).
La formación del HCI puede efectuarse por los siguientes caminos:
De acuerdo con la ley de Hess:
Δ H1 = Δ H2 + Δ H3
en donde,
Δ H1 = 2.Δ H.(H — Cl)
Δ H2 = Δ H.(H — H) + Δ H.(Cl — CI)
Δ H3 = 2. δ Hf
por tanto:
ΔH (H-Cl) = ½[ΔH (H-H) + ΔH (Cl-Cl) + 2.Δ.Hf ]
LA MATERIA EN LAS REACCIONES QUIMICAS
Las reacciones químicas son procesos de cambio de unas sustancias en otras. De acuerdo con la teoría
atómica de la materia se explican como el resultado de un reagrupamiento de átomos para dar nuevas
moléculas. Las sustancias que participan en una reacción química y las proporciones en que lo hacen,
quedan expresadas en la ecuación química correspondiente, que sirve de base para la realización de
diferentes tipos de cálculos químicos.
La naturaleza es dinámica. Tanto la materia viva como la inerte sufren continuamente procesos de
transformación, de los cuales los más importantes son los que afectan a su constitución. La formación
de las rocas, la erosión química de las aguas, el nacimiento de una planta o la respiración de un
mamífero son procesos observables que suponen cambios de unas sustancias en otras. Todos ellos,
más allá de sus diferencias, tienen algo en común: implican transformaciones a escala molecular, que
son las responsables de los cambios materiales observables a simple vista.
LAS REACCIONES QUIMICAS
Conceptos fundamentales
Una molécula de una determinada sustancia pura constituye el representante elemental de dicha
sustancia, es decir, la cantidad más pequeña de ella que posee todas sus propiedades químicas.
Cuando una sustancia dada, bajo ciertas condiciones, se transforma en otra u otras con diferentes
propiedades, se ha de pensar que algo ha ocurrido a nivel molecular.
De forma espontánea unas veces y provocada otras, los átomos, que en número y proporciones fijas
forman unas moléculas determinadas, pueden desligarse unos de otros por rotura de sus enlaces y
reunirse nuevamente de diferente manera, dando lugar, por tanto, a nuevas moléculas. El efecto
conjunto de estas transformaciones moleculares se traducirá en un cambio observable de sustancia o
cambio químico. Dicho proceso de transformación recibe el nombre de reacción química. Con
frecuencia, sustancias formadas por iones participan en las reacciones químicas. En tales casos, las
moléculas de la descripción anterior deben ser consideradas realmente como agregados iónicos.
En las reacciones químicas la sustancia o sustancias iniciales se denominan reactivos y las finales
productos;el proceso de transformación se representa mediante las llamadas ecuaciones químicas en la
forma:
reactivos
(reacción química)
productos
Tanto los reactivos como los productos se escriben mediante sus fórmulas correspondientes. La flecha
indica el sentido de la transformación. Si es posible conviene indicar en la ecuación química el estado
físico de reactivos y productos, el cual se suele expresar mediante las siguientes abreviaturas situadas a
continuación de la fórmula química:
(s)sólido, (l) líquido, (g) gas, (aq) solución acuosa
Cada uno de los símbolos químicos que aparecen en la ecuación no sólo constituye la abreviatura del
nombre del elemento correspondiente, sino que además representa un átomo de dicho elemento.
Análogamente sucede con la fórmula de un compuesto, la cual designa a dicho compuesto y muestra
66
Acreditalo ® Derechos Reservados
los átomos (o los iones) que componen su molécula (o su agregado iónico elemental) así como la
relación numérica entre ellos.
Esta forma simbólica de escribir las reacciones químicas constituye, por tanto, la descripción de las
transformaciones a nivel molecular que aquéllas implican. La representación visual de tales procesos
puede efectuarse recurriendo a modelos o construcciones mediante esferas que reproducen la
estructura aproximada de la molécula o del agregado iónico en cuestión. En este tipo de modelos, cada
esfera, con su correspondiente color, representa un átomo o un ion y el conjunto describe la forma
exterior de la molécula o del agregado iónico.
Tipos de reacciones químicas
El reagrupamiento que experimentan los átomos de los reactivos en una transformación química puede
ser de diferentes tipos. He aquí algunos de ellos:
a) Reacciones de síntesis. Se caracterizan porque los productos son sustancias más complejas, desde
un punto de vista químico, que los reactivos. La formación de un compuesto a partir de sus elementos
correspondientes es el tipo de reacción de síntesis más sencilla. Así, el cobre, a suficiente temperatura,
se combina con el azufre para formar sulfuro de cobre (I) según la reacción:
2.Cu (s) + S (s)
calor
Cu2S (s) sulfuro de cobre (I)
b) Reacciones de descomposición. Al contrario que en las reacciones de síntesis, los productos son en
este caso sustancias más sencillas que los reactivos. Así, cuando el carbonato de cobre se calienta
fuertemente se descompone según la reacción:
CuCO3 (s)
calor
CuO (s) + CO2 (s)
c) Reacciones de desplazamiento. Tienen lugar cuando siendo uno de los reactivos una sustancia
simple o elemento, actúa sobre un compuesto desplazando a uno de sus elementos y ocupando el lugar
de éste en la correspondiente molécula. Así las reacciones de ataque de los metales por los ácidos
llevan consigo la sustitución del hidrógeno del ácido por el metal correspondiente. Tal es el caso de la
acción del ácido clorhídrico sobre limaduras de hierro que tiene lugar en la forma:
Fe (s) + 2.HCl (aq)
FeCl2 (s) + H2 (g)
d) Reacciones de doble descomposición. Se producen entre dos compuestos y equivalen a un
intercambio o sustitución mutua de elementos que da lugar a dos nuevas sustancias químicamente
análogas a las primeras. Así el sodio desplaza a la plata en el nitrato de plata,pero es a su vez
desplazado por aquélla en el cloruro de sodio:
NaCl + AgNO3
NaNO3 + AgCl
MASA Y VOLUMEN EN LAS REACCIONES
La conservación de la masa
Toda reacción química establece una relación cualitativa entre reactivos y productos, pues expresa la
naturaleza de éstos en función de la de aquéllos. Pero, además,fija las proporciones o cantidades
medibles en las que unos y otros intervienen. El fundamento de esta relación cuantitativa entre las
diferentes sustancias que participan en una reacción dada fue establecido en la última mitad del siglo
XVIII por el químico francés Antoine Laurent Lavoisier (1743-1794). La aplicación de la balanza y de la
medida de masas al estudio de multitud de reacciones químicas le permitió descubrir que en cualquier
proceso químico la suma de las masas de las sustancias que intervienen (reactivos) es idéntica a la de
las sustancias que se originan como consecuencia de la reacción (productos). Es decir, en toda reacción
química la masa no se crea ni se destruye, sólo cambia de unas sustancias a otras.
La teoría atómica dio una sencilla interpretación a esta ley de conservación. Si los átomos no son
alterados esencialmente en las reacciones químicas,sino únicamente las moléculas, el número de
átomos de cada elemento que constituye los reactivos ha de coincidir exactamente con el
correspondiente de los productos, por lo que la masa total en juego se mantendrá constante en la
reacción. La ley de conservación de la masa de Lavoisier constituyó una pieza fundamental en el
desarrollo y consolidación de la química como ciencia.
Las proporciones en masa en las combinaciones químicas
El estudio de las cantidades en las que diferentes sustancias participan en una reacción química fue
objeto de la atención de los primeros químicos. Junto con Lavoisier, Proust (1754-1826), John Dalton
(1766-1844) y Richter (1824-1898) enunciaron diferentes leyes que en conjunto se conocen como leyes
ponderales o relativas al peso. La utilización del concepto de peso en química sería sustituida más
adelante por el de masa, de modo que las leyes ponderales hacen referencia a las proporciones en
masa características de las combinaciones químicas. Dichas leyes fueron enunciadas en su mayoría,
antes de que se dispusiese de un modelo atómico sobre la constitución de la materia y contribuyeron
notablemente a la formulación por John Dalton de dicho modelo.
La ley de Proust o de las proporciones definidas o constantes: Cuando dos o más elementos se
combinan para formar un compuesto lo hacen en una relación ponderal (o de masas) fija y definida.
Esta ley indica que la composición de una combinación es siempre la misma y que, por lo tanto, el
porcentaje o proporción en la que intervienen los diferentes elementos es constante y característica de
67
Acreditalo ® Derechos Reservados
la sustancia compuesta considerada. Así en el amoníaco (NH3) la proporción en masa
nitrógeno/hidrógeno es de 4,67:1 cualquiera que sea la muestra que se considere.
La ley de Dalton o de las proporciones múltiples: Cuando dos elementos se unen para formar más de un
compuesto, las cantidades de un mismo elemento que se combinan con una cantidad fija del
otro,guardan entre sí una relación que corresponde a números enteros sencillos.
Para ilustrar el significado de esta ley puede considerarse el caso de los óxidos de carbono; distintas
experiencias de síntesis indican que es posible conseguir dos combinaciones diferentes de carbono y
oxígeno. En una de ellas las masas de oxígeno y carbono que se combinan están en una relación de 4 a
3, es decir,
O/C = 4/3; se trata del monóxido de carbono (CO). En la otra, dicha relación es de 8 a 3, O/C = 8/3; se
trata en este caso del dióxido de carbono (CO2). Ambos cocientes representan la cantidad de oxígeno
que se combina por unidad de masa de carbono para formar los óxidos. De acuerdo con la ley, tales
cantidades guardan entre sí una relación entera sencilla: 8/3 ÷ 4/3 = 2.
La ley de Richter o de las proporciones recíprocas: Las masas de dos elementos diferentes que se
combinan con una misma cantidad de un tercer elemento, guardan la misma relación que las masas de
aquellos elementos cuando se combinan entre sí.
Considerando los compuestos Cl2O y H2O las cantidades de cloro e hidrógeno que se combinan con
16,0 g de oxígeno son 72,0 y 2,0 g respectivamente. Lo que indica la ley de Richter es que cuando Cl y
H se combinan para formar HCI lo hacen en la proporción de 72,0/2.
Las leyes ponderales pueden interpretarse de una forma sencilla recurriendo a las fórmulas químicas, al
concepto de masa atómica y al modelo atómico de Dalton que se esconde detrás de estos conceptos.
Así la ley de Proust es consecuencia de que la composición en cuanto al tipo de átomos y a su número
en una fórmula dada sea siempre la misma. La ley de Dalton refleja la existencia de las diferentes
valencias químicas de un elemento que se traducen en subíndices definidos en las fórmulas de sus
combinaciones con otro elemento dado. La ley de Richter puede considerarse como una consecuencia
de la de Proust y de las propiedades aritméticas de las proporciones.
Las proporciones en volumen en las combinaciones químicas
La importancia de la medida en el desarrollo de la química alcanzó también a los volúmenes de las
sustancias gaseosas en las reacciones químicas. El químico francés Gay Lussac estudió con detalle
algunas reacciones químicas entre gases tales como la síntesis del vapor de agua y del amoníaco a
partir de sus elementos correspondientes. En todos los casos las proporciones de los volúmenes de las
sustancias guardaban una cierta regularidad que la expresó en forma de ley.
La ley de Gay Lussac de los volúmenes de combinación: En cualquier reacción química, los volúmenes
de las sustancias gaseosas que intervienen en ella, medidos en las mismas condiciones de presión y
temperatura, guardan entre sí una relación que corresponde a números enteros sencillos.
Así, dos volúmenes de hidrógeno se combinan con uno de oxígeno para dar uno de vapor de agua. Un
volumen de cloro se combina con otro de hidrógeno para dar dos de cloruro de hidrógeno. Un volumen
de nitrógeno se combina con tres de hidrógeno para dar dos de amoníaco.
Los experimentos de Gay Lussac indicaban que el volumen de la combinación gaseosa resultante era
igual o menor que la suma de los volúmenes de las sustancias gaseosas reaccionantes; por lo tanto, los
volúmenes de combinación no podían, en general, sumarse. La ley de Gay Lussac enunciada en 1808
se limitaba a describir los resultados de los experimentos de un modo resumido, pero no los explicaba.
La explicación a dicha ley sería efectuada tres años más tarde por el físico italiano Amadeo Avogadro
(1776-1856).
La ley de Avogadro: En las mismas condiciones de presión y temperatura, volúmenes iguales de gases
diferentes contienen igual número de moléculas.
Avogadro era conocedor del trabajo de Gay Lussac y particularmente de su descubrimiento de que el
volumen de un gas aumenta con la temperatura en una proporción que es la misma para todos los
gases (1.ª ley de Gay Lussac). Este resultado le sugirió que, si la composición de la molécula de la
sustancia gaseosa no influía en la relación entre volumen y temperatura, dicha relación debería
depender del número de moléculas existente; es decir, a igualdad de presión y temperatura el volumen
de un gas debería ser proporcional al número de moléculas contenidas en él. Además, Avogadro
especificó que las moléculas de los elementos gaseosos debían ser diatómicas (H2, O2, Cl2, etc.). Esta
idea entraba en conflicto con la sostenida erróneamente por Dalton, pero junto con la anterior, explicaba
la ley de los volúmenes de combinación. De acuerdo con ella los resultados de las experiencias de Gay
Lussac representados por medio de ecuaciones químicas toman la forma:
2.H2(g) + O2(g)
2.vol + 1.vol
N2 + 3.H2
1.vol + 3.vol
Cl2 + H2
1.vol + 1.vol
2.H2O(g)
2.vol
2.NH3
2.vol
2.HCI
2.vol
68
Acreditalo ® Derechos Reservados
y muestran por qué las proporciones en volumen corresponden a números sencillos.
Empleando algunas ecuaciones de la física puede demostrarse que un mol de cualquier gas, es decir,
6,029.1023 moléculas, medido en condiciones normales de presión y temperatura (0 °C y 1 atmósfera de
presión), ocupa un volumen de 22,4 litros. Esta cantidad recibe el nombre de volumen molar y permite
expresar, sólo para sustancias gaseosas,una misma cantidad de sustancia en moles, su volumen
correspondiente en litros o su masa en gramos.
MASA Y ENERGIA
En 1789 Lavoisier escribía: «Debemos considerar como un axioma incontestable que en todas las
operaciones del Arte y la Naturaleza, nada se crea; la misma cantidad de materia existe antes y
después del experímento... y no ocurre otra cosa que cambios y modificaciones en la combinación de
estos elementos. »
El principio de la conservación de la masa en las reacciones químicas ha sido puesto en duda en
diferentes ocasiones desde que fuera formulado por Lavoisier, sin embargo, hasta la llegada de la teoría
de la relatividad de Albert Einstein en 1905 esa intuición vaga de algunos científicos no se vería
materializada en un resultado positivo. De acuerdo con Albert Einstein «si un cuerpo cede la energía Δ E
en forma de radiación,su masa disminuye en Δ E/ c ². La masa de un cuerpo es una medida de su
contenido energético; si la energía cambia en Δ E,la masa del cuerpo cambia en el mismo sentido en Δ
8
E/(3.10 ) ²». Su famosa ecuación:
Δ E = m.c ²
8
siendo c = 3.10 m/s la velocidad de la luz, indica que en todo cambio de materia, y también en los
procesos químicos,la absorción o la liberación de energía debe ir acompañada de un aumento o una
disminución de la masa del sistema.
Lo que sucede, sin embargo, es que debido a la enorme magnitud de la constante c ² las variaciones de
energía que se producen en las reacciones químicas se corresponden con cambios de masa ínfimos
que no pueden ser detectados ni por las balanzas analíticas más precisas. Se hace así buena la
afirmación de Hans Landolt, uno de los químicos que pusieron a prueba la ley de Lavoisier, quien en
1909 afirmaba: «La prueba experimental de la ley de conservación de la masa puede considerarse
completa. Si existe alguna desviación será menor de la milésima de gramo.» La ley de Lavoisier sigue,
por tanto, siendo válida, al menos en términos prácticos, en el dominio de la química.
En las reacciones nucleares, sin embargo, las energías liberadas son mayores y la ley de conservación
de la masa se funde con la de conservación de la energía en un solo principio. La ley de Lavoisier
generalizada con la importante aportación de Albert Einstein, puede escribirse en la forma:
Σ(masa + energía/c ²) = constante
que indica que, en un sistema cerrado, la suma de las masas incrementada en el término equivalente de
energía se mantiene constante.
APLICACION: CALCULOS ESTEQUIOMETRICOS (II)
Cuando se vierte ácido clorhídrico sobre limaduras de cinc, se produce la siguiente reacción con
desprendimiento de hidrógeno gaseoso:
Zn (s) + HCl (aq)
ZnCl2 (s) + H2 (g)
Determinar qué volumen de hidrógeno, medido en condiciones normales, se recogerá cuando son
atacados 30 g de Zn. ¿Cuántas moléculas de hidrógeno estarán contenidas en dicho volumen?
Para ajustar la reacción bastará en este caso multiplicar por 2 el HCI:
Zn + 2.HCl
ZnCl2 + H2
De ella se deduce que por cada mol de átomos de Zn se producirá un mol de moléculas de H2, pues la
relación entre sus respectivos coeficientes es de 1:1. Pero un mol de átomos de Zn tiene una masa igual
a un átomo-gramo de dicho metal,esto es, a 65,4 g. Asimismo, un mol de H2 ocupa 22,4 I en
condiciones normales, luego estableciendo la siguiente relación de proporcionalidad:
65,4 g de Zn/22,4 l de H2 = 30 g de Zn/x
resulta:
x = 30.22,4/65,4 = 10,3 l de H2
23
Recordando ahora que un mol de cualquier sustancia contiene 6,02 · 10 moléculas, la segunda parte
del problema se resuelve recurriendo ahora a la proporcionalidad entre volumen y número de moles:
23
22,4 l de H2/6,02.10
moléculas = 10,3 l de H2/x
23
23
x = 10,3.6,02.10 /22,4 = 2,76.10 moléculas
ECUACIONES QUIMICAS
El balance de materia en las reacciones químicas
Partiendo de la ley de conservación de la masa y de su relación con la teoría atómica de la materia
permiten enfocar el estudio de las reacciones químicas como si se tratara de un balance entre átomos
de una misma especie.
69
Acreditalo ® Derechos Reservados
Para que dicho balance cuadre, se han de introducir, con frecuencia, algunos coeficientes numéricos
que permiten igualar el número de átomos de cada elemento a uno y otro lado de la flecha. Cuando esto
se consigue se dice que la reacción química está ajustada, lo que significa que puede ser considerada,
en sentido estricto, como una igualdad o ecuación química.
Dado que las masas de los diferentes átomos son conocidas, las ecuaciones ajustadas se convierten,
en primer término, en relaciones entre las masas de sustancias que intervienen en la reacción. Ello hace
posible la realización de cálculos químicos precisos sobre la base que proporcionan las ecuaciones
químicas ajustadas, sus símbolos y sus coeficientes numéricos. Así, la reacción de descomposición del
óxido de cobre (II) una vez ajustada es:
2.CuO (s)
calor
2.Cu (s) + O2 (g)
e indica que por cada dos moléculas de óxido de cobre (II) se forman dos átomos de cobre y una
molécula de oxígeno. Tratando dicha ecuación química como si de una ecuación matemática se tratara,
es posible multiplicar ambos miembros por un mismo número N sin que se altere la igualdad, es decir:
2.N.CuO (s)
calor
2.N.Cu (s) + N.O2 (g)
Si N representa el número de Avogadro NAo número de partículas que componen un mol, entonces la
ecuación anterior puede interpretarse en términos de moles; dos moles de CuO se descomponen en dos
moles de Cu y un mol de O2. Por tanto los coeficientes de una ecuación química ajustada representan
también la proporción en número de moles, de reactivos y productos que participan en la reacción.
Cuando las sustancias son gaseosas, de acuerdo con la hipótesis de Avogadro, cada mol equivale a un
volumen de sustancia de 22,4 litros medidos en condiciones normales de presión y temperatura. Ello
significa que, junto con cálculos de masas, es posible efectuar cálculos de volúmenes en aquellos casos
en que intervengan sustancias gaseosas.
El ajuste de las ecuaciones químicas
El conocimiento de cuestiones tales como qué productos cabe esperar a partir de unos reactivos
determinados, qué reactivos darán lugar a ciertos productos o incluso si una reacción dada es o no
posible, son cuestiones que se aprenden con la práctica. Sin embargo, conocidos los reactivos y los
productos, el ajuste de la reacción correspondiente constituye una mera consecuencia de la ley de
Lavoisier de conservación de la masa. Además ésta es una operación previa a la realización de muchos
de los problemas de química básica.
Uno de los procedimientos habituales empleados para ajustar una reacción química puede describirse
en los siguientes términos:
1. Se escribe la reacción química en la forma habitual:
reactivos
productos
2. Se cuenta el número de átomos de cada elemento en uno y otro miembro de la ecuación. Si son
iguales para cada uno de los elementos presentes, la ecuación está ajustada.
3. Si no es así, será preciso multiplicar las fórmulas de los reactivos y productos por ciertos coeficientes
tales que produzcan la igualdad numérica deseada. La búsqueda de este conjunto de coeficientes
puede hacerse mediante tanteos. No obstante, este procedimiento de ensayo y error no siempre es
efectivo y puede ser sustituido por otro más sistemático, que equivale a plantear un sistema de
ecuaciones con dichos coeficientes como incógnitas.
Tornando como ejemplo de referencia la reacción de combustión del propano:
C3H8 + O2
CO2 + H2O
estos serían los pasos a seguir:
a) Se fijan unos coeficientes genéricos a, b,c, d:
a.C3H8 + b.O2
c.CO2 + d.H2O
b) Se impone la ley de conservación de la masa a nivel atómico, para lo cual se iguala, para cada
elemento diferente, el producto de su subíndice por su coeficiente,en ambos miembros de la ecuación
química:
Para el C
Para el H
Para el O
3a = c
8a = 2d
2b = 2c + d
c) Se resuelve el sistema. Si, como en el ejemplo, el número de coeficientes es superior en una unidad
al de elementos, entonces se iguala cualquiera de ellos a uno. Si una vez resuelto el sistema, los
coeficientes resultantes fueran fraccionarios, se convierten en enteros multiplicando todos ellos por su
mínimo común denominador:
a=1
b=5
c=3
d=4
d) Se sustituyen los valores en la ecuación de partida y se comprueba que el ajuste es correcto
mediante el correspondiente recuento de átomos de cada elemento en uno y otro miembro de la
ecuación química:
70
Acreditalo ® Derechos Reservados
C3H8 + 5.O2
3.CO2 + 4.H2O
Listado de los 64 compuestos inorgánicos ácidos mas comunes
Fórmula
Clase
Nomenclatura
H2O
H2O2
B2O3
Br2O
Br2O3
Br2O5
Br2O7
Cl2O
Cl2O3
Cl2O5
Cl2O7
CO
CO2
CrO2
CrO3
I2 O
I2 O3
I2 O5
I2 O7
Mn2O7
MnO2
MnO3
N2O3
N2O5
P2O3
P2O5
SO
SO2
SO3
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Oxido ácido o anhídrido
Agua
Peróxido de hidrógeno
Bórico
Hipobromoso
Bromoso
Brómico
Perbrómico
Hipocloroso
Cloroso
Clórico
Perclórico
Monóxido de carbono
Dióxido de carbono
Cromoso
Crómico
Hipoyodoso
Yodoso
Yódico
Periódico
Permangánico
Manganoso
Mangánico
Nitroso
Nítrico
Fosforoso
Fosfórico
Monóxido de azufre
Dióxido de azufre
Trióxido de azufre
H2CO3
H2CrO3
H2CrO4
H2MnO3
H2MnO4
H2S
H2SO3
H2SO4
H3BO3
H3PO3
H3PO4
H4P2O5
H4P2O7
HBr
HBrO
HBrO2
HBrO3
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Acido u hidrácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Acido u hidrácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Carbónico
Cromoso
Crómico
Manganoso
Mangánico
Sulfhídrico
Sulfuroso
Sulfúrico
Bórico
Ortofosforoso
Ortofosfórico o Fosfórico
Pirofosforoso
Pirofosofórico
Bromhídrico
Hipobromoso
Bromoso
Brómico
71
Acreditalo ® Derechos Reservados
HBrO4
HCl
HClO
HClO2
HClO3
HClO4
HF
HI
HIO
HIO2
HIO3
HIO4
HMnO4
HNO2
HNO3
HPO2
HPO3
Acido u oxoácido
Acido u hidrácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Acido u hidrácido
Acido u hidrácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Acido u oxoácido
Perbrómico
Clorhídrico
Hipocloroso
Cloroso
Clórico
Perclórico
Fluorhídrico
Yodhídrico
Hipoyodoso
Yodoso
Yódico
Periódico
Permangánico
Nitroso
Nítrico
Metafosforoso
Metafosfórico
Listado de los 60 compuestos inorgánicos básicos mas comunes
Fórmula
Clase
Nomenclatura
Ag2O
Al2O3
Au2O
Au2O3
BaO
BeO
Bi2O3
Bi2O5
CaO
Cr2O3
CrO
Cu2O
CuO
Fe2O3
FeO
Hg2O
HgO
K2O
Li2O
MaO
Mn2O3
MnO
Na2O
Ni2O3
NiO
PbO
PbO2
SnO
SnO2
ZnO
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
Oxido básico
De plata
De aluminio
Auroso
Aúrico
De bario
De berilio
Bismutoso
Bismútico
De calcio
Crómico
Cromoso
Cuproso
Cúprico
Férrico
Ferroso
Mercurioso
Mercúrico
De potasio
De litio
De magnesio
Mangánico
Manganoso
De sodio
Niquélico
Niqueloso
Plumboso
Plúmbico
Stanoso
Stánico
De cinc
72
Acreditalo ® Derechos Reservados
Ag(OH)
Al(OH)3
Au(OH)
Au(OH)3
Ba(OH)2
Be(OH)2
Bi(OH)3
Bi(OH)5
Ca(OH)2
Cr(OH)2
Cr(OH)3
Cu(OH)
Cu(OH)2
Fe(OH)2
Fe(OH)3
Hg(OH)
Hg(OH)2
K(OH)
Li(OH)
Ma(OH)2
Mn(OH)2
Mn(OH)3
Na(OH)
Ni(OH)2
Ni(OH)3
Pb(OH)2
Pb(OH)4
Sn(OH)2
Sn(OH)4
Zn(OH)2
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
Hidróxido
De plata
De aluminio
Auroso
Aúrico
De bario
De berilio
Bismutoso
Bismútico
De calcio
Cromoso
Crómico
Cuproso
Cúprico
Ferroso
Férrico
Mercurioso
Mercúrico
De potasio
De litio
De magnesio
Manganoso
Mangánico
De sodio
Niqueloso
Niquélico
Plumboso
Plúmbico
Stanoso
Stánico
De cinc
73
Acreditalo ® Derechos Reservados
QUIMICA - ENLACES QUIMICOS
ENLACES QUIMICOS
Introducción
Cuándo hacemos leche en polvo, o cuando le echamos azúcar al té, ¿desaparece la leche o el azúcar?
Claro que no, uno respondería que estos se están disolviendo en el agua. Pero en realidad, ¿Qué
sucede? ¿Por qué sucede? Son hechos tan comunes que se nos olvida hacernos estas preguntas. En
realidad lo que sucede es que la leche y el azúcar son solutos, que serán disueltos en un solvente como
el agua. Pero ¿qué es lo que en realidad sucede? ¿Qué son los solutos y los solventes? Bueno estas
preguntas serán respondidas en este informe.
Este informe habla de enlaces y soluciones, pero, para entenderlos hay que empezar por conocer el
significado de estas palabras, para luego poder pasar a un lenguaje más técnico. Enlace significa unión,
un enlace químico es la unión de dos o más átomos que se han unido con un solo fin, alcanzar la
estabilidad, tratar de parecerse al gas noble más cercano, para la mayoría de los elementos alcanzar
ocho electrones en su último nivel. Las soluciones son mezclas homogéneas, no se distinguen sus
componentes como separados, entre al menos dos reactantes un soluto, que es él que será disuelto, y
un solvente, que es él que disolverá al soluto.
¿Qué mantiene unidos a los Atomos?
Un concepto básico en química es el estudio de cómo los átomos forman compuestos. La mayoría de
los elementos que conocemos existen en la naturaleza formando agrupaciones de átomos iguales o de
distintos tipos, enlazados entre sí.
Todos los compuestos están constituidos por dos o más átomos de un o más elementos diferentes,
unidos entre sí por enlaces ya sean estos iónicos o covalentes.
Tipos De Enlace
Si los átomos enlazados son elementos metálicos, el enlace se llama metálico. Los electrones son
compartidos por los átomos, pero pueden moverse a través del sólido proporcionando conductividad
térmica y eléctrica, brillo, maleabilidad y ductilidad.
Si los átomos enlazados son no metales e idénticos (como en N2 o en O2), los electrones son
compartidos por igual por los dos átomos, y el enlace se llama covalente apolar. Si los átomos son no
metales pero distintos (como en el óxido nítrico, NO), los electrones son compartidos en forma desigual
y el enlace se llama covalente polar -polar porque la molécula tiene un polo eléctrico positivo y otro
negativo, y covalente porque los átomos comparten los electrones, aunque sea en forma desigual. Estas
sustancias no conducen la electricidad, ni tienen brillo, ductilidad o maleabilidad.
Cuando una molécula de una sustancia contiene átomos de metales y no metales, los electrones son
atraídos con más fuerza por los no metales, que se transforman en iones con carga negativa; los
metales, a su vez, se convierten en iones con carga positiva. Entonces, los iones de diferente signo se
atraen electrostáticamente, formando enlaces iónicos. Las sustancias iónicas conducen la electricidad
cuando están en estado líquido o en disoluciones acuosas, pero no en estado cristalino, porque los
iones individuales son demasiado grandes para moverse libremente a través del cristal.
Cuando los electrones son compartidos simétricamente, el enlace puede ser metálico o covalente
apolar; si son compartidos asimétricamente, el enlace es covalente polar; la transferencia de electrones
proporciona enlace iónico. Generalmente, la tendencia a una distribución desigual de los electrones
entre un par de átomos aumenta cuanto más separados están en la tabla periódica.
74
Acreditalo ® Derechos Reservados
Para la formación de iones estables y enlace covalente, la norma más común es que cada átomo
consiga tener el mismo número de electrones que el elemento de los gases nobles -grupo 18- más
cercano a él en la tabla periódica. Los metales de los grupos 1 (o IA) y 11 (o IB) de la tabla periódica
tienden a perder un electrón para formar iones con una carga positiva; los de los grupos 2 (o IIA) y 12 (o
IIB) tienden a perder dos electrones para formar iones con dos cargas positivas, y de la misma forma los
de los grupos 3 (o IIIB) y 13 (o IIIA) tienden a formar iones con tres cargas positivas. Por la misma
razón, los halógenos, grupo 17 (o VIIA), tienden a ganar un electrón para formar iones con una carga
negativa, y los elementos del grupo 16 (o VIA) a formar iones con dos cargas negativas. Sin embargo,
conforme aumenta la carga neta de un ion, éste tiene menos estabilidad, así que las cargas
aparentemente mayores serían minimizadas compartiendo los electrones covalentemente.
El enlace covalente se forma cuando ambos átomos carecen del número de electrones del gas noble
más cercano. El átomo de cloro, por ejemplo, tiene un electrón menos que el átomo de argón (17 frente
a 18). Cuando dos átomos de cloro forman un enlace covalente compartiendo dos electrones (uno de
cada átomo), ambos consiguen el número 18 del argón (Cl~~Cl). Es común representar un par de
electrones compartido por medio de un guión entre los átomos individuales: Cl~~Cl se escribe Cl-Cl.
Otros Elementos De Un Enlace
Iones
Los átomos están constituidos por el núcleo y la corteza y que el número de cargas positivas del primero
es igual al número de electrones de la corteza; de ahí su electronegatividad. Si la corteza electrónica de
un átomo neutro pierde o gana electrones se forman los llamados iones.
Los iones son átomos o grupos atómicos que tienen un número de electrones excesivo o deficiente para
compensar la carga positiva del núcleo.
En el primer caso los iones tienen carga negativa y reciben el nombre de aniones, y en el segundo están
cargados positivamente y se llaman cationes.
Elementos electropositivos y electronegativos
Se llaman elementos electropositivos aquellos que tienen tendencia a perder electrones
transformándose en cationes; a ese grupo pertenecen los metales.
Elementos electronegativos son los que toman con facilidad electrones transformándose en aniones; a
este grupo pertenecen los metaloides.
Los elementos más electropositivos están situados en la parte izquierda del sistema periódico; son los
llamados elementos alcalinos. A medida que se avanza en cada período hacia la derecha va
disminuyendo el carácter electropositivo, llegándose, finalmente, a los halógenos de fuerte carácter
electronegativo.
Electrones de valencia
La unión entre los átomos se realiza mediante los electrones de la última capa exterior, que reciben el
nombre de electrones de valencia.
La unión consiste en que uno o más electrones de valencia de algunos de los átomos se introduce en la
esfera electrónica del otro.
Los gases nobles, poseen ocho electrones en su última capa, salvo el helio que tiene dos. Esta
configuración electrónica les comunica inactividad química y una gran estabilidad.
Todos los átomos tienen tendencia a transformar su sistema electrónico y adquirir el que poseen los
gases nobles, porque ésta es la estructura más estable.
Valencia electroquímica
Se llama valencia electroquímica al número de electrones que ha perdido o ganado un átomo para
transformarse en ion. Si dicho número de electrones perdidos o ganados es 1, 2, 3, etc. Se dice que el
ion es monovalente, bivalente, trivalente, etc.
Tipo de
enlace
Tipo de
estructura
Ejemplo de
estructura
Enlace iónico
Red
iónica
Ejemplo: KCl
Enlace
covalente
Moléculas
simples
Cloruro de
potasio, KCl
Propiedades
características
Sólidos cristalinos.
Puntos de fusión elevados.
Puntos de ebullición elevados.
Solubles en agua.
Conducen la electricidad fundidos o en
disolución.
No conducen la electricidad en estado sólido.
Fundamentalmente líquidos y gases.
Puntos de fusión bajos.
Puntos de ebullición bajos.
Insolubles en agua.
No conducen la electricidad.
75
Acreditalo ® Derechos Reservados
Metano, CH4
Ejemplo: CH4
Moléculas
gigantes
Ejemplo: C
Diamante, C
Enlace metálico
Red
metálica
Ejemplo: Ag
Plata, Ag
Sólidos.
Puntos de fusión elevados.
Puntos de ebullición elevados.
La solubilidad y conductividad varían de una
sustancia a otra.
Sólidos cristalinos.
Puntos de fusión elevados.
Puntos de ebullición elevados.
Inolubles en agua.
Dúctiles y maleables.
Esta Tabla Ejemplifica Los Tipos De Enlace
Valencia
En la mayoría de los átomos, muchos de los electrones son atraídos con tal fuerza por sus propios
núcleos que no pueden interaccionar de forma apreciable con otros núcleos. Sólo los electrones del
´exterior´ de un átomo pueden interaccionar con dos o más núcleos. A éstos se les llama electrones de
valencia.
El número de electrones de valencia de un átomo es igual al número de su familia (o grupo) en la tabla
periódica, usando sólo la antigua numeración romana. Así, tenemos un electrón de valencia para los
elementos de los grupos 1 (o IA) y 11 (o IB); dos electrones de valencia para los elementos de los
grupos 2 (o IIA) y 12 (o IIB), y cuatro para los elementos de los grupos 4 (o IVB) y 14 (o IVA). Todos los
átomos de los gases nobles excepto el helio (o sea: neón, argón, criptón, xenón y radón) tienen ocho
electrones de valencia. Los elementos de las familias (grupos) cercanas a los gases nobles tienden a
reaccionar para adquirir la configuración de ocho electrones de valencia de los gases nobles. Esto se
conoce como la regla del octeto de Lewis, que fue enunciada por el químico estadounidense Gilbert
Newton Lewis.
El helio es el único que tiene una configuración de dos electrones de valencia. Los elementos cercanos
al helio tienden a adquirir una configuración de valencia de dos: el hidrógeno ganando un electrón, el
litio perdiéndolo, y el berilio perdiendo dos electrones. El hidrógeno suele compartir su único electrón
con un electrón de otro átomo formando un enlace simple, como en el cloruro de hidrógeno, H-Cl. El
cloro, que originalmente tiene siete electrones de valencia, pasa a tener ocho. Esos electrones de
valencia pueden representarse como:
o
. Las estructuras de N2 y CO2 se pueden expresar
ahora como :N:::N: o IN≡NI y
. Estas estructuras de Lewis muestran la configuración de ocho
electrones de valencia de los gases nobles para cada átomo. Probablemente el 80% de los compuestos
covalentes pueden ser representados razonablemente por las estructuras electrónicas de Lewis. El
resto, en especial aquellos que contienen elementos de la parte central de la tabla periódica, no puede
ser descrito normalmente en términos de estructuras de gases nobles.
Soluciones
Todas las soluciones están formadas por al menos un soluto y un solvente. Las soluciones son mezclas
homogéneas entre solutos y solventes. El soluto es el que se disuelve en el solvente. El solvente debe
encontrarse siempre en mayor cantidad, excepto el agua.
Conductibilidad
Ningún solvente puro conduce la corriente eléctrica. Y ningún soluto puro conduce la corriente eléctrica,
a menos que este en estado líquido. Pero una solución puede conducir la corriente. Para que esto
suceda, la solución debe estar formada por un soluto electrolito (es decir, compuestos formado por
enlaces iónicos no orgánicos) y por un solvente polar como el agua, lo cual forma una solución
electrolítica.
Las soluciones de NaCl (sal común) o CuSO4 (sulfato cúprico) en agua conducen la electricidad a toda
su intensidad. Pero, el acido acetico o vinagre común (CH3-CO-OH) al disolverse en agua produce iones
los cuales pueden conducir la electricidad, pero solo levemente.
Resonancia
Una extensión interesante de la estructura de Lewis, llamada resonancia, se encuentra por ejemplo en
los iones nitrato, NO3-. Cada N tiene originalmente cinco electrones de valencia, cada O tiene seis, y
76
Acreditalo ® Derechos Reservados
uno más por la carga negativa, suman un total de 24 (5 + (3 x 6) + 1) electrones para cuatro átomos.
Esto proporciona un promedio de seis electrones por átomo, por tanto, si se aplica la regla del octeto de
Lewis, debe producirse un enlace covalente. Se sabe que el átomo de nitrógeno ocupa una posición
central rodeado por los tres átomos de oxígeno, lo que proporcionaría una estructura de Lewis
aceptable, excepto porque existen tres estructuras posibles. En realidad, sólo se observa una estructura.
Cada estructura de resonancia de Lewis sugiere que debe haber dos enlaces simples y uno doble. Sin
embargo, los experimentos han demostrado que los enlaces son idénticos en todos los sentidos, con
propiedades intermedias entre las observadas para los enlaces simples y los dobles en otros
compuestos. La teoría moderna sugiere que una estructura de electrones compartidos localizados, tipo
Lewis, proporcionaría la forma y simetría general de la molécula más un grupo de electrones
deslocalizados (representados por puntos) que son compartidos por toda la molécula.
Definiciones
Enlace químico: fuerza entre los átomos que los mantiene unidos en las moléculas. Cuando dos o más
átomos se acercan lo suficiente, puede producirse una fuerza de atracción entre los electrones de los
átomos individuales y el núcleo de otro u otros átomos. Si esta fuerza es lo suficientemente grande para
mantener unidos los átomos, se dice que se ha formado un enlace químico. Todos los enlaces químicos
resultan de la atracción simultánea de uno o más electrones por más de un núcleo.
Enlace iónico: concepto de enlace químico. Enlace iónico. Estructuras cristalinas de los compuestos
iónicos. Límites de estabilidad. Energía de red. Ciclo de Born-Haber. Propiedades generales de los
compuestos iónicos.
Enlace covalente: introducción. Teoría de Lewis. Teoría del enlace de valencia. Carácter dirigido del
enlace covalente. Orbitales híbridos. Resonancia. Teoría de repulsión de pares de electrones de la capa
de valencia. Teoría de orbitales moleculares. Moléculas diatómicas homo y heteronucleares. Transición
entre el enlace iónico y covalente: electronegatividad y polarización.
Enlace metálico: propiedades generales de los metales. Estructuras de los metales. Teoría de enlace.
Conductores aislantes y semiconductores.
Enlaces intermoleculares: evidencias. Enlaces por fuerzas de van del waals: orientación, inducción y
dispersión. Enlaces de hidrógeno. Propiedades de los compuestos covalentes.
77
Acreditalo ® Derechos Reservados
Tipos de enlace
En la unión o enlace de los átomos pueden presentarse los siguientes casos:
1.
2.
3.
4.
Enlace iónico, si hay atracción electrostática.
Enlace covalente, si comparten los electrones.
Enlace covalente coordinado, cuando el par de electrones es aportado solamente por uno de
ellos.
Enlace metálico, so los electrones de valencia pertenece en común a todos los átomos.
Conclusiones
Bueno, como hemos visto al hacer jugo o endulzar al té se producen una serie de reacciones químicas
que nunca hubiéramos imaginado. Los enlaces, las soluciones, la fractura de enlaces y la formación de
otros, ¿quien lo hubiera imaginado? Pero ahora que sabemos todo esto, cuando nos sentemos a
tomarnos un té ya no se nos olvidara pensar en esto.
Metalurgia
Metalurgia: obtención de metales a partir del mineral.
Ganga: mineral sin valor industrial que acompaña al metal.
Trituración, molienda, pulverizado
Tamización
Levigación (oro)
Flotación (sulfuros)
Métodos mecánicos
(concentra el
mineral)
Preparación del
mineral
Métodos Químicos
(mineral
concentrado)
Tostación
Calcinación
Reducción
Electrólisis
Electrometalúrgicos
(mineral
concentrado)
Electrotérmicos
de sulfuro a óxido con corriente de aire
=
de CO3 a óxido en ausencia de aire
óxidos + C = CO2 + metal
Húmeda (Na)
Seca (Na, K, Mg, Al)
Hornos de arco voltáico 2800 - 3000°C es
una reducción
Hematita Fe2O3
Limonita Fe2O3 + 3.H2O
Minerales Magnetita Fe2O3.FeO
Siderita FeCO3
Pirita FeS
Producción de arrabio
Los materiales básicos empleados para fabricar arrabio son mineral de hierro, coque y fundente (caliza).
Siderurgia
Se utiliza principalmente Fe2O3 (hematita)
Fundente Si ganga ácida SiO2 fundente básico Al2O3, MgO, CaO
Si ganga básica MgO, CaO fundente ácido SiO2
78
Acreditalo ® Derechos Reservados
Si ganga neutra
Coque
fundente neutro CrO
combustible y reductor
Aire insuflado desde abajo hacia arriba
El coque se quema como combustible para calentar el horno, y al arder libera monóxido de carbono, que
se combina con los óxidos de hierro del mineral y los reduce a hierro metálico. La ecuación de la
reacción química fundamental de un alto horno es:
Parte baja
Fe
Reacciones:
+C 
C + O2 CO2
Fe2O3 + C  2.Fe + 3.CO
FSiO2 + CaO  CaSiO3 (escoria) e3C
Parte alta
Fe2O3
(cementita)
C + CO2 2.CO
+ 3.CO 2.Fe + 3.CO2
El revestimiento del alto horno puede ser ácido o básico, dependiendo de la ganga.
La escoria flota sobre el metal fundido.
Sentido de avance
Mineral + coque + fundente
Aire caliente + CO2 + CO
Fundente: mineral que neutraliza la ganga, dando escoria que debe tener bajo punto de fusión y
densidad menor que el metal fundido . El fundente de la carga del horno se emplea como fuente
adicional de monóxido de carbono y como sustancia fundente. Este material se combina con la sílice
presente en el mineral (que no se funde a las temperaturas del horno) para formar silicato cálcico
(escoria), cuyo punto de fusión es menor. Sin la caliza se formaría silicato de hierro, con lo que se
perdería hierro metálico. La escoria flota sobre el metal fundido en la parte inferior del horno (superior
del crisol).
El arrabio producido en los altos hornos tiene la siguiente composición: un 92% de hierro, un 3 o 4% de
carbono, entre 0,5 y 3% de silicio, del 0,25% al 2,5% de manganeso, del 0,04 al 2% de fósforo y algunas
partículas de azufre.
Arrabio
Fundición gris
Fundición blanca
enfriamiento lento, puede maquinarse, contiene carbono libre
enfriamiento rápido, no puede maquinarse, contiene cementita
Un alto horno típico está formado por una cápsula cilíndrica de acero forrada con un material no
metálico y resistente al calor, como asbesto o ladrillos refractarios. El diámetro de la cápsula disminuye
hacia arriba y hacia abajo, y es máximo en un punto situado aproximadamente a una cuarta parte de su
altura total. La parte inferior del horno está dotada de varias aperturas tubulares llamadas toberas, por
donde se fuerza el paso del aire. Cerca del fondo se encuentra un orificio por el que fluye el arrabio
fundido cuando se sangra (o vacía) el alto horno. Encima de ese orificio, pero debajo de las toberas, hay
otro agujero para retirar la escoria. La parte superior del horno, cuya altura es de unos 30 m, contiene
respiraderos para los gases de escape, y un par de tolvas redondas, cerradas por válvulas en forma de
campana, por las que se introduce la carga en el horno. Los materiales se llevan hasta las tolvas en
pequeñas vagonetas o cucharas que se suben por un elevador inclinado situado en el exterior del horno.
Ver esquema de un Alto Horno
Los altos hornos funcionan de forma continua. La materia prima que se va a introducir en el horno se
divide en un determinado número de pequeñas cargas que se introducen a intervalos. La escoria que
flota sobre el metal fundido se retira una vez cada dos horas, y el hierro se sangra cinco veces al día.
El aire insuflado en el alto horno se precalienta a una temperatura situada entre los 550 y los 900 °C. El
calentamiento se realiza en las llamadas estufas, cilindros que contienen estructuras de ladrillo
refractario. El ladrillo se calienta durante varias horas quemando gas de alto horno. Posteriormente los
gases de escape que salen de la parte superior del horno. Después se apaga la llama y se hace pasar
el aire a presión por la estufa. El peso del aire empleado en un alto horno supera el peso total de las
demás materias primas.
Estrangulando el flujo de gas de los respiraderos del horno es posible aumentar la presión del interior
del horno hasta 1,7 atmósferas o más. La técnica de presurización permite una mejor combustión del
coque y una mayor producción de hierro. En muchos altos hornos puede lograrse un aumento de la
producción de un 25%. En instalaciones experimentales también se ha demostrado que la producción se
incrementa enriqueciendo el aire con oxígeno.
El proceso de sangrado consiste en retirar a golpes un tapón de arcilla del orificio del hierro cercano al
fondo del horno y dejar que el metal fundido fluya por un canal cubierto de arcilla y caiga a un depósito
metálico forrado de ladrillo, que puede ser una cuchara o una vagoneta capaz de contener hasta 100
toneladas de metal. Cualquier escoria o sobrante que salga del horno junto con el metal se elimina antes
de llegar al recipiente. A continuación, el contenedor lleno de arrabio fundido se transporta a la fábrica
siderúrgica.
79
Acreditalo ® Derechos Reservados
Los altos hornos modernos funcionan en combinación con hornos de oxígeno básicos, y a veces con
hornos de crisol abierto, más antiguos, como parte de una única planta siderúrgica. En esas plantas, los
hornos siderúrgicos se cargan con arrabio fundido. El metal fundido procedente de diversos altos hornos
puede mezclarse en una gran cuchara antes de convertirlo en acero con el fin de minimizar el efecto de
posibles irregularidades de alguno de los hornos.
Otros métodos de refinado del hierro
Aunque casi todo el hierro y acero que se fabrica en el mundo se obtiene a partir de arrabio producido
en altos hornos, hay otras formas de refinación del hierro que se han practicado de forma limitada. Una
de ellas es el denominado método directo para fabricar hierro y acero a partir del mineral, sin producir
arrabio. En este proceso se mezclan mineral de hierro y coque en un horno de calcinación rotatorio y se
calientan a una temperatura de unos 950 °C. El coque caliente desprende monóxido de carbono, igual
que en un alto horno, y reduce los óxidos del mineral a hierro metálico. Sin embargo, no tienen lugar las
reacciones secundarias que ocurren en un alto horno, y el horno de calcinación produce la llamada
esponja de hierro, de mucha mayor pureza que el arrabio. También puede producirse hierro
prácticamente puro mediante electrólisis haciendo pasar una corriente eléctrica a través de una solución
de cloruro ferroso. Ni el proceso directo ni el electrolítico tienen importancia comercial significativa.
Horno de Reverbero
Fe3C + O2 3.Fe + CO2
Aire caliente en contracorriente
Aire a presión
Reducción de la fundición Convertidor Bessemer Se oxidan sustancias acompañantes (Si, Mn, P, S)
Fundición y chatarra
Siemens Martin
Arco voltáico
Proceso de crisol abierto
Cualquier proceso de producción de acero a partir de arrabio consiste en quemar el exceso de carbono
y otras impurezas presentes en el hierro. Una dificultad para la fabricación del acero es su elevado
punto de fusión, 1.400 °C, que impide utilizar combustibles y hornos convencionales. Para superar la
dificultad se desarrolló el horno de crisol abierto, que funciona a altas temperaturas gracias al
precalentado regenerativo del combustible gaseoso y el aire empleados para la combustión. En el
precalentado regenerativo los gases que escapan del horno se hacen pasar por una serie de cámaras
llenas de ladrillos, a los que ceden la mayor parte de su calor. A continuación se invierte el flujo a través
del horno, y el combustible y el aire pasan a través de las cámaras y son calentados por los ladrillos.
Con este método, los hornos de crisol abierto alcanzan temperaturas de hasta 1.650 °C.
El horno propiamente dicho suele ser un crisol de ladrillo plano y rectangular de unos 6 x 10 m, con un
techo de unos 2,5 m de altura. Una serie de puertas da a una planta de trabajo situada delante del
crisol. Todo el crisol y la planta de trabajo están situados a una altura determinada por encima del suelo,
y el espacio situado bajo el crisol lo ocupan las cámaras de regeneración de calor del horno. Un horno
del tamaño indicado produce unas 100 toneladas de acero cada 11 horas.
El horno se carga con una mezcla de arrabio (fundido o frío), chatarra de acero y mineral de hierro, que
proporciona oxígeno adicional. Se añade caliza como fundente y espatoflúor para hacer que la escoria
sea más fluida. Las proporciones de la carga varían mucho, pero una carga típica podría consistir en
60.000 kg. de chatarra de acero, 11.000 kg. de arrabio frío, 45.000 kg. de arrabio fundido, 12.000 kg. de
caliza, 1.000 kg. de mineral de hierro y 200 kg. de espatoflúor. Una vez cargado el horno, se enciende, y
las llamas oscilan de un lado a otro del crisol a medida que el operario invierte su dirección para
regenerar el calor.
Desde el punto de vista químico la acción del horno de crisol abierto consiste en reducir por oxidación el
contenido de carbono de la carga y eliminar impurezas como silicio, fósforo,manganeso y azufre, que se
combinan con la caliza y forman la escoria. Estas reacciones tienen lugar mientras el metal del horno se
encuentra a la temperatura de fusión, y el horno se mantiene entre 1.550 y 1.650 °C durante varias
horas hasta que el metal fundido tenga el contenido de carbono deseado. Un operario experto puede
juzgar el contenido de carbono del metal a partir de su aspecto, pero por lo general se prueba la
fundición extrayendo una pequeña cantidad de metal del horno, enfriándola y sometiéndola a examen
físico o análisis químico. Cuando el contenido en carbono de la fundición alcanza el nivel deseado, se
sangra el horno a través de un agujero situado en la parte trasera. El acero fundido fluye por un canal
corto hasta una gran cuchara situada a ras de suelo, por debajo del horno. Desde la cuchara se vierte el
acero en moldes de hierro colado para formar lingotes, que suelen tener una sección cuadrada de unos
50 cm y una longitud de 1,5 m. Estos lingotes (la materia prima para todas las formas de fabricación del
acero) pesan algo menos de 3 toneladas. En fechas recientes se han puesto en práctica métodos para
procesar el acero de forma continua sin tener que pasar por el proceso de fabricación de lingotes.
Proceso básico de oxígeno
El proceso más antiguo para fabricar acero en grandes cantidades, es el proceso Bessemer, que
empleaba un horno de gran altura en forma de pera, denominado convertidor Bessemer, que podía
80
Acreditalo ® Derechos Reservados
inclinarse en sentido lateral para la carga y el vertido. Al hacer pasar grandes cantidades de aire a
través del metal fundido, el oxígeno del aire se combinaba químicamente con las impurezas y las
eliminaba.
En el proceso básico de oxígeno, el acero también se refina en un horno en forma de pera que se puede
inclinar en sentido lateral. Sin embargo, el aire se sustituye por un chorro de alta presión de oxígeno casi
puro. Cuando el horno se ha cargado y colocado en posición vertical, se hace descender en su interior
una lanza de oxígeno. La punta de la lanza, refrigerada por agua, suele estar situada a unos 2 m por
encima de la carga, aunque esta distancia puede variarse de acuerdo las necesidades. A continuación
se inyectan en el horno miles de metros cúbicos de oxígeno a velocidades supersónicas. El oxígeno se
combina con el carbono y otros elementos no deseados e inicia una reacción de agitación que quema
con rapidez las impurezas del arrabio y lo transforma en acero. El proceso de refinado tarda 50 minutos
o menos, y es posible fabricar unas 275 toneladas de acero en una hora.
Acero de horno eléctrico
En algunos hornos el calor para fundir y refinar el acero procede de la electricidad y no de la combustión
de gas. Como las condiciones de refinado de estos hornos se pueden regular más estrictamente que las
de los hornos de crisol abierto o los hornos básicos de oxígeno, los hornos eléctricos son sobre todo
útiles para producir acero inoxidable y otros aceros de aleación que deben ser fabricados según unas
especificaciones muy exigentes. El refinado se produce en una cámara hermética, donde la temperatura
y otras condiciones se controlan de forma estricta mediante dispositivos automáticos. En las primeras
fases de este proceso de refinado se inyecta oxígeno de alta pureza a través de una lanza, lo que
aumenta la temperatura del horno y disminuye el tiempo necesario para producir el acero. La cantidad
de oxígeno que entra en el horno puede regularse con precisión en todo momento, lo que evita
reacciones de oxidación no deseadas.
En la mayoría de los casos, la carga está formada casi exclusivamente por material de chatarra. Antes
de poder utilizarla, la chatarra debe ser analizada y clasificada, porque su contenido en aleaciones
afecta a la composición del metal refinado. También se añaden otros materiales, como pequeñas
cantidades de mineral de hierro y cal seca, para contribuir a eliminar el carbono y otras impurezas. Los
elementos adicionales para la aleación se introducen con la carga o después, cuando se vierte a la
cuchara el acero refinado.
Resistencia
Conducción
Contacto
directo
Fabricación de abrasivos
Convección
Corriente de
aire
Tratamientos térmicos
Fusión de metales y tratamientos
térmicos
Radiación
Hornos
eléctricos
Arco
voltáico
Indirecto
Directo
Solera
conductora
Arco
Resistencia
Inducción
Para no férreos y aceros hasta kg
Un electrodo es el metal hasta 50 Ton
Un electrodo es el crisol hasta 50 Ton
La corriente atraviesa el metal
Baja frecuencia
Alta frecuencia
Frecuencia de
red
Rinden un 10 % más que los de arco
Una vez cargado el horno se hacen descender unos electrodos hasta la superficie del metal. La
corriente eléctrica fluye por uno de los electrodos, forma un arco voltaico hasta la carga metálica,recorre
el metal y vuelve a formar un arco hasta el siguiente electrodo. La resistencia del metal al flujo de
corriente genera calor, que (junto con el producido por el arco voltaico) funde el metal con rapidez. Hay
otros tipos de horno eléctrico donde se emplea una espiral para generar calor.
Procesos de acabado
Colada: Pasaje del metal fundido desde el horno a las lingoteras, por medio de la cuchara.
Lingotes: Para almacenar y transportar.
Laminado: De lingotes a tochos y de tochos a perfiles o láminas.
El acero se vende en una gran variedad de formas y tamaños, como varillas,tubos, raíles o rieles de
ferrocarril, perfiles en H o en T o canales. Estas formas se obtienen en las instalaciones siderúrgicas
laminando los lingotes calientes o modelándolos de algún otro modo. El acabado del acero mejora
también su calidad al refinar su estructura cristalina y aumentar su resistencia.
El proceso básico de elaboración del acero se conoce como laminado en caliente. En este proceso, el
lingote colado se calienta al rojo vivo en un horno denominado foso de termodifusión y a continuación se
hace pasar entre una serie de rodillos metálicos colocados en pares que lo aplastan hasta darle la forma
81
Acreditalo ® Derechos Reservados
y tamaño deseados. La distancia entre los rodillos va disminuyendo a medida que se reduce el espesor
del acero.
El primer par de rodillos por el que pasa el lingote se conoce como tren de desbaste o de eliminación de
asperezas, y las barras cuadradas que produce se denominan tochos. Después del tren de desbaste, el
acero pasa a trenes de laminado en bruto y a los trenes de acabado que lo reducen a la sección
transversal correcta. Los rodillos para producir rieles de ferrocarril o perfiles en H, en T o en L tienen
estrías para proporcionar la forma adecuada.
Los procesos modernos de fabricación requieren gran cantidad de chapa de acero delgada. Los trenes o
rodillos de laminado continuo producen tiras y láminas con anchuras de hasta 2,5 m. Estos laminadores
procesan con rapidez la chapa de acero antes de que se enfríe y no pueda ser trabajada. Las planchas
de acero caliente de más de 10 cm de espesor se pasan por una serie de cilindros que reducen
progresivamente su espesor hasta unos 0,1 cm y aumentan su longitud de 4 a 370 metros. Los trenes
de laminado continuo están equipados con una serie de accesorios como rodillos de borde, aparatos de
decapado o eliminación y dispositivos para enrollar de modo automático la chapa cuando llega al final
del tren. Los rodillos de borde son grupos de rodillos verticales situados a ambos lados de la lámina para
mantener su anchura. Los aparatos de decapado eliminan la costra que se forma en la superficie de la
lámina apartándola mecánicamente, retirándola mediante un chorro de aire o doblando de forma abrupta
la chapa en algún punto del recorrido. Las bobinas de chapa terminadas se colocan sobre una cinta
transportadora y se llevan a otro lugar para ser recocidas y cortadas en chapas individuales. Una forma
más eficiente para producir chapa de acero delgada es hacer pasar por los rodillos planchas de menor
espesor. Con los métodos convencionales de fundición sigue siendo necesario pasar los lingotes por un
tren de desbastado para producir planchas lo bastante delgadas para el tren de laminado continuo.
Los sistemas de colado ininterrumpido, en cambio, producen una plancha continua de acero con un
espesor inferior a 5 cm, lo que elimina la necesidad de trenes de desbaste y laminado en bruto.
Tubos
Los tubos más baratos se moldean doblando una tira plana de acero caliente en forma cilíndrica y
soldando los bordes para cerrar el tubo. En los tubos más pequeños, los bordes de la tira suelen
superponerse y se pasan entre un par de rodillos curvados según el diámetro externo del tubo. La
presión de los rodillos es suficiente para soldar los bordes. Los tubos sin soldaduras se fabrican a partir
de barras sólidas haciéndolas pasar entre un par de rodillos inclinados entre los que está situada una
barra metálica con punta,llamada mandril, que perfora las barras y forma el interior del tubo mientras los
rodillos forman el exterior.
Hojalata
El producto de acero recubierto más importante es la hojalata estañada que se emplea para la
fabricación de latas y envases. El material de las latas contiene más de un 99% de acero. En algunas
instalaciones, las láminas de acero se pasan por un baño de estaño fundido (después de laminarlas
primero en caliente y luego en frío) para estañarlas. El método de recubrimiento más común es el
proceso electrolítico. La chapa de acero se desenrolla poco a poco de la bobina y se le aplica una
solución química. Al mismo tiempo se hace pasar una corriente eléctrica a través de un trozo de estaño
puro situado en esa misma solución, lo que hace que el estaño se disuelva poco a poco y se deposite
sobre el acero. Con este sistema, medio kilogramo de estaño basta para recubrir 20 metros cuadrados
de acero. En la hojalata delgada, la chapa recibe un segundo laminado en frío antes de recubrirla de
estaño, lo que aumenta la resistencia de la chapa además de su delgadez. Las latas hechas de hojalata
delgada tienen una resistencia similar a las ordinarias, pero contienen menos acero, con lo que se
reduce su peso y su coste. También pueden fabricarse envases ligeros adhiriendo una delgadísima
lámina de acero estañado sobre papel o cartón.
Otros procesos de fabricación de acero son la forja, la fundición y el uso de troqueles.
Hierro forjado
El proceso antiguo para fabricar la aleación resistente y maleable conocida como hierro forjado se
diferencia con claridad de otras formas de fabricación de acero. Debido a que el proceso, conocido
como pudelización, exigía un mayor trabajo manual, era imposible producir hierro forjado en grandes
cantidades. El desarrollo de nuevos sistemas con convertidores Bessemer y hornos de crisol abierto
permitieron producir un volumen mayor de hierro forjado.
Sin embargo, el hierro forjado ya no se fabrica habitualmente con fines comerciales, ya que puede
sustituirse en casi todas las aplicaciones con acero de bajo contenido en carbono, con menor costo de
producción y calidad más uniforme.
El horno de pudelización empleado en el proceso antiguo tiene un techo abovedado de poca altura y un
crisol cóncavo en el que se coloca el metal en bruto, separado por una pared de la cámara de
combustión donde se quema carbón bituminoso. La llama de la cámara de combustión asciende por
encima de la pared,incide en el techo abovedado y reverbera sobre el contenido del crisol. Cuando el
horno ha adquirido un calor moderado,el operario que maneja el horno recubre el crisol y las paredes
con una pasta de óxido de hierro, por lo general hematitas. A continuación, el horno se carga con unos
250 kg. de arrabio y se cierra la puerta. Al cabo de unos 30 minutos, el arrabio se ha fundido, y el
82
Acreditalo ® Derechos Reservados
operario añade a la carga más óxido de hierro o residuos de laminado, mezclándolos con el hierro con
una barra de hierro curvada. El silicio y la mayor parte del manganeso contenidos en el hierro se oxidan,
y se elimina parte del azufre y el fósforo. A continuación se eleva un poco la temperatura del horno, y el
carbono empieza a quemarse formando óxidos de carbono gaseosos. A medida que se desprende gas
la escoria aumenta de volumen y el nivel de la carga sube. Al quemarse el carbono, la temperatura de
fusión aumenta, y la carga se vuelve cada vez más pastosa y vuelve a su nivel anterior. A medida que
se incrementa la pureza del hierro, el operario remueve la carga con la barra para garantizar una
composición uniforme y una cohesión adecuada de las partículas. La masa resultante, pastosa y
esponjosa, se divide en pedazos o bolas de unos 80 o 90 kg. Las bolas se retiran del horno con unas
tenazas y se colocan directamente en una prensa que expulsa de la bola la mayor parte de la escoria de
silicio mezclada y suelda entre sí los granos de hierro puro. A continuación se corta el hierro en piezas
planas que se apilan unas sobre otras, se calientan hasta la temperatura de soldadura y se laminan para
formar una sola pieza. A veces se repite el proceso de laminado para mejorar la calidad del producto.
La técnica moderna para fabricar hierro forjado emplea hierro fundido procedente de un convertidor
Bessemer y escoria fundida, que suele prepararse fundiendo mineral de hierro, residuos de laminado y
arena en un horno de crisol abierto. Cuando el hierro fundido, que lleva disuelta una gran cantidad de
gas,se vierte en la cuchara que contiene la escoria fundida, el metal se solidifica de modo casi
instantáneo y libera el gas disuelto. La fuerza ejercida por el gas hace estallar el metal en partículas
diminutas que son más pesadas que la escoria y se acumulan en el fondo de la cuchara, donde se
aglomeran formando una masa esponjosa similar a las bolas producidas en un horno de pudelización.
Cuando se vierte la escoria de la parte superior de la cuchara se retira la bola de hierro y es sometida al
mismo tratamiento que el producto del horno de pudelización.
Clasificación del acero
Aceros al carbono
Más del 90% de todos los aceros son aceros al carbono. Estos aceros contienen diversas cantidades de
carbono y menos del 1,65% de manganeso, el 0,60% de silicio y el 0,60% de cobre. Entre los productos
fabricados con aceros al carbono figuran máquinas, carrocerías de automóvil, la mayor parte de las
estructuras de construcción de acero, cascos de buques, somieres u horquillas o pasadores para el
pelo.
Aceros de aleación
Estos aceros contienen una proporción determinada de vanadio,molibdeno y otros elementos, además
de cantidades mayores de manganeso, silicio y cobre que los aceros al carbono normales. Estos aceros
se emplean, por ejemplo, para fabricar engranajes y ejes de motores, patines o cuchillos de corte.
Aceros de baja aleación ultrarresistentes
Esta familia es la más reciente de las cinco grandes clases de acero. Los aceros de baja aleación son
más baratos que los aceros de aleación convencional ya que contienen cantidades menores de los
costosos elementos de aleación. Sin embargo, reciben un tratamiento especial que les da una
resistencia mucho mayor que la del acero al carbono. Por ejemplo, los vagones de mercancías
fabricados con aceros de baja aleación pueden transportar cargas más grandes porque sus paredes son
más delgadas que lo que sería necesario en caso de emplear acero al carbono. Además, como los
vagones de acero de baja aleación pesan menos, las cargas pueden ser más pesadas. En la actualidad
se construyen muchos edificios con estructuras de aceros de baja aleación. Las vigas pueden ser más
delgadas sin disminuir su resistencia, logrando un mayor espacio interior en los edificios.
Aceros inoxidables
Los aceros inoxidables contienen cromo, níquel y otros elementos de aleación, que los mantienen
brillantes y resistentes a la herrumbre y oxidación a pesar de la acción de la humedad o de ácidos y
gases corrosivos. Algunos aceros inoxidables son muy duros; otros son muy resistentes y mantienen
esa resistencia durante largos periodos a temperaturas muy rigurosas. Debido a sus superficies
brillantes los arquitectos los emplean muchas veces con fines decorativos. El acero inoxidable se
emplea para las tuberías y tanques de refinerías de petróleo o plantas químicas, para los fuselajes de
los aviones o para cápsulas espaciales. También se usa para fabricar instrumentos y equipos
quirúrgicos, o para fijar o sustituir huesos rotos, ya que resiste a la acción de los fluidos corporales. En
cocinas y zonas de preparación de alimentos los utensilios son a menudo de acero inoxidable, ya que
no oscurece los alimentos y pueden limpiarse con facilidad.
Aceros de herramientas
Estos aceros se emplean para fabricar muchos tipos de herramientas y cabezales de corte y modelado
de máquinas empleadas en diversas operaciones de fabricación. Contienen wolframio,molibdeno y otros
elementos de aleación, que les proporcionan mayor resistencia, dureza y durabilidad.
Aleaciones
Ni
> Resistencia
< Oxidación
Cr
> Resistencia
> Dureza
83
Acreditalo ® Derechos Reservados
Cr-Ni
>> Resistencia
Si > 0,3%
> Elasticidad
Mg
Neutraliza al azufre
Al 1%
< Oxidación > Dureza
18% Cr- 8% Ni - Inox
2% Cr- 5% Ni
Resortes
para temple
p/alto desgaste
para nitruración
Mb
> Resistencia tracción
V
< Fragilidad
Resortes y herramientas
W
> Dureza
Herramientas
Co-W
>> Dureza
Herramientas
Ti
< Oxidación
B 0,001%
para temple
para temple (50 más Mb)
Aceros rápidos: para altas velocidades (600 °C sin perder filo)
Estructura del acero
Las propiedades físicas de los aceros y su comportamiento a distintas temperaturas dependen sobre
todo de la cantidad de carbono y de su distribución en el hierro. Antes del tratamiento térmico,la mayor
parte de los aceros son una mezcla de tres sustancias: ferrita, perlita y cementita. La ferrita, blanda y
dúctil,es hierro con pequeñas cantidades de carbono y otros elementos en solución. La cementita, un
compuesto de hierro con el 7% de carbono aproximadamente, es de gran dureza y muy quebradiza. La
perlita es una profunda mezcla de ferrita y cementita, con una composición específica y una estructura
característica, y sus propiedades físicas son intermedias entre las de sus dos componentes. La
resistencia y dureza de un acero que no ha sido tratado térmicamente depende de las proporciones de
estos tres ingredientes. Cuanto mayor es el contenido en carbono de un acero, menor es la cantidad de
ferrita y mayor la de perlita: cuando el acero tiene un 0,8% de carbono, está por completo compuesto de
perlita. El acero con cantidades de carbono aún mayores es una mezcla de perlita y cementita. Al
elevarse la temperatura del acero,la ferrita y la perlita se transforman en una forma alotrópica de
aleación de hierro y carbono conocida como austenita, que tiene la propiedad de disolver todo el
carbono libre presente en el metal. Si el acero se enfría despacio, la austenita vuelve a convertirse en
ferrita y perlita, pero si el enfriamiento es repentino la austenita se convierte en martensita, una
modificación alotrópica de gran dureza similar a la ferrita pero con carbono en solución sólida.
Tratamiento térmico del acero
El proceso básico para endurecer el acero mediante tratamiento térmico consiste en calentar el metal
hasta una temperatura a la que se forma austenita, generalmente entre los 750 y 850 °C,y después
enfriarlo con rapidez sumergiéndolo en agua o aceite. Estos tratamientos de endurecimiento, que
forman martensita, crean grandes tensiones internas en el metal, que se eliminan mediante el temple o
el recocido, que consiste en volver a calentar el acero hasta una temperatura menor. El temple reduce la
dureza y resistencia y aumenta la ductilidad y la tenacidad.
El objetivo fundamental del proceso de tratamiento térmico es controlar la cantidad, tamaño, forma y
distribución de las partículas de cementita contenidas en la ferrita, que a su vez determinan las
propiedades físicas del acero.
Hay muchas variaciones del proceso básico. Los ingenieros metalúrgicos han descubierto que el cambio
de austenita a martensita se produce en la última fase del enfriamiento, y que la transformación se ve
acompañada de un cambio de volumen que puede agrietar el metal si el enfriamiento es demasiado
rápido. Se han desarrollado tres procesos relativamente nuevos para evitar el agrietamiento. En el
templado prolongado, el acero se retira del baño de enfriamiento cuando ha alcanzado la temperatura
en la que empieza a formarse la martensita, a continuación se enfría despacio en el aire. En el
martemplado, el acero se retira del baño en el mismo momento que el templado prolongado y se coloca
en un baño de temperatura constante hasta que alcanza una temperatura uniforme en toda su sección
transversal. Después se deja enfriar el acero en aire a lo largo del rango de temperaturas de formación
de la martensita, que en la mayoría de los aceros va desde unos 300 °C hasta la temperatura ambiente.
En el austemplado, el acero se enfría en un baño de metal o sal mantenido de forma constante a la
temperatura en que se produce el cambio estructural deseado, y se conserva en ese baño hasta que el
cambio es completo, antes de pasar al enfriado final.
Hay también otros métodos de tratamiento térmico para endurecer el acero. En la cementación, las
superficies de las piezas de acero terminadas se endurecen al calentarlas con compuestos de carbono o
nitrógeno. Estos compuestos reaccionan con el acero y aumentan su contenido de carbono o forman
nitruros en su capa superficial. En la carburización la pieza se calienta cuando se mantiene rodeada de
carbón vegetal, coque o de gases de carbono como metano o monóxido de carbono. La cianurización
consiste en endurecer el metal en un baño de sales de cianuro fundidas para formar carburos y nitruros.
La nitrurización se emplea para endurecer aceros de composición especial mediante su calentamiento
en amoníaco gaseoso para formar nitruros de aleación.
84
Acreditalo ® Derechos Reservados
TRABAJO DEL ENLACE QUIMICO
3. DESARROLLO
Los átomos se unen entre sí para formar moléculas mediante fuerzas de enlace. Los tipos
fundamentales de enlace son el iónico, el covalente y el metálico.
3.1 ENLACE IONICO
El enlace iónico consiste en la atracción electrostática entre átomos con cargas eléctricas de signo
contrario. Este tipo de enlace se establece entre átomos de elementos poco electronegativos con los de
elementos muy electronegativos. Es necesario que uno de los elementos pueda ganar electrones y el
otro perderlo,y como se ha dicho anteriormente este tipo de enlace se suele producir entre un no metal
(electronegativo) y un metal (electropositivo).
Un ejemplo de sustancia con enlace iónico es el cloruro sódico. En su formación tiene lugar la
transferencia de un electrón del átomo de sodio al átomo de cloro. Las configuraciones electrónicas de
estos elementos después del proceso de ionización son muy importantes, ya que lo dos han conseguido
la configuración externa correspondiente a los gases nobles, ganando los átomos en estabilidad. Se
produce una transferencia electrónica,cuyo déficit se cubre sobradamente con la energía que se libera al
agruparse los iones formados en una red cristalina que, en el caso del cloruro sódico, es una red cúbica
en la que en los vértices del paralelepípedo fundamental alternan iones Cl- y Na+. De esta forma cada
ion Cl- queda rodeado de seis iones Na+ y recíprocamente. Se llama índice de coordinación al número
de iones de signo contrario que rodean a uno determinado en un red cristalina. En el caso del NaCl, el
índice de coordinación es 6 para ambos
Propiedades de los compuestos iónicos
Las sustancias iónicas están constituidas por iones ordenados en el retículo cristalino; las fuerzas que
mantienen esta ordenación son fuerzas de Coulomb, muy intensas. Esto hace que las sustancias
iónicas sean sólidos cristalinos con puntos de fusión elevados. En efecto, para fundir un cristal iónico
hay que deshacer la red cristalina, separar los iones. El aporte de energía necesario para la fusión, en
forma de energía térmica, ha de igualar al de energía reticular, que es la energía desprendida en la
formación de un mol de compuesto iónico sólido a partir de los correspondientes iones en estado
gaseoso. Esto hace que haya una relación entre energía reticular y punto de fusión, siendo éste tanto
más elevado cuanto mayor es el valor de aquella.
Por otra parte, la aparición de fuerzas repulsivas muy intensas cuando dos iones se aproximan a
distancias inferiores a la distancia reticular (distancia en la que quedan en la red dos iones de signo
contrario), hace que los cristales iónicos sean muy poco compresibles. Hay sustancias cuyas moléculas,
si bien son eléctricamente neutras, mantienen una separación de cargas. Esto se debe a que no hay
coincidencia entre el centro de gravedad de las cargas positivas y el de las negativas: la molécula es un
dipolo, es decir, un conjunto de dos cargas iguales en valor absoluto pero de distinto signo, separadas a
una cierta distancia. Los dipolos se caracterizan por su momento; producto del valor absoluto de una de
las cargas por la distancia que las separa. Un de estas sustancias polares es, por ejemplo el agua.
Cuando un compuesto iónico se introduce en un disolvente polar, los iones de la superficie de cristal
provocan a su alrededor una orientación de las moléculas dipolares, que enfrentan hacia cada ion sus
extremos con carga opuesta a la del mismo. En este proceso de orientación se libera una energía que,
si supera a la energía reticular, arranca al ion de la red. Una vez arrancado, el ion se rodea de
moléculas de disolvente: queda solvatado. Las moléculas de disolvente alrededor de los iones se
comportan como capas protectoras que impiden la reagrupación de los mismos. Todo esto hace que, en
general, los compuestos iónicos sean solubles en disolventes polares, aunque dependiendo siempre la
solubilidad del valor de la energía reticular y del momento dipolar del disolvente. Así, un compuesto
como el NaCl, es muy soluble en disolventes como el agua, y un compuesto como el sulfato de bario,
con alta energía reticular, no es soluble en los disolventes de momento dipolar muy elevado.
3.2 ENLACE COVALENTE
Gilbert Newton Lewis expuso la teoría de que todos los elementos tienen tendencia a conseguir
configuración electrónica de gas noble (8 electrones en la última capa). Elementos situados a la derecha
de la tabla periódica (no metales) consiguen dicha configuración por captura de electrones; elementos
situados a la izquierda y en el centro de la tabla (metales), la consiguen por pérdida de electrones. De
esta forma la combinación de un metal con un no metal se hace por enlace iónico; pero la combinación
de no metales entre sí no puede tener lugar mediante este proceso de transferencia de electrones; por
lo que Lewis supuso que debían compartirlos.
Es posible también la formación de enlaces múltiples, o sea, la compartición de más de un par de
electrones por una pareja de átomos. En otros casos, el par compartido es aportado por sólo uno de los
átomos, formándose entonces un enlace que se llama coordinado o dativo. Se han encontrado
compuestos covalentes en donde no se cumple la regla. Por ejemplo, en BCl3, el átomo de boro tiene
seis electrones en la última capa, y en SF6,el átomo de azufre consigue hasta doce electrones. Esto
hace que actualmente se piense que lo característico del enlace covalente es la formación de pares
electrónicos compartidos, independientemente de su número.
85
Acreditalo ® Derechos Reservados
Fuerzas intermoleculares
A diferencia que sucede con los compuestos iónicos, en las sustancias covalentes existen moléculas
individualizadas. Entre estas moléculas se dan fuerzas de cohesión o de Van der Waals, que debido a
su debilidad, no pueden considerarse ya como fuerzas de enlace. Hay varios tipos de interacciones:
Fuerzas de orientación (aparecen entre moléculas con momento dipolar diferente), fuerzas de inducción
(ion o dipolo permanente producen en una molécula apolar una separación de cargas por el fenómeno
de inducción electrostática) y fuerzas de dispersión (aparecen en tres moléculas apolares).
Propiedades de los compuestos covalentes
Las fuerzas de Van der Waals pueden llegar a mantener ordenaciones cristalinas, pero los puntos de
fusión de las sustancias covalentes son siempre bajos, ya que la agitación térmica domina, ya a
temperaturas bajas, sobre las débiles fuerzas de cohesión. La mayor parte de las sustancias covalentes,
a temperatura ambiente, son gases o líquidos de punto de ebullición bajo (ejem.: agua). En cuanto a la
solubilidad, puede decirse que, en general, las sustancias covalentes son solubles en disolventes
apolares y no lo son en disolventes polares. Se conocen algunos sólidos covalentes prácticamente
infusibles e insolubles, que son excepción al comportamiento general descrito. Un ejemplo de ellos es el
diamante. La gran estabilidad de estas redes cristalinas se debe a que los átomos que las forman están
unidos entre sí mediante enlaces covalentes. Para deshacer la red es necesario romper estos enlaces,
los cual consume enormes cantidades de energía
3.3 ELECTROVALENCIA Y COVALENCIA
Teniendo presenta las teorías de los enlaces iónicos y covalentes, es posible deducir la valencia de un
elemento cualquiera a partir de su configuración electrónica.
· La electrovalencia, valencia en la formación de compuestos iónicos, es el número de electrones que el
átomo tiene que ganar o perder para conseguir la configuración de los gases nobles.
· La covalencia, número de enlaces covalentes que puede formar un átomo, es el número de electrones
desapareados que tiene dicho átomo. Hay que tener presente que un átomo puede desaparecer sus
electrones al máximo siempre que para ello no haya de pasar ningún electrón a un nivel energético
superior.
3.4 ENLACE METALICO
Los elementos metálicos sin combinar forman redes cristalinas con elevado índice de coordinación. Hay
tres tipos de red cristalina metálica: cúbica centrada en las caras, con coordinación doce; cúbica
centrada en el cuerpo, con coordinación ocho, y hexagonal compacta, con coordinación doce. Sin
embargo, el número de electrones de valencia de cualquier átomo metálico es pequeño, en todo caso
inferior al número de átomos que rodean a un dado, por lo cual no es posible suponer el establecimiento
de tantos enlaces covalentes.
En el enlace metálico, los átomos se transforman en iones y electrones, en lugar de pasar a un átomo
adyacente, se desplazan alrededor de muchos átomos. Intuitivamente, la red cristalina metálica puede
considerarse formada por una serie de átomos alrededor de los cuales los electrones sueltos forman
una nube que mantiene unido al conjunto.
3.5 POLARIDAD DE LOS ENLACES
En el caso de moléculas heteronucleares, uno de los átomos tendrá mayor electronegatividad que el
otro y, en consecuencia, atraerá mas fuertemente hacia sí al par electrónico compartido. El resultado es
un desplazamiento de la carga negativa hacia el átomo más electronegativo, quedando entonces el otro
con un ligero exceso de carga positiva. Por ejemplo, en la molécula de HCl la mayor electronegatividad
del cloro hace que sobre éste aparezca una fracción de carga negativa, mientras que sobre el hidrógeno
aparece una positiva de igual valor absoluto. Resulta así una molécula polar, con un enlace intermedio
entre el covalente y el iónico.
1. EXPOSICION DE OBJETIVOS
Los objetivos de éste trabajo son exponer de una forma clara y concisa los diferentes tipos de enlaces
químicos tradicionales, ya que no se ha tomado en cuanto teorías más modernas ni otros enlaces como
el de hidrógeno, etc. Se tratará escuetamente de explicar los conceptos y propiedades de los distintos
enlaces, así como de algunos postulados en relación con éste tema.
2. INTRODUCCION
Un enlace es la unión entre los átomos de un compuesto. La unión o enlace entre los átomos tiene su
origen en la estructura electrónica de los mismos. La actividad química de los elementos radica en su
tendencia a adquirir, mediante su unión con otros átomos, la configuración de gas noble (ocho
electrones en la capa más externa, salvo el helio que sólo tiene dos), que es muy estable. Es corriente
distinguir tres tipos principales de enlaces químicos: iónico, covalente y metálico; de los cuales se
hablará más extensamente después. Aunque dichos enlaces tienen propiedades bien definidas, la
clasificación no es rigurosa, existiendo una transición gradual de uno a otro, lo que permite considerar
tipos de enlace intermedios. Gracias a estos enlaces se forman los compuestos químicos, por ejemplo la
sal.
86
Acreditalo ® Derechos Reservados
La sal común es un sustancia bien conocida. Es utilizada para conservar y aderezar alimentos. Nuestra
sangre posee casi la misma proporción de sal que el agua del mar, y es fundamental para mantener
muchas de nuestras funciones vitales. Está formada por un no metal, el cloro y un metal alcalino, el
sodio. Ambos en estado puro son extremadamente peligrosos para el hombre, sin embargo, forman
juntas una sustancia, la sal común, que es inocua en pequeñas cantidades. Se dice por tanto que han
formado un compuesto químico, una sustancia muy diferente de los elementos que la componen.
Muchas de las sustancias que conocemos están formadas por uniones de distintos elementos. El
azúcar, por ejemplo, está formado por oxígeno, hidrógeno y carbono. Estos átomos que pierden o ganan
electrones para unirse se transforman en iones, átomos con carga eléctrica. Estos iones se unen para
formar compuestos químicos, y la forma de unirse entre ellos se denomina enlace químico, del cual se
va a hablar en este trabajo.
87
Descargar