Descargar el archivo PDF

Anuncio
ENTROPIA
Prof. Jose Alberto Villalobos M.
*
El concepto de entropia, uno de los mas dificiles de comprender en toda Ia Fisica,
es sin embargo de los mas fundamentales.
Muchos cientificos han contribuido al desarrollo de este concepto. Desde 1795 con
Ia invencion de Ia maquina de vapor por James Watt, se comenzo a pensar en las
relaciones entre energia termina y mecanica. Luego, a traves de los trahajos experimentalcs de Benjamin Thompson (Conde de Rumford), James Prescott Joule y sus
contemporaneos; el calor fue reconocido como una forma de energia, y en 1842 Robert
Julius Mayer formulo el principio de conservacion de Ia energia, en terminos de Ia Primera
I..ey de Ia Te.rmodinamica.
"Un J!!!~Croestado de equilibrio de un sistema puede caracterizarse por una
cantidad E (Hamada energia inte~a) que posee las siguientes propiedades:
Para un sistema aislado, 6 E = constante. Si el sistemaj_nteracciona y
entonces va de un macroestado a otro, el cambio resultant en E es, 6 E =W +
Q, donde W es el trabajo macroscopico hecho sobre el sistema como resultado
de cambios en sus parametros externos, y Q, es el calor absorbido por el
sistema".
En 1828, Sadi Carnot, investigando sobre las limitaciones de Ia conversion de calor
en trabajo, y basandose sobre condiciones teOricas, calculo el rendimiento maximo de un
motor termino ideal. Seglin Carnot:
"Ninguna maquina operando entre dos focos calorificos puede ser mas
eficiente que una maquina de Carnot.
Todas las maquinas de Carnot operando entre los mismos dos focos
calorificos, son igualmente eficientes ".
Estas limitaciones obviamente necesitaban de Ia formulacion de Ia Segunda Ley de
Ia Termondinamica, y en 1850 Rudolf Oausius, uno de los cientificos que mas
contribuyo en Ia elaboracion de una estructura cientifica para Ia teoria de los gases,
formulo Ia scgunda ley de esta manera:
"No es posible ninglin proceso, cuyo unico resultado sea Ia extraccion de
.
Profesor del Departamento de Ffsica y Matematicas. Facultad de Ciencias y Letras.
191
calor de una fuente a una cierta temperatura, y Ia ahsorcion de una canti,L.,j
igual de calor por una fuente de temperatura mas elevada ".
Un aiio despues, William Thomson (Lord Kelvin), uno de los precursores de !1
termondiruirnica clasica, formulo Ia segunda ley de esta forma:
"No es posible ninglln proceso ciclico cuyo uruco resultado sea Ia
extraccion de calor de una unica fuente, y Ia produccion de una cantidad
equivalente de trabajo ".
En d mismo afio, Wilhelm Ostwal.d formulo Ia segunda ley asi:
"Movimiento perpetuo de Ia segunda clase ( el que transforma calor en
trabajo, sin ninguna limitacion), es imposible".
Los tres enunciados anteriores son equivalentes, lo cual puede demostrarse
facilmente. Sin embargo, la forma correcta de la segunda ley, para su desarrollo
matematico, es en terrninos de Ia entropia, y fue utilizada por Oausius por primera vez en
1865.
En 1906 el fisico aleman Walther Nernst propuso elllamado 'principio del calor', el
cual consideramosahoracomola Tercera Ley de la Termodinamica:
"La entropia de tocio cuerpo quimicamente homogeneo, de densida.ll
finita, tiende indefinidamente hacia cero, a medida que disrninuye lu
temperatura tambien indefinidamente ".
El desarrollo hasta nuestros dias, del concepto de entrop1a, se debe principalmenl ,
a la labor de tres fisicos notables; Ludwig Boltzmann (1844-1906), MaxPlanc!k
(1858- 19~7) y Josiah Williard Gibbs (1839- 1903).
Planck, quien tledico los primeros 15 afios de su carrera cientifica a Ia clarificaciol\ 1
aplicacion y expansion de Ia segunda ley y especialmente al concepto :de irreversibilidaJ.
ex pres<> la tercera ley de la siguiente forma:
"Cuando Ia temperatura de una sustancia tiende a cero absoluto, ~••
entropia tiende al valor S0 , el cual es independiente de la presion, estado cl
agregacion, etc".
Boltzmannfue quien introdujo Ia nocion de prohahilidud en la de entropia, 1tl
formular Ia segunda ley como una ley estadistica, introduciendo Ia relacion basica
S =kin , entre Ia entropia y el numero de estados acc~ibles.
Gibbs fue el primer fisico teorico e8tadounidense de renombre, a el se le debe gran
parte del desarrollo analitico _de Ia termodimimica. A principios de siglo desarrollo una
formulacion de Ia mecanica estadistica en terminos del concepto de conjuntos.
CALOR Y DEPOSITOS DE CALOR
La energia media transferida de un sistema macroscopico a otro, como consecuen·
cia de una interaccion puramente termica, eR decir aquella en la que los parametros
exterilos del sistema permanecen fij~, se llama calor Q ahsorbido por el sistema, (ciertos
parametros independientes, macroscopicamente mensurable!!.. que afectan a las ecuaciones
de movirniento, con los campos magneticos y electricos y el volumen, se llaman parametros
externos). En terminos de la primera ley
192
(l)
Q= 6 E + W
Adernas, decimos que un sistema actua como un foco calorifico o dep6sito de calor,
respecto a otro sistema rna~ pequefio, cuando es tan grande que su paramctro de
temperatura pennanece escncialmcnte invariable, cualquiera que sea Ia cantidad de calor
Q que haya absorbido del sistema mas pequefio. Si un deposito de calor a Ia temperatura
T absorbe una cantidad de calor Q, se define Ia propiedad Hamada entropia del deposito
tal que, su variacion es 6 S = Q/T. Y para un sistema en contacto con dicho deposito de
ralor y cuya temperatura difiere infinitesimalmente de Ia temperatura T del deposito .
~S=
Q/T, don de $ Q es el calor absorbido por el sistema.
TEOREMA DE CLAUSIUS Y LA DEFINICION DE ENTROPIA
En 1865 Clausius establccio cl siguiente teorema:
"En cualquier transformacion ciclica a traves de Ia cualla temperatura esta
perfcctamcnte dcfinida, se cumple Ia siguiente desigualdad
0
(2)
donde Ia integral se extiende sobre un ciclo de Ia transformacion. La igualdad
se cumplc si Ia transformacion es cuasi-estatica (reversible).
Para una transformacion cuasi-estatica, Ia integral f (lQ/T es independit:_nte de Ia trayectoria y depende solamente de los estados de equilibrio inicial y
final de Ia transformacion".
En lo anterior entendemos por proceso cuasi-estatico (reversible), si el sistema al
interaccionar con otros sistemas lo haec tan lentamente que, siempre permanece
arbitrariamente proximo al equilibrio en. todas las fases de dicho proceso.
EI rcsultado anterior permite definir una funcion de cstado, Ia entropia, S tal que Ia
diferencia de entropia entre dos estados de equilibrio i y f es:
(3)
donde el subindicc eq indica explicitamente el hccho de que Ia integral debe calcularse
para cualquir proceso cuasi- estatico (reversible). Entonces, para una transformacion
infinitesimal cuasi- estatica (reversible), el cambio en entropla esta dado por :
dS=
00
T
(4)
Ia cual es una diferencial exacta. La ecuacion anterior es Ia formulacion matematica de Ia
segunda ley de Ia termodinamica.
193
PROPIEDADES DE LA ENTROPIA
a) Para una transformacion arbitraria
(5)
donde Ia igualdad se cumple solamente si Ia transformaciOn. es cuasi-estatica
b) Segunda Ley: Un macroestado de equilibrio de un sistema pucde caracterizarse
por una cantidad S, Ia entropia, que tiene las siguientes propiedades. l) La entropia de un
sistema termicamente aislado nunca decrece, es decir,
(6)
Ia igualdad se cumple si Ia transformacion es cuasi-estatica. Una inmediata consecuencia
de lo anterior es que para un sistema termicamente aislado, el estado de equilihrio es
aquel de entropia maxima consistente con las restricciones (ligaduras) externas. De otra
manera, si el sistema no esta en equilihrio, evolucionara naturalmente en Ia direccion en Ia
cual la entropia aumenta. 2) Si el sistema no esta aislado y sufre un proceso
cuasi-estatico infinitesimal en el cual ahsorbe una cantidad de calor aQ, entonces d S =
aQ/T, donde T es Ia temperatura absoluta del sistema.
c) Tercera ley: La entropia S de un sistema tiene Ia propiedad limite de que
cuanto T .. 0, s .. S 0
(7)
siendo S0 una constante independiente de todos los parametros del sistema particular.
Generalmente S0 = 0.
d) La en tropia es una magnitud extensiva, ya que el calor absorhido lo es.
CALCULOS DE VARIACIONES DE ENTROPIA
Si consideramos un sistema termodinamico cuyos parametros sean p, V y T (presiOn.,
volumen y temperatura), comhinando Ia primera con la segundaley ohtenemos una pareja
de ecuaciones comunmente conocidas como ecuaciones T ds
TdS=aQ=~d'f +exT_
dV
(8)
Kt
T dS = u Q =CP d'f - 0( TV dp
(9)
que perrniten el cruculo de variacion de entropia entre dos estados descritos
por las parejas de variables independientes (V, 'f) o (p, 'f).
Si los estados estan a lo largo de una isoterma, b.S =Q/T, como por ejemplo en los
cambios de fase de primer orden, don de el camhio en en tropia es- simplemente b.S = L/T,
siendo L el calor de transformacion. Es interesante notar que el cambio en entropia
producido al vaporizarse l mol de un liquido a su punto normal de vaporizacion, es
aproximadamente el mismo para muchos liquidos, alrededor de 20 e cal/K, (regia de
Trouton).
194
Si los estados estan concetados por una adiabatiea !::.S = 0, esta transformacion se
denomina isentropica. Si el proceso noes cuasi-estatico, I::.S =F 0.
LA DEFINICION ESTADISTICA DE ENTROPIA.
Boltzmann define Ia entropia de un sistema termodinamico como :
S--= kIn 12(E, x1 ..... )
(10)
donde k es Ia constante de Boltzmann (k = 1.38054 X 10 - 23 Joulesi'K) yA (E, Xl····)
es el numero total de estados accesibles al sistema, que en general es funcion de·la energia
interna y de los panimetros externos.
El comportarniento de ..c:(E, X1····) condiciona el de S. Es interesante hacer no tar
que si se eliminan ciertas ligaduras a un sistema aislado, los parametros extemos tienden a
ajustarse de tal manera que .12 (E, XJ .. .. ) tiende a un maximo. Ademas, una
espccifieacion cuantica de los estados accesibles de un sistema implica que ..l2(E, X}···)
esta completamente determinado y S tiene un valor "lmico" calculable a partir del
conocimiento microscopico del sistema. El comportamiento limite de S cuando T tiende
a cero, (tercera ley) es evidente de Ia definicion anterior, ya que en estas circunstancias
ocurre que-..L2(E, XJ ... ) es igual a Ia unidad 0 es un numero relativamente pequefio.
De acuerdo con Gibbs, para un sistema fisico espacialmente confinado y en
equi!ibrio a Ia temperatura de T grados Kelvin, Ia entropia es
S = -'k
~
P· In P·
J
J
(11)
donde el indice de suma recorre sobre un conjunto completo de estados propios
(eigenstates) del sistema, y no solo sobre los niveles de energla. Pj es Ia probabilidad de
encontrar al sistema en el estado j, dada por:
(12)
donde Ej es el autovalor de Ia energia del estado j,
(3 = 1/ kT, y Z =~ e-~ Fi, es Ia funcion suma sobre estados o funcion de particion.
Puede demostrarse que las definiciones de Boltzmann y de Gibbs son equivalentes.
El concepto de entropia se ha extendido a muchos campos del conocimiento
hurnano, especialmente en Ia teoria de probabilidades, Ia estadistica, Ia lingulstica y el
aruilisis numerico. Sin embargo es en Ia teoria matematica de los procesos de informacion
que ha alcanzado un desarrollo considerable.
Se define Ia informacion asociada con un evento aleatorio como H = -~ Pj In Pj.
Donde Pj es Ia probabilidad de ocurrencia de Ia forma j del evento. Por su semejanza con
Ia de~inicior: (ll) se le da a H tambien cl nombre de entropia. La en tropia juega un papcl
importante en Ia teoria de Ia informacion, proporciona una medida de Ia informacion y
entonces tiene acceso a las diferentes ramas del pensarniento humano.
195
BIBLIOGRAFIA
F. Rei£. Fundamentals of Statistical and Thermal Physics.
M.W, Semansky. Heat and Thermodinamics.
A. I. Khinchin. Mathematical Foundations of Information Theroy
A. I. Khinchin. Statistical Mechanics
L. Brillouin. Science and Information Theory.
H. 13. Callen. Thermodynamics
K. Dutta. A Hundred Years of Entopy. Phisics Today 21-1-1969
R Baierlein. Forces Uncertainty, and Gibbs Entropy American Journal of Physict,
36-7- 1968.
111
Descargar