Capítulo 2 MECÁNICA ESTADÍSTICA Y TERMODINÁMICA

Anuncio
Capítulo 2
MECÁNICA ESTADÍSTICA Y TERMODINÁMICA
2.1
La distribución de Gibbs
Consideremos un sistema A en contacto con otro A 0, el cual constituye un baño
térmico para el primero. El segundo A 0 es un sistema muy grande, cuya temperatura
no cambia cuando A y A 0 intercambian energía. Por ejemplo, A puede ser una
porción menor de un cuerpo, o sea, un subsistema del sistema completo y el resto,
A 0, la parte más grande del cuerpo, puede actuar como ambiente que se mantiene a
una temperatura bien definida. El conjunto A 0 = A + A 0 forma el sistema total, que
supondremos aislado.
Indicaremos con i = 1 ;2 ;::: los estados y con E i los niveles de energía de A ,
asimismo con j = 1 ;2 ;:::, y con E j0, las correspondientes entidades de A 0. Supondremos que la interacción de A con A 0 es débil, de modo que la energía total de A 0 vale,
con buena aproximación,
E 0 = E i + E i0:
(2.1)
Más precisamente, la energía de A 0 está comprendida en un intervalo (E 0 ;E 0 + ¢ E ),
como se ha comentado en el capítulo precedente.
Sea − 0(E i0) el número de estados de A 0 cuando su energía es E i0. Dado que
el ambiente, o baño térmico, es muy grande, tiene muchos niveles de energía muy
próximos. Por eso podemos definir una densidad de estados ! 0(E i0), o sea, el número
de estados por unidad de intervalo de energía, tal que
− 0(E i0) = ! 0(E i0) ¢ E :
(2.2)
Supongamos que A está en un estado cuántico i, cuya energía es E i, entonces
A puede estar en cualquiera de sus estados con energía E i0 = E 0 ¡ E i (dentro de un
intervalo ¢ E ). El número de esos estados de A 0 es igual al número de estados de A 0 ,
porque en este momento A sólo puede estar en un estado, el i-esimo. Los estados
del sistema aislado A 0 son equiprobables, por lo tanto la probabilidad p i de que A se
encuentre en el estado i es proporcional al número de los estados de A 0 bajo estas
condiciones
p i = C 0− 0(E 0 ¡ E i) = C 0! 0(E 0 ¡ E i) ¢ E ;
(2.3)
0
siendo C 0 una constante de normalización que no depende de i. La constante queda
determinada por la normalización de las probabilidades,
X
pi = 1;
i
La distribución de Gibbs
16
donde la suma se extiende sobre todos los estados de A , cualquiera sea su energía.
Como ya se ha comentado, los niveles de A 0forman prácticamente un contínuo,
y además por la hipótesis del baño térmico resulta que E 0 » E j0 À E i para todos los
posibles i;j. Por ello,
ln ! 0(E 0 ¡ E i) = ln ! 0(E 0 ) ¡ ¯ E i + ::: ;
donde hemos puesto
d
(2.4)
ln ! 0(E ) jE 0 :
dE
Esta última es una magnitud prácticamente constante en el rango de energías, E 0 ¡ E i,
E 0 ¡ E j ¼ E 0 , que se consideran aquí, debido al gran tamaño de A 0 respecto del
subsistema A . Por lo tanto, luego de multiplicar por ¢ E , obtenemos
¯ ´
− 0(E 0 ¡ E i) = − 0(E 0 ) ex p (¡ ¯ E i) ;
(2.5)
y puesto que − 0(E 0 ) es una constante independiente de i, podemos escribir
p i = C ex p (¡ ¯ E i) ;
donde C es una constante que se obtiene de la condición de normalización de las
probabilidades.
Esta ley de probabilidades fue denominada por Gibbs distribución canónica.
Feynman ha escrito que esta ley es la cumbre de la mecánica estadística y que toda la
disciplina es, o bien un descenso desde esta cumbre a medida que se la aplica a varios
casos, o bien una escalada durante la cual esta ley es fundamentada y su relación con
la termodinámica clarificada. Se puede escribir en la forma
pi =
donde la normalización, Z (¯ ) = C
1
ex p (¡ ¯ E i) ;
Z
(2.6)
¡1
, se define como
X
ex p (¡ ¯ E i)
Z =
i
(2.7)
y se llama función de partición. La suma en Z es sobre todos los estados i de A , no
sólo sobre los niveles de energía del sistema y hay que recordar que muchos estados
diferentes pueden tener la misma E i. La letra Z proviene del alemán Zustandssumme,
que significa precisamente suma sobre estados. Conviene destacar que, mientras el
sistema A contribuye a la función de partición con sus estados y energías, el parámetro
¯ es una propiedad del baño térmico.
Comparando las probabilidades de dos estados de A , i;j; que en general
tendrán distintas energías, E i;E j , podemos escribir
de la cual se obtiene
− 0(E 0 ¡ E i)
pi
;
= 0
pj
− (E 0 ¡ E j )
(2.8)
pi
= ex p [¡ ¯ (E i ¡ E j )]:
pj
(2.9)
La distribución de Gibbs
17
La energía media de A se calcula promediando E i sobre el ensemble canónico
hE i =
X
i
E ip i =
1 X
Z
i
E i ex p (¡ ¯ E i) = ¡
@
ln (Z ) :
@¯
(2.10)
Ejemplos Densidad de estados y parámetro ¯ .
1- Sean N osciladores armónicos independientes, la energía de un estado del sistema
N
P
n i~! i, donde hemos supuesto niveles muy excitados, n i À 1 , y
es E =
i= 1
hemos despreciado la energía del nivel fundamental. ¿Cual es el número, © (E ),
de estados cuya energía es menor que E ? Comenzando por el caso N = 2
podemos facilmente comprobar, trazando un diagrama en el plano cuyos ejes
coordenados son, n 1 ;n 2 , que el número de estados es proporcional al área del
triángulo comprendido entre los ejes y la recta oblicua E = n 1 ~! 1 + n 2 ~! 2 ,
o sea, 12 £ (E = ~! 1 ) £ (E = ~! 2 ). Extendiendo este resultado a un número de
dimensiones mayor es fácil convencerse de que © (E ) _ E N , siendo N À 1 . Por
lo tanto la densidad de estados crece con E como
! (E ) _
d
E
dE
N
_ E
N ¡1
(2.11)
:
Pongamos atención a un oscilador, i, mientras que los restantes forman el ambiente.
En este caso el parámetro ¯ vale ddE ln ! (E ) = N E¡1 (omitiendo aquí la prima 0
sobre las magnitudes del ambiente, por simplicidad). En virtud de la disparidad
de tamaño entre subsistema y ambiente, podemos escribir ¯ ¼ N = E 0 , donde E 0
es la energía del sistema total A 0 . Por lo tanto,
¯ (E 0 ) ¼
1
1
´
;
E 0 =N
w
(2.12)
donde w es la energía por oscilador. Evidentemente ¯ no depende de E i, la
energía de un oscilador, sino de las propiedades medias del sistema grande.
Hay que notar también que w no depende de N cuando N À 1 . Esto apoya la
afirmación que ¯ es prácticamente una constante.
2- Sea un gas de N partículas monoatómicas (sin spin) en una caja cúbica de lado L .
N
P
No hay interacciones, la energía total es puramente cinética E =
j ¡!p j2 = 2 m .
i
i= 1
Debido a la cuantificación (ver sección 1.2) resulta
1
E =
2m
µ
¶2
¢
¼ ~ ¡¡! 2 ¡! 2
n 1 + n 2 + ::: + ¡!
nN 2
L
(2.13)
donde ¡!n i 2 = n 21 x + n 21 y + n 21 z . Nuevamente, se trata de estimar el número de
estados © (E ) con energía menor que E . Para N = 1 y con dos dimensiones espaciales,
de radio
p podemos contar el número de estados en el 1interior
¡¼ ~ ¢2 del
¡ 2 círculo
¢
2
2 m E (L = ¼ ~), definido por la ecuación E = 2 m L
R =
n 1 x + n 1 y . © (E )
Parámetros macroscópicos
18
p
será aproximadamente proporcional al área del círculo de radio R , © (E ) _ E .
Para N partículas en 3 dimensiones, necesitamos el volumen de la hiperesfera
³p ´3 N
E
, y por lo tanto,
de 3 N dimensiones. Cuando N À 1 , resulta © (E ) _
! (E ) _ 32 N £ E 2 N ¡1 . El parámetro ¯ en este caso vale ¼ 32 EN 0 , o sea ¯ ¼ (2 =13 )w ,
es decir, como en el ejemplo anterior, proporcional a la inversa de la energía por
partícula.
3
2.2
Parámetros macroscópicos
2.2.1 Variaciones del estado del sistema
Para pasar de la distribución canónica a la termodinámica necesitamos poner atención
a algunas cuestiones. Sea (x 1 ;x 2 ;:::;x n ) un conjunto independiente de parámetros
macroscópicos de un sistema. Se trata de magnitudes que afectan el sistema, por
ejemplo, el volumen en el cual está confinado. Otros parámetros pueden aparecer en
el Hamiltoniano, por ejemplo, el campo magnético. La energía E r de un estado r del
sistema depende de estos parámetros
E
r
= E r (x 1 ;x 2 ;:::;x n ) :
(2.14)
El estado macroscópico del sistema se define especificando estos parámetros, y cualquier otro vínculo que lo limite. Por ejemplo, para un sistema aislado simple puede
ser suficiente con fijar el volumen y la energía total. El ensemble estadístico se construye de acuerdo con la especificación del estado macroscópico, es decir, prescribiendo
a todos sus miembros los mismos valores de los parámetros. En cambio, cada sistema
del ensemble puede estar en alguno entre un número muy grande de microestados
posibles.
Sean ahora dos sistemas, A y A 0, en interacción, separados por una pared.
Supongamos que el sistema combinado A 0 = A + A 0 está aislado y que su energía
total es constante. Hay dos modos de intercambio de energía entre A y A 0. En un caso
los parámetros x i y x 0i permanecen constantes, de modo que los niveles energéticos de
los microestados de cada sistema, E r , E s0, no se modifican. La pared de separación
es diatérmica, pero está fija. En este caso decimos que la interacción es puramente
térmica:
E 0 = E + E 0; ¢ E 0 = 0 ; ¢ E + ¢ E 0= 0 :
(2.15)
Aquí ¢ significa una variación y la barra sobre las energías denota el promedio sobre
un ensemble. Dado que la energía total no varía, la ganancia de energía de un sistema
equivale a una pérdida para el otro. En la descripción macroscópica, decimos que
la variación media de la energía de A es igual y contraria a la variación media de la
energía de A 0. La variación media, ¢ E , en la visión de la termodinámica se interpreta
como calor Q absorbido por A (¡ Q es el calor cedido por A ) o sea,
Q = ¡ Q 0:
(2.16)
El calor cedido por A 0 es igual al calor ganado por A .
Cuando la pared que divide los sistemas es adiabática, pero es libre de moverse,
entonces la interacción entre A y A 0 es puramente mecánica. A partir de ciertos
Parámetros macroscópicos
19
estados iniciales, A y A 0alcanzan un nuevo equilibrio: la pared ajusta su posición, los
estados de los sistemas se modifican y sus presiones se igualan. Las energías de A y A 0
varían en distinta medida de un miembro a otro del ensemble. Sea ¢ x E la variación
media de energía de A debida a la variación del parámetro x . En la descripción
termodinámica esta variación es equivalente al trabajo mecánico, W , realizado sobre
el sistema
W = ¢ xE :
(2.17)
El trabajo realizado por el sistema es
W = ¡ W = ¡ ¢ xE :
(2.18)
La conservación de la energía ¢ x E + ¢ x E 0= 0 implica
W = ¡ W 0:
(2.19)
Ejemplo ¿Que sucede a nivel microscópico? Un ensemble hipotético nos ayuda a
visualizar el cambio. Al comienzo, el ensemble tiene 600 sistemas que pueblan
dos estados de igual energía ", con 300 sistemas en cada estado. El ensemble
está en equilibrio. Luego de la interaccíon resulta
en er g¶{a en sem ble in icia l v a r ia ci¶o n t¶e r m ica v a r ia ci¶o n m ec¶a n ica
3"
::::: ::::: :::::
::::: ::::: :::::
::2 0
2"
::::: ::::: :::::
::::: ::::: :::::
::3 0 ::3 0 ::3 0
"
300 300
150 150
::7 0 ::7 0 ::7 0
0
:::::
300
140 140
E = "
E = 12 "
E = 34 "
En el caso de la tercera columna el calor cedido por el sistema es ¡ Q = 12 ", 300
miembros del ensemble han pasado a poblar el estado fundamental. En el caso
de la cuarta columna, además de cambiar las poblaciones, se han modificado
los estados del sistema (aumentó la degeneración de los niveles 0 , ", y el nivel
3 " perdió su degeneración inicial). El trabajo W realizado por el sistema es 14 ".
En una interacción más general, térmica y mecánica, la pared que divide los
sistemas es móvil y diatérmica. La variación media de la energía en el ensemble
resulta
¢ E = ¢ xE = W + Q ;
(2.20)
de modo que hay equivalencia con el I principio de la termodinámica si interpretamos
que la variación de la energía interna del sistema está representada por la variación
media de la energía del ensemble. Cuando las variaciones son infinitesimales escribimos
d E = ~± Q + ~± W ;
(2.21)
donde las transferencias de calor y trabajo se realizan hacia el sistema. ~± Q y ~± W
dependen de la transformación (o sea, de la modalidad de la interacción) y no de los
estados iniciales y finales. Tal como en termodinámica clásica, los símbolos ~± indican
cantidades muy pequeñas y no la diferencia entre dos valores próximos de una función
de estado. En ocasiones, cuando por el contexto el significado es claro, omitiremos la
barra de promedio en d E , tal como se acostumbra en termodinámica.
Parámetros macroscópicos
20
2.2.2 Procesos cuasiestáticos
Un cambio cuasiestático significa que en todo momento el sistema está muy próximo
al equilibrio, de modo que el sistema está siempre en un estado cuántico definido, E r =
E r (x 1 ;x 2 ;:::;x n ). En la práctica esto ocurre cuando la escala temporal característica
de la variación, T , es mucho mayor que el tiempo de relajación,¿ , T À ¿ . Entonces,
como consecuencia de la variación de los parámetros x ® , ® = 1 ;2 ;:::;n , tenemos
dE
El trabajo ~± W
r
r
Xn @ E r
=
dx ® :
@x®
®= 1
(2.22)
que realiza el sistema mientras pasa por este particular estado r vale
~± W
r
= ¡ dE
r
=
Xn
X
® ;r
dx ® ;
(2.23)
®= 1
donde hemos definido
@E r
:
(2.24)
@x®
Esta cantidad se denomina fuerza generalizada conjugada con el parámetro x ® , en
el estado r del sistema. Durante un proceso cuasiestático las cantidades X ® ;r toman
valores bien definidos.
El trabajo macroscópico realizado durante un proceso cuasiestático se obtiene
promediando el decremento de la energía sobre todos los sistemas del ensemble. Si se
trata de un sistema aislado, en equilibrio o muy próximo al mismo, todos los estados
accesibles tienen igual probabilidad. Podemos escribir, entonces,
~± W =
Xn
®= 1
X
® ;r
X
®
´ ¡
dx® ;
X
®
= ¡
@E
;
@x®
donde se ha promediado sobre todos los estados r . Las magnitudes X ® son las fuerzas generalizadas medias conjugadas con x ® . Se calculan empleando la distribución
de probabilidades de equilibrio de un ensemble formado con los valores x ® de los
parámetros. El trabajo macroscópico finito en una transformación cuasiestática se
calcula por integración de ~± W sobre todo el proceso.
El lector debe poner atención a lo siguiente. Si el estado r de un sistema aislado
fuera exactamente un autoestado de la energía del Hamiltoniano completo, con todas
las interacciones, entonces el sistema se quedaría siempre en r . También permanecería
en el estado r , cuya energía es E r = E r (x 1 ;x 2 ;:::;x n ), si las variaciones de x ® fueran
infinitamente lentas. Pero, como ya hemos tenido ocasión de comentar, en mecánica
estadística nunca contamos con tanta informacíon como para saber que el sistema está
en un estado cuántico del Hamiltoniano completo. Siempre manejamos descripciones
menos precisas. Los autoestados que consideramos son aproximaciones, autoestados
de Hamiltonianos simplificados. Trabajamos con un gran número de estados cúanticos
que no son rigurosamente estacionarios. Por lo tanto, con el pasar del tiempo, las
transiciones entre estados conducen a la equipartición de la probabilidad a todos los
La temperatura
21
estados accesibles de un sistema aislado. Durante un proceso cuasiestático un sistema
del ensemble no permanece en un sólo estado sino que ocurre una redistribución, de
forma tal que el ensemble tiende a recuperar, en todo momento, el equilibrio.
Ejemplo. Discusión mediante un ensemble hipotético.
en er g¶{a en sem ble in icia l
3"
2"
"
0
::::: ::::: :::::
::::: ::::: :::::
300 300
:::::
E = "
v a r ia ci¶o n cu a si¡
est¶a tica d e n iv eles
:::::
::::: ::::: :::::
3 0 0 ::::: :::::
::::: 3 0 0
p r o ceso
r ed istr ibu ci¶o n a l
eq u ilibr io
:::::
::::: ::::: :::::
100 100 100
150 150
E = 12 "
Aquí tenemos una configuración inicial de equilibrio en la segunda columna, el ensemble de 600 sistemas está formado por fracciones iguales, que pueblan dos
estados degenerados de energía ". En la columna siguiente ha ocurrido una variacíon de paŕametros de tipo cuasiestático. Los estados se han modificado: por
ejemplo, el fundamental ahora es dos veces degenerado porque un nivel excitado
ha cambiado su energía de " a cero, el primer nivel excitado es ahora tres veces
degenerado, en lugar de dos, etc.. El cambio en la estructura de los niveles
es similar al de la cuarta columna del ejemplo precedente. En esta fase cada
sistema permanece en su estado inicial r durante la variacíon d x ® . Por ello, 300
miembros del ensemble han perdido energía y están en el estado fundamental,
dos veces degenerado. Pero como consecuencia de las interacciones residuales
que hemos comentado, el ensemble se relaja hacia un nuevo equilibrio. La redistribución de los miembros del ensemble se indica en la cuarta columna, donde
los estados de igual energía están igualmente poblados. Como consecuencia, el
sistema en promedio ha perdido energía y ha realizado trabajo mecánico.
2.3
La temperatura
Hemos visto que la probabilidad de encontrar un sistema en contacto con un baño
térmico, en un estado r cuya energía es E r , está dada por la distribución canónica
pr =
donde
Z =
1
ex p (¡ ¯ E r ) ;
Z
X
r
ex p (¡ ¯ E r ) ;
(2.25)
(2.26)
es la función de partición. Si el ensemble contiene N miembros, la población de
sistemas en el estado r es
1
fr = N pr = N
ex p (¡ ¯ E r ) :
(2.27)
Z
P
P
La energía total del ensemble es E =
r frE r = N
r p r E r y por lo tanto
E
1 X
= E =
N
Z
r
E r ex p (¡ ¯ E r ) ;
(2.28)
La temperatura
22
es la energía media de un sistema. Podemos expresar estos resultados con fórmulas
compactas usando la función ln (Z )
E = ¡
@
ln (Z ) ;
@¯
(2.29)
N @
ln (Z ) :
(2.30)
¯ @E r
Cabe notar que no podemos resolver la primera ecuación para obtener ¯ en
función de E de un modo general. La dependencia funcional entre ¯ y E no es universal, i.e., depende del conjunto de estados y del espectro de energía de cada sistema
particular. Por eso, la interpretacíon física de ¯ no es inmediatamente aparente.
Podemos buscar una interpretación física de ¯ por otro camino. Vamos a
aplicar los resultados precedentes a tres ensembles, A , B , y A + B , que se construyen
como sigue. Los miembros del primero y segundo ensemble tienen estados k , m , y
niveles de energía " k , e m , respectivamente. En el tercer caso el ensemble se construye
asociando un miembro de A con uno de B puestos en interacción débil, de modo que
cualquier nivel de energía de A + B sea (con muy buena aproximación) la suma de
un nivel energético de A con otro de B ,
fr = ¡
(2.31)
E l = "k + em :
En este caso, el índice l es en verdad una abreviatura para el par de índices (k ;m ).
Bajo estas condiciones la función de partición de A + B se factoriza en el producto
de dos sumatorias:
X X
X
X
X
ex p (¡ ¯ E l) =
ex p (¡ ¯ (" k + e m )) =
ex p (¡ ¯ " k )
ex p (¡ ¯ " m )
l
k
k
m
m
(2.32)
(ver también la sección 2.6.1). En el caso del sistema A + B la población (fracción
de ocupación) del estado l en el ensemble es
f l ´ f (k ;m ) = N P
k
ex p (¡ ¯ (" k + e m ))
P
:
ex p (¡ ¯ " k )
m ex p (¡ ¯ " m )
(2.33)
Ahora examinamos el ensemble A + B , y preguntamos ¿que fracción de los sistemas
de A + B tienen A en un nivel particular " k ? Este valor, naturalmente, se obtiene
sumando f (k ;m ) sobre todos los estados m de B . Resulta
X
m
f (k ;m ) = N P
ex p (¡ ¯ " k )
:
k ex p (¡ ¯ " k )
(2.34)
Por lo tanto, la distribución estadística de los sistemas A comprendidos en el ensemble
A + B , es la misma que tienen los sistemas del ensemble A cuando está separado de
los otros dos, con la condición esencial de que el parámetro ¯ tenga el mismo valor,
tanto en el ensemble A + B ; cuanto en el ensemble A (para lo cual puede ser necesario
ajustar la elección de E =N para el ensemble A ). Las mismas consideraciónes valen
para el ensemble B . De este argumento concluímos que si ponemos dos sistemas en
Trabajo, calor, y entropía
23
contacto, con un acoplamiento débil y dentro de un baño térmico, cada uno de ellos
se comporta como si estuviera en el baño térmico separadamente, siempre y cuando
los ensembles que representan estos sistemas tengan el mismo valor del parámetro ¯ .
Este estado de cosas se interpreta diciendo que la igualdad de ¯ significa igualdad de temperaturas en el sentido de la termodinámica clásica. Podemos incluso elegir
un sistema particular, digamos A , como standard y emplearlo como termómetro. Este
argumento muestra claramente que ¯ debe ser una función universal (independiente
de la naturaleza del sistema, o sea, de los estados y niveles de energía de cada sistema
particular) de la temperatura termodinámica T .
Esta conclusión se puede reforzar determinando explícitamente la función ¯ =
¯ (T ). Para ello notamos que la función
³X
´
e
ª = ln
ex p (¡ ¯ E l) ;
(2.35)
l
es aditiva para dos sistemas en acoplamiento débil. A fin de poder distinguir la
verdadera temperatura absoluta T , de otras infinitas funciones monótonas de T ; como
f (T ), hay un sólo criterio que deriva del II principio de la termodinámica y sus
corolarios. Esto es: T1 es un factor integrante del calor intercambiado por el sistema
~± Q . Ninguna otra función de T tiene esta propiedad. El criterio citado constituye la
definición de la temperatura absoluta (Kelvin). Pero para aplicar este criterio, hay
que desarrollar primero la noción de entropía en el contexto de la mecánica estadística.
2.4
Trabajo, calor, y entropía
2.4.1 Trabajo
ªe es función de ¯ y de la constitución del sistema (la especificación de los estados y
sus energías). Luego su diferencial es
d ªe =
X
@ ªe
d¯ +
@¯
¯ X
@ ªe
dE l = ¡ E d¯ ¡
l@E l
N
l
f ld E l:
(2.36)
Ahora sometemos el ensemble, que contiene N sistemas repetidos, al siguiente proceso: a cada sistema le aplicamos un mecanismo, igual para todos, que permite realizar
trabajo, es decir, modificar los parámetros macroscópicos, el volumen y otros, y básicamente modificar los niveles de energía E l. Puede tratarse de pistones, tuercas, y
una variedad de otros mecanismos posibles. Naturalmente, se modifican los niveles de
energía de cada sistema de la misma forma, para que podamos seguirr considerando al
conjunto como un ensemble de sistemas idénticos. Además modificamos directamente
la temperatura poniendo el ensemble en contacto con un gran baño térmico. Primero
a la misma temperatura del ensemble, y luego variando muy gradualmente la temperatura del baño. En suma, sometemos al ensemble de sistemas a una transformación
termodinámica reversible (cuasiestática, siempre próxima al equilibrio) de carácter
general, con intercambio de trabajo y calor. En tal caso, f ld E l, es el trabajo que debemos realizar sobre los mecanismos de f l sistemas para cambiar
el nivel energético
P
anterior, E l, hasta un nuevo nivel, E l + d E l. Por lo tanto l f ld E l es el trabajo que
Trabajo, calor, y entropía
24
P
realizamos sobre el ensemble, y ¡
l f ld E l es el trabajo (reversible) realizado por el
ensemble. De modo que
X
~± W = ¡ 1
f ld E l;
(2.37)
l
N
es el trabajo promedio de un sistema del ensemble.
El trabajo realizado por el sistema cuando un parámetro x varía en d x es
¶
µ
X
@E r
~± W = 1
dx :
(2.38)
ex p (¡ ¯ E r ) ¡
r
Z
@x
Pero
X
o sea
donde X = ¡
r
ex p (¡ ¯ E r )
1 @Z
@E r
= ¡
;
@x
¯ @x
~± W = 1 1 @ Z d x = X d x ;
¯ Z @x
@E r
@x
(2.39)
(2.40)
es la fuerza generalizada conjugada con x . En resumen
X = hX i =
1 @ ln (Z )
:
¯ @x
(2.41)
Por ejemplo, si x = V ,
~± W = p d V = 1 @ ln (Z ) d V ;
¯ @V
(2.42)
y se obtiene
p =
1 @ ln (Z )
¯ @V
(2.43)
2.4.2 Calor y entropía
Por otra parte d E es el incremento medio de energía del sistema, así que de la Ec.
2.36 resulta necesariamente
¶
µ
´
³
1 X
e
(2.44)
f ld E l = ¯ ~± Q ;
d ª + ¯ E = ¯ dE ¡
l
N
donde reconocemos en la última igualdad que ~± Q es el calor medio absorbido por
el sistema. En virtud de nociones básicas de termodinámica clásica, se desprende
que ¯ debe ser el factor integrante del calor intercambiado por el sistema. Esto
es suficiente para identificar ¯ con T1 , a menos de una constante multiplicativa, la
cual está relacionada con las unidades de la energía y de la temperatura absoluta.
Finalmente, escribimos
1
;
(2.45)
¯ =
kT
donde k = 1 :3 8 £ 1 0 ¡1 6 erg/± K es la célebre constante de Boltzmann. Podemos ahora
~
introducir la entropía según la definición de la termodinámica clásica d S = ±TQ ,
´
³
(2.46)
S = k ªe + ¯ E + co n st:;
Potenciales termodinámicos
25
donde la constante de integración no puede depender de T o de los parámetros macroscópicos (como el volumen y otros) de los cuales dependen los niveles E l.
Por el momento pondremos co n st: = 0 , como en su tiempo hizo Planck. Esta
elección, a grandes rasgos, equivale a suponer que el estado fundamental de cualquier
sistema físico es único, es decir, que el estado de energía más bajo posible no está
degenerado. Dejamos para otra ocasión un examen de esta cuestión, que está asociada
con el III principio de la termodinámica clásica (Nernst). Resulta, entonces
S = k ln (Z ) ¡ k ¯
@
@ª
ln (Z ) = ª ¡ ¯
;
@¯
@¯
(2.47)
donde hemos puesto ª = k ªe = k ln (Z ) (función introducida por Planck).
Dado que
1
ex p (¡ ¯ E l)
(2.48)
pl =
Z
es la probabilidad del estado l en el ensemble canónico, podemos comprobar que
³
´
X
k
p l ln (p l) = ¡ k ªe + ¯ E ;
(2.49)
l
y, por lo tanto,
S = ¡k
X
l
p l ln (p l) :
(2.50)
Esta fórmula, que vincula la entropía con la probabilidad, es justamente famosa. Fue
introducida por Boltzmann y por Gibbs en los comienzos de la mecánica estadística.
La fórmula está relacionada también con el concepto de entropía de la información
(Shannon, ca. 1950) que discutiremos en la segunda parte de estas notas.
2.5
Potenciales termodinámicos
De lo dicho se desprende que
ª = S ¡
E
= k ln (Z ) ;
T
(2.51)
es un potencial termodinámico, función de V y T , para un sistema simple (formado
por una sóla substancia) que depende de dos variables termodinámicas, ª = ª (V ;T ).
En efecto, teniendo en cuenta que
T d S = ~± Q = d E + p d V ;
(2.52)
y que
E dT
E dT
pdV
dE
+
+
=
;
2
T
T
T
T2
µ ¶
µ
µX
¶¶
@ª
@
El
p = T
= kT
ex p ¡
ln
;
l
@V T
@V
kT
µ ¶
³X
´
@ª
@
2
ln
E = hE i = T
= ¡
ex p (¡ ¯ E l) ;
l
@T V
@¯
dª = dS ¡
se obtiene
(2.53)
(2.54)
(2.55)
Función de partición
26
fórmulas a partir de las cuales se puede obtener toda la termodinámica (conociendo la
variación de E l con V ). El potencial ª se conoce con el nombre de función de PlanckMassieu. En la termodinámica clásica se dice que ª es una función característica,
pues cuando está expresada en sus variables naturales, en este caso V ;T ; a partir de
ella se puede calcular por derivación y operaciones sencillas toda la termodinámica
del sistema. Vemos, entonces, que la función de partición Z del sistema es la clave
para el estudio del equilibrio termodinámico.
El potencial ª tal vez no sea el más familiar para el lector. Mucho más
difundido es el empleo de la energía libre de Helmholtz
1
ln (Z ) ;
¯
´
ex p (¡ ¯ E l) :
F = F (T ;V ) = E ¡ T S = ¡ T ª = ¡
(2.56)
1 ³X
F = F (¯ ;V ) = ¡ ln
(2.57)
l
¯
Esta función está asociada con un principio variacional del equilibrio termodinámico,
como veremos en otra sección. Aplicando el primer principio y la definición de la
entropía, podemos verificar de inmediato que d F = ¡ p d V ¡ S d T , y de esta expresión
se obtiene
µ ¶
µ
¶
@F
1 @ ln (Z )
¡
= p =
;
(2.58)
@V ¯
¯
@V
¯
µ ¶
¶
µ
@ ¡ ¡1 ¢
@F
@ (¯ ¡1 ln (Z ))
¡
¯ ª V :
= S =
= ¡ ¯2
(2.59)
@T V
@T
@¯
V
El potencial F = F (T ;V ) es también una función característica, con la cual se puede
calcular toda la termodinámica.
2.6
Función de partición
2.6.1 Separabilidad
Si las energías de los microestados, en particulares circunstancias, son funciones aditivas de contribuciones independientes, digamos que
E
®
= H i + G j;
(2.60)
de modo que ® es una notación que en realidad representa dos conjuntos de números
cuánticos i;j, que son necesarios para especificar el estado ® , entonces la función de
partición Z resulta igual a
X
ex p [¡ ¯ (H i + G j )]
(2.61)
Z =
i;j
X
X
ex p [¡ ¯ (H i)]
ex p [¡ ¯ (G j )]
(2.62)
=
i
=
ZH ZG:
j
(2.63)
La función Z se convierte en el producto de dos funciones de partición separadas,
definidas con las contribuciones H i;G j de la energía.
Función de partición
27
El ejemplo típico es el de las energías de translación y de rotación de una
molécula, pero puede valer también para componentes independientes, digamos las
partículas, de un sistema. Esta propiedad es similar al comportamiento de la función
de onda en la mecánica cuántica. Cuando el Hamiltoniano tiene dos contribuciones
independientes cuyos términos se suman, la correspondiente función de onda es el
producto de dos factores independientes. Cuando se cumple la separabilidad de Z ,
el potencial de Planck-Massieu, y otras magnitudes que dependen del mismo, es la
suma de los potenciales de cada contribución independiente de la energía.
2.6.2 Fluctuaciones
También las fluctuaciones se pueden calcular a partir de ln (Z ). Por ejemplo, en el
caso de la energía,
−
¢2 E
® D¡
2
(¢ E )2 =
= E 2¡ E ;
(2.64)
E ¡ E
donde E = ¡
@ ln (Z )
,
@¯
y
E
2
− ® 1 X
= E 2 =
Z
¶
µ
Er
:
E ex p ¡
r
kT
2
r
(2.65)
Pero, por otra parte
X
¶ µ
¶2
µ
@
Er
= ¡
E ex p ¡
Z;
r
kT
@¯
2
r
(2.66)
o sea
− 2® 1 @ 2Z
:
E
=
Z @¯2
Este resultado se puede reescribir como
µ ¶2
µ
¶
− 2® @
@Z
@E
1 @Z
1
2
= ¡
+ E ;
+ 2
=
E
@¯ Z @¯
Z
@¯
@¯
(2.67)
(2.68)
y, por lo tanto, se obtiene finalmente
−
®
@ 2 ln (Z )
@E
(¢ E )2 = ¡
=
:
@¯
@¯2
De esta última ecuación se deduce que
@E
@¯
(2.69)
· 0 , o sea
@E
> 0:
@T
(2.70)
En toda la sección hemos indicado la operación de promedio indiferentemente con la
barra o con el bracket.
Descargar