Cap. 5

Anuncio
Capítulo 5
LA ECUACIÓN PRINCIPAL Y LA EVOLUCIÓN IRREVERSIBLE
Hallar la solución de la ecuación de evolución temporal del operador estadístico, 3.66
(sección 4, capítulo 3, II parte) para estudiar procesos fuera de equilibrio de un sistema, es un problema casi siempre demasiado complicado. Para que el problema pueda
ser tratable es necesario introducir aproximaciones en el operador hamiltoniano y ello
nos lleva al terreno de la teoría cuántica de perturbaciones. Además, como hemos
visto (sección 2, capítulo 4, II parte) la 3.66 predice la invariancia temporal de la
entropía definida a partir de la matriz densidad, de modo que a primera vista los procesos irreversibles parecerían quedar excluidos. A fin de poder estudiar los fenómenos
de transporte de una manera más accesible se prefiere partir de una ecuación más
simple, una ecuación reducida para las probabilidades de los ensembles fuera de equilibrio, que se denomina ecuación principal (master equation) o también ecuación del
transporte.
La ecuación principal incorpora conceptos de la teoría de perturbaciones y
además otras hipótesis adicionales de caracter estadístico, ajenas a los postulados
de la mecánica cuántica, como el concepto de las fases al azar (capítulos 3 y 4, II
parte) las cuales finalmente introducen en el problema una irreversibilidad temporal
que ni la ecuación de Schrödinger ni la ecuación de Liouville cuántica poseen. En
el dominio de la mecánica estadística clásica la primera ecuación reducida de este
tipo fue introducida por Boltzmann, en su teoría cinética de los gases con el célebre
término de colisiones moleculares, del cual derivó luego el llamado ”teorema H ” que
muestra la tendencia al equilibrio de la entropía de Boltzmann (capítulo 1, II parte)
y que le dió al autor fama imperecedera.
El presente capítulo está destinado a derivar la ecuación principal y examinar
algunas de sus propiedades, entre las cuales la irreversibilidad temporal. Comienza
con tres secciones en los cuales se recuerdan nociones básicas de la teoría de perturbaciones, que pueden ser leidas rápidamente por quienes ya tengan conocimientos del
tema, considerando más pausadamente los parrafos dedicados a los límites de validez
y los comentarios acerca de la introducción de conceptos estadísticos.
5.1
La representación de interacción
La siguiente teoría de perturbaciones, que el lector recordará de un curso de mecánica
cuántica, se debe a Dirac (1927). Sea un sistema aislado (cerrado a las influencias
externas) dividimos su operador hamiltoniano Hb en una parte Hb0 correspondiente al
La representación de interacción
62
sistema no perturbado y una parte que representa la energía Vb de las interacciones
Hb = Hb0 + Vb:
(5.1)
Hb0 ' n = E n0 ' n :
(5.2)
(' n ;' m ) = ± n m :
(5.3)
Por ejemplo, Hb0 puede contener la energía cinética de partículas libres mientras que
Vb representa el potencial de interacción (scattering, colisiones). O bien, el sistema
no perturbado es un átomo en un estado excitado y la perturbación es el campo
electromagnético (emisión de radiación por decaimiento al estado fundamental) y
así siguiendo. Sean ' n (x ) las autofunciones de la energía (x es la abreviatura que
representa todas las variables que se necesitan para definir el estado cuántico) y E n0
los correspondientes autovalores, n = 1 ;2 ;:::, del hamiltoniano no perturbado:
Las funciones ' n se supondrán ortonormalizadas
Todo estado del sistema en ausencia de interacción puede representarse como una
superposición de estados no perturbados estacionarios
0
ª (x ;t) =
X
k
E k0
i t);
~
c 0k ' k (x ) ex p (¡
0
(5.4)
donde los coeficientes c 0n = (' n ;ª 0 ) ex p (i E~n t) son constantes. En el estado ª
valor medio de la energía vale
X ¯ ¯2
¯c 0k ¯ E k0 ,
H 0 = (ª 0 ; Hb0 ª 0 ) =
0
el
k
2
de modo que, como sabemos (capítulo 3, II parte) jc 0n j es la probabilidad de obtener
el valor E n0 en una medición de la energía del sistema y c 0n es la correspondiente
amplitud (compleja) de probabilidad.
En presencia de la perturbación Vb la idea de Dirac es emplear el método de
variación de las constantes de la teoría de ecuaciones diferenciales. Una vez incluida
la interacción proponemos como solución la función de onda
ª (x ;t) =
X
k
c k (t)' k (x ) ex p (¡
iE k0
t):
~
(5.5)
Reemplazando 5.5 en la ecuación de Schrödinger
@ª
i~
= Hbª ;
@t
se obtiene el sistema (infinito) de ecuaciones diferenciales acopladas
µ
¶
d cn
iX
i 0
0
= ¡
(E ¡ E k )t c k (t);
V n k ex p
k
dt
~
~ n
(5.6)
Teoría de perturbaciones
63
para las amplitudes de probabilidad de los estados ' k . En esta expresión V n k es el
elemento de matriz de la interacción en la representación de las autofunciones no
perturbadas de la energía,
V n k ´ (' n ; Vb' k );
(5.7)
de modo que V n k = V k¤n es una matriz hermitiana. La solución del sistema 5.6 aporta
el conocimiento de las funciones c n , mediante las cuales (siempre que la ª de la
ecuación 5.5 haya sido normalizada) podemos calcular la probabilidad de encontrar
el sistema en el estado n -esimo en el instante t,
p n (t) = c n (t)¤c n (t);
donde
X
k
p k (t) =
X
k
jc k (t)j2 = 1 :
(5.8)
(5.9)
El sistema de ecuaciones 5.6 es exacto, el vector de amplitudes c n representa
el estado del sistema y la 5.6 es la ecuación de Schrödinger en la representación de
interacción. Pero en la 5.6 los infinitos estados n están acoplados. Las probabilidades
p n (t) de encontrar el sistema en un dado estado ' k varían con el tiempo. Debido a
la presencia de la interacción Vb el sistema ejecuta un ”paseo” a través de los estados
no perturbados ' k , como ya tuvimos ocasión de comentar en la introducción a estas
notas (capítulo 1, I parte) y vamos a examinar en lo que sigue.
5.2
Teoría de perturbaciones
5.2.1 Integración aproximada
Evidentemente, el sistema 5.6 es tan dificil de resolver como la ecuación de Schrödinger
original. La integración aproximada consiste en suponer que la interacción es apenas
una pequeña perturbación tal que
° °
°b°
°V °
°
(5.10)
"´ °
°b ° ¿ 1
H
° 0°
donde " será el pequeño parámetro que justifica la expansión en serie
c n (t) = c 0n + c 1n (t) + c 2n (t) + :::;
(5.11)
en la cual c 0n son los valores (constantes, no perturbados) iniciales, c n (t = 0 ) = c 0n .
En esta serie suponemos que el cociente jc 1n (t)= c 0n j es una cantidad de orden ", así
como también lo es jc 2n (t)= c 1n (t)j y los cocientes similares de los términos adyacentes
siguientes. Al primer orden en " el sistema de ecuaciones 5.6 se reduce a
µ
¶
iX
i 0
d c 1n
0
= ¡
(E ¡ E k )t c 0k ;
V n k ex p
(5.12)
k
dt
~
~ n
puesto que jV n k j es de orden ". Las ecuaciones 5.12 se pueden integrar facilmente
para obtener la primera aproximación c n (t) ¼ c 0n + c 1n (t) a la solución del problema.
Teoría de perturbaciones
64
Naturalmente, esta solución valdrá para tiempos cortos, cercanos a t = 0 , porque
básicamente estamos suponiendo que las cantidades c k (t) del miembro de la derecha
del sistema 5.6 se pueden reemplazar por los valores constantes c k (0 ) = c 0k .
En lo que sigue, suponemos que la interacción Vb comienza a ejercer su influencia en un instante t = 0 (o bien, t = t0 ) y luego se mantiene constante en el tiempo
(sistema aislado). Los modos particulares de ”encender” la perturbación no tienen
mayor influencia en el resultado final.
5.2.2 Solución particular
Postergamos, por el momento, la consideración de la solución general de 5.12 con condiciones iniciales arbitrarias. Nos alcanza con enfocar la atención sobre una condición
inicial particular en la cual el sistema en t = 0 está con certeza en el autestado n esimo (no perturbado) de la energía, i.e., c n (0 ) = c 0n = 1 mientras que c k (0 ) = c 0k = 0
para todo k 6= n . Para m 6= n tenemos
µ
¶
d c 1m
i
i 0
0
= ¡ V m n ex p
(E ¡ E n )t ;
(5.13)
dt
~
~ m
de la cual resulta
c 1m
= Vm
n
¡
¢
ex p ¡ ~i (E n0 ¡ E m0 )t
:
(E n0 ¡ E m0 )
(5.14)
Habiendo partido del estado n -esimo, la probabilidad de encontrar el sistema al tiempo t en el estado m (m 6= n ) vale (aproximadamente)
p m (t) = c ¤m (t)c m (t) = 4 jV m n j2
sin 2 [21~ (E m0 ¡ E n0 )t]
;
(E m0 ¡ E n0 )2
(5.15)
durante tiempos cortos.
El factor D (";t) definido por
·
¸2
sin ("t= 2 ~)
D (";t) ´
;
("= 2 )
(5.16)
donde " = E m0 ¡ E n0 , considerado como función de " es análogo a la distribución de
intensidad de la figura de difracción de una ranura. Presenta un máximo principal
con valor (t= ~)2 en " = 0 y una serie de oscilaciones de menor importancia cuyos
máximos secundarios decrecen como 4 = " 2 al aumentar ". El primer cero ocurre en
" = ¼ ~= t, de modo que el lobo principal se extiende sobre un intervalo de energías
¢ " = h = t, expresión emparentada con la relación de incerteza. Evidentemente el
área que ocupa el pico principal de D (";t) (como función de ") es proporcional a
¢ " £ (t= ~)2 o sea, _ t. Para tiempos muy cortos (t ! 0 + ) D (";t) es proporcional a
t2 para cualquier " acotado, pero para tiempos finitos prevalece el comportamiento
que hemos señalado y los estados finales m con probabilidades significativas forman
un grupo cuyas energías están comprendidas dentro del ancho del pico principal.
Como se discute a continuación, el tiempo durante el cual aplicamos las fórmulas
de la teoría de perturbaciones a la mecánica estadística no puede ser muy corto ni
tampoco demasiado largo.
Teoría de perturbaciones
65
Finalmente, por diferencia de la suma de las probabilidades 5.15 con la unidad
se obtiene la probabilidad que el sistema permanezca aún en el estado n al tiempo t:
p n (t) = 1 ¡
X
m 6
= n
4 jV m n j2
sin 2 [21~ (E m0 ¡ E n0 )t]
:
(E m0 ¡ E n0 )2
(5.17)
5.2.3 Discusión en vista de las aplicaciones a la mecánica estadística
Podemos notar que el estado n no es un autoestado exacto de la energía, ' n (x )
es sólo un estado aproximado del sistema. De modo que cuando suponemos que el
sistema inicia en el estado n , es como considerar que parte de una posible distribución
inicial de estados exactos (del hamiltoniano total) en la cual aquellos que tienen
energías próximas a E n0 tienen alta probabilidad de ocurrir. Así comienzan a asomar
consideraciones de tipo estadístico en esta cuestión.
Aun más, en la mecánica cuántica no siempre son posibles observaciones precisas sin que estas afecten la evolución espontánea del sistema y no siempre estas se
pueden realizar en tiempos tan cortos como pudieramos desear. Por ejemplo, en un
gas podríamos determinar la posición de las partículas con gran exactitud (empleando microscopios de rayos ° con alto poder resolutivo) pero ello afectaría de un modo
incontrolable la energía de las moléculas y por lo tanto la evolución natural del gas
hacia el equilibrio.
La relación de incerteza para la energía
¢ E £ ¢ t¸ h
(5.18)
vincula la precisión con la cual podemos observar la energía del sistema, con la incerteza ¢ t del lapso de tiempo necesario para realizar la medición. Por consiguiente la
observación debe realizarse durante un tiempo ¿ tal que ¿ ¸ ¢ t, o sea,
¿ ¸
h
:
¢ E
(5.19)
El lapso de observación no puede ser demasiado pequeño si se desea precisión en la
determinación de la magnitud E . Pero, por otra parte, ¿ no puede ser demasiado
grande, porque estamos examinando un sistema en evolución y su estado varía sobre
una escala temporal T . En consecuencia, debe ser ¿ ¿ T , porque de otro modo la
observación pierde sentido, el estado del sistema cambiaría en tiempos comparables
con la duración de la medición. Concluímos que los tiempos mencionados deben
cumplir las desigualdades siguientes
h
· ¿ ¿ T:
¢ E
(5.20)
Por ello, cuando en física estadística asignamos una energía E al sistema, esta cantidad tiene asociada una imprecisión ¢ E que no puede ser arbitrariamente pequeña.
Argumentos similares pueden ser desarrollados para otros observables del sistema.
Los sistemas con un número muy grande de componentes tienen una gran
densidad de estados (cuyos espectros energéticos son cuasi-continuos) y ¢ E contiene
Probabilidades de transición
66
habitualmente un gran número de estados. En espectros de energía cuasi-continuos el
estado con energía E n0 está rodeado de un gran número de otros estados con energías
E m0 muy cercanas a E n0 . Por lo tanto, como surge de la ecuación 5.15 (cuyo denominador es resonante en la energía E n0 ) los estados finales de mayor probabilidad son
aquellos con E m0 ¼ E n0 comprendidos en el máximo principal y cuyo número podemos
indicar con − m . Asimismo, la condición inicial sobre el estado n con energía E n0 está
definida sólo aproximadamente y será más adecuado considerar un grupo de autostados iniciales alrededor de E n0 y cuyo número se puede indicar con − n . Cuando el
sistema está aislado, todos los estados entre los cuales hay transiciones posibles deben estar contenidos en el intervalo E ;E + ¢ E por la conservación de la energía. La
noción de un estado bien preciso es una idealización, en la práctica la imprecisión nos
lleva a considerar un conjunto de estados y en mecánica estadística a la consideración
de grupos de estados iniciales y la transición a grupos de estados energéticamente
próximos.
5.3
Probabilidades de transición
5.3.1 Transición de un estado discreto a un grupo cuasi-contínuo estados
Como hemos dicho, en las aplicaciones a la mecánica estadística intervienen las transiciones desde un grupo de estados del espectro cuasi-continuo a otro grupo de estados
del cuasi-continuo de la energía. Pero por razones didácticas comenzamos examinando una situación más simple. Tratamos aquí la probabilidad de transición desde un
estado discreto de energía E n0 (bien separado de otros niveles) hacia un conjunto de
estados del espectro cuasi-continuo, con energías distribuidas alrededor de E n0 . Por
ejemplo, el estado inicial discreto puede ser un estado molecular excitado y los estados
finales (con energías próximas) son los estados de la molécula disociada.
Para un único estado de partida n , teniendo presente lo discutido en la sección
precedente, consideremos la ecuación 5.15 asociada a un grupo de − m estados finales,
contenidos en un intervalo ¢ E que está centrado en E n0 , la energía del estado inicial.
El estado n puede realizar transiciones n ! m a los − m estados del grupo contenido en
¢ E . Por ello, sumamos las probabilidades de ese grupo para obtener la probabilidad
de encontrar el sistema en algún estado m al cabo de un tiempo t,
P m (t) =
X
c ¤m (t)c m (t) =
m
X
m
jV m n j2
4 sin 2 [21~ (E m0 ¡ E n0 )t]
:
(E m0 ¡ E n0 )2
(5.21)
Para calcular la suma en 5.21 vamos a aproximar el grupo de energías cuasicontinuas a un espectro continuo, poniendo
dº = ! m dE
0
m
(5.22)
para el número de niveles energéticos contenidos en d E m0 siendo ! m la densidad de
estados finales alrededor de E n0 . Por lo tanto, podemos escribir
E
P m (t) = 4
E
0
n
0
n+
(1 = 2 )¢
Z
¡(1 = 2 )¢ E
E
jV m n j2
sin 2 [21~ (E m0 ¡ E n0 )t]
! m dE
(E m0 ¡ E n0 )2
0
m
(5.23)
Probabilidades de transición
67
y cambiando variables
y =
1
(E
2~
0
m
obtenemos
¡ E n0 )t;
1
td E
2~
dy =
(1 = 4 ) ¢ ~E t
Z
2
P m (t) = t
~
jV m n j2 ! m
0
m
;
sin 2 (y )
dy:
y2
(5.24)
(5.25)
¡(1 = 4 ) ¢ ~E t
La integral en la ecuación 5.25 se evalua con las consideraciones siguientes. Por lo
pronto, la mayor contribución a la integral ocurre en la vecindad de y = 0 , i.e., cuando
E m0 ¼ E n0 y por lo tanto esta circunstancia justifica el tratar jV m n j2 y ! m como si
fueran constantes (evaluadas en E n0 ). Además, se podrá pensar en extender, sin error
apreciable, los límites de integración al intervalo (¡ 1 ;+ 1 ) siempre que
¢ E £ t À h,
(5.26)
es decir, que el lapso de tiempo t no sea demasiado breve. En suma:
2
jV m n j2 ! m t
P m (t) =
~
Z1
sin 2 (y )
dy
y2
(5.27)
¡1
y dado que una fórmula del análisis matemático asegura que
Z1
sin 2 (y )
dy = ¼ ;
y2
(5.28)
¡1
finalmente se obtiene
2¼
(5.29)
jV m n j2 ! m t:
~
Esta es la probabilidad de que un sistema inicialmente preparado en un estado
n , al cabo de un tiempo t haya sufrido una transición al grupo de estados m . Como
se ve, la probabilidad P m es proporcional al tiempo t. La 5.29 se cumple sólo si
E m0 ¼ E n0 , de modo que la probabilidad de transición n ! m por unidad de tiempo,
z n ! m ´ d P m = d t se escribe en la forma
P m (t) =
zn ! m =
2¼
jV m n j2 ! m b E m0
~
= E
0
n
;
(5.30)
Los lectores con experiencia reconocerán que la función D (";t), que aparece en 5.21
(donde " = E m0 ¡ E n0 ) y está definida en 5.16, es una aproximante de la Delta en el
límite t ! 1 . Es decir que podemos escribir
lim D (";t) =
t! 1
2¼
t± (");
~
(5.31)
expresión que resume las operaciones realizadas desde la ecuación 5.21 hasta la 5.30.
Naturalmente, la expresión 5.31 sólo proporciona el resultado 5.29 después de sumar
Probabilidades de transición
68
sobre el grupo de estados cuyas energías caen en el pico principal de D (";t). La
fórmula 5.30 para la probabilidad de transición tiene tantas aplicaciones interesantes
que Fermi la bautizó la regla de oro.
Nuestro propósito, al rever la derivación de esta fórmula (conocida del curso
de mecánica cuántica) es el de recordar las aproximaciones que limitan su validez y
poner en evidencia los conceptos que la sustentan. Entre las primeras mencionadas,
es evidente que si queremos observar una variación apreciable del sistema debe transcurrir un tiempo de evolución T que, según 5.29, podemos estimar como del orden
de
~
T v
:
(5.32)
2 ¼ jV m n j2 ! m
Pero debido a la condición 5.26, resulta
¢ E À 4 ¼ 2 jV m n j2 ! m ;
(5.33)
una condición que limita el valor de la indeterminación de la energía del sistema.
5.3.2 Transición inversa del cuasi-continuo al discreto
Al examinar la transición n ! m de la sección precedente no hemos recurrido a la
noción de ensemble. Sin embargo, cuando se desea estudiar la transición inversa,
m ! n , desde los estados del grupo cuasi-continuo a un estado del discreto, un
promedio de ensemble resulta indispensable. En este caso la condición inicial es
que el sistema se encuentra con seguridad en alguno de los − m estados m del grupo
contenido en ¢ E . Por lo tanto,
X
X
p m (0 ) =
c ¤m (0 )c m (0 ) = 1 ;
(5.34)
m
m
mientras que la amplitud de probabilidad de encontrar el sistema en el estado discreto
n , con energía E n0 , es nula
c n (0 ) = 0 n 6= m :
(5.35)
Volviendo a la ecuación 5.12, aplicando la nueva condición inicial e integrando, resulta
¡
¢
X
ex p ~i (E n0 ¡ E m0 )t ¡ 1
Vnm
(5.36)
c m (0 );
c n (t) =
m
(E m0 ¡ E n0 )
donde hemos sumado sobre los − m estados estados iniciales del grupo m , para obtener
la amplitud de probabilidad de encontrar el sistema en el estado discreto n a un tiempo
t. Entonces podemos calcular la probabilidad al tiempo t como
p n (t) =
=
c ¤n (t)c n (t)
(5.37)
¡ i 0
¢
¢
¡i 0
0
0
X
ex p ¡ ~ (E n ¡ E m 0)t ¡ 1 ex p ~ (E n ¡ E m )t ¡ 1
V n¤m 0V n m
(E m0 0 ¡ E n0 )
(E m0 ¡ E n0 )
m ;m 0
£ c ¤m 0(0 )c m (0 )
Evidentemente, la probabilidad p n (t) de encontrar el sistema en el estado n luego de
un tiempo t depende de la asignación particular de las condiciones iniciales c m (0 ).
Probabilidades de transición
69
Este es el momento de introducir hipótesis estadísticas y calcular el promedio de p n (t)
sobre un ensemble de condiciones iniciales:
¦ n (t) = hp n (t)i :
(5.38)
Esta operación teórica está asociada a una observación de la energía del sistema durante un lapso de tiempo finito (porque estamos haciendo una predicción,
que deberá ser verificada por observaciones, sobre el estado futuro del sistema ) El
promedio temporal debe ser considerado como equivalente a un promedio sobre un
ensemble:
t
−
®
jc m (t)j2 ! jc m (t)j2 :
(5.39)
Haremos las hipótesis: (a) que el grupo inicial de − m estados m es equiprobable; (b)
que las fases de las amplitudes iniciales de probabilidad, c m (0 ), están distribuidas al
azar (como en el postulado microcanónico de la estadística cuántica - capítulo 4, II
parte).
Empleando estos criterios y las operaciones 5.38 y 5.39 en la ecuación 5.37,
resulta
sin 2 [21~ (E n0 ¡ E m0 )t]
1 X
¦ n (t) = 4
jV n m j2
;
(5.40)
m
−m
(E n0 ¡ E m0 )2
donde hemos empleado las hipótesis (a) y (b)
hc ¤m 0(0 )c m (0 )i =
1
−
±m
m
0m
(5.41)
:
La suma sobre el grupo de estados iniciales m se realiza como en las ecuaciones 5.21
y 5.25, con lo cual se obtiene
¦ n (t) =
1 2
jV n m j2 ! m t
−m ~
(5.42)
y para la probabilidad de transición m ! n por unidad de tiempo (desde un grupo
de estados m del continuo a un estado n del discreto) resulta
zm
!n
(t) =
1 2
jV n m j2 ! m b E m0
−m ~
= E
0
n
:
(5.43)
La fórmula es similar a la ecuación 5.29 correspondiente a la transición n ! m .
En ese caso el número de estados iniciales es la unidad y podemos reescribir la 5.30
de la forma
1 2
jV m n j2 ! m b E m0 = E n0 ;
(5.44)
z n ! m (t) =
−n ~
donde − n = 1 . En virtud del carácter hermitiano de la matriz de transición vale
jV n m j2 = jV m n j2 ;
(5.45)
propiedad que se conoce como el principio de la reversibilidad microscópica. Por
consiguiente la probabilidad de transición z n ! m (t) para n ! m , difiere de la probabilidad de transición z m ! n (t) para m ! n , sólo por el número de estados que
intervienen en las dos transiciones consideradas.
La ecuación principal
70
Se concluye que las probabilidades de transición (por unidad de tiempo) sumadas sobre el grupo de estados respectivos, que indicaremos con los símbolos W n ! m
y W m ! n , para la directa y la inversa respectivamente, son iguales
W
n!m
= z n ! m (t)−
n
= zm
! n
(t)−
m
= W
m !n
;
(5.46)
La igualdad W n ! m = W m ! n , también expresa la reversibilidad de los procesos básicos, sin distinguir la individualidad de cada estado en las agrupaciones correspondientes. Esto último refleja la imprecisión de nuestras observaciones del sistema.
Siguiendo pautas muy similares, se puede extender el cálculo de las probabilidades de transición al caso más general de las transiciónes entre espectros cuasicontinuos. También se puede incluir en el tratamiento la degeneración de los estados.
No vamos a examinar en detalle todas estas extensiones. Los resultados, para las
transiciones directa e inversa entre espectros cuasi-continuos, son muy parecidos a las
fórmulas 5.43 y 5.44 y sus propiedades son las mismas que hemos estudiado en esta
sección. La fórmula 5.46 que establece la igualdad W n ! m = W m ! n para las probabilidades de transición directa e inversa sumadas sobre grupos de estados se mantiene
válida. Estas nociones son suficientes para plantear la ecuación principal.
5.4
La ecuación principal
El sistema no tiene interacción para t < t0 . En t = t0 se introduce la perturbación Vb
independiente del tiempo y para t ¸ t0 escribimos
@ª
= (Hb0 + Vb)ª :
i~
@t
(5.47)
Hb0 t
)© ;
~
(5.48)
Empleamos la representación
ª = ex p (¡ i
de modo que la ecuación de Schrödinger se transforma en
"
#
@©
Hb0 t b
Hb0 t
i~
= ex p (i
)V ex p (¡ i
) ©:
@t
~
~
(5.49)
Podemos integrar formalmente esta ecuación entre 0 y t y obtener
1
© (x ;t) = © (x ;0 ) +
i~
Zt
0
b 0)© (x ;t0);
d t0V(t
(5.50)
donde hemos definido
b
b
b ´ ex p (i H 0 t )Vb ex p (¡ i H 0 t ):
V(t)
~
~
(5.51)
La ecuación principal
71
A primer orden en la perturbación Vb esta ecuación se reduce a
2
3
Zt
1
b 0)5 © (x ;0 ):
© (x ;t) = © (x ;0 ) + 4
d t0V(t
i~
(5.52)
0
Empleamos este resultado para estudiar la variación de las amplitudes de probabilidad
c k (t) de encontrar el sistema en los autestados no perturbados ' k (x ) con energías E k0 ,
que satisfacen las ecuaciones 5.2, 5.3. Pondremos en 5.52
X
© (x ;t) =
c k (t)' k (x );
(5.53)
k
donde c k (t) = (' k ;© ) y escribimos también
X
© (x ;0 ) =
c 0k ' k (x );
(5.54)
k
abreviando c k (0 ) ´ c 0k . Se obtiene
c k (t) =
=
c 0k +
c 0k +
X
X
0
m
m
2
@' k ;4 1
i~
1
i~
Zt
0
Zt
0
3
1
b 0)5' m A c 0
d t0V(t
m
³
´
b 0)' m c 0 :
d t0 ' k ; V(t
m
(5.55)
En esta ecuación podemos notar que
!
Ã
³
´
b0 t
b0 t
H
H
b 0)' m
' k ; V(t
)' k ; Vb ex p (¡ i
)' m
=
ex p (¡ i
~
~
=
(E
(' k ; Vb' m ) ex p [i
0
k
¡ E
~
0
m
)
t]:
(5.56)
Sustituyendo este resultado, teniendo en cuenta que (' k ; Vb' m ) = V k m e integrando,
obtenemos
X
ex p [~i (E k0 ¡ E m0 )t] ¡ 1 0
c k (t) = c 0k +
cm ;
V km
(5.57)
m
(E k0 ¡ E m0 )
un resultado equivalente al que se obtiene integrando 5.12. A continuación aplicamos
a la ecuación 5.57 las operaciones relativas a grupos de estados y promedios sobre
ensembles que hemos aprendido en las secciones precedentes.
La probabilidad de encontrar el sistema en el estado k , después de un lapso
de tiempo t a partir de t = 0 , vale
p k (t) =
=
c ¤k (t)c k (t)
¾
½
X
ex p [~i (E k0 ¡ E m0 )t] ¡ 1 0
0
cm
V km
ck +
m
(E k0 ¡ E m0 )
¾
½
X
ex p [~i (E k0 ¡ E m0 0)t] ¡ 1 0
0
V km 0
cm 0 :
£ ck +
m 0
(E k0 ¡ E m0 0)
(5.58)
La ecuación principal
72
Promediamos esta cantidad sobre un ensemble de valores iniciales (ver comentarios
a las ecuaciones 5.38 y 5.39) y sumamos sobre un grupo de estados k dentro de la
incerteza de la energía. Para la probabilidad P k de que el sistema se encuentre en
un grupo de estados alrededor de k , luego de aplicar las fórmulas 5.43 a 5.46, se
encuentra:
P k (t) =
− k hc ¤k (t)c k (t)i =
D¯ ¯E
X
2
− k ¯c 0k ¯ + t
m
W
m
!k−
m
D¯ ¯E
¯c 0m ¯2 :
(5.59)
D
E
2
Puesto que P k (0 ) = − k jc 0k j , la variación ± + P k de la probabilidad de los estados k
durante el período t debido a las transiciones m ! k , vale
X
W m ! k P m (0 ):
(5.60)
±+ P k = t
m
En esta expresión no se cuenta la variación ± ¡ P k debida a las transiciones
k ! m inversas a las precedentes, las cuales reducen la probabilidad P k de encontrar
el sistema en el grupo k . Mediante un cálculo similar, en el cual consideramos las
transiciones k ! m , se obtiene
X
W k ! m P k (t):
(5.61)
±¡P k = ¡ t
m
Sumando los dos tipos de variaciones y dividiendo por el lapso de tiempo t, obtenemos
¢
¡+
X
± P k + ±¡P k
±P k
=
=
[W m ! k P m (0 ) ¡ W k ! m P k (t)]:
(5.62)
m
t
t
Consideramos ahora el límite t ! 0 e identificamos el límite de (± P k = t) con la derivada d P k = d t de la probabilidad del (grupo) estado k . Asimismo, reescribimos las
cantidades P m (0 );P k (0 ) como P m (t);P k (t) o simplemente P m ;P k , es decir, valores
correspondientes al momento actual t. Se entiende, por la discusión de las secciones
precedentes, que la duración t de las transiciones no puede tender a cero sino que es
un tiempo finito, el cual no puede ser muy corto ni demasiado largo. Cuando hacemos la aproximación t ! 0 lo que queremos decir es que el intervalo t es despreciable
desde el punto de vista macroscópico.
La ecuación principal
X
dP k
=
dt
m
[W
m ! kP m
¡ W
k! m
P k]
(5.63)
o ecuación del transporte, fue obtenida por Pauli mediante la teoría cuántica en
1928. Es una ecuación para la evolución de las probabilidades de un ensemble fuera
de equilibrio. El significado físico de esta ecuación es muy plausible: la variación
de la probabilidad del grupo de estados k depende de un balance de ganancias y
pérdidas generadas por las transiciones. Independientemente de las argumentaciones
precedentes, esta ecuación podría ser propuesta como descripción fenomenológica
genérica de un proceso estocástico.
Propiedades y aplicaciones
73
La ecuación principal contiene sólo las probabilidades de los estados, a diferencia de la ecuación de Liouville cuántica no figuran amplitudes de probabilidad ni
términos no-diagonales. En vista de las aproximaciones de la teoría de perturbaciones
y las hipótesis que hemos comentado, la ecuación principal es una ecuación perteneciente a un nivel de descripción mucho menos preciso que la ecuación cuántica para la
evolución del operador estadístico. Se trata de una aproximación intermedia entre las
ecuaciones de transporte macroscópicas, como las ecuaciones de difusión del calor,
del transporte de la cantidad de movimiento (Navier-Stokes) etc. y la descripción
basada en la matriz densidad. Las probabilidades P k que aparecen en la ecuación
5.63 provienen de sumas sobre un cierto número − k de estados vecinos k cuyas fases
son aleatorias. Los promedios de ensemble que se calculan con ellas, como
X
Pm A m ;
(5.64)
hA iG G =
m
se denominan medias de grano grueso, porque en ellas tomamos en cuenta las limitaciones prácticas del proceso de medición que no permiten distinguir estados individuales sino grupos de estados. Se reserva el calificativo de grano fino, en cambio,
para los promedios de ensemble realizados con la matriz densidad. Hemos visto en el
capítulo precedente que la entropía de Gibbs (grano fino) es invariante en el tiempo.
Veremos que la evolución temporal de la entropía de grano grueso (calculada con la
ecuación principal) tiende a un máximo para el equilibrio de un sistema aislado.
5.5
Propiedades y aplicaciones
5.5.1 Conservación de la normalización
La suma de las variaciones de todas las probabilidades del ensemble es nula
X
k
dP k
= 0:
dt
(5.65)
La demostración es muy simple. Sumamos la ecuación 5.63 y empleamos 5.46
X
k
dP k
dt
=
X
[W
m ! kP m
=
X
[W
m ! k (P m
k ;m
k ;m
=
¡
X
k ;m
[W
¡ W
k! m
P k]
¡ P k )]
m ! k (P m
¡ P k )] = 0 ;
por las propiedades de simetría y antimetría de los elementos que P
intervienen en
la suma. La propiedad asegura la persistencia de la normalización k P k = 1 en
el tiempo. En un ensemble el número de réplicas del sistema en cada estado es
N k = N P k , donde N es el número total de miembros del ensemble. Por lo tanto,
alternativamente 5.65 implica la conservación de N .
Propiedades y aplicaciones
74
5.5.2 Balance detallado en un sistema aislado
En un sistema aislado la distribución microcanónica es consistente con la condición
de equilibrio de la ecuación principal. Cuando el sistema está aislado su energía es
constante y las transiciones se realizan entre estados con la misma energía. Por lo
tanto W m ! k = W k ! m y podemos escribir
X
dP k
=
[W
dt
m
m ! k (P m
¡ P k )];
(5.66)
para todo k . La equiprobabilidad del ensemble microcanónico P m = P k para cualquier
par de índices m ;k , tiene por consecuencia que las probabilidades no cambian con
el tiempo, d P k = d t = 0 . Consideremos, por simplicidad, un sistema con sólo dos
estados m y k . La ecuación 5.66 señala que cuando P m > P k , entonces P k crece y
P m disminuye, y viceversa cuando P k > P m , resulta que P k disminuye y P m crece. Se
manifiesta una tendencia a igualar P k y P m .
Naturalmente, la condición de equilibrio no quiere decir que cesan las transiciones, sino que ocurren tantas transiciones en un sentido como en el inverso:
W
m ! kP m
= W
k! m
P k;
(5.67)
para cualquier par de estados, m ;k . Esta condición expresa el balance detallado de
las transiciones entre los estados. El balance detallado es una condición suficiente
para el equilibrio.
Es interesante observar que si la condición 5.67 se cumple en un ensemble en
el cual ocurre que P m = P k para todo m ;k (por lo tanto, un ensemble en equilibrio)
entonces se deduce que W m ! k = W k ! m . Como esta condición se expresa mediante cantidades asociadas a la interacción y los estados no perturbados (elementos de
matriz, etc.) que no dependen de que el sistema esté o no en equilibrio, entonces
debe valer también fuera del equilibrio. En otras palabras, si vale el balance detallado 5.67 para un ensemble equiprobable, podemos demostrar la validez del principio
de reversibilidad microscópico W m ! k = W k ! m aún sin conocer su demostración mediante la teoría de perturbaciones. Cumplido esto, podemos afirmar que la relación
W m ! k = W k ! m debe ser cierta en general, aún cuando el ensemble no esté en equilibrio.
5.5.3 Sistema en contacto con un baño térmico.
Para estudiar transiciones entre estados con energía diferente debemos considerar
sistemas abiertos a la interacción con otros sistemas. Para comenzar veamos el caso
examinado varias veces de un sistema A en contacto con un baño térmico A 0, cuyo
parámetro térmico es ¯ = 1 = k T . La interacción entre ambos es débil, Hb(0 ) = Hb +
Hb0+ Vb. Los dos sistemas forman el sistema aislado A (0 ) = A + A 0, tal que la suma
de sus energías es la energía total de A (0 ) , E (0 ) = E + E 0. En ausencia de interacción
la energía del estado r de A es E r , mientras que la energía del estado r 0 de A 0 es
E r0. Cuando actúa la interacción Vb comienzan las transiciones entre estados. La
probabilidad del estado r se denota con P r y la del estado r 0con P r00. La probabilidad
(0 )
de que A (0 ) esté en el estado correspondiente al par r;r 0 vale P r r 0 = P r P r00.
Propiedades y aplicaciones
75
En base a propiedades generales de la teoría de perturbaciones que hemos
revisitado en las secciones precedentes, podemos afirmar que existe una probabilidad
(0 )
de transición W r r 0! ss 0 (por unidad de tiempo) entre las parejas de estados r;r 0y s;s 0.
(0 )
(0 )
Las propiedades de W r r 0! ss 0 son: (i) W r r 0! ss 0 = 0 , cuando E r + E r00 6= E s + E s00; ii)
(0 )
(0 )
W r r 0! ss 0 = W s s 0! r r 0 cuando E r + E r00 = E s + E s00.
Desde el punto de vista de la ecuación principal, una descripción del equilibrio
para el sistema A se puede basar en la distribución canónica para el baño térmico,
o sea, P r00 _ ex p (¡ ¯ E r00) y en la hipótesis del balance detallado. Con esta última se
puede escribir
(0 )
(0 )
W r r 0! ss 0P r P r00 = W s s 0! r r 0P s P s00
(5.68)
y para todas las parejas de estados r r 0, ss 0 para las cuales W
concluye la validez de
Pr
P 00
= s0 :
Ps
P r0
(0 )
r r 0! ss 0
= W
(0 )
ss 0! r r 0
6= 0 se
(5.69)
Como el baño térmico tiene por hipótesis la distribución canónica, vale
Pr
= ex p [¡ ¯ (E
Ps
0
s0
¡ E r00)];
(5.70)
entonces, por conservación de la energía total el sistema A también adquiere la misma
distribución
Pr
= ex p [¡ ¯ (E r ¡ E s )]:
(5.71)
Ps
Evidentemente, esta via para obtener la distribución canónica de A requiere la suposición que la interacción entre A y A 0 genera transiciones a todos los estados de
A.
Supongamos ahora que el sistema A (y por lo tanto A (0 ) ) no está en equilibrio,
pero que debido a su gran tamaño el baño térmico A 0 permanece en equilibrio con su
parámetro térmico ¯ = 1 = k T invariado (y por lo tanto con la distribución canónica
P r00 _ ex p (¡ ¯ E r00)). La probabilidad de transición W r ! s del sistema A (abierto) se
calcula mediante la expresión
X
(0 )
P r00W r r 0! ss 0;
(5.72)
W r! s =
r 0s 0
que suma todas las probabilidades de encontrar el sistema A 0 en r 0 multiplicadas por
la probabilidad de transición a todos los posibles estados estados finales s 0. Por lo
tanto,
X
(0 )
W r! s = C
ex p (¡ ¯ E r00)W r r 0! ss 0;
(5.73)
r 0s 0
donde C es la constante de normalización de la distribución canónica de A 0. De la
misma manera se calcula
X
(0 )
ex p (¡ ¯ E s00)W s s 0! r r 0:
(5.74)
W s! r = C
r 0s 0
Propiedades y aplicaciones
76
De las ecuaciones 5.73, 5.74 y empleando la conservación de la energía de A (0 ) , se
deduce
W s! r
ex p (¡ ¯ E r )
;
(5.75)
=
W r! s
ex p (¡ ¯ E s )
es decir, las probabilidades de transición entre estados de distinta energía de A , W s ! r
y W r ! s , no son iguales.
Puesto que ¯ > 0 la ecuación 5.75 implica que las transiciones a los estados
de menor energía son más probables que las transiciones hacia estados de mayor
energía. Por ejemplo, si E s > E r entonces W s! r > W r ! s . Naturalmente esto es lo
que se necesita para que el sistema A pueda avanzar hacia el equilibrio térmico.
La ecuación principal para el sistema abierto A se puede escribir como
X
dP r
=
dt
s
[W
s! r P s
¡ W
y en el caso del contacto con el baño térmico A
X
dP r
=
dt
s
(5.76)
r ! s P r ];
0
¸ sr [P s ex p (¯ E s ) ¡ P r ex p (¯ E r )];
(5.77)
donde hemos definido la cantidad ¸ sr = ¸ r s como
¸ sr = ex p (¡ ¯ E s )W
s! r
= ex p (¡ ¯ E r )W
r! s
= ¸ rs :
(5.78)
La condición de balance detallado es suficiente para el equilibrio d P r = d t = 0 y en este
caso implica la distribución canónica para A .
Para adquirir familiaridad consideremos un ejemplo. Sea un sistema simple con
dos niveles de partícula única r = 1 ;2 , cuyas energías son " 1 ;" 2 , respectivamente, en
contacto con un baño térmico. El número de partículas en cada estado es proporcional
a su probabilidad, N 1 = N P 1 , N 2 = N P 2 , siendo N = N 1 + N 2 el número total de
partículas. El sistema está descripto por
dN 1
= W
dt
2! 1 N 2
¡ W
1! 2 N 1
dN 2
;
dt
= ¡
(5.79)
y en equilibrio, como sabemos, se cumplen las siguientes relaciones
W
1! 2
ex p (¡ ¯ " 1 ) = W
2! 1
ex p (¡ ¯ " 2 );
N
0
1
ex p (¯ " 1 ) = N
0
2
ex p (¯ " 2 ).
(5.80)
La segunda igualdad es, naturalmente, la distribución canónica.
Examinemos una pequeña desviación respecto del equilibrio, una fluctuación
térmica. Podemos poner
N
r
= N
0
r
+ ±N r;
±N
r
¿ N r0 ;
r = 1 ;2
(5.81)
y pasar de la ecuación 5.79 a la siguiente
d ±N 1
= W
dt
2! 1 ±N 2
¡ W
1! 2 ±N 1
= ¡
d ±N 2
;
dt
(5.82)
Propiedades y aplicaciones
77
en la cual empleamos 5.80 para obtener
¡
d (± N
2
¡ ±N 1)
= 2 (W
dt
2! 1 ±N 2
¡ W
1! 2 ±N 1 )
= 2W
2! 1
(± N
2
¡ ± N 1 ex p [¡ ¯ (" 2 ¡ " 1 )]) :
(5.83)
Cuando la temperatura es elevada como para que se cumpla la condición
(" 2 ¡ " 1 ) ¿ k T ;
(5.84)
resulta, aproximadamente,
d (± N
2
¡ ±N 1)
= ¡ 2W
dt
2 ! 1 (± N 2
¡ ± N 1 ):
(5.85)
Por la conservación del número de partículas ± N 2 + ± N 1 = 0 , definiendo el tiempo
característico
1
¿ ´ W 2! 1 ;
(5.86)
2
se obtiene
t
(5.87)
± N 2 = ¡ ± N 1 = ± N 2 jt= 0 ex p (¡ ):
¿
La fluctuación decae exponencialmente y ¿ se denomina tiempo de relajación.
5.5.4 Procesos espontáneos e inducidos en un sistema con dos niveles
El modelo del ejemplo precedente puede ser extendido al tratamiento de un sistema
compuesto por átomos y radiación electromagnética en contacto con un baño térmico
(cuerpo negro). En el modelo siguiente se supone que los átomos tienen influencia
mútua muy débil (gas diluido, sin colisiones) e interaccionan principalmente mediante
el campo electromagnético. Los átomos que se encuentran en el estado 1 , cuya energía
" 1 es la más baja, pueden absorber fotones de energía h º = " 2 ¡ " 1 y pasan al
estado excitado 2 de mayor energía. La probabilidad de transición para el proceso de
absorción se puede escribir de la forma
W
1! 2
= B
12 u
(º ;T ) ;
(5.88)
donde B 1 2 es un coeficiente de absorción y u (º ;T ) es la densidad de energía de los
fotones en el intervalo de frecuencias º ;º + d º .
La población del estado 2 puede disminuir como consecuencia de dos procesos.
Por lo pronto puede ocurrir un decaimiento espontáneo del nivel excitado " 2 al nivel
de energía " 1 , con emisión de un fotón de energía h º . La probabilidad de emisión
espontánea por unidad de tiempo se denota con el coeficiente A 2 1 . Como vimos en la
sección precedente, en ausencia de otros efectos
dN 2
= ¡A
dt
21 N 2 :
(5.89)
Además, por el principio de la reversibilidad microscópica, debe existir el proceso
inverso a la absorción
W 2 ! 1 = B 2 1 u (º ;T ) :
(5.90)
Propiedades y aplicaciones
78
Este proceso se denomina emisión estimulada o inducida, es decir, un decaimiento
del nivel 2 al 1 intensificado por la presencia de fotones en el rango de frecuencias
adecuado º = (" 2 ¡ " 1 ) = h . La probabilidad de transición W 2 ! 1 es proporcional a la
densidad de energía de esos fotones a través del coeficiente de emisión estimulada B 2 1 .
Para tener un símil clásico de este proceso se puede pensar en la resonancia de un
oscilador forzado. La emisión espontánea ocurre aún cuando no existe ningún fotón
presente en el sistema. La emisión inducida y la absorción, en cambio, requieren la
presencia de la radiación. Por la reversibilidad microscópica debe ser
B
12
= B
(5.91)
21
La ecuación principal para el sistema de átomos es
dN 2
= ¡A
dt
21 N 2
+ (W
1! 2 N 1
¡ W
2! 1 N 2 )
= ¡
dN 1
;
dt
(5.92)
puesto que d (N 1 + N 2 )= d t = 0 . Cuando el sistema átomos y radiación ha alcanzado
el equilibrio d N 1 = d t = d N 2 = d t = 0 . Entonces, empleando las ecuaciones 5.88 a 5.92
resulta
¡ A 2 1 N 20 + (B 1 2 N 10 ¡ B 2 1 N 20 )u (º ;T ) = 0 :
(5.93)
Las distribución de equilibrio para los átomos es la canónica, N
r = 1 ;2 y de 5.93 se obtiene
u (º ;T ) =
A
B
21
1
" 2 ¡" 1
2 1 ex p ( k T
)¡ 1
=
A
B
21
r
1
hº
2 1 ex p ( k T
)¡ 1
_ ex p (¡ " r = k T );
(5.94)
para la distribución espectral de la energía de la radiación en equilibrio. Se completa la deducción de la célebre fórmula de Planck para la radiación de cuerpo negro,
comparando la ecuación 5.94 con el límite clásico de Rayleigh-Jeans para bajas frecuencias, cuando h º = k T ¿ 1 (capítulo 8, I parte)
u (º ;T ) =
8¼ º 2
kT ;
c3
(5.95)
que permite identificar el cociente A 2 1 = B 2 1 = 8 ¼ h º 3 = c 3 . La derivación que hemos reproducido aquí se debe a Einstein (1917) quien por via teórica descubrió la existencia
del proceso de la radiación estimulada.
La continuación del razonamiento de Einstein es muy interesante. Hemos
notado que las probabilidades de transición W 2 ! 1 , W 1 ! 2 son proporcionales a la
energía del campo electromagnético correspondiente a un dado rango de frecuencias,
es decir, B 2 1 = B 1 2 _ jE · j2 donde ¡!· es el vector número de onda asociado con
la frecuencia º , o sea, en el vacío 2 ¼ º = j¡!· jc = · c. En términos de fotones, la
densidad de energía 2 £ jE · j2 = 8 ¼ y el número de fotones N · asociados son cantidades
proporcionales. Por consiguiente, se escribe
W
2! 1
= Be2 1 N · ;
W
1! 2
= Be1 2 N · ;
(5.96)
introduciendo los coeficientes de proporcionalidad con N · . Ahora damos vuelta el
argumento precedente, que conduce de 5.88 a 5.94 y consideramos que ya hemos
Propiedades y aplicaciones
79
hallado con los métodos de la mecánica estadística del equilibrio, tanto la distribución
de Gibbs cuanto la distribución de Planck. En ese caso, sabemos que en equilibrio
vale
1
N · =
;
(5.97)
hº
ex p ( k T ) ¡ 1
ver capítulo 8, I parte. La ecuación para el equilibrio, equivalente a 5.93, se escribe
ahora como
A 21
:
(5.98)
N · =
Be2 1 ex p ( h º ) ¡ Be1 2
kT
Esta ecuación debe valer para todas las temperaturas y por lo tanto
A
21
= Be2 1 = Be1 2 :
(5.99)
En cada rango de frecuencias vale la igualdad de los coeficientes de emisión espontánea, inducida y de absorción (los dos últimos medidos por densidad del número de
fotones en lugar de densidad de energía).
De este argumento surgen dos importantes consecuencias: (a) la probabilidad
total de emisión en la transición 2 ! 1 vale
A
2 1 (N ·
+ 1 );
(5.100)
(b) la probabilidad de absorción vale
A
21 N · :
(5.101)
Las tres probabilidades de transición se conocen cuando se conoce la probabilidad de
la transición espontánea, A 2 1 . Naturalmente, este resultado vale también fuera del
equilibrio. Aunque estas consideraciones se basan en un modelo de dos niveles, tienen
un alcance mucho mayor. Para cualquier conjunto discreto o cuasi-discreto de estados
de una partícula es suficiente examinar lo que ocurre con dos niveles elegidos arbitrariamente. Los coeficientes A 2 1 ; Be2 1 ; Be1 2 son cantidades de la mayor importancia
en el estudio de la interacción de la radiación electromagnética con la materia, tanto
en equilibrio como fuera de equilibrio. Sus aplicaciones, en procesos del laboratorio
y de la astrofísica son innumerables. Las propiedades halladas por Einstein fueron
confirmadas más adelante por la teoría cuántica del campo electromagnético.
5.5.5 Interacción de una onda electromagnética con un sistema de dos niveles fuera
de equilibrio
Introducimos ahora la probabilidad diferencial de emisión espontánea, A 2 1 (¡!· ), asociada a un intervalo ¡!· ; ¡!· + d ¡!· de ondas irradiadas
Z
d3·
A 2 1 (¡!· )
:
(5.102)
A 21 =
(2 ¼ )3
La probabilidad diferencial A 2 1 (¡!· ) tiene un máximo para aquellos valores de · = j¡!· j
que corresponden a 2 ¼ º = c (en el vacío) y depende de la orientación del número de
onda ¡!· . La cantidad d 3 · = (2 ¼ )3 representa el número de modos por unidad de
Propiedades y aplicaciones
80
volumen (ver capítulo 8, I parte). Vamos a considerar la interacción de una onda ¡!·
(más precisamente un paquete de ondas formado por números de onda próximos) con
un gas de átomos con dos niveles. La densidad de fotones para el mismo intervalo de
números de onda se designa con N ¡!· . El sistema no está necesariamente en contacto
con un baño térmico y examinamos una situación general fuera de equilibrio. Átomos
y ondas están contenidos en una caja cúbica y N 1 ;N 2 representan los números de
partículas por unidad de volumen para cada nivel.
La ecuación principal para los átomos de este modelo es
Z
dN 2
dN 1
d3·
= ¡ A 2 1 N 2 + (N 1 ¡ N 2 ) A 2 1 (¡!· )N ¡!·
:
(5.103)
3 = ¡
dt
dt
(2 ¼ )
Veamos ahora la ecuación para el campo de radiación, que es descripto como un gas
de fotones,
d N ¡!·
dt
¡!· )(N
A 2 1 (¡!· )(N
=
21 (
A
=
¡
!
·
+ 1 )N
2
¡ N 1 )N
2
¡!· )N ¡! N
1
·
+ A 2 1 (¡!· )N 2 :
¡ A
¡
!
·
21 (
(5.104)
Sea ahora un paquete N ¡!· muy delgado alrededor del valor ¡!· 0 , el cual es tal que
· 0 c = 2 ¼ º = (" 2 ¡ " 1 )= h . El número total de fotones del paquete es
Z
d3·
N ¡!·
(5.105)
N ·0 =
(2 ¼ )3
e integrando la ecuación 5.104 sobre d 3 · podemos escribir
dN 2
dt
dN ·0
dt
=
¡A
=
A
21 N 2
+ (N
2 1 (· 0 )(N 2
1
¡ N 2 )A
¡ N 1 )N
·0
2 1 (· 0 )N · 0
+ A
·0;
° ´ A
0
2 1 (N 2
¡ N 1 );
dN 1
;
dt
A
·0
0
21
(5.106)
(5.107)
2 1 (· 0 )N 2 ;
en lugar de 5.103 y 5.104.
Cuando la intensidad del paquete es grande, N
procesos espontáneos y considerar la ecuación
dN ·0
= °N
dt
= ¡
À 1 , podemos ignorar los
´ A
2 1 (· 0 ):
(5.108)
La cantidad ° es la tasa instantánea de crecimiento o de absorción. Mientras N 1 > N 2 ,
la situación habitual cuando " 2 > " 1 (cerca del o en equilibrio térmico) el número
de fotones decrece y la onda sufre absorción. Viceversa, si algún proceso fuera de
equilibrio ha producido una inversión de población, mientras N 1 < N 2 el número de
fotones crece y la onda se amplifica. El crecimiento es exponencial, con una tasa
de crecimiento instantáneo dada por ° . La razón física es inmediata: si un átomo
emite un fotón este al interactuar con otro átomo excitado induce la emisión de
otro fotón. Ahora tenemos dos fotones que producen emisión estimulada en otros dos
átomos excitados y se origina un proceso de avalancha. Esta inestabilidad del sistema
átomos - radiación con inversión de población es la base del efecto laser.
Propiedades y aplicaciones
81
Naturalmente la tasa de crecimiento ° permanece constante sólo mientras la
diferencia N 2 ¡ N 1 se mantiene cerca de su valor inicial, lo cual ocurre mientras la
intensidad de la onda no sea demasiado grande. En realidad, a medida que el proceso
se desarrolla aumenta N · 0 y cambian las poblaciones de los dos niveles. Si ignoramos
los procesos espontáneos, los cambios se pueden obtener de las siguientes ecuaciones
dN 2
= ¡ °N
dt
·0;
d (N
¡ N 1)
= ¡ 2 (N
dt
2
2
¡ N 1) A
0
21 N · 0
= ¡ 2° N
·0:
(5.109)
Como se ve, la diferencia de poblaciones y, por lo tanto, ° , decrecen con el tiempo.
La tasa de la inestabilidad tiende a anularse para tiempos largos. Esto se denomina
efecto de saturación del proceso de amplificación.
Propiedades similares se encuentran también en otros procesos inestables de
la cinética física o de la dinámica macroscópica de los fluidos.
5.5.6 Aumento de la entropía en un sistema aislado
La entropía de grano grueso definida como S = ¡ k hln (P )iG G varía en el tiempo y
tiende a un valor máximo cuando un sistema aislado alcanza el equilibrio. Partimos
de la definición
X
S = ¡k
P r ln (P r )
(5.110)
r
y la ecuación
X
dP r
[W
=
dt
s
r ! s (P s
¡ P r )]:
Derivamos la entropía respecto del tiempo y obtenemos
(
)
X
dP r
dS
= ¡k
[ln (P r ) + 1 ]
dt
dt
r
)
(
X
W r ! s (P s ¡ P r )[ln (P r ) + 1 ] :
= ¡k
(5.111)
(5.112)
r;s
En esta expresión podemos intercambiar los índices mudos r;s y escribir
)
(
X
dS
W s! r (P r ¡ P s )[ln (P s ) + 1 ] :
= ¡k
dt
r;s
(5.113)
Sumando las dos ecuaciones para d S = d t y simetrizando se obtiene la fórmula
dS
1 X
W
= k
dt
2 r;s
r ! s (P r
¡ P s )[ln (P r ) ¡ ln (P s )]:
(5.114)
Para cada término de la suma podemos verificar que se cumple la condición
(P r ¡ P s )[ln (P r ) ¡ ln (P s )] ¸ 0 ;
(5.115)
donde la igualdad vale sólo si P r = P s Por consiguiente, visto que W r ! s ¸ 0 , la
entropía sólo puede crecer d S = d t > 0 o alcanzar un valor máximo cuando P r = P s
Propiedades y aplicaciones
82
para todo r;s y entonces permanecer constante d S = d t = 0 : El equilibrio se alcanza
cuando todos los estados son equiprobables y coincide con el máximo de la entropía.
Este resultado depende de las hipótesis que sostienen la ecuación principal,
entre las cuales cumple un papel preponderante la suposición de las fases al azar
en las probabilidades de transición por unidad de tiempo. En cada paso de avance
temporal, en el cual actúan transiciones entre estados, se introduce una cancelación de
correlaciones entre las fases de los estados. Al emplear la ecuación principal estamos
aceptando que hay continuamente pérdida de información acerca de las fases (y por
lo tanto aumento de entropía) hasta que se alcanza el máximo de entropía compatible
con los vínculos del sistema. El resultado no contradice la invariancia temporal de la
entropía de Gibbs porque aquí estamos empleando una descripción de grano grueso.
El teorema del aumento de entropía también se debe a Pauli (1928) inspirado en el
trabajo de Boltzmann de 1873 en la teoría cinética de gases clásicos. El estado actual
de la cuestión de la irreversibilidad y el aumento de entropía es un tema mucho más
complejo y delicado de lo que podemos esbozar en estas notas
Descargar