Capítulo 5 LA ECUACIÓN PRINCIPAL Y LA EVOLUCIÓN IRREVERSIBLE Hallar la solución de la ecuación de evolución temporal del operador estadístico, 3.66 (sección 4, capítulo 3, II parte) para estudiar procesos fuera de equilibrio de un sistema, es un problema casi siempre demasiado complicado. Para que el problema pueda ser tratable es necesario introducir aproximaciones en el operador hamiltoniano y ello nos lleva al terreno de la teoría cuántica de perturbaciones. Además, como hemos visto (sección 2, capítulo 4, II parte) la 3.66 predice la invariancia temporal de la entropía definida a partir de la matriz densidad, de modo que a primera vista los procesos irreversibles parecerían quedar excluidos. A fin de poder estudiar los fenómenos de transporte de una manera más accesible se prefiere partir de una ecuación más simple, una ecuación reducida para las probabilidades de los ensembles fuera de equilibrio, que se denomina ecuación principal (master equation) o también ecuación del transporte. La ecuación principal incorpora conceptos de la teoría de perturbaciones y además otras hipótesis adicionales de caracter estadístico, ajenas a los postulados de la mecánica cuántica, como el concepto de las fases al azar (capítulos 3 y 4, II parte) las cuales finalmente introducen en el problema una irreversibilidad temporal que ni la ecuación de Schrödinger ni la ecuación de Liouville cuántica poseen. En el dominio de la mecánica estadística clásica la primera ecuación reducida de este tipo fue introducida por Boltzmann, en su teoría cinética de los gases con el célebre término de colisiones moleculares, del cual derivó luego el llamado ”teorema H ” que muestra la tendencia al equilibrio de la entropía de Boltzmann (capítulo 1, II parte) y que le dió al autor fama imperecedera. El presente capítulo está destinado a derivar la ecuación principal y examinar algunas de sus propiedades, entre las cuales la irreversibilidad temporal. Comienza con tres secciones en los cuales se recuerdan nociones básicas de la teoría de perturbaciones, que pueden ser leidas rápidamente por quienes ya tengan conocimientos del tema, considerando más pausadamente los parrafos dedicados a los límites de validez y los comentarios acerca de la introducción de conceptos estadísticos. 5.1 La representación de interacción La siguiente teoría de perturbaciones, que el lector recordará de un curso de mecánica cuántica, se debe a Dirac (1927). Sea un sistema aislado (cerrado a las influencias externas) dividimos su operador hamiltoniano Hb en una parte Hb0 correspondiente al La representación de interacción 62 sistema no perturbado y una parte que representa la energía Vb de las interacciones Hb = Hb0 + Vb: (5.1) Hb0 ' n = E n0 ' n : (5.2) (' n ;' m ) = ± n m : (5.3) Por ejemplo, Hb0 puede contener la energía cinética de partículas libres mientras que Vb representa el potencial de interacción (scattering, colisiones). O bien, el sistema no perturbado es un átomo en un estado excitado y la perturbación es el campo electromagnético (emisión de radiación por decaimiento al estado fundamental) y así siguiendo. Sean ' n (x ) las autofunciones de la energía (x es la abreviatura que representa todas las variables que se necesitan para definir el estado cuántico) y E n0 los correspondientes autovalores, n = 1 ;2 ;:::, del hamiltoniano no perturbado: Las funciones ' n se supondrán ortonormalizadas Todo estado del sistema en ausencia de interacción puede representarse como una superposición de estados no perturbados estacionarios 0 ª (x ;t) = X k E k0 i t); ~ c 0k ' k (x ) ex p (¡ 0 (5.4) donde los coeficientes c 0n = (' n ;ª 0 ) ex p (i E~n t) son constantes. En el estado ª valor medio de la energía vale X ¯ ¯2 ¯c 0k ¯ E k0 , H 0 = (ª 0 ; Hb0 ª 0 ) = 0 el k 2 de modo que, como sabemos (capítulo 3, II parte) jc 0n j es la probabilidad de obtener el valor E n0 en una medición de la energía del sistema y c 0n es la correspondiente amplitud (compleja) de probabilidad. En presencia de la perturbación Vb la idea de Dirac es emplear el método de variación de las constantes de la teoría de ecuaciones diferenciales. Una vez incluida la interacción proponemos como solución la función de onda ª (x ;t) = X k c k (t)' k (x ) ex p (¡ iE k0 t): ~ (5.5) Reemplazando 5.5 en la ecuación de Schrödinger @ª i~ = Hbª ; @t se obtiene el sistema (infinito) de ecuaciones diferenciales acopladas µ ¶ d cn iX i 0 0 = ¡ (E ¡ E k )t c k (t); V n k ex p k dt ~ ~ n (5.6) Teoría de perturbaciones 63 para las amplitudes de probabilidad de los estados ' k . En esta expresión V n k es el elemento de matriz de la interacción en la representación de las autofunciones no perturbadas de la energía, V n k ´ (' n ; Vb' k ); (5.7) de modo que V n k = V k¤n es una matriz hermitiana. La solución del sistema 5.6 aporta el conocimiento de las funciones c n , mediante las cuales (siempre que la ª de la ecuación 5.5 haya sido normalizada) podemos calcular la probabilidad de encontrar el sistema en el estado n -esimo en el instante t, p n (t) = c n (t)¤c n (t); donde X k p k (t) = X k jc k (t)j2 = 1 : (5.8) (5.9) El sistema de ecuaciones 5.6 es exacto, el vector de amplitudes c n representa el estado del sistema y la 5.6 es la ecuación de Schrödinger en la representación de interacción. Pero en la 5.6 los infinitos estados n están acoplados. Las probabilidades p n (t) de encontrar el sistema en un dado estado ' k varían con el tiempo. Debido a la presencia de la interacción Vb el sistema ejecuta un ”paseo” a través de los estados no perturbados ' k , como ya tuvimos ocasión de comentar en la introducción a estas notas (capítulo 1, I parte) y vamos a examinar en lo que sigue. 5.2 Teoría de perturbaciones 5.2.1 Integración aproximada Evidentemente, el sistema 5.6 es tan dificil de resolver como la ecuación de Schrödinger original. La integración aproximada consiste en suponer que la interacción es apenas una pequeña perturbación tal que ° ° °b° °V ° ° (5.10) "´ ° °b ° ¿ 1 H ° 0° donde " será el pequeño parámetro que justifica la expansión en serie c n (t) = c 0n + c 1n (t) + c 2n (t) + :::; (5.11) en la cual c 0n son los valores (constantes, no perturbados) iniciales, c n (t = 0 ) = c 0n . En esta serie suponemos que el cociente jc 1n (t)= c 0n j es una cantidad de orden ", así como también lo es jc 2n (t)= c 1n (t)j y los cocientes similares de los términos adyacentes siguientes. Al primer orden en " el sistema de ecuaciones 5.6 se reduce a µ ¶ iX i 0 d c 1n 0 = ¡ (E ¡ E k )t c 0k ; V n k ex p (5.12) k dt ~ ~ n puesto que jV n k j es de orden ". Las ecuaciones 5.12 se pueden integrar facilmente para obtener la primera aproximación c n (t) ¼ c 0n + c 1n (t) a la solución del problema. Teoría de perturbaciones 64 Naturalmente, esta solución valdrá para tiempos cortos, cercanos a t = 0 , porque básicamente estamos suponiendo que las cantidades c k (t) del miembro de la derecha del sistema 5.6 se pueden reemplazar por los valores constantes c k (0 ) = c 0k . En lo que sigue, suponemos que la interacción Vb comienza a ejercer su influencia en un instante t = 0 (o bien, t = t0 ) y luego se mantiene constante en el tiempo (sistema aislado). Los modos particulares de ”encender” la perturbación no tienen mayor influencia en el resultado final. 5.2.2 Solución particular Postergamos, por el momento, la consideración de la solución general de 5.12 con condiciones iniciales arbitrarias. Nos alcanza con enfocar la atención sobre una condición inicial particular en la cual el sistema en t = 0 está con certeza en el autestado n esimo (no perturbado) de la energía, i.e., c n (0 ) = c 0n = 1 mientras que c k (0 ) = c 0k = 0 para todo k 6= n . Para m 6= n tenemos µ ¶ d c 1m i i 0 0 = ¡ V m n ex p (E ¡ E n )t ; (5.13) dt ~ ~ m de la cual resulta c 1m = Vm n ¡ ¢ ex p ¡ ~i (E n0 ¡ E m0 )t : (E n0 ¡ E m0 ) (5.14) Habiendo partido del estado n -esimo, la probabilidad de encontrar el sistema al tiempo t en el estado m (m 6= n ) vale (aproximadamente) p m (t) = c ¤m (t)c m (t) = 4 jV m n j2 sin 2 [21~ (E m0 ¡ E n0 )t] ; (E m0 ¡ E n0 )2 (5.15) durante tiempos cortos. El factor D (";t) definido por · ¸2 sin ("t= 2 ~) D (";t) ´ ; ("= 2 ) (5.16) donde " = E m0 ¡ E n0 , considerado como función de " es análogo a la distribución de intensidad de la figura de difracción de una ranura. Presenta un máximo principal con valor (t= ~)2 en " = 0 y una serie de oscilaciones de menor importancia cuyos máximos secundarios decrecen como 4 = " 2 al aumentar ". El primer cero ocurre en " = ¼ ~= t, de modo que el lobo principal se extiende sobre un intervalo de energías ¢ " = h = t, expresión emparentada con la relación de incerteza. Evidentemente el área que ocupa el pico principal de D (";t) (como función de ") es proporcional a ¢ " £ (t= ~)2 o sea, _ t. Para tiempos muy cortos (t ! 0 + ) D (";t) es proporcional a t2 para cualquier " acotado, pero para tiempos finitos prevalece el comportamiento que hemos señalado y los estados finales m con probabilidades significativas forman un grupo cuyas energías están comprendidas dentro del ancho del pico principal. Como se discute a continuación, el tiempo durante el cual aplicamos las fórmulas de la teoría de perturbaciones a la mecánica estadística no puede ser muy corto ni tampoco demasiado largo. Teoría de perturbaciones 65 Finalmente, por diferencia de la suma de las probabilidades 5.15 con la unidad se obtiene la probabilidad que el sistema permanezca aún en el estado n al tiempo t: p n (t) = 1 ¡ X m 6 = n 4 jV m n j2 sin 2 [21~ (E m0 ¡ E n0 )t] : (E m0 ¡ E n0 )2 (5.17) 5.2.3 Discusión en vista de las aplicaciones a la mecánica estadística Podemos notar que el estado n no es un autoestado exacto de la energía, ' n (x ) es sólo un estado aproximado del sistema. De modo que cuando suponemos que el sistema inicia en el estado n , es como considerar que parte de una posible distribución inicial de estados exactos (del hamiltoniano total) en la cual aquellos que tienen energías próximas a E n0 tienen alta probabilidad de ocurrir. Así comienzan a asomar consideraciones de tipo estadístico en esta cuestión. Aun más, en la mecánica cuántica no siempre son posibles observaciones precisas sin que estas afecten la evolución espontánea del sistema y no siempre estas se pueden realizar en tiempos tan cortos como pudieramos desear. Por ejemplo, en un gas podríamos determinar la posición de las partículas con gran exactitud (empleando microscopios de rayos ° con alto poder resolutivo) pero ello afectaría de un modo incontrolable la energía de las moléculas y por lo tanto la evolución natural del gas hacia el equilibrio. La relación de incerteza para la energía ¢ E £ ¢ t¸ h (5.18) vincula la precisión con la cual podemos observar la energía del sistema, con la incerteza ¢ t del lapso de tiempo necesario para realizar la medición. Por consiguiente la observación debe realizarse durante un tiempo ¿ tal que ¿ ¸ ¢ t, o sea, ¿ ¸ h : ¢ E (5.19) El lapso de observación no puede ser demasiado pequeño si se desea precisión en la determinación de la magnitud E . Pero, por otra parte, ¿ no puede ser demasiado grande, porque estamos examinando un sistema en evolución y su estado varía sobre una escala temporal T . En consecuencia, debe ser ¿ ¿ T , porque de otro modo la observación pierde sentido, el estado del sistema cambiaría en tiempos comparables con la duración de la medición. Concluímos que los tiempos mencionados deben cumplir las desigualdades siguientes h · ¿ ¿ T: ¢ E (5.20) Por ello, cuando en física estadística asignamos una energía E al sistema, esta cantidad tiene asociada una imprecisión ¢ E que no puede ser arbitrariamente pequeña. Argumentos similares pueden ser desarrollados para otros observables del sistema. Los sistemas con un número muy grande de componentes tienen una gran densidad de estados (cuyos espectros energéticos son cuasi-continuos) y ¢ E contiene Probabilidades de transición 66 habitualmente un gran número de estados. En espectros de energía cuasi-continuos el estado con energía E n0 está rodeado de un gran número de otros estados con energías E m0 muy cercanas a E n0 . Por lo tanto, como surge de la ecuación 5.15 (cuyo denominador es resonante en la energía E n0 ) los estados finales de mayor probabilidad son aquellos con E m0 ¼ E n0 comprendidos en el máximo principal y cuyo número podemos indicar con − m . Asimismo, la condición inicial sobre el estado n con energía E n0 está definida sólo aproximadamente y será más adecuado considerar un grupo de autostados iniciales alrededor de E n0 y cuyo número se puede indicar con − n . Cuando el sistema está aislado, todos los estados entre los cuales hay transiciones posibles deben estar contenidos en el intervalo E ;E + ¢ E por la conservación de la energía. La noción de un estado bien preciso es una idealización, en la práctica la imprecisión nos lleva a considerar un conjunto de estados y en mecánica estadística a la consideración de grupos de estados iniciales y la transición a grupos de estados energéticamente próximos. 5.3 Probabilidades de transición 5.3.1 Transición de un estado discreto a un grupo cuasi-contínuo estados Como hemos dicho, en las aplicaciones a la mecánica estadística intervienen las transiciones desde un grupo de estados del espectro cuasi-continuo a otro grupo de estados del cuasi-continuo de la energía. Pero por razones didácticas comenzamos examinando una situación más simple. Tratamos aquí la probabilidad de transición desde un estado discreto de energía E n0 (bien separado de otros niveles) hacia un conjunto de estados del espectro cuasi-continuo, con energías distribuidas alrededor de E n0 . Por ejemplo, el estado inicial discreto puede ser un estado molecular excitado y los estados finales (con energías próximas) son los estados de la molécula disociada. Para un único estado de partida n , teniendo presente lo discutido en la sección precedente, consideremos la ecuación 5.15 asociada a un grupo de − m estados finales, contenidos en un intervalo ¢ E que está centrado en E n0 , la energía del estado inicial. El estado n puede realizar transiciones n ! m a los − m estados del grupo contenido en ¢ E . Por ello, sumamos las probabilidades de ese grupo para obtener la probabilidad de encontrar el sistema en algún estado m al cabo de un tiempo t, P m (t) = X c ¤m (t)c m (t) = m X m jV m n j2 4 sin 2 [21~ (E m0 ¡ E n0 )t] : (E m0 ¡ E n0 )2 (5.21) Para calcular la suma en 5.21 vamos a aproximar el grupo de energías cuasicontinuas a un espectro continuo, poniendo dº = ! m dE 0 m (5.22) para el número de niveles energéticos contenidos en d E m0 siendo ! m la densidad de estados finales alrededor de E n0 . Por lo tanto, podemos escribir E P m (t) = 4 E 0 n 0 n+ (1 = 2 )¢ Z ¡(1 = 2 )¢ E E jV m n j2 sin 2 [21~ (E m0 ¡ E n0 )t] ! m dE (E m0 ¡ E n0 )2 0 m (5.23) Probabilidades de transición 67 y cambiando variables y = 1 (E 2~ 0 m obtenemos ¡ E n0 )t; 1 td E 2~ dy = (1 = 4 ) ¢ ~E t Z 2 P m (t) = t ~ jV m n j2 ! m 0 m ; sin 2 (y ) dy: y2 (5.24) (5.25) ¡(1 = 4 ) ¢ ~E t La integral en la ecuación 5.25 se evalua con las consideraciones siguientes. Por lo pronto, la mayor contribución a la integral ocurre en la vecindad de y = 0 , i.e., cuando E m0 ¼ E n0 y por lo tanto esta circunstancia justifica el tratar jV m n j2 y ! m como si fueran constantes (evaluadas en E n0 ). Además, se podrá pensar en extender, sin error apreciable, los límites de integración al intervalo (¡ 1 ;+ 1 ) siempre que ¢ E £ t À h, (5.26) es decir, que el lapso de tiempo t no sea demasiado breve. En suma: 2 jV m n j2 ! m t P m (t) = ~ Z1 sin 2 (y ) dy y2 (5.27) ¡1 y dado que una fórmula del análisis matemático asegura que Z1 sin 2 (y ) dy = ¼ ; y2 (5.28) ¡1 finalmente se obtiene 2¼ (5.29) jV m n j2 ! m t: ~ Esta es la probabilidad de que un sistema inicialmente preparado en un estado n , al cabo de un tiempo t haya sufrido una transición al grupo de estados m . Como se ve, la probabilidad P m es proporcional al tiempo t. La 5.29 se cumple sólo si E m0 ¼ E n0 , de modo que la probabilidad de transición n ! m por unidad de tiempo, z n ! m ´ d P m = d t se escribe en la forma P m (t) = zn ! m = 2¼ jV m n j2 ! m b E m0 ~ = E 0 n ; (5.30) Los lectores con experiencia reconocerán que la función D (";t), que aparece en 5.21 (donde " = E m0 ¡ E n0 ) y está definida en 5.16, es una aproximante de la Delta en el límite t ! 1 . Es decir que podemos escribir lim D (";t) = t! 1 2¼ t± ("); ~ (5.31) expresión que resume las operaciones realizadas desde la ecuación 5.21 hasta la 5.30. Naturalmente, la expresión 5.31 sólo proporciona el resultado 5.29 después de sumar Probabilidades de transición 68 sobre el grupo de estados cuyas energías caen en el pico principal de D (";t). La fórmula 5.30 para la probabilidad de transición tiene tantas aplicaciones interesantes que Fermi la bautizó la regla de oro. Nuestro propósito, al rever la derivación de esta fórmula (conocida del curso de mecánica cuántica) es el de recordar las aproximaciones que limitan su validez y poner en evidencia los conceptos que la sustentan. Entre las primeras mencionadas, es evidente que si queremos observar una variación apreciable del sistema debe transcurrir un tiempo de evolución T que, según 5.29, podemos estimar como del orden de ~ T v : (5.32) 2 ¼ jV m n j2 ! m Pero debido a la condición 5.26, resulta ¢ E À 4 ¼ 2 jV m n j2 ! m ; (5.33) una condición que limita el valor de la indeterminación de la energía del sistema. 5.3.2 Transición inversa del cuasi-continuo al discreto Al examinar la transición n ! m de la sección precedente no hemos recurrido a la noción de ensemble. Sin embargo, cuando se desea estudiar la transición inversa, m ! n , desde los estados del grupo cuasi-continuo a un estado del discreto, un promedio de ensemble resulta indispensable. En este caso la condición inicial es que el sistema se encuentra con seguridad en alguno de los − m estados m del grupo contenido en ¢ E . Por lo tanto, X X p m (0 ) = c ¤m (0 )c m (0 ) = 1 ; (5.34) m m mientras que la amplitud de probabilidad de encontrar el sistema en el estado discreto n , con energía E n0 , es nula c n (0 ) = 0 n 6= m : (5.35) Volviendo a la ecuación 5.12, aplicando la nueva condición inicial e integrando, resulta ¡ ¢ X ex p ~i (E n0 ¡ E m0 )t ¡ 1 Vnm (5.36) c m (0 ); c n (t) = m (E m0 ¡ E n0 ) donde hemos sumado sobre los − m estados estados iniciales del grupo m , para obtener la amplitud de probabilidad de encontrar el sistema en el estado discreto n a un tiempo t. Entonces podemos calcular la probabilidad al tiempo t como p n (t) = = c ¤n (t)c n (t) (5.37) ¡ i 0 ¢ ¢ ¡i 0 0 0 X ex p ¡ ~ (E n ¡ E m 0)t ¡ 1 ex p ~ (E n ¡ E m )t ¡ 1 V n¤m 0V n m (E m0 0 ¡ E n0 ) (E m0 ¡ E n0 ) m ;m 0 £ c ¤m 0(0 )c m (0 ) Evidentemente, la probabilidad p n (t) de encontrar el sistema en el estado n luego de un tiempo t depende de la asignación particular de las condiciones iniciales c m (0 ). Probabilidades de transición 69 Este es el momento de introducir hipótesis estadísticas y calcular el promedio de p n (t) sobre un ensemble de condiciones iniciales: ¦ n (t) = hp n (t)i : (5.38) Esta operación teórica está asociada a una observación de la energía del sistema durante un lapso de tiempo finito (porque estamos haciendo una predicción, que deberá ser verificada por observaciones, sobre el estado futuro del sistema ) El promedio temporal debe ser considerado como equivalente a un promedio sobre un ensemble: t − ® jc m (t)j2 ! jc m (t)j2 : (5.39) Haremos las hipótesis: (a) que el grupo inicial de − m estados m es equiprobable; (b) que las fases de las amplitudes iniciales de probabilidad, c m (0 ), están distribuidas al azar (como en el postulado microcanónico de la estadística cuántica - capítulo 4, II parte). Empleando estos criterios y las operaciones 5.38 y 5.39 en la ecuación 5.37, resulta sin 2 [21~ (E n0 ¡ E m0 )t] 1 X ¦ n (t) = 4 jV n m j2 ; (5.40) m −m (E n0 ¡ E m0 )2 donde hemos empleado las hipótesis (a) y (b) hc ¤m 0(0 )c m (0 )i = 1 − ±m m 0m (5.41) : La suma sobre el grupo de estados iniciales m se realiza como en las ecuaciones 5.21 y 5.25, con lo cual se obtiene ¦ n (t) = 1 2 jV n m j2 ! m t −m ~ (5.42) y para la probabilidad de transición m ! n por unidad de tiempo (desde un grupo de estados m del continuo a un estado n del discreto) resulta zm !n (t) = 1 2 jV n m j2 ! m b E m0 −m ~ = E 0 n : (5.43) La fórmula es similar a la ecuación 5.29 correspondiente a la transición n ! m . En ese caso el número de estados iniciales es la unidad y podemos reescribir la 5.30 de la forma 1 2 jV m n j2 ! m b E m0 = E n0 ; (5.44) z n ! m (t) = −n ~ donde − n = 1 . En virtud del carácter hermitiano de la matriz de transición vale jV n m j2 = jV m n j2 ; (5.45) propiedad que se conoce como el principio de la reversibilidad microscópica. Por consiguiente la probabilidad de transición z n ! m (t) para n ! m , difiere de la probabilidad de transición z m ! n (t) para m ! n , sólo por el número de estados que intervienen en las dos transiciones consideradas. La ecuación principal 70 Se concluye que las probabilidades de transición (por unidad de tiempo) sumadas sobre el grupo de estados respectivos, que indicaremos con los símbolos W n ! m y W m ! n , para la directa y la inversa respectivamente, son iguales W n!m = z n ! m (t)− n = zm ! n (t)− m = W m !n ; (5.46) La igualdad W n ! m = W m ! n , también expresa la reversibilidad de los procesos básicos, sin distinguir la individualidad de cada estado en las agrupaciones correspondientes. Esto último refleja la imprecisión de nuestras observaciones del sistema. Siguiendo pautas muy similares, se puede extender el cálculo de las probabilidades de transición al caso más general de las transiciónes entre espectros cuasicontinuos. También se puede incluir en el tratamiento la degeneración de los estados. No vamos a examinar en detalle todas estas extensiones. Los resultados, para las transiciones directa e inversa entre espectros cuasi-continuos, son muy parecidos a las fórmulas 5.43 y 5.44 y sus propiedades son las mismas que hemos estudiado en esta sección. La fórmula 5.46 que establece la igualdad W n ! m = W m ! n para las probabilidades de transición directa e inversa sumadas sobre grupos de estados se mantiene válida. Estas nociones son suficientes para plantear la ecuación principal. 5.4 La ecuación principal El sistema no tiene interacción para t < t0 . En t = t0 se introduce la perturbación Vb independiente del tiempo y para t ¸ t0 escribimos @ª = (Hb0 + Vb)ª : i~ @t (5.47) Hb0 t )© ; ~ (5.48) Empleamos la representación ª = ex p (¡ i de modo que la ecuación de Schrödinger se transforma en " # @© Hb0 t b Hb0 t i~ = ex p (i )V ex p (¡ i ) ©: @t ~ ~ (5.49) Podemos integrar formalmente esta ecuación entre 0 y t y obtener 1 © (x ;t) = © (x ;0 ) + i~ Zt 0 b 0)© (x ;t0); d t0V(t (5.50) donde hemos definido b b b ´ ex p (i H 0 t )Vb ex p (¡ i H 0 t ): V(t) ~ ~ (5.51) La ecuación principal 71 A primer orden en la perturbación Vb esta ecuación se reduce a 2 3 Zt 1 b 0)5 © (x ;0 ): © (x ;t) = © (x ;0 ) + 4 d t0V(t i~ (5.52) 0 Empleamos este resultado para estudiar la variación de las amplitudes de probabilidad c k (t) de encontrar el sistema en los autestados no perturbados ' k (x ) con energías E k0 , que satisfacen las ecuaciones 5.2, 5.3. Pondremos en 5.52 X © (x ;t) = c k (t)' k (x ); (5.53) k donde c k (t) = (' k ;© ) y escribimos también X © (x ;0 ) = c 0k ' k (x ); (5.54) k abreviando c k (0 ) ´ c 0k . Se obtiene c k (t) = = c 0k + c 0k + X X 0 m m 2 @' k ;4 1 i~ 1 i~ Zt 0 Zt 0 3 1 b 0)5' m A c 0 d t0V(t m ³ ´ b 0)' m c 0 : d t0 ' k ; V(t m (5.55) En esta ecuación podemos notar que ! à ³ ´ b0 t b0 t H H b 0)' m ' k ; V(t )' k ; Vb ex p (¡ i )' m = ex p (¡ i ~ ~ = (E (' k ; Vb' m ) ex p [i 0 k ¡ E ~ 0 m ) t]: (5.56) Sustituyendo este resultado, teniendo en cuenta que (' k ; Vb' m ) = V k m e integrando, obtenemos X ex p [~i (E k0 ¡ E m0 )t] ¡ 1 0 c k (t) = c 0k + cm ; V km (5.57) m (E k0 ¡ E m0 ) un resultado equivalente al que se obtiene integrando 5.12. A continuación aplicamos a la ecuación 5.57 las operaciones relativas a grupos de estados y promedios sobre ensembles que hemos aprendido en las secciones precedentes. La probabilidad de encontrar el sistema en el estado k , después de un lapso de tiempo t a partir de t = 0 , vale p k (t) = = c ¤k (t)c k (t) ¾ ½ X ex p [~i (E k0 ¡ E m0 )t] ¡ 1 0 0 cm V km ck + m (E k0 ¡ E m0 ) ¾ ½ X ex p [~i (E k0 ¡ E m0 0)t] ¡ 1 0 0 V km 0 cm 0 : £ ck + m 0 (E k0 ¡ E m0 0) (5.58) La ecuación principal 72 Promediamos esta cantidad sobre un ensemble de valores iniciales (ver comentarios a las ecuaciones 5.38 y 5.39) y sumamos sobre un grupo de estados k dentro de la incerteza de la energía. Para la probabilidad P k de que el sistema se encuentre en un grupo de estados alrededor de k , luego de aplicar las fórmulas 5.43 a 5.46, se encuentra: P k (t) = − k hc ¤k (t)c k (t)i = D¯ ¯E X 2 − k ¯c 0k ¯ + t m W m !k− m D¯ ¯E ¯c 0m ¯2 : (5.59) D E 2 Puesto que P k (0 ) = − k jc 0k j , la variación ± + P k de la probabilidad de los estados k durante el período t debido a las transiciones m ! k , vale X W m ! k P m (0 ): (5.60) ±+ P k = t m En esta expresión no se cuenta la variación ± ¡ P k debida a las transiciones k ! m inversas a las precedentes, las cuales reducen la probabilidad P k de encontrar el sistema en el grupo k . Mediante un cálculo similar, en el cual consideramos las transiciones k ! m , se obtiene X W k ! m P k (t): (5.61) ±¡P k = ¡ t m Sumando los dos tipos de variaciones y dividiendo por el lapso de tiempo t, obtenemos ¢ ¡+ X ± P k + ±¡P k ±P k = = [W m ! k P m (0 ) ¡ W k ! m P k (t)]: (5.62) m t t Consideramos ahora el límite t ! 0 e identificamos el límite de (± P k = t) con la derivada d P k = d t de la probabilidad del (grupo) estado k . Asimismo, reescribimos las cantidades P m (0 );P k (0 ) como P m (t);P k (t) o simplemente P m ;P k , es decir, valores correspondientes al momento actual t. Se entiende, por la discusión de las secciones precedentes, que la duración t de las transiciones no puede tender a cero sino que es un tiempo finito, el cual no puede ser muy corto ni demasiado largo. Cuando hacemos la aproximación t ! 0 lo que queremos decir es que el intervalo t es despreciable desde el punto de vista macroscópico. La ecuación principal X dP k = dt m [W m ! kP m ¡ W k! m P k] (5.63) o ecuación del transporte, fue obtenida por Pauli mediante la teoría cuántica en 1928. Es una ecuación para la evolución de las probabilidades de un ensemble fuera de equilibrio. El significado físico de esta ecuación es muy plausible: la variación de la probabilidad del grupo de estados k depende de un balance de ganancias y pérdidas generadas por las transiciones. Independientemente de las argumentaciones precedentes, esta ecuación podría ser propuesta como descripción fenomenológica genérica de un proceso estocástico. Propiedades y aplicaciones 73 La ecuación principal contiene sólo las probabilidades de los estados, a diferencia de la ecuación de Liouville cuántica no figuran amplitudes de probabilidad ni términos no-diagonales. En vista de las aproximaciones de la teoría de perturbaciones y las hipótesis que hemos comentado, la ecuación principal es una ecuación perteneciente a un nivel de descripción mucho menos preciso que la ecuación cuántica para la evolución del operador estadístico. Se trata de una aproximación intermedia entre las ecuaciones de transporte macroscópicas, como las ecuaciones de difusión del calor, del transporte de la cantidad de movimiento (Navier-Stokes) etc. y la descripción basada en la matriz densidad. Las probabilidades P k que aparecen en la ecuación 5.63 provienen de sumas sobre un cierto número − k de estados vecinos k cuyas fases son aleatorias. Los promedios de ensemble que se calculan con ellas, como X Pm A m ; (5.64) hA iG G = m se denominan medias de grano grueso, porque en ellas tomamos en cuenta las limitaciones prácticas del proceso de medición que no permiten distinguir estados individuales sino grupos de estados. Se reserva el calificativo de grano fino, en cambio, para los promedios de ensemble realizados con la matriz densidad. Hemos visto en el capítulo precedente que la entropía de Gibbs (grano fino) es invariante en el tiempo. Veremos que la evolución temporal de la entropía de grano grueso (calculada con la ecuación principal) tiende a un máximo para el equilibrio de un sistema aislado. 5.5 Propiedades y aplicaciones 5.5.1 Conservación de la normalización La suma de las variaciones de todas las probabilidades del ensemble es nula X k dP k = 0: dt (5.65) La demostración es muy simple. Sumamos la ecuación 5.63 y empleamos 5.46 X k dP k dt = X [W m ! kP m = X [W m ! k (P m k ;m k ;m = ¡ X k ;m [W ¡ W k! m P k] ¡ P k )] m ! k (P m ¡ P k )] = 0 ; por las propiedades de simetría y antimetría de los elementos que P intervienen en la suma. La propiedad asegura la persistencia de la normalización k P k = 1 en el tiempo. En un ensemble el número de réplicas del sistema en cada estado es N k = N P k , donde N es el número total de miembros del ensemble. Por lo tanto, alternativamente 5.65 implica la conservación de N . Propiedades y aplicaciones 74 5.5.2 Balance detallado en un sistema aislado En un sistema aislado la distribución microcanónica es consistente con la condición de equilibrio de la ecuación principal. Cuando el sistema está aislado su energía es constante y las transiciones se realizan entre estados con la misma energía. Por lo tanto W m ! k = W k ! m y podemos escribir X dP k = [W dt m m ! k (P m ¡ P k )]; (5.66) para todo k . La equiprobabilidad del ensemble microcanónico P m = P k para cualquier par de índices m ;k , tiene por consecuencia que las probabilidades no cambian con el tiempo, d P k = d t = 0 . Consideremos, por simplicidad, un sistema con sólo dos estados m y k . La ecuación 5.66 señala que cuando P m > P k , entonces P k crece y P m disminuye, y viceversa cuando P k > P m , resulta que P k disminuye y P m crece. Se manifiesta una tendencia a igualar P k y P m . Naturalmente, la condición de equilibrio no quiere decir que cesan las transiciones, sino que ocurren tantas transiciones en un sentido como en el inverso: W m ! kP m = W k! m P k; (5.67) para cualquier par de estados, m ;k . Esta condición expresa el balance detallado de las transiciones entre los estados. El balance detallado es una condición suficiente para el equilibrio. Es interesante observar que si la condición 5.67 se cumple en un ensemble en el cual ocurre que P m = P k para todo m ;k (por lo tanto, un ensemble en equilibrio) entonces se deduce que W m ! k = W k ! m . Como esta condición se expresa mediante cantidades asociadas a la interacción y los estados no perturbados (elementos de matriz, etc.) que no dependen de que el sistema esté o no en equilibrio, entonces debe valer también fuera del equilibrio. En otras palabras, si vale el balance detallado 5.67 para un ensemble equiprobable, podemos demostrar la validez del principio de reversibilidad microscópico W m ! k = W k ! m aún sin conocer su demostración mediante la teoría de perturbaciones. Cumplido esto, podemos afirmar que la relación W m ! k = W k ! m debe ser cierta en general, aún cuando el ensemble no esté en equilibrio. 5.5.3 Sistema en contacto con un baño térmico. Para estudiar transiciones entre estados con energía diferente debemos considerar sistemas abiertos a la interacción con otros sistemas. Para comenzar veamos el caso examinado varias veces de un sistema A en contacto con un baño térmico A 0, cuyo parámetro térmico es ¯ = 1 = k T . La interacción entre ambos es débil, Hb(0 ) = Hb + Hb0+ Vb. Los dos sistemas forman el sistema aislado A (0 ) = A + A 0, tal que la suma de sus energías es la energía total de A (0 ) , E (0 ) = E + E 0. En ausencia de interacción la energía del estado r de A es E r , mientras que la energía del estado r 0 de A 0 es E r0. Cuando actúa la interacción Vb comienzan las transiciones entre estados. La probabilidad del estado r se denota con P r y la del estado r 0con P r00. La probabilidad (0 ) de que A (0 ) esté en el estado correspondiente al par r;r 0 vale P r r 0 = P r P r00. Propiedades y aplicaciones 75 En base a propiedades generales de la teoría de perturbaciones que hemos revisitado en las secciones precedentes, podemos afirmar que existe una probabilidad (0 ) de transición W r r 0! ss 0 (por unidad de tiempo) entre las parejas de estados r;r 0y s;s 0. (0 ) (0 ) Las propiedades de W r r 0! ss 0 son: (i) W r r 0! ss 0 = 0 , cuando E r + E r00 6= E s + E s00; ii) (0 ) (0 ) W r r 0! ss 0 = W s s 0! r r 0 cuando E r + E r00 = E s + E s00. Desde el punto de vista de la ecuación principal, una descripción del equilibrio para el sistema A se puede basar en la distribución canónica para el baño térmico, o sea, P r00 _ ex p (¡ ¯ E r00) y en la hipótesis del balance detallado. Con esta última se puede escribir (0 ) (0 ) W r r 0! ss 0P r P r00 = W s s 0! r r 0P s P s00 (5.68) y para todas las parejas de estados r r 0, ss 0 para las cuales W concluye la validez de Pr P 00 = s0 : Ps P r0 (0 ) r r 0! ss 0 = W (0 ) ss 0! r r 0 6= 0 se (5.69) Como el baño térmico tiene por hipótesis la distribución canónica, vale Pr = ex p [¡ ¯ (E Ps 0 s0 ¡ E r00)]; (5.70) entonces, por conservación de la energía total el sistema A también adquiere la misma distribución Pr = ex p [¡ ¯ (E r ¡ E s )]: (5.71) Ps Evidentemente, esta via para obtener la distribución canónica de A requiere la suposición que la interacción entre A y A 0 genera transiciones a todos los estados de A. Supongamos ahora que el sistema A (y por lo tanto A (0 ) ) no está en equilibrio, pero que debido a su gran tamaño el baño térmico A 0 permanece en equilibrio con su parámetro térmico ¯ = 1 = k T invariado (y por lo tanto con la distribución canónica P r00 _ ex p (¡ ¯ E r00)). La probabilidad de transición W r ! s del sistema A (abierto) se calcula mediante la expresión X (0 ) P r00W r r 0! ss 0; (5.72) W r! s = r 0s 0 que suma todas las probabilidades de encontrar el sistema A 0 en r 0 multiplicadas por la probabilidad de transición a todos los posibles estados estados finales s 0. Por lo tanto, X (0 ) W r! s = C ex p (¡ ¯ E r00)W r r 0! ss 0; (5.73) r 0s 0 donde C es la constante de normalización de la distribución canónica de A 0. De la misma manera se calcula X (0 ) ex p (¡ ¯ E s00)W s s 0! r r 0: (5.74) W s! r = C r 0s 0 Propiedades y aplicaciones 76 De las ecuaciones 5.73, 5.74 y empleando la conservación de la energía de A (0 ) , se deduce W s! r ex p (¡ ¯ E r ) ; (5.75) = W r! s ex p (¡ ¯ E s ) es decir, las probabilidades de transición entre estados de distinta energía de A , W s ! r y W r ! s , no son iguales. Puesto que ¯ > 0 la ecuación 5.75 implica que las transiciones a los estados de menor energía son más probables que las transiciones hacia estados de mayor energía. Por ejemplo, si E s > E r entonces W s! r > W r ! s . Naturalmente esto es lo que se necesita para que el sistema A pueda avanzar hacia el equilibrio térmico. La ecuación principal para el sistema abierto A se puede escribir como X dP r = dt s [W s! r P s ¡ W y en el caso del contacto con el baño térmico A X dP r = dt s (5.76) r ! s P r ]; 0 ¸ sr [P s ex p (¯ E s ) ¡ P r ex p (¯ E r )]; (5.77) donde hemos definido la cantidad ¸ sr = ¸ r s como ¸ sr = ex p (¡ ¯ E s )W s! r = ex p (¡ ¯ E r )W r! s = ¸ rs : (5.78) La condición de balance detallado es suficiente para el equilibrio d P r = d t = 0 y en este caso implica la distribución canónica para A . Para adquirir familiaridad consideremos un ejemplo. Sea un sistema simple con dos niveles de partícula única r = 1 ;2 , cuyas energías son " 1 ;" 2 , respectivamente, en contacto con un baño térmico. El número de partículas en cada estado es proporcional a su probabilidad, N 1 = N P 1 , N 2 = N P 2 , siendo N = N 1 + N 2 el número total de partículas. El sistema está descripto por dN 1 = W dt 2! 1 N 2 ¡ W 1! 2 N 1 dN 2 ; dt = ¡ (5.79) y en equilibrio, como sabemos, se cumplen las siguientes relaciones W 1! 2 ex p (¡ ¯ " 1 ) = W 2! 1 ex p (¡ ¯ " 2 ); N 0 1 ex p (¯ " 1 ) = N 0 2 ex p (¯ " 2 ). (5.80) La segunda igualdad es, naturalmente, la distribución canónica. Examinemos una pequeña desviación respecto del equilibrio, una fluctuación térmica. Podemos poner N r = N 0 r + ±N r; ±N r ¿ N r0 ; r = 1 ;2 (5.81) y pasar de la ecuación 5.79 a la siguiente d ±N 1 = W dt 2! 1 ±N 2 ¡ W 1! 2 ±N 1 = ¡ d ±N 2 ; dt (5.82) Propiedades y aplicaciones 77 en la cual empleamos 5.80 para obtener ¡ d (± N 2 ¡ ±N 1) = 2 (W dt 2! 1 ±N 2 ¡ W 1! 2 ±N 1 ) = 2W 2! 1 (± N 2 ¡ ± N 1 ex p [¡ ¯ (" 2 ¡ " 1 )]) : (5.83) Cuando la temperatura es elevada como para que se cumpla la condición (" 2 ¡ " 1 ) ¿ k T ; (5.84) resulta, aproximadamente, d (± N 2 ¡ ±N 1) = ¡ 2W dt 2 ! 1 (± N 2 ¡ ± N 1 ): (5.85) Por la conservación del número de partículas ± N 2 + ± N 1 = 0 , definiendo el tiempo característico 1 ¿ ´ W 2! 1 ; (5.86) 2 se obtiene t (5.87) ± N 2 = ¡ ± N 1 = ± N 2 jt= 0 ex p (¡ ): ¿ La fluctuación decae exponencialmente y ¿ se denomina tiempo de relajación. 5.5.4 Procesos espontáneos e inducidos en un sistema con dos niveles El modelo del ejemplo precedente puede ser extendido al tratamiento de un sistema compuesto por átomos y radiación electromagnética en contacto con un baño térmico (cuerpo negro). En el modelo siguiente se supone que los átomos tienen influencia mútua muy débil (gas diluido, sin colisiones) e interaccionan principalmente mediante el campo electromagnético. Los átomos que se encuentran en el estado 1 , cuya energía " 1 es la más baja, pueden absorber fotones de energía h º = " 2 ¡ " 1 y pasan al estado excitado 2 de mayor energía. La probabilidad de transición para el proceso de absorción se puede escribir de la forma W 1! 2 = B 12 u (º ;T ) ; (5.88) donde B 1 2 es un coeficiente de absorción y u (º ;T ) es la densidad de energía de los fotones en el intervalo de frecuencias º ;º + d º . La población del estado 2 puede disminuir como consecuencia de dos procesos. Por lo pronto puede ocurrir un decaimiento espontáneo del nivel excitado " 2 al nivel de energía " 1 , con emisión de un fotón de energía h º . La probabilidad de emisión espontánea por unidad de tiempo se denota con el coeficiente A 2 1 . Como vimos en la sección precedente, en ausencia de otros efectos dN 2 = ¡A dt 21 N 2 : (5.89) Además, por el principio de la reversibilidad microscópica, debe existir el proceso inverso a la absorción W 2 ! 1 = B 2 1 u (º ;T ) : (5.90) Propiedades y aplicaciones 78 Este proceso se denomina emisión estimulada o inducida, es decir, un decaimiento del nivel 2 al 1 intensificado por la presencia de fotones en el rango de frecuencias adecuado º = (" 2 ¡ " 1 ) = h . La probabilidad de transición W 2 ! 1 es proporcional a la densidad de energía de esos fotones a través del coeficiente de emisión estimulada B 2 1 . Para tener un símil clásico de este proceso se puede pensar en la resonancia de un oscilador forzado. La emisión espontánea ocurre aún cuando no existe ningún fotón presente en el sistema. La emisión inducida y la absorción, en cambio, requieren la presencia de la radiación. Por la reversibilidad microscópica debe ser B 12 = B (5.91) 21 La ecuación principal para el sistema de átomos es dN 2 = ¡A dt 21 N 2 + (W 1! 2 N 1 ¡ W 2! 1 N 2 ) = ¡ dN 1 ; dt (5.92) puesto que d (N 1 + N 2 )= d t = 0 . Cuando el sistema átomos y radiación ha alcanzado el equilibrio d N 1 = d t = d N 2 = d t = 0 . Entonces, empleando las ecuaciones 5.88 a 5.92 resulta ¡ A 2 1 N 20 + (B 1 2 N 10 ¡ B 2 1 N 20 )u (º ;T ) = 0 : (5.93) Las distribución de equilibrio para los átomos es la canónica, N r = 1 ;2 y de 5.93 se obtiene u (º ;T ) = A B 21 1 " 2 ¡" 1 2 1 ex p ( k T )¡ 1 = A B 21 r 1 hº 2 1 ex p ( k T )¡ 1 _ ex p (¡ " r = k T ); (5.94) para la distribución espectral de la energía de la radiación en equilibrio. Se completa la deducción de la célebre fórmula de Planck para la radiación de cuerpo negro, comparando la ecuación 5.94 con el límite clásico de Rayleigh-Jeans para bajas frecuencias, cuando h º = k T ¿ 1 (capítulo 8, I parte) u (º ;T ) = 8¼ º 2 kT ; c3 (5.95) que permite identificar el cociente A 2 1 = B 2 1 = 8 ¼ h º 3 = c 3 . La derivación que hemos reproducido aquí se debe a Einstein (1917) quien por via teórica descubrió la existencia del proceso de la radiación estimulada. La continuación del razonamiento de Einstein es muy interesante. Hemos notado que las probabilidades de transición W 2 ! 1 , W 1 ! 2 son proporcionales a la energía del campo electromagnético correspondiente a un dado rango de frecuencias, es decir, B 2 1 = B 1 2 _ jE · j2 donde ¡!· es el vector número de onda asociado con la frecuencia º , o sea, en el vacío 2 ¼ º = j¡!· jc = · c. En términos de fotones, la densidad de energía 2 £ jE · j2 = 8 ¼ y el número de fotones N · asociados son cantidades proporcionales. Por consiguiente, se escribe W 2! 1 = Be2 1 N · ; W 1! 2 = Be1 2 N · ; (5.96) introduciendo los coeficientes de proporcionalidad con N · . Ahora damos vuelta el argumento precedente, que conduce de 5.88 a 5.94 y consideramos que ya hemos Propiedades y aplicaciones 79 hallado con los métodos de la mecánica estadística del equilibrio, tanto la distribución de Gibbs cuanto la distribución de Planck. En ese caso, sabemos que en equilibrio vale 1 N · = ; (5.97) hº ex p ( k T ) ¡ 1 ver capítulo 8, I parte. La ecuación para el equilibrio, equivalente a 5.93, se escribe ahora como A 21 : (5.98) N · = Be2 1 ex p ( h º ) ¡ Be1 2 kT Esta ecuación debe valer para todas las temperaturas y por lo tanto A 21 = Be2 1 = Be1 2 : (5.99) En cada rango de frecuencias vale la igualdad de los coeficientes de emisión espontánea, inducida y de absorción (los dos últimos medidos por densidad del número de fotones en lugar de densidad de energía). De este argumento surgen dos importantes consecuencias: (a) la probabilidad total de emisión en la transición 2 ! 1 vale A 2 1 (N · + 1 ); (5.100) (b) la probabilidad de absorción vale A 21 N · : (5.101) Las tres probabilidades de transición se conocen cuando se conoce la probabilidad de la transición espontánea, A 2 1 . Naturalmente, este resultado vale también fuera del equilibrio. Aunque estas consideraciones se basan en un modelo de dos niveles, tienen un alcance mucho mayor. Para cualquier conjunto discreto o cuasi-discreto de estados de una partícula es suficiente examinar lo que ocurre con dos niveles elegidos arbitrariamente. Los coeficientes A 2 1 ; Be2 1 ; Be1 2 son cantidades de la mayor importancia en el estudio de la interacción de la radiación electromagnética con la materia, tanto en equilibrio como fuera de equilibrio. Sus aplicaciones, en procesos del laboratorio y de la astrofísica son innumerables. Las propiedades halladas por Einstein fueron confirmadas más adelante por la teoría cuántica del campo electromagnético. 5.5.5 Interacción de una onda electromagnética con un sistema de dos niveles fuera de equilibrio Introducimos ahora la probabilidad diferencial de emisión espontánea, A 2 1 (¡!· ), asociada a un intervalo ¡!· ; ¡!· + d ¡!· de ondas irradiadas Z d3· A 2 1 (¡!· ) : (5.102) A 21 = (2 ¼ )3 La probabilidad diferencial A 2 1 (¡!· ) tiene un máximo para aquellos valores de · = j¡!· j que corresponden a 2 ¼ º = c (en el vacío) y depende de la orientación del número de onda ¡!· . La cantidad d 3 · = (2 ¼ )3 representa el número de modos por unidad de Propiedades y aplicaciones 80 volumen (ver capítulo 8, I parte). Vamos a considerar la interacción de una onda ¡!· (más precisamente un paquete de ondas formado por números de onda próximos) con un gas de átomos con dos niveles. La densidad de fotones para el mismo intervalo de números de onda se designa con N ¡!· . El sistema no está necesariamente en contacto con un baño térmico y examinamos una situación general fuera de equilibrio. Átomos y ondas están contenidos en una caja cúbica y N 1 ;N 2 representan los números de partículas por unidad de volumen para cada nivel. La ecuación principal para los átomos de este modelo es Z dN 2 dN 1 d3· = ¡ A 2 1 N 2 + (N 1 ¡ N 2 ) A 2 1 (¡!· )N ¡!· : (5.103) 3 = ¡ dt dt (2 ¼ ) Veamos ahora la ecuación para el campo de radiación, que es descripto como un gas de fotones, d N ¡!· dt ¡!· )(N A 2 1 (¡!· )(N = 21 ( A = ¡ ! · + 1 )N 2 ¡ N 1 )N 2 ¡!· )N ¡! N 1 · + A 2 1 (¡!· )N 2 : ¡ A ¡ ! · 21 ( (5.104) Sea ahora un paquete N ¡!· muy delgado alrededor del valor ¡!· 0 , el cual es tal que · 0 c = 2 ¼ º = (" 2 ¡ " 1 )= h . El número total de fotones del paquete es Z d3· N ¡!· (5.105) N ·0 = (2 ¼ )3 e integrando la ecuación 5.104 sobre d 3 · podemos escribir dN 2 dt dN ·0 dt = ¡A = A 21 N 2 + (N 2 1 (· 0 )(N 2 1 ¡ N 2 )A ¡ N 1 )N ·0 2 1 (· 0 )N · 0 + A ·0; ° ´ A 0 2 1 (N 2 ¡ N 1 ); dN 1 ; dt A ·0 0 21 (5.106) (5.107) 2 1 (· 0 )N 2 ; en lugar de 5.103 y 5.104. Cuando la intensidad del paquete es grande, N procesos espontáneos y considerar la ecuación dN ·0 = °N dt = ¡ À 1 , podemos ignorar los ´ A 2 1 (· 0 ): (5.108) La cantidad ° es la tasa instantánea de crecimiento o de absorción. Mientras N 1 > N 2 , la situación habitual cuando " 2 > " 1 (cerca del o en equilibrio térmico) el número de fotones decrece y la onda sufre absorción. Viceversa, si algún proceso fuera de equilibrio ha producido una inversión de población, mientras N 1 < N 2 el número de fotones crece y la onda se amplifica. El crecimiento es exponencial, con una tasa de crecimiento instantáneo dada por ° . La razón física es inmediata: si un átomo emite un fotón este al interactuar con otro átomo excitado induce la emisión de otro fotón. Ahora tenemos dos fotones que producen emisión estimulada en otros dos átomos excitados y se origina un proceso de avalancha. Esta inestabilidad del sistema átomos - radiación con inversión de población es la base del efecto laser. Propiedades y aplicaciones 81 Naturalmente la tasa de crecimiento ° permanece constante sólo mientras la diferencia N 2 ¡ N 1 se mantiene cerca de su valor inicial, lo cual ocurre mientras la intensidad de la onda no sea demasiado grande. En realidad, a medida que el proceso se desarrolla aumenta N · 0 y cambian las poblaciones de los dos niveles. Si ignoramos los procesos espontáneos, los cambios se pueden obtener de las siguientes ecuaciones dN 2 = ¡ °N dt ·0; d (N ¡ N 1) = ¡ 2 (N dt 2 2 ¡ N 1) A 0 21 N · 0 = ¡ 2° N ·0: (5.109) Como se ve, la diferencia de poblaciones y, por lo tanto, ° , decrecen con el tiempo. La tasa de la inestabilidad tiende a anularse para tiempos largos. Esto se denomina efecto de saturación del proceso de amplificación. Propiedades similares se encuentran también en otros procesos inestables de la cinética física o de la dinámica macroscópica de los fluidos. 5.5.6 Aumento de la entropía en un sistema aislado La entropía de grano grueso definida como S = ¡ k hln (P )iG G varía en el tiempo y tiende a un valor máximo cuando un sistema aislado alcanza el equilibrio. Partimos de la definición X S = ¡k P r ln (P r ) (5.110) r y la ecuación X dP r [W = dt s r ! s (P s ¡ P r )]: Derivamos la entropía respecto del tiempo y obtenemos ( ) X dP r dS = ¡k [ln (P r ) + 1 ] dt dt r ) ( X W r ! s (P s ¡ P r )[ln (P r ) + 1 ] : = ¡k (5.111) (5.112) r;s En esta expresión podemos intercambiar los índices mudos r;s y escribir ) ( X dS W s! r (P r ¡ P s )[ln (P s ) + 1 ] : = ¡k dt r;s (5.113) Sumando las dos ecuaciones para d S = d t y simetrizando se obtiene la fórmula dS 1 X W = k dt 2 r;s r ! s (P r ¡ P s )[ln (P r ) ¡ ln (P s )]: (5.114) Para cada término de la suma podemos verificar que se cumple la condición (P r ¡ P s )[ln (P r ) ¡ ln (P s )] ¸ 0 ; (5.115) donde la igualdad vale sólo si P r = P s Por consiguiente, visto que W r ! s ¸ 0 , la entropía sólo puede crecer d S = d t > 0 o alcanzar un valor máximo cuando P r = P s Propiedades y aplicaciones 82 para todo r;s y entonces permanecer constante d S = d t = 0 : El equilibrio se alcanza cuando todos los estados son equiprobables y coincide con el máximo de la entropía. Este resultado depende de las hipótesis que sostienen la ecuación principal, entre las cuales cumple un papel preponderante la suposición de las fases al azar en las probabilidades de transición por unidad de tiempo. En cada paso de avance temporal, en el cual actúan transiciones entre estados, se introduce una cancelación de correlaciones entre las fases de los estados. Al emplear la ecuación principal estamos aceptando que hay continuamente pérdida de información acerca de las fases (y por lo tanto aumento de entropía) hasta que se alcanza el máximo de entropía compatible con los vínculos del sistema. El resultado no contradice la invariancia temporal de la entropía de Gibbs porque aquí estamos empleando una descripción de grano grueso. El teorema del aumento de entropía también se debe a Pauli (1928) inspirado en el trabajo de Boltzmann de 1873 en la teoría cinética de gases clásicos. El estado actual de la cuestión de la irreversibilidad y el aumento de entropía es un tema mucho más complejo y delicado de lo que podemos esbozar en estas notas