Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional DEPARTAMENTO DE FISICA Coloides en capas planas paralelas: un modelo de control coloidal Tesis que presenta Claudio Contreras Aburto para obtener el Grado de Doctor en Ciencias en la Especialidad de Física Director de tesis: Dr. José Miguel Méndez Alcaraz México, Distrito Federal Diciembre, 2008. “Colloids in parallel planar layers: A model for colloidal control” Abstract Colloidal dispersions are a special case of soft condensed matter we usually find every day. They are excellent models of the mesoscopic world, where length scale interplay, time scale separation, effective interactions, hydrodynamic interactions, and memory effects are fundamental concepts. Given the relevance of these systems, it is imperative to develop methods to control them, either by confining them or by means of an external field. In this work we systematically study the effective interaction potentials, as well as the collective and cooperative memory functions, of model colloidal systems composed of Yukawa particles contained in parallel planar layers. We demonstrate that this special geometry allows for the separation between layer to be an excellent control parameter for the effective interaction and memory functions, and, therefore, for the structural and transport properties of the system. In order to carry out our calculations, we implement Brownian dynamics computer simulations, apply integral equations theory of simple liquids, mode-coupling theory in Smoluchowski dynamics, and solve for the memory in the memory equation by using the cosine and sine transforms. Effective potentials were accounted for by a contraction of the description in the framework of the integral equations theory of simple liquids. We also studied the memory functions of paramagnetic two-dimensional colloids. Among other not less important technical aspects, we found that the control induced in the layered system is so strong, that we can induce an effective attraction between like charged colloids. Comparisons between theory and simulation allowed us to see that HNC is not a good approximation when calculating effective potentials in confined systems. Regarding the memory functions, we obtained a new mathematical model for collective and cooperative memory functions. This model consists of an infinite time series with only three adjustable parameters. Comparison between the convolution approximation, in the mode-mode-coupling theory (MMC), with simulations, shows that MMC predicts memory functions that decay faster than the memories predicted by the simulations. “Coloides en capas planas paralelas: Un modelo de control coloidal” Resumen Las dispersiones coloidales son una clase de materia condensada blanda que encontramos comúnmente en nuestra vida diaria. Como sistemas modelo, los coloides nos auxilian en el desarrollo de descripciones en la mesoescala, en donde, la combinación de escalas de longitud, la separación de escalas de tiempo, las interacciones efectivas e hidrodinámicas y los efectos de memoria, son conceptos fundamentales. Dada la importancia de estos sistemas, resulta imperante desarrollar modelos que nos permitan aprender a controlarlos, ya sea mediante alguna condición de confinamiento, o mediante un campo externo. En este trabajo, un estudio sistemático de los potenciales efectivos y de las funciones de memoria colectiva y cooperativa, de un sistema coloidal modelo compuesto de coloides de Yukawa distribuidos sobre capas planas paralelas es realizado. Mostramos que esta geometría permite que la separación entre las capas sea un excelente parámetro de control del potencial efectivo y de las funciones de memoria y, consecuentemente, de las propiedades estructurales y de transporte de estos sistemas. Para realizar nuestros cálculos, implementamos simulaciones por computadora de dinámica browniana sin interacciones hidrodinámicas, aplicamos la teoría de ecuaciones integrales de los líquidos simples, la teoría de acoplamiento de modos en la dinámica de Smoluchowski e invertimos la ecuación de memoria mediante el par de transformaciones seno y coseno. Los potenciales efectivos de interacción fueron evaluados por medio de una contracción de la descripción en el marco de la teoría de ecuaciones integrales de los líquidos simples. Las funciones de memoria también fueron calculadas para sistemas bidimensionales de coloides paramagnéticos. Entre otros aspectos técnicos no menos importantes, obtuvimos que el tipo de control que puede ejercerse en estos sistemas consigue ser lo suficientemente fuerte como para inducir una atracción efectiva entre partículas igualmente cargadas. En este aspecto, la comparación entre teoría y simulación nos permitió emitir juicios sobre la validez de la aproximación HNC para calcular potenciales efectivos en sistemas confinados. En cuanto a las funciones de memoria, obtuvimos un nuevo modelo matemático para la función de memoria. Este modelo consiste en una serie infinita de lorentzianas con solamente tres parámetros de ajuste. Además, la comparación entre la teoría de modos acoplados en la aproximación de convolución, con los resultados de simulación, muestran que la teoría de modos acoplados predice memorias que decaen mucho más rápido que las memorias obtenidas con la simulación. Agradecimientos. Agradezco a Conacyt por la beca 172596 que me otorgó para poder realizar estos estudios de doctorado en ciencias. A Cinvestav por todos los apoyos que me otorgó durante mi estancia en esta institución. A los sinodales de esta tesis por sus valiosos comentarios. En especial al Dr. José Méndez, por dirigir éste trabajo pacientemente. A todos aquellos amigos que he tenido a lo largo de mi etapa como estudiante. A la familia Cortina Bello, por ser como mi familia desde hace ya unos 20 años. A mi padre Anselmo Contreras y a mi tutor Ezequiel Cortina, cuyas enseñanzas me permitieron seguir de pie ante las adversidades. En memoria de ellos dedico éste humilde trabajo. Potenciales efectivos y funciones de memoria en dispersiones coloidales Coloides en capas planas paralelas: un modelo de control coloidal Claudio Contreras Aburto Departamento de Física, Cinvestav Febrero, 2005 – Diciembre, 2008 Índice general Índice de figuras V 1. Introducción 1 2. Generalidades 2.1. Dispersiones coloidales . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. Potenciales efectivos y funciones de memoria . . . . . . . . . . . . . . . 7 7 9 3. Marco teórico y conceptual 3.1. Potenciales efectivos . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1.1. Estructura estática de dispersiones coloidales . . . . . . . . . . 3.1.1.1. Potencial DLVO . . . . . . . . . . . . . . . . . . . . 3.1.1.2. Funciones de estructura estática . . . . . . . . . . . . 3.1.1.3. Funciones de estructura estática en mezclas . . . . . 3.1.1.4. Función de correlación directa y función puente . . . 3.1.2. Función de correlación directa efectiva . . . . . . . . . . . . . 3.1.3. Potenciales efectivos como una contracción de la descripción . 3.2. Funciones de memoria . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2.1. Variables dinámicas y correlaciones espacio-temporales . . . . 3.2.2. Operadores de proyección . . . . . . . . . . . . . . . . . . . . 3.2.3. Movimiento browniano . . . . . . . . . . . . . . . . . . . . . . 3.2.4. Funciones de autocorrelación en la dinámica de Smoluchowski 3.2.5. Ecuación de Langevin generalizada . . . . . . . . . . . . . . . 3.2.6. Estructura dinámica de suspensiones coloidales . . . . . . . . 3.2.7. Función de memoria y difusión colectiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 13 14 14 15 18 19 21 23 25 26 27 29 35 39 41 42 4. Estudios previos sobre los efectos de memoria 4.1. Efectos de memoria: Dinámica de Liouville . . . . . . . . . . . . . 4.2. Efectos de memoria: Dinámicas disipativas . . . . . . . . . . . . . 4.2.1. Dinámica de Smoluchowski I . . . . . . . . . . . . . . . . 4.2.2. Hidrodinámica generalizada y aproximación viscoelástica . 4.2.3. Hidrodinámica generalizada y teorema de estacionaridad . 4.2.4. Dinámica de Smoluchowski II. Teoría de modos acoplados 4.2.4.1. Ideas generales . . . . . . . . . . . . . . . . . . . 4.2.4.2. Acoplamiento de modos en dispersiones coloidales 4.2.5. Otros estudios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47 48 50 50 58 62 69 70 75 78 . . . . . . . . . . . . . . . . . . iii Índice general IV 5. Estructura estática de coloides en capas planas 5.1. Sistema, simulación, escalas y potencial por pares 5.2. Estructura . . . . . . . . . . . . . . . . . . . . . . 5.2.1. Notación . . . . . . . . . . . . . . . . . . . 5.2.2. Dos capas . . . . . . . . . . . . . . . . . . 5.2.3. Tres capas . . . . . . . . . . . . . . . . . . 5.2.3.1. Una especie . . . . . . . . . . . . 5.2.3.2. Dos especies . . . . . . . . . . . . 6. Potenciales efectivos 6.1. Introducción . . . . . . 6.2. Sistemas de dos capas 6.3. Sistemas de tres capas 6.3.1. Una especie . . 6.3.2. Dos especies . . 6.4. Comentarios finales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7. Funciones de memoria en dos dimensiones. 7.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . 7.2. Efecto de las interacciones directas y de la concentración 7.2.1. Función intermedia de dispersión . . . . . . . . . 7.2.2. Función de memoria . . . . . . . . . . . . . . . . 7.2.3. Modelo lorentziano . . . . . . . . . . . . . . . . . 7.2.4. Modelo hipergeométrico gaussiano . . . . . . . . . 7.3. Dependencia en el número de onda y en la frecuencia . . 7.4. Teoría de modos acoplados . . . . . . . . . . . . . . . . . 7.5. Sistemas bidimensionales de coloides paramagnéticos. . . 7.6. Dinámica colectiva de sistemas en capas: dos capas y una . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . especie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 81 84 84 88 92 92 97 . . . . . . 101 101 104 108 109 110 111 . . . . . . . . . . 113 114 115 115 118 124 129 134 139 147 150 8. Conclusiones y perspectiva de este trabajo 155 Bibliografía 159 Índice de figuras 1.1. Tres capas de partículas coloidales. La figura ilustra a uno de los sistemas estudiados en este trabajo. Las esferitas representan a los coloides. Los centros de las esferitas definen planos paralelos al plano xy. Los planos trazados en la figura son imaginarios y solamente funcionan como una guía para el ojo. . . 3 2.1. Coloides en caricatura. Ilustración del entorno de una partícula coloidal rodeada de muchas otras partículas coloidales más pequeñas. El solvente se ilustra como el fondo rugoso. Los símbolos + y - representan a los iones libres. Los iones libres provienen de la disolución de una sal en el solvente y de los radicales que se disocian de los coloides. . . . . . . . . . . . . . . . . . . . . . . . 8 3.1. Interpretación (3.5) de la función de distribución de un líquido coloidal bidimensional. La figura es una “fotografía” de una capa de uno de los sistemas estudiados en este trabajo. El origen del sistema coordenado se toma en la posición instantánea de una partícula arbitraria. El radio vector r es el radio medio del anillo de longitud dr y área da. Dada la densidad numérica microscópica de partículas n, la g(r) nos proporciona el número promedio de partículas que caen dentro del anillo. . . . . . . . . . . . . . . . . . . . . . 3.2. Ejemplo de función de distribución. La figura ilustra la función de distribución del sistema en la figura 3.1. La escala σ es el diámetro de las partículas. Esta función nos dice que cada coloide ve con mucha frecuencia a otro coloide a una distancia 2σ respecto a él. Por otro lado, cuando ve a distancias muy lejanas, solamente ve una distribución homogénea de partículas pues en ese caso g(r) = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1. Ilustración de un sistema de q capas bidimensionales abiertas y planas. Todas las capas serán paralelas al plano xy. Se considerará solamente el caso za+1 − za = `, siendo za la coordenada z de la capa a. Cada capa estará compuesta de un solo tipo de coloides, aunque distintas capas podrían constituirse de distintos tipos de coloides. A los “distintos tipos” los llamaremos especies. Todos los coloides serán esféricos y tendrán el mismo diámetro, aunque podrán tener distinta carga. Todo el espacio estará caracterizado por un parámetro de apantallamiento constante. Los coloides no podrán saltar de una a otra capa. La numeración de las capas será desde el z menor hasta el z mayor y solamente consideraremos q = 2 y q = 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 17 81 v VI Índice de figuras 11 22 5.2. Función de distribución radial g11 (r) = g11 (r)√de un sistema de dos 1,2 capas y una especie con los parámetros A1 = 50, b = 1, x11,2 = 0.5 y σ = 0.357. Se muestran los resultados para tres valores distintos de la distancia entre capas `. El inset muestra al factor de estructura estática para ` = 1.2σ. Los símbolos muestran los resultados de simulación BD y las lineas los que se obtienen resolviendo numéricamente OZ con HNC, mediante el método numérico de Ng [123]. . . . . . . . . . . . . . . . . 88 12 21 5.3. Función de distribución radial cruzada g11 (r) = g11 (r) en el sistema de dos capas introducido en la figura 5.2. El inset muestra la variación de la altura del máximo principal con la distancia entre las capas `. Note como la correlación cruzada varía no monotónicamente con `. Inicia aumentando en ` = 0 hasta alcanzar su máximo en ` = σ y luego disminuye hasta el valor del gas ideal. Como se mostró en [1], este efecto de aumento de correlación, reduce el coeficiente de autodifusión de tiempos largos. . . 89 5.4. Factores de estructura estática parciales del sistema de dos capas y una 11 especie introducido en la figura 5.2. Las lineas negras representan a S11 = 21 12 22 S11 y las grises a S11 = S11 . Se muestran resultados para dos valores distintos de `. Las lineas segmentadas corresponden a ` = 1.2σ y las líneas sólidas a ` = 1.5σ. . . . . . . . . . . . . . . . . . . . . . . . . . . 90 5.5. Funciones de distribución√de un sistema de tres capas y una especie con = 50, b = 1, x11,3 = 0.25, x21 = 0.5 y σ = 0.357. los parámetros A1,2,3 1 22 33 11 . Se muestran los resultados para (r); en (b): g11 (r) = g11 En (a): g11 tres valores distintos de la distancia entre capas `: lineas continuas para ` = σ, lineas segmentadas para ` = 2σ y lineas de puntos para ` = 5σ. . 93 12 21 23 5.6. Funciones de distribución radial cruzadas g11 (r) = g11 (r) = g11 (r) = 32 13 31 g11 (r) en (a) y g11 (r) = g11 (r) en (b), que corresponden al sistema de tres capas y una especie en la figura 5.5. Se muestran los resultados para lo mismos valores de `: linea continua para ` = σ, linea segmentada para ` = 2σ y linea de puntos para ` = 5σ. Nótese la correlación positiva en r = 0 para ` = 2σ lo cual indica que, en términos efectivos, existe una atracción entre coloides con cargas iguales. . . . . . . . . . . . . . . . . 94 11 33 5.7. Factores de estructura estática de índices iguales S11 (k) = S11 (k) en (a) 22 y S11 (k) en (b), del sistema de tres capas en la figura 5.5. Se muestran los resultados para los mismos tres valores de la distancia entre capas `: linea continua para ` = σ, linea segmentada para ` = 2σ y linea de puntos para ` = 5σ. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95 12 21 5.8. Factores de estructura estática de índices distintos S11 (k) = S11 (k) = 23 32 13 31 S11 (k) = S11 (k) en (a) y S11 (k) = S11 (k) en (b), del sistema de tres capas en la figura 5.5. Se muestran los resultados para los mismos tres valores de la distancia entre capas `: linea continua para ` = σ, linea segmentada para ` = 2σ y linea de puntos para ` = 5σ. . . . . . . . . . 96 Índice de figuras 22 5.9. Funciones de distribución radial de los coloides en la capa interna g√ 22 (r) 1,3 en un sistema de tres capas y dos especies con los parámetros A1 = 50, √ 1,3 2 2 A22 = − 30, A1,3 2 = A1 = 0, b = 1, x1 = 0.25, x1 = 0.5 y σ = 0.357. Se muestran los resultados para cuatro valores distintos de la distancia entre capas `: linea gris continua para ` = σ, linea negra continua para ` = 1.5σ, linea gris dash para ` = 2σ y linea negra dash para ` = 5σ. El inset es una fotografía de la capa interna, correspondiente al caso ` = 1.5σ. A escala, el tamaño de los círculos representa alrededor de 3/4 del tamaño real de los coloides. . . . . . . . . . . . . . . . . . . . . . . 13 5.10. Funciones de distribución radial de partículas en capas distintas g11 (r) = 31 12 21 23 32 g11 (r) en el recuadro principal y g12 (r) = g21 (r) = g21 (r) = g12 (r) en el inset, del sistema de tres capas y dos especies en la figura 5.9. Se muestran los resultados para cuatro valores distintos de la distancia entre capas `: círculos transparentes para ` = σ, triángulos transparentes ` = 1.5σ, triángulos opacos ` = 2σ y círculos opacos ` = 5σ. . . . . . . . . . . . . 5.11. Factores de estructura estática parciales en el caso ` = 1.5σ correspondientes al sistema de 3 capas y dos especies en la figura 5.9. En línea 22 33 11 , en linea gris , en linea negra segmentada S22 = S11 negra continua S11 31 13 32 23 21 12 . . = S11 continua S12 = S21 = S21 = S12 y en linea gris segmentada S11 11 11eff 6.1. Transformación Fourier-Bessel ∆u11 11 (k) = u11 (k) − u11 (k), correspondiente al sistema efectivo bidimensional que resulta de la primera √ y única reducción en el sistema de dos capas y una especie con A11,2 = 50, b = 1, x1,2 1 = 0.5 y σ = 0.357. Este sistema se introdujo en la sección 5.2.2. . . 11 11eff = 0 y (b) el co− B11 6.2. (a) Potencial efectivo en la aproximación B11 11 rrespondiente ∆u11 , del sistema dos capas y una especie en la figura 6.1. Las lineas representan los resultados que se obtienen con la solución numérica del esquema OZ+HNC obtenidos por Castañeda Priego. Los símbolos representan los resultados que se obtienen al usar los factores de estructura que fueron calculados directamente de la simulación, como se especificó en la sección 5.2. . . . . . . . . . . . . . . . . . . . . . . . 6.3. Comparación entre las funciones de distribución del sistema de dos capas y una especie de la figura 6.1 (identificadas como BD, ya que se obtuvieron mediante dinámica browniana), con las del sistema bidimensional de coloides que interactúan a través del potencial efectivo en la primera, y única, contracción (identificadas como MC, ya que se obtuvieron mediante Monte Carlo). Se muestran los resultados para dos valores de `. Notemos que la región de discrepancia se localiza principalmente alrededor de máximo principal, precisamente donde los efectos de las funciones puente empiezan a tomar relevancia. . . . . . . . . . . . . . . . . . . . 13 31 6.4. Funciones de distribución radial g11 (r) = g11 (r) √ del sistema de1,3tres capas 1,2,3 y una especie con los parámetros A1 = 50, b = 1, x1 = 0.25, 2 13 x1 = 0.5 y σ = 0.357. El inset muestra la variación con ` de g11 (r = 0) en un sistema de tres capas y una especie similar pero con x1,3 1 = 3/8, 2 x1 = 2/8. Este segundo sistema se presentó en [1]. . . . . . . . . . . . . VII 97 98 99 104 106 107 108 VIII Índice de figuras 6.5. Potenciales efectivos entre las partículas de las capas externas, que se obtienen por eliminación de la capa interna en la descripción del sistema de tres capas y una especie de la figura 6.4. Las lineas negras muestran 13 los potenciales efectivos ueff (1) 11 para ` = 1σ en linea continua, ` = 2σ en linea segmentada y ` = 5σ en linea punteada. Las lineas grises en trazos correspondientes muestran los potenciales por pares u(0) 13 11 . El inset 13 muestra el término de corrección ∆u(0) 11 . . . . . . . . . . . . . . . . . . 6.6. Potencial efectivo entre los coloides internos que se obtiene eliminando las capas 1 y 3 en la descripción del sistema de tres capas y dos espe22 cies de la figura 5.9. La linea negra muestra al potencial efectivo ueff (2) 22 para ` = 1.5σ, mientras que la linea gris muestra el potencial por pares 22 eff 22 correspondiente u(0) 22 22 . El inset muestra a u(2) 22 − u(0) 22 . . . . . . . . . 7.1. Variación de la función intermedia de dispersión F (kmax , t) con la concentración, en un sistema de coloides que interactúan débilmente. . . . 7.2. Variación de la función intermedia de dispersión F (kmax , t) con la concentración, en un sistema de coloides que interactúan moderadamente. . 7.3. Variación de la función intermedia de dispersión F (kmax , t) con el alcance del potencial, en un sistema de coloides moderadamente interactuantes. 7.4. Variación de la función intermedia de dispersión F (kmax , t) con la intensidad de interacción, a alcance y concentración moderadas. . . . . . . . 7.5. Variación con la concentración en un sistema débilmente interactuante, de la transformación Fourier coseno MC (kmax , z) de la función de memoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.6. Variación con la concentración en un sistema moderadamente interactuante, de la transformación Fourier coseno MC (kmax , z) de la función de memoria. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.7. Variación con el alcance del potencial, en un sistema moderadamente interactuante, de la transformación Fourier coseno MC (kmax , z). . . . . 7.8. Variación con la intensidad de interacción de la transformación Fourier coseno MC (kmax , z), en un sistema moderadamente denso. . . . . . . . 7.9. Variación de la función de memoria M (kmax , t) con la concentración, en un sistema de coloides débilmente interactuantes. . . . . . . . . . . . . 7.10. Variación de la función de memoria M (kmax , t) con la concentración, en un sistema de coloides moderadamente interactuantes. . . . . . . . . . 7.11. Variación de la función de memoria M (kmax , t), con el alcance del potencial, en un sistema medianamente denso de coloides moderadamente interactuantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.12. Variación de la función de memoria M (kmax , t), con la intensidad de interacción, en una dispersión coloidal moderadamente densa. . . . . . 7.13. Variación de ln [MC (k = kmax , z)] con la concentración, en un sistema débilmente interactuante. . . . . . . . . . . . . . . . . . . . . . . . . . . 7.14. Variación de ln [MC (k = kmax , z)] con la concentración, en un sistema moderadamente interactuante. . . . . . . . . . . . . . . . . . . . . . . 109 110 116 117 117 118 119 120 120 121 121 122 122 123 126 126 Índice de figuras 7.15. Variación de ln [MC (k = kmax , z)] con el alcance del potencial, en un sistema moderadamente interactuante. . . . . . . . . . . . . . . . . . . 7.16. Variación de ln [MC (k = kmax , z)] con la con la intensidad de interacción. 7.17. Modelo Lorentziano para la función de memoria que resulta del ajuste tipo distribución Boltzmann de MC . Las lineas en color representan los modelos lorentzianos. En rosa para A2 = 7, en naranja para A2 = 35 y en rojo para A2 = 70. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.18. Ajuste tipo Bose para MC con las distintas amplitudes de interacción A2 = 7 (trazos negros y rosa) A2 = 35 (trazos grises claros y naranja) y A2 = 70 (trazos grises y rojos). . . . . . . . . . . . . . . . . . . . . . . 7.19. Modelo hipergeométrico de Gauss de M , que resulta del ajuste tipo Bose en MC en lineas de colores. En rosa para A2 = 7, en naranja para A2 = 35 y en rojo para A2 = 70. . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.20. Dependencia de la función intermedia de dispersión en el número de onda y en el tiempo. Los resultados corresponden al sistema bidimensional con los parámetros A2 = 35, n = 1, b = 1 y σ = 0.357. Se muestra todo el intervalo de tiempo hasta que la función decae completamente. . . . . . 7.21. La figura muestra a F (k, t) durante el intervalo de tiempo en donde la parte de números de onda más grandes ha decaído completamente. . . . 7.22. MC (k, z)/F (k, 0) asociada a la función de memoria del sistema en la figura 7.20. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.23. Comportamiento de MC (k, z)/F (k, 0) del sistema en la figura 7.20, en la región cercana al máximo principal del factor de estructura. . . . . . . 7.24. Superficie ln [MC (k, t)/F (k, 0)] del sistema en la figura 7.20. . . . . . . 7.25. Comportamiento de ln [MC (k, t)/F (k, 0)] en la figura 7.24, en distintos números de onda. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.26. Función de memoria irreducible de acuerdo a (7.24) para un sistema bidimensional en k = kmax . Como es usual, kmax indica la posición del máximo principal de S(k). También se muestran las memorias irreducibles que se obtienen al emplear dos ajustes RY, y uno HNC, para interpolar el S(k) de la simulación, y después usarlo para calcular V (kmax , k). . . 7.27. Función vértice V (q = 6.8, k) de la simulación (en negro). También se muestran los resultados para cuatro ajustes de S usando las cerraduras HNC y RY. Los números indican el valor de A2 empleado para hacer el ajuste. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.28. Función vértice V (q = 8, k) de la simulación (en negro). También se muestran para los cuatro ajustes de S empleados en la figura anterior. . 7.29. Comparación entre la MC (k = kmax , z) que se obtiene de las simulaciones (lineas grises) con la que se obtiene a partir de la teoría de modos acoplados (lineas negras). El inset muestra un rompimiento de ejes. . . 7.30. Comparación entre el ln [MC (k = kmax , z)] de las simulaciones (linea gris) y el que se obtiene de la teoría de modos acoplados (linea negra). . . . IX 127 127 129 132 133 134 135 136 137 137 138 140 142 143 144 145 X Índice de figuras 7.31. Función de memoria M (k = kmax , t) de la simulación (en gris) comparada con la función de memoria en la aproximación de convolución de la teoría de modos acoplados (en lineas negras). El inset muestra al ln [M (k = kmax , t)] de la función correspondiente a la teoría de modos acoplados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.32. F (k = kmax , t) de un sistema bidimensional de coloides paramagnéticos. 7.33. MC (k, z) del sistema en la figura 7.32 La linea gris muestra su ajuste tipo Bose y el inset al ln MC (k, z). . . . . . . . . . . . . . . . . . . . . . 7.34. Funciones intermedias de dispersión parciales del sistema de dos capas y una especie estudiado en este trabajo (Secc. 5.2.2). Solamente se muestra √ el resultado para el número de onda asociado a la escala de longitud 2d, para tres valores de la distancia entre las capas: 1σ en líneas negras, 1.5σ en lineas grises claras y 5σ en lineas grises. Las funciones positivas 11 22 12 21 representan√a las correlaciones F11 = F11 y las negativas a F11 = F11 . 7.35. MC (kd = 2π, z) para cada uno de los casos en la figura anterior: 1σ en líneas negras, 1.5σ en lineas grises claras y 5σ en lineas grises. Las 11 22 transformaciones de las memorias M11 = M11 se muestran en líneas 21 12 continúas y las de las memorias M11 = M11 en líneas cortadas. El inset muestra al ln [MC (k, z)]. √ Las líneas en color naranja muestran los ajustes tipo Bose de MC (k = 2π, z). . . . . . . . . . . . . . . . . . . . . . . . 146 147 149 150 152 1 Introducción ... como los pájaros del bosque, ligeros y siempre silenciosos incluso cuando cantan, incluso cuando se posan. Lo real es suficiente para lo real, y la sencillez es lo real en sí mismo. ... André Compte-Sponville. La construcción del lenguaje que nos permite interpretar y entender a la naturaleza es una tarea muy compleja. Sin embargo, la naturaleza está ahí con su sencillez y sutileza. A pesar de la complejidad que involucra estudiar los fenómenos naturales, las conclusiones y expresiones finales que del trabajo científico emergen suelen ser sencillas y fácilmente asimilables. En ocasiones sucede que las teorías, que se desarrollan estudiando sistemas muy simples, se pueden aplicar a sistemas más complejos, o bien, que cálculos numéricos y experimentos computacionales muy complejos derivan en resultados simples que no son obvios a primera vista y que incluso en ocasiones hasta son inesperados. Dos ejemplos representativos de estos dos aspectos son: (1) La aplicación de la teoría de la estructura de los líquidos simples al estudio de los líquidos coloidales y (2) la predicción –que se obtuvo en los inicios de las simulaciones por computadora– concerniente a que las esferas duras podrían formar cristales –predicción que renombrados científicos intentaron refutar porque iba en contra de su sentido común–; actualmente esta transición está perfectamente explicada. En este trabajo usamos un modelo sencillo de sistema coloidal y nuestros cálculos, aunque tediosos, son de una naturaleza muy simple. A pesar de esto, hemos obtenido conclusiones muy interesantes acerca del cálculo de los potenciales efectivos, de la naturaleza de los mismos y de su relación con la estructura, y por otro lado, acerca de los efectos de memoria de los sistemas bidimensionales. En cuanto a los efectos de memoria, después de un arduo trabajo numérico, obtuvimos ajustes analíticos sencillos para las funciones de memoria. Ahora mencionaremos los sistemas y las cantidades estudiadas. En nuestra educación básica aprendemos a clasificar a la materia considerando sus propiedades físicas. Por ejemplo, a primera vista el aire que respiramos lo identificamos como un gas –más precisamente el aire es una dispersión–. El agua –el principal constituyente de los seres vivos– se dice que pertenece al dominio de los líquidos. A los metales los identificamos como pertenecientes a la categoría de los sólidos. Llamamos a estas tres categorías de la materia –gas, líquido y sólido– los estados fundamentales de la materia. La clasificación de los tres estados fundamentales de la materia nos resulta muy familiar. En la actualidad poseemos una descripción completa de las propiedades de los gases y de los sólidos. En cambio, el entendimiento de las propiedades de los líquidos –incluso de algunos que pordrían parecer muy simples, como el agua– representa un reto actual en la investigación científica. 1 2 Capítulo 1. Introducción Existen materiales que poseen propiedades físicas y químicas distintas a, o bien intermedias entre, las que poseen los materiales pertenecientes al dominio de los tres estados fundamentales. Estos materiales también son muy comunes, tanto en la naturaleza como en la tecnología desarrollada por el ser humano. Los vidrios, los geles y los cristales líquidos son algunos ejemplos de materiales prolíferos en nuestra vida diaria. Estos ejemplos no pertenecen a la clasificación de los estados fundamentales. Otros ejemplos son los materiales que presentan la coexistencia –en la escala mesoscópica, donde las fluctuaciones térmicas son importantísimas– de los tres estados fundamentales. Dentro de estos materiales heterogéneos encontramos a las dispersiones. Las suspensiones coloidales son un ejemplo típico de estados de la materia que contienen fases dispersas. Los materiales que se mencionaron anteriormente, y que no pertenecen al dominio de los tres estados fundamentales, forman parte de una clasificación de la materia a la que se le denomina materia blanda. El estudio de este tipo de materiales comprende la cooperación inter-disciplinaria de varias áreas de la ciencia, dentro de las cuales encontramos a la física, a la química, a la biología y a las ciencias de la computación. El objetivo de estos estudios es el de entender las propiedades de los materiales blandos en distintos niveles de descripción. Uno de los aspectos más excitantes que de estos estudios emerge es la conexión física-biología a nivel mesoscópico. No obstante, la meta de lograr una descripción multi-escala de los procesos en seres vivos aún se ve lejana. Por el momento, una área relacionada, conocida como bio-mimética, pretende avanzar en esa dirección mediante el desarrollo de la teoría y de las técnicas relevantes para sintetizar materiales que imiten algunas de las funciones que realizan los constituyentes macro-moleculares de los seres vivos. Los sistemas coloidales, además de ser modelos de estudio para las dispersiones, e incluso para proteínas o complejos como las micelas, también son modelos muy útiles para estudios fundamentales relacionados con teorías del caos y, en general, en el estudio del problema de muchos cuerpos. Un esquema teórico muy importante en la descripción de la materia condensada blanda y, en particular, de las dispersiones coloidales en estado líquido, es la teoría de los líquidos simples –o simplemente, teoría de líquidos–. La teoría de líquidos se consolidó entre 1950 y 1980 –en gran parte gracias al desarrollo de las micro-computadoras– mediante el estudio de los líquidos cuyas partículas interactúan vía potenciales centrales, y cuya energía potencial total es la suma de las energías potenciales entre pares de partículas. Esta teoría se ha complementado con otros marcos teóricos con el objetivo de describir líquidos más complejos, como las dispersiones coloidales líquidas –en algunos casos sucede el proceso inverso: Siendo las dispersiones coloidales sistemas accesibles a la observación experimental, algunas teorías de líquidos y formalismos relacionados se han verificado dentro del marco de los modelos coloidales–. Entre otros marcos teóricos no menos importantes, podemos mencionar como teorías relacionadas a la dinámica disipativa y la hidrodinámica generalizada e, inclusive, a los tecnicismos generados en la teoría cuántica de los campos. Existen cuatro conceptos centrales en la descripción de los líquidos coloidales, estos son: (a) El concepto de potencial efectivo de interacción entre pares de partículas – a partir del cual se puede obtener todas las propiedades físicas en equilibrio–. (b) El concepto de funciones de correlación espacio-temporal –caracterizan los procesos de 3 Figura 1.1: Tres capas de partículas coloidales. La figura ilustra a uno de los sistemas estudiados en este trabajo. Las esferitas representan a los coloides. Los centros de las esferitas definen planos paralelos al plano xy. Los planos trazados en la figura son imaginarios y solamente funcionan como una guía para el ojo. relajación de las fluctuaciones en o fuera de equilibrio–. (c) El concepto de funciones de memoria –nos da información sobre la naturaleza de los procesos de relajación–. Y (d) la noción de experimento computacional, o simulación por computadora –que, entre otras cosas, nos permite verificar los modelos de interacción y las teorías–. En la medida en que fortalezcamos la estructura y productos que de estos conceptos emergen, seremos capaces de entender mejor a las dispersiones coloidales y en general a la materia blanda. Este trabajo es un estudio que involucra a todos estos conceptos, contribuyendo así con un granito de arena en la construcción de nuestro entendimiento de las propiedades de las suspensiones coloidales. Este trabajo se divide en dos partes. En la primera parte estudiamos el potencial efectivo entre coloides dispersos en capas planas paralelas. Nuestro sistema de capas planas se compone de partículas brownianas de Yukawa que constituyen sistemas bidimensionales planos. Consideraremos dos y tres sistemas bidimensionales paralelos entre sí, y a la vez paralelos al plano xy. A cada sistema bidimensional le llamamos una capa. Las partículas estarán restringidas a moverse solamente sobre su plano, esto es, no se estudiará el efecto de transferencia de partículas entre las capas. Cada capa, aparte de las propiedades intrínsecas de sus coloides, se caracteriza por la coordenada z que etiqueta a los planos. La figura 1.1 ilustra a un sistema de tres capas. Mostraremos que la distancia entre las capas es un parámetro que nos permite controlar la estructura y, por ende, los potenciales efectivos, de una forma muy simple y eficaz. También mostraremos cómo es que las escalas de longitud características se mezclan para dictar el comportamiento del potencial efectivo. El interés subyacente a un sistema modelo de este tipo radica en el concepto de control coloidal. Las investigaciones sobre los sistemas coloidales en distintas etapas del siglo pasado hicieron posible un entendimiento casi completo de las propiedades mesoestructurales, no dependientes del tiempo, de las suspensiones coloidales abiertas en 4 Capítulo 1. Introducción cualquier dimensión, es decir, de las suspensiones coloidales en dónde los efectos de frontera son mínimos. No obstante, los procesos inherentes a la evolución temporal de la meso-estructura, aún de sistemas abiertos, no se entienden del todo. Desde hace unos veinte años ha surgido el interés por el estudio de suspensiones coloidales en donde el confinamiento de la suspensión es determinante en sus propiedades. Este aspecto del área de los coloides está en desarrollo. Otro aspecto íntimamente relacionado con el confinamiento es el concepto de control coloidal. Como toda materia blanda, es relativamente fácil manipular un sistema coloidal. Por ejemplo, si agregamos gradualmente sal a una suspensión de esferitas de poli-estireno, podemos llevar a la suspensión de un estado líquido coloidal hasta un estado de segregación de las esferitas a medida que la cantidad de sal aumenta. Inclusive esa segregación se puede evitar si vestimos a los coloides con algún polímero. Otro ejemplo de manipulación coloidal se presenta en los sistemas coloidales confinados entre dos placas. En este caso la dispersión coloidal puede presentar distintas fases, dependiendo de la separación entre las placas. Y así, existen muchos otros mecanismos de manipulación coloidal. Una vez que hemos aprendido a manipular los coloides, surge la inquietud de controlarlos, esto es, ejercer una manipulación precisa de los mismos, de la manera más eficaz que podamos. Otro de los objetivos de este trabajo es ilustrar que el sistema de capas es un modelo teórico muy eficaz para el control coloidal. En la segunda parte estudiamos sistemáticamente la dependencia espacio-temporal de las funciones de memoria de la difusión colectiva de sistemas bidimensionales, y de dos capas, compuestos de partículas de Yukawa. En este estudio desarrollamos un método nuevo para obtener funciones de memoria. El método es numérica y matemáticamente trivial. No obstante, los resultados revelan modelos matemáticos para las funciones de memoria que nunca antes se habían considerado. Mostraremos que los nuevos modelos matemáticos para la función de memoria que obtuvimos en este trabajo son muy generales, en cuanto a su aplicabilidad en una gama amplia de condiciones. La importancia de las funciones de memoria radica en el hecho de que nos dan información sobre la naturaleza del proceso de relajación de las funciones de autocorrelación y, por su parte, las funciones de autocorrelación nos permiten obtener las propiedades de transporte de los sistemas. Inclusive, la función de memoria puede interpretarse como una función de autocorrelación de un tensor de esfuerzos generalizado. Este reporte consta de 8 capítulos. En el capítulo siguiente precisamos las ideas generales y el contexto de este trabajo. Nuestro propósito en ese capítulo es transmitir los objetivos de este trabajo en una forma concreta para alguien que domina estos temas. Los dos capítulos que le siguen proporcionan el marco teórico y los estudios previos, particularmente sobre los efectos de memoria, para alguien que no esté muy familiarizado con estos temas. El capítulo 3 está dedicado a la revisión del marco teórico base de este trabajo, así como a la definición y explicación de los conceptos necesarios para interpretar nuestros resultados. El capitulo 4 es una revisión y discusión de los estudios previos sobre funciones de memoria. El capítulo 5 contiene la descripción de la estructura de los coloides en capas planas y funciona como un capítulo auxiliar al capítulo 6. En mi trabajo de 5 maestría [1] habíamos estudiado a este tipo de sistemas. La intención de este capítulo no es repetir aquellos resultados, de hecho, muchos de los resultados en este capítulo no están contenidos en [1] y reflejan nuestro mejor entendimiento de este tipo de sistemas. El capítulo 6 presenta los resultados sobre los potenciales efectivos, mientras que el capítulo 7 presenta nuestro estudio de las funciones de memoria. Finalizaremos este reporte con un capítulo de conclusiones y de perspectivas de trabajo. 6 Capítulo 1. Introducción 2 Generalidades Hay pintores quienes transforman al sol en una mancha amarilla, hay otros quienes con la ayuda de su arte y su inteligencia transforman a una mancha amarilla en el sol. Pablo Picaso. En muchos aspectos el trabajo de un físico de la materia blanda se asemeja al del pintor. Debemos tener la visión para identificar las variables determinantes en el comportamiento de los sistemas blandos, en escalas de espacio y tiempo definidas, y en base a ello desarrollar un modelo teórico que trate de representar lo más fielmente posible al sistema real. A menudo sucede que nuestros modelos son como la mancha que representa al sol con todas sus tormentas dinámicas caprichosas. Otras veces se proponen modelos teóricos y a la larga surgen problemas reales para los cuales el modelo es aplicable. Este trabajo pertenece a esta segunda clase, pues sabemos bien que hay muchos sistemas que presentan estructuramiento en forma de capas, pero nuestro sistema no es un modelo directo de alguno de esos sistemas. No obstante, aprenderemos mucho de este modelo sencillo. El objetivo de este pequeño capítulo es introducir de forma general el contexto dentro del cual se desarrolla este trabajo. De esta manera hacemos una conexión directa hasta la parte de los resultados de este trabajo que comprende los capítulos 5, 6 y 7. No obstante, los dos capítulos que siguen detallan el esquema teórico y conceptual, así como los estudios previos en la dirección de nuestro trabajo. 2.1. Dispersiones coloidales El dominio coloidal [2, 3, 4] es un subdominio de la materia blanda1 [5, 6, 7, 8]. En general, se dice que un material es blando cuando presenta alguna de las siguientes características inter-relacionadas: Los materiales blandos poseen propiedades reológicas intermedias entre las de un sólido cristalino y las de un líquido molecular. Esto se relaciona con el hecho de que la materia blanda posee una densidad atómica y una conectividad más baja que la materia sólida. 1 Los estadounidenses usan el nombre fluidos complejos para la materia blanda. Aunque no todos los materiales blandos son fluidos, este nombre resalta el hecho de que los materiales blandos son complejos. Esto implica que la descripción de los materiales blandos usualmente aglutina a muchas áreas del conocimiento humano. 7 8 Capítulo 2. Generalidades Figura 2.1: Coloides en caricatura. Ilustración del entorno de una partícula coloidal rodeada de muchas otras partículas coloidales más pequeñas. El solvente se ilustra como el fondo rugoso. Los símbolos + y - representan a los iones libres. Los iones libres provienen de la disolución de una sal en el solvente y de los radicales que se disocian de los coloides. Los constituyentes de los materiales blandos pueden interaccionar no covalentemente. Por ejemplo, los objetos que constituyen a un material blando pueden presentar interacciones de Coulomb, de Yukawa, de enlaces de hidrógeno, etc. La entropía es un factor determinante de las propiedades de los materiales blandos. Los materiales blandos poseen la cualidad de auto-organización, uno de los eslabones del origen de las estructuras de los seres vivos. Las funciones de respuesta (susceptibilidades) de los materiales blandos son enormes y usualmente bien comportadas. Esto significa que bajo fuerzas generalizadas muy tenues, los materiales blandos pueden sufrir cambios muy drásticos en sus propiedades macroscópicas. Por otra parte, esto también significa que los materiales blandos son flexibles, esto es, que aceptan factores de compresión muy elevados (pueden deformarse mucho sin fracturarse), aunque soportan menos esfuerzos. La estructura de un material blando puede ser manipulada y a veces hasta controlada por medios químicos, electroquímicos, mecánicos, etc., de una manera relativamente simple. Importante mencionar aquí que la estructura de los materiales blandos fluctúa aleatoriamente de forma incesante por efecto de las fluctuaciones térmicas. Por ello, cuando se habla de estructura de un material blando, uno se refiere a la estructura promedio. La estructura promedio dicta las propiedades macroscópicas del material en equilibrio termodinámico. Algunos materiales blandos presentan la propiedad de simetría bajo magnificaciones. Esto significa que una sección de caminata aleatoria, que al menos abarca un recorrido igual a la longitud de persistencia, se ve igual cuando se magnifica. Esta simetría se caracteriza a través del decaimiento de la densidad de pasos con la distancia. El exponente de decaimiento se llama el exponente de escalamiento del sistema. El dominio coloidal manifiesta la coexistencia de las fluctuaciones térmicas con las constricciones características del estado sólido. Otros ejemplos de materia blanda son los complejos poliméricos, las micro-emulsiones, las espumas y los cristales líquidos. En este trabajo nos interesan las suspensiones coloidales. 2.2. Potenciales efectivos y funciones de memoria 9 Una suspensión coloidal es un fluido cuyas partículas2 se constituyen de grupos enormes de moléculas ligadas, como en los sólidos3 . Los grupos se encuentran inmersos en un líquido molecular. Los grupos son lo suficientemente grandes como para formar una fase distinta a la del líquido y, a la vez, lo suficientemente pequeños como para que las fluctuaciones térmicas sean relevantes en su descripción. A los grupos se les llama coloides o partícula coloidal. Los coloides son las partículas que constituyen al soluto en una suspensión coloidal. El solvente de la suspensión es un liquido molecular. Las dimensiones lineales de un coloide van desde los nanómetros hasta los micrómetros. En cambio, las dimensiones lineales de los sistemas atómicos y moleculares son del orden de unos cuantos Å. La figura 2.1 ilustra el concepto de partícula coloidal. 2.2. Potenciales efectivos y funciones de memoria Imaginemos que un elemento de una suspensión coloidal, ya sea una molécula del solvente o bien un coloide, experimenta un pequeño desbalance de fuerzas que lo lleva a una velocidad distinta a la velocidad promedio en equilibrio térmico de acuerdo a la estadística de Boltzmann –en equilibrio térmico, estos desbalances son muy frecuentes y se denominan fluctuaciones térmicas–. El tiempo que le toma a un coloide alcanzar la velocidad de equilibrio térmico es, al menos, tres ordenes de magnitud mayor que el tiempo que le toma a la molécula –el proceso durante el cual los objetos alcanzan la velocidad de equilibrio se llama relajación de la velocidad–. El coloide relaja su velocidad mucho más lentamente que la molécula y eso permite que sea mucho más fácil rastrear experimentalmente la dinámica de los coloides que la dinámica de las moléculas en una suspensión coloidal. A las posiciones y momentos de los coloides les llamaremos los grados de libertad mesoscópicos, mientras que las posiciones y momentos de las moléculas del solvente se denominarán los grados de libertad microscópicos. Se dice que dentro de una suspensión coloidal existen grados de libertad rápidos y grados de libertad lentos. Los grados de libertad microscópicos son los rápidos y los grados de libertad mesoscópicos son los lentos. Esto es, los grados de libertad rápidos se asocian a las moléculas y los grados de libertad lentos se asocian a los coloides. Gracias a esta separación de escalas entre los coloides y las moléculas, podemos construir descripciones de la dinámica de las suspensiones coloidales en las cuales solamente intervengan los grados de libertad mesoscópicos. Este tipo de dinámicas se llaman dinámicas disipativas. Si los grados de libertad que se consideran son la posición y la 2 Partícula se define como un objeto puntual sin estructura. Sin embargo, aun cuando sabemos que es incorrecto se tiene la costumbre de usar este término para referirnos a objetos con estructura. Por ejemplo, se habla de las partículas coloidales, y ¡por supuesto que las partículas coloidales tienen estructura! Anticipando, también es costumbre usar la terminología potencial efectivo en lugar del término energía potencial efectiva que es lo correcto. 3 También existe el término coloides suaves (soft colloids). En los coloides suaves las ligaduras son menos rígidas que las de un sólido. Un ejemplo de coloide suave es una micela. 10 Capítulo 2. Generalidades velocidad de los coloides, entonces se dice que se trabaja en una dinámica de FokkerPlanck. Si solamente se consideran las posiciones, entonces se dice que se trabaja en una dinámica de Smoluchowski [14]. Nosotros trabajamos con la dinámica de Smoluchowski de sistemas en equilibrio térmico. Cualquier observable de un sistema coloidal que sea función de los grados de libertad micro y mesoscópicos es denominado variable dinámica o función del sistema. Las fluctuaciones térmicas en los grados de libertad mesoscópicos se transmiten a las variables dinámicas. De esta manera, las variables dinámicas son cantidades fluctuantes alrededor de un valor promedio de equilibrio. Uno se puede preguntar ¿cómo es el proceso de relajación de las variables dinámicas? y ¿qué conclusiones acerca de la naturaleza del sistema podemos obtener de esta información? Para responder estas preguntas podemos elegir muchas rutas. Una posibilidad es estudiar la dependencia temporal de la variable dinámica. Otra ruta es estudiar la dependencia temporal de la función de auto-correlación de la variable dinámica. La segunda ruta ha resultado muy fructífera y se le llama el formalismo de las funciones de correlación espacio-temporales [9]. Las funciones de correlación espacio-temporales juegan un papel muy importante en la descripción de las propiedades dependientes del tiempo de la materia blanda. Todos los coeficientes de transporte pueden escribirse en términos de las funciones de correlación espacio-temporales y, bajo ciertas circunstancias, su perfil espacial en el instante inicial nos permite obtener todas las propiedades termodinámicas en equilibrio [9, 12]. En la dinámica de Smoluchowski, la función de correlación espacio-temporal natural para describir las propiedades dependientes del tiempo de una suspensión coloidal en equilibrio, o cerca de equilibrio, es la función de auto-correlación de la densidad local de partículas. A esta función se le conoce como la función de van Hoove G(r, t) [15]. El perfil inicial de la función de van Hoove, g(r) ≡ G(r, t = 0) r 6= 0, llamada función de distribución radial, su transformación de Fourier espacial F (k, t), llamada función intermedia de dispersión y el factor de estructura estática S(k) ≡ F (k, t = 0)4 son algunas funciones de correlación que se usan frecuentemente y son referidas como las funciones de correlación de las fluctuaciones en la densidad. Idealmente, en la mecánica clásica –así como en la mecánica cuántica– aprendemos que la energía potencial de interacción entre pares de partículas, junto con las condiciones iniciales y de frontera, son suficientes para elaborar una descripción completa de propiedades físicas de cualquier sistema en escalas de espacio y tiempo microscópicas, esto es, al nivel de átomos o moléculas. Para describir un sistema clásico simplemente tenemos que resolver su ecuación de Liouville, su ecuación de eigen-valores asociada, o cualesquier otra ecuación de movimiento de los grados de libertad microscópicos. Para un sistema líquido, aún siendo el más simple, esto sería una tarea inimaginablemente 4 En la literatura a la transformación de Fourier espacial de G(r, t) se le suele llamar indistintamente como función intermedia de dispersión, denotándola como F (k, t), o bien como factor de estructura dinámica, denotándola como S(k, t). También (en la literatura de los líquidos simples e iónicos) a la transformación de Fourier doble espacio-temporal de G se le suele llamar factor de estructura dinámica y denotar por S(k, ω), con ω la frecuencia. En este trabajo usaremos la letra F para denotar a la función intermedia de dispersión y la S para denotar el factor de estructura estática, evitando el inconveniente de usar la misma letra para dos objetos distintos. 2.2. Potenciales efectivos y funciones de memoria 11 tediosa, tal vez imposible. Sin embargo, aún cuando fuera posible, no sería útil si no contamos con un esquema apropiado que nos permita interpretar los resultados en las escalas mesoscópicas y/o en las macroscópicas. Por lo tanto, resulta imperante pensar que es necesario plantear las ecuaciones que dictan el comportamiento de las variables dinámicas en la escala mesoscópica o la macroscópica, resolverlas y estudiar las soluciones en condiciones arbitrarias. El movimiento browniano es un ejemplo notable de descripción en escala mesoscópica5 –esta descripción nos proporciona conclusiones notables acerca de la naturaleza, sin considerar explícitamente los detalles microscópicos–. Los trabajos realizados por Brown, Einstein, Langevin, Lorentz, Perrin y Smoluchowski fincaron la base de la descripción fenomenológica del movimiento browniano y otros procesos estocásticos relacionados. Su trabajo mostró la existencia de los átomos mediante su manifestación en la mesoescala, la cual se refleja como el movimiento errático de las partículas brownianas –en analogía a la difusión del calor y dado que se gobiernan por ecuaciones similares a el movimiento errático se le llamó la difusión de la partícula browniana6 –. Otros conceptos han surgido en el desarrollo de la física que no son obvios a partir de los detalles moleculares, un ejemplo representativo es el concepto de irreversibilidad. Describir un sistema usando escalas de espacio y tiempo mesoscópicas, como se hace en la física de coloides y en muchos otros aspectos de la física de la materia blanda, conlleva a que los potenciales de interacción entre pares de macro-partículas, llamados potenciales efectivos, no sean suficientes para realizar la descripción completa de las propiedades dependientes del tiempo. Esto se debe a el hecho de que los potenciales efectivos solamente contienen información promedio-configuracional de las macro-partículas, de su constitución y de su distribución espacial. La información concerniente al solvente queda reducida a algunos parámetros independientes del tiempo. Para tomar en cuenta efectos de acoplamiento entre la dinámica del solvente –la dinámica rápida del sistema – y la dinámica del soluto –la dinámica lenta del sistema– se introduce el concepto de función de memoria. De esta manera, en una descripción mesoscópica completa, aparte del potencial efectivo, se requiere conocer la función de memoria del sistema. La función de memoria es el remanente de las fuerzas estocásticas asociadas al solvente. Más aún, la función de memoria no solamente describe el acoplamiento con el solvente, también describe por qué el decaimiento de las fluctuaciones no es una simple exponencial, pues captura los efectos de las interacciones derivables de un potencial, así como el de las interacciones hidrodinámicas. El origen físico del efecto de memoria puede interpretarse como el efecto del encajonamiento dinámico que las partículas ejercen entre sí, el cual 5 En inglés el término “coarse-grained description” se refiere a una descripción de las propiedades de un sistema que no contiene explícitamente algunos detalles (como por ejemplo, la existencia de moléculas de agua en una suspensión acuosa), sino implícitamente a través de algunos parámetros (como por ejemplo, la constante dieléctrica en las suspensiones acuosas). Usualmente una coarsegrained description es necesaria en el nivel mesoscópico de descripción, de esta manera, usaremos en español “descripción mesoscópica” para traducir al español éste término anglosajón. 6 Por ejemplo, ahora hablamos del transporte difusivo, el cual surge de las fluctuaciones térmicas, para distinguirlo del transporte dirigido, el cual es inducido por un campo externo o por las condiciones de frontera. 12 Capítulo 2. Generalidades a su vez, es determinante en el movimiento colectivo y de una partícula. En el transcurso del desarrollo de la dinámica disipativa han emergido expresiones matemáticas exactas para las funciones de memoria. Usualmente, dichas expresiones nos indican que debemos calcular alguna función de auto-correlación de todas las variables rápidas del sistema, esto es, de las variables que no entran explícitamente en la dinámica disipativa. Esto equivale a resolver la ecuación de Liouville y por lo tanto no es conveniente. Lo que se hace para salvar esta dificultad es estudiar las propiedades generales que una función de memoria debe cumplir y, en base a ello, se proponen expresiones matemáticas que sean capaces de modelarla en condiciones específicas. Así, han surgido los modelos de decaimiento exponencial, de uno o dos tiempos de relajación, los modelos Gaussianos y las descomposiciones espectrales. También se han formulado esquemas teóricos como la teoría de modos acoplados, la reducción de la descripción en la jerarquía de ecuaciones de Langevin generalizadas, las teorías cinéticas y más recientemente las expansiones diagramáticas de las funciones de correlación espacio-temporales. Estos modelos y esquemas teóricos son muy buenas aproximaciones bajo ciertas circunstancias. Sin embargo, existen muy pocos estudios que se enfocan en la función de memoria como un objeto de interés por sí mismo. En este trabajo presentamos los resultados de un estudio sistemático, mediante simulaciones de dinámica Browniana, de los potenciales efectivos del sistema de capas paralelas ilustrado en la figura 1.1, en donde cada capa, aparte de las propiedades intrínsecas de sus coloides, se caracteriza por la coordenada z que etiqueta a los planos. Mostraremos que la distancia entre las capas es un parámetro que nos permite controlar la estructura y, por ende, los potenciales efectivos, de una forma muy simple y eficaz. El cálculo de los potenciales efectivos se efectúa dentro del formalismo de contracción de la descripción, en el marco de la teoría de ecuaciones integrales de Orstein y Zernike. En cuanto a las funciones de memoria, se presenta un estudio sistemático de la memoria colectiva en la dinámica de Smoluchowski de sistemas bidimensionales de partículas brownianas de Yukawa. El estudio se basa en la inversión numérica de la ecuación de memoria. De forma natural emergerán dos modelos para los efectos de memoria. Estos son el modelo lorentziano y el modelo hipergeométrico de Gauss, como una extensión del lorentziano a un espectro infinito de tiempos de relajación. Dado que el modelo lorentziano de varios tiempos de relajación surge de forma natural, es decir, no se supone ad hoc, concluiremos que es un modelo que debe tomarse como otro candidato serio para estudiar los efectos, así como la naturaleza de las funciones de memoria colectivas. Las propiedades de analiticidad del modelo, así como su justificación rigurosa dentro de un esquema teórico se, dejarán como potenciales perspectivas de trabajo. Los dos capítulos que siguen presentan una revisión teórica de los conceptos y estudios previos, dentro de los cuales este trabajo se desarrolla. La intención es poner sobre bases firmes la relevancia de este trabajo. Por lo tanto, alguien versado en estos temas puede pasar directamente al capítulo 5. 3 Marco teórico y conceptual El objetivo de este capítulo es presentar la teoría y los conceptos necesarios para hacer este trabajo autocontenido. Empezamos proporcionando el formalismo de ecuaciones integrales de Orstein y Zernike que usamos en este trabajo para calcular los potenciales efectivos. En este aspecto mencionamos un resumen de algunas investigaciones –relevantes para este trabajo– sobre potenciales efectivos1 . Temas muy importantes y muy activos como las técnicas de los Hamiltonianos efectivos [16] y la teoría de PoissonBoltzmann [17] para el cálculo de los potenciales efectivos no se contemplan en esta revisión. Posteriormente, precisaremos los conceptos y el esquema teórico que empleamos para describir la estructura dinámica de las suspensiones coloidales. En este aspecto, no revisaremos el formalismo de la teoría cinética y las novedosas técnicas diagramáticas. En cambio, nos enfocaremos en el formalismo de las funciones de correlación espacio-temporales, desde el punto de vista puramente microscópico del formalismo de operadores de proyección de Mori-Zwanzig-Kawasaki [46, 47], contemplando desde la dinámica de Liouville, pasando por la de Fokker-Planck y hasta la de Smoluchowski, que es la que concierne a este trabajo. Reservaremos el capítulo que sigue para reportar nuestras investigaciones sobre los estudios previos sobre los efectos de memoria. Reservamos un capítulo entero porque en este aspecto pretendemos ser exhaustivos, ya que hemos obtenido resultados nunca antes reportados. 3.1. Potenciales efectivos El marco teórico que usamos en este trabajo para calcular los potenciales efectivos es la teoría de ecuaciones integrales de los líquidos simples. Esta teoría consiste en la ecuación integral de Orstein y Zernike y en un conjunto versátil de relaciones de cerradura. Este esquema teórico es complementado con la noción de función de correlación directa efectiva y con la generalización de contracción de la descripción a las relaciones de cerradura. Antes de explicar el método para calcular los potenciales efectivos, introduciremos éste marco teórico. En la descripción de los líquidos coloidales a menudo se habla de tres tipos de potenciales: Del conocido como potencial de interacción por pares, del potencial de fuerza media y del potencial efectivo. A continuación definimos a cada una de estas cantidades. 1 Como en este trabajo solamente estudiamos interacciones entre partículas, en lo sucesivo la frase “potencial efectivo de interacción entre pares de partículas” se contraerá simplemente a la frase “potencial efectivo”. 13 14 Capítulo 3. Marco teórico y conceptual Consideremos que tenemos un sistema coloidal que consiste solamente de dos coloides, el solvente y los iones libres. El potencial de interacción por pares describe el cambio en la energía libre de este sistema cuando los coloides experimentan un desplazamiento cuasiestático relativo. Ahora consideremos a dos coloides en una suspensión coloidal de muchos coloides y a la distribución de probabilidad de espacio fase en equilibrio. • El potencial de interacción que se obtiene al integrar la energía potencial total, pesada con la distribución de espacio fase, sobre los grados de libertad del solvente, los de los iones libres, los de todos los coloides distintos a los dos coloides bajo consideración y cuyo gradiente nos da la fuerza media entre los dos coloides, es proporcional al potencial de fuerza media [12]. El potencial de fuerza media describe el cambio en la energía libre de Helmoltz del sistema cuando los dos coloides tienen un desplazamiento relativo. • El potencial de interacción entre los dos coloides que se obtiene al integrar los grados de libertad del solvente, así como los grados de libertad de un subconjunto de coloides, es el potencial efectivo. El potencial efectivo contiene toda la información concerniente a las propiedades estructurales por pares del conjunto de coloides observados, sin considerar explícitamente los grados de libertad de los coloides integrados. El potencial por pares, el potencial de fuerza media y el potencial efectivo coinciden en el límite en que solamente hay dos coloides en el sistema. Una explicación más formal de estos conceptos puede hallarse en [13]. Antes de proporcionar el método de cálculo de los potenciales efectivos introduciremos la teoría de funciones de distribución en los líquidos. 3.1.1. Estructura estática de dispersiones coloidales 3.1.1.1. Potencial DLVO En este trabajo usaremos el potencial por pares de Yukawa: (3.1) u(rij ) = Ai Aj exp [−κrij ] , rij donde los subíndices significan que nos referimos a los coloides i y j, los cuales están separados por una distancia rij . Las Ai,j dependen de las propiedades intrínsecas de los coloides y del solvente, las llamaremos amplitudes de interacción. Si los coloides tienen diámetro σi,j y carga qi,j entonces (3.2) Ai,j = qi,j exp [κσi,j /2] . 1 + κσi,j /2 El parámetro κ está dado por: (3.3) κ2 = p 4π X nα qα2 . kB T α=1 3.1. Potenciales efectivos 15 Aquí es la constante dieléctrica del solvente, kB la constante de Boltzmann, T la temperatura, nα la densidad numérica de iones de la especie α y qα la carga electrónica de cada ion de la especie α –en el sistema existen p especies distintas de iones libres–. En la referencia [1] proporcionamos otros ejemplos de potenciales por pares. El potencial (3.1) con las expresiones (3.2) y (3.3) recibe el nombre de la parte repulsiva del potencial DLVO. DLVO es una abreviación que recuerda los nombres de cuatro personas que contribuyeron significantemente al estudio de la estabilidad de los coloides liofóbicos en la década de los 1940’s. Estas personas son los soviéticos Boris Derjaguin y Lev Landau, y los holandeses Ervert Verwey y Teo Overbeek [23]. La cantidad λD = κ−1 recibe el nombre de longitud de apantallamiento de Debye-Hückel. La longitud de apantallamiento de Debye-Hückel es una medida del alcance del potencial de Yukawa. El potencial de Yukawa es una aproximación excelente cuando σ < λD < d, en donde d es la distancia promedio entre coloides. La parte atractiva de los potenciales DLVO es la interacción de van der Waals. 3.1.1.2. Funciones de estructura estática Las funciones de distribución representan la configuración promedio de las partículas en un líquido. A esta distribución espacial promedio de partículas se le conoce como la estructura del líquido. Como los coloides viven en el reino mesoscópico –en donde las dimensiones lineales van desde los nanómetros hasta las micras– diremos que la distribución espacial promedio de los coloides en una dispersión coloidal define a la mesoestructura de la dispersión e, igualmente, el solvente define la microestructura. En adelante, al menos que se especifique lo contrario, cuando hablemos de la estructura de un líquido coloidal nos estaremos refiriendo a su mesoestructura. Aquí estamos interesados en las conocidas como funciones de distribución de dos puntos. Las funciones de distribución de dos puntos describen el grado de orden, que en promedio temporal, cada coloide “observa” en los demás coloides que lo rodean. Se dice que las funciones de distribución describen qué tan distinto es el líquido de un gas ideal. En los sistemas homogenéos, las funciones de distribución de dos puntos no dependen del origen, esto es, que cualquier coloide puede tomarse como referencia. Además, si el sistema es isotrópico, entonces el orden que cada coloide “ve” no depende de la dirección de observación. Por lo tanto, en los sistemas homogéneos e isotrópicos las funciones de distribución de dos puntos son funciones únicamente del radio-vector que une al origen con el punto de observación. En este trabajo nos ocuparemos, únicamente, de capas homogéneas e isotrópicas2 y las expresiones matemáticas que en adelante se proporcionan serán válidas únicamente para este tipo de sistemas. Existen varias expresiones equivalentes que definen a la función de distribución. Aquí daremos dos definiciones, una basada en un proceso operacional y otra que pone de manifiesto el hecho de que la función de distribución es una función de auto-correlación. 2 En los sistemas homogéneos e isotrópicos las funciones de distribución de dos puntos reciben el nombre de “funciones de distribución radiales”. Aquí usaremos simplemente el término “función de distribución” para significar que son de dos puntos y que son radiales. 16 Capítulo 3. Marco teórico y conceptual Figura 3.1: Interpretación (3.5) de la función de distribución de un líquido coloidal bidimensional. La figura es una “fotografía” de una capa de uno de los sistemas estudiados en este trabajo. El origen del sistema coordenado se toma en la posición instantánea de una partícula arbitraria. El radio vector r es el radio medio del anillo de longitud dr y área da. Dada la densidad numérica microscópica de partículas n, la g(r) nos proporciona el número promedio de partículas que caen dentro del anillo. Consideremos un líquido coloidal homogéneo en ν dimensiones (ν = 1, 2, 3). Supongamos que el volumen de la dispersión posee una dimensión lineal mínima de magnitud bl –en un volumen esférico, al igual que en una superficie circular, bl sería la longitud del diámetro, en un volumen cúbico bl sería la longitud de la arista, etc.–. Supongamos, además, que bl es mucho mayor que cualquier escala de longitud característica de la mesoestructura. Denotemos por dN al número de coloides, cuyo diámetro mínimo es σmin , y que están localizados dentro de un elemento de volumen dν r. Este elemento de volumen se encuentra centrado en la posición r y debe cumplir que (dν r)−1/ν < σmin ≤ dmin , en donde dmin es la menor de las escalas de longitud características de la mesoestructura. La función de distribución se define como (3.4) dN = ng(r)dν r, en donde n es la densidad numérica macroscópica de coloides –n es el límite termodinámico del cociente N/V , en el cual N es el número de coloides en la dispersión y V es el volumen del líquido coloidal. En el caso particular de un sistema bidimensional homogéneo (3.5) dN = ng(r)da, da = 2πrdr. La figura 3.1 muestra la fotografía a escala de una dispersión coloidal bi-dimensional. La fotografía corresponde a una de las capas que estudiamos en este trabajo. El tamaño de los círculos es, a escala, alrededor de 3/4 del tamaño original de los coloides. Los circulos se dibujan de ese tamaño porque así se ilustra mejor la formación de dímeros que discutiremos más adelante. En este sistema, la interacción entre pares de coloides presenta dos aspectos interesantes: Los coloides se repelen cuando están muy cercanos, pero experimentan atracciones y repulsiones en distancias intermedias. La figura 3.2 muestra la función de distribución correspondiente a la figura 3.1. Las funciones de distribución nos dan información de que tan aleatoria es, o no es, la distribución de partículas en el líquido coloidal. 3.1. Potenciales efectivos 17 Figura 3.2: Ejemplo de función de distribución. La figura ilustra la función de distribución del sistema en la figura 3.1. La escala σ es el diámetro de las partículas. Esta función nos dice que cada coloide ve con mucha frecuencia a otro coloide a una distancia 2σ respecto a él. Por otro lado, cuando ve a distancias muy lejanas, solamente ve una distribución homogénea de partículas pues en ese caso g(r) = 1. Sea {ri (t)}N i=1 el conjunto de vectores de posición de las partículas coloidales. La densidad local de partículas se define como el objeto: (3.6) n(r, t) = N X δ(r − ri (t)). i=1 Aquí δ(r) es la distribución delta de Dirac. La función de distribución se puede escribir como una función de autocorrelación. Primero, tenemos que si h· · · i denota un promedio en el ensemble entonces ! !+ ˆ * 1 1 0 0 √ n (r + r , t) √ n (r , t) d3 r0 = ng(r) + δ(r). (3.7) N N La δ(r) representa la correlación de una partícula consigo misma. En el lado derecho de esta expresión desaparece la dependencia temporal porque el sistema es estacionario3 . Identificando términos obtenemos (3.8) 1 ng(r) = N * N X + δ (r + rj (t) − ri (t)) , i 6= j. i,j=1 Una función de correlación relacionada con la g(r) es el factor de estructura estática S(k) = 1 + (2π)3 nδ(k) + nF [g(r) − 1] , el cual, siempre y cuando k 6= 0, se puede escribir como S(k) = 1 + nF [g(r) − 1] . 3 Funciones de autocorrelación como (3.7) se llaman funciones de correlación de tiempos iguales. Esto es porque los argumentos temporales de las cantidades correlacionadas son idénticos. El la sección 3.2.1 proporcionaremos la definición general de función de autocorrelación espacio-temporal, en las cuales los argumentos temporales de las cantidades correlacionadas, en general, son distintos. Con frecuencia, en la dinámica de sistemas de muchas partículas las funciones de correlación de tiempos iguales se toman como la condición inicial de las ecuaciones de movimiento de las funciones de autocorrelación espacio-temporales. 18 Capítulo 3. Marco teórico y conceptual Aquí, F denota la transformación espacial de Fourier. A la función h(r) = g(r) − 1, (3.9) se le conoce como la función de correlación total. En términos de la función de correlación total (3.10) S(k) = 1 + nh̃(k). El factor de estructura estática también se puede escribir como la función de autocorrelación de las componentes de Fourier de la densidad local de partículas n(k, t) = F [n(r, t)] = (3.11) N X exp [ik · ri (t)] , i=1 de la siguiente forma * (3.12) 3.1.1.3. S(k) = ! 1 √ n(−k, t) N !+ 1 √ n(k, t) N . Funciones de estructura estática en mezclas Consideremos un sistema de N coloides, de entre los cuales Nα coloides forman la especie α. Además, consideremos que hay p especies distintas en el sistema, de tal manera que P N = pα=1 Nα . Usando la notación xα = Nα /N y la posición del coloide i de la especie α como riα tenemos: La densidad local parcial (3.13) nα (r, t) = Nα X δ(r − riα (t)). iα =1 Las funciones de distribución parciales (3.14) dNβ = nβ gαβ (r)dν r, α, β = 1, 2, ..., p (3.15) * Nα ,Nβ + X 1 √ xα xβ ngαβ (r) = q δ r + rjβ (t) − riα (t) , Nα Nβ iα ,jβ =1 Las funciones de correlación parciales (3.16) hαβ (r) = gαβ (r) − 1. Las componentes de Fourier de las densidades parciales (3.17) nα (k, t) = Nα X iα =1 exp [ik · riα (t)] , iα 6= jα ∀ α. 3.1. Potenciales efectivos 19 Y los factores de estructura estática parciales (3.18) 1/2 Sαβ (k) = δαβ + xa1/2 xb nh̃αβ (k). * (3.19) Sαβ (k) = ! + 1 1 √ nα (−k, t) q nβ (−k, t) . Nα Nβ Ahora introduciremos un poco de notación matricial para simplificar la escritura de las ecuaciones subsecuentes. Las densidades locales parciales definen un vector p-dimensional {n1 , n2 , ..., np } (r, t) al cual denotaremos como n(r, t). En general, cualquier función de los grados de libertad microscópicos de un sistema de p componentes a, definirá un vector a(r ó k, t) tal que dim(a) = p. Las funciones de autocorrelación de tiempos iguales (pie de página 3 y sección 3.2.1) definen las matrices C(r ó k, t) = ha(r ó k, t)a(r ó k, t)i = (haα (r ó k, t)aβ (r ó k, t)i)p×p . En particular, en esta sección hemos definido a la matriz de las funciones de distribución parciales + * ˆ 0 0 3 0 nα (r + r , t + t0 ) nβ (r , t + t0 ) q √ gαβ (r, t) = d r Nα Nβ y a la matriz de factores de estructura estática parciales S = (Sαβ )p×p . 3.1.1.4. Función de correlación directa y función puente Sea uαβ (r) el potencial de interacción entre coloides de las especies α y β. En el límite de dilución infinita (3.20) gαβ (r)|n→0 → exp [−uαβ (r)/kB T ] . En el caso de una concentración finita (3.21) gαβ (r) = exp [−uαβ (r)/kB T + hαβ (r) − cαβ (r) + bαβ (r)] , donde c y b se conocen como la función de correlación directa y la función puente, respectivamente. Una vez que la función de correlación directa se ha definido, la ecuación (3.21) puede considerase como una definición para la función puente. En adelante, a la ecuación (3.21) la llamaremos definición de función puente. La función de correlación directa se puede definir de dos formas superficialmente distintas, pero que en el fondo significan lo mismo. Por una parte, es una medida de la respuesta de las variaciones en la energía libre cuando la densidad local varía, esto es, la correlación directa es la derivada funcional de dos puntos de la energía libre. Otra definición, la que usaremos en este trabajo, es a través de la ecuación de Orstein y Zernike (OZ, Orstein y Zernike 1914 [19]). La ecuación de OZ de una mezcla de partículas coloidales es una relación entre la hαβ y las cαβ ’s, que para sistemas homogéneos e isotrópicos se reduce a ˆ X (3.22) hαβ (r) = cαβ (r) + cαγ (|r − r0 |)nγ hγβ (r0 )d3 r0 . γ 20 Capítulo 3. Marco teórico y conceptual Esta ecuación nos dice que las correlaciones se propagan a través de las funciones de correlación directa. En forma matricial ˆ (3.23) H(r) = C(r) + C(|r − r0 |)RH(r0 )d3 r0 , en donde H (r) = (hαβ (r))p×p , C (r) = (cαβ (r))p×p y R = (δαβ nβ )p×p , con nα = hnα (r, t)i en donde la densidad local está dada por la ecuación (5.11). La ecuación de OZ, junto con la ecuación (3.21), forman un sistema de ecuaciones cerrado si contamos con una expresión analítica para la función puente. Aparte de las expansiones diagramáticas -que se vuelven muy complejas más allá del primer término-, no contamos con un método estándar que nos permita obtener expresiones analíticas para la función puente. Lo que se hace para que (3.21) y (3.22) formen un sistema cerrado es proponer modelos matemáticos para la función puente. Entonces se dice que la ecuación (3.21) es la relación de cerradura de la ecuación de OZ. La aproximación más simple (3.24) bαβ (r) = 0, se conoce como la aproximación de la cadena hipertejida y se denota usando sus siglas en inglés HNC(hyper-netted-chain) [24, 25, 26]. El término cadena hipertejida se refiere a la arquitectura de los términos en las expansiones diagramáticas de las funciones de distribución. En este trabajo hacemos comparaciones entre la estructura del sistema de dos capas que se obtiene al resolver OZ con HNC, con la que se obtiene mediante simulaciones de dinámica browniana (BD, por sus siglas en ingleś). Se ha mostrado que en líquidos de coloides cargados eléctricamente HNC da excelentes resultados cualitativos. Sin embargo, cuantitativamente HNC produce funciones de distribución más difusas –con máximos y mínimos menos pronunciados– que las distribuciones exactas [27]. Otras relaciones de cerradura son la cerradura de Percus y Yevick (PY) [28] y la aproximación esférica media (MSA ó MSM por sus siglas en inglés) [29]. Existen fórmulas que expresan a las cantidades termodinámicas en términos de las funciones de distribución. Al usar estas formulas surge el problema de que el valor de una cantidad termodinámica, que se obtiene usando una cerradura determinada, es distinto del que se obtiene usando otra cerradura. Existe una relación de cerradura –la cerradura de Rogers y Young (RY)– que mezcla a PY y HNC a través de un parámetro. El valor del parámetro puede obtenerse exigiendo que la compresibilidad isotérmica que se obtiene a través de la ecuación de compresibilidad sea igual a la que se obtiene a partir de la definición termodinámica de compresibilidad isotérmica, en cuya definición la presión se obtiene usando la función de distribución. Las relaciones de cerradura análogas a la de RY se llaman cerraduras de consistencia termodinámica parcial. Otras relaciones de cerradura, conocidas como cerraduras de referencia [30, 31], se obtienen al separar el potencial por pares en una parte de referencia y en una perturbación. En este trabajo comentaremos sobre algunos aspectos de la cerradura de referencia de HNC (RHNC, por reference HNC) (3.25) cαβ = g (0) exp [∆γαβ − ∆uαβ ] − γαβ − 1. 3.1. Potenciales efectivos 21 Aquí γ = h − c, y el superíndice 0 denota cantidades del sistema de referencia y ∆uαβ es la perturbación. 3.1.2. Función de correlación directa efectiva Consideremos un líquido coloidal consistente de p componentes que incluyen: 1. pm especies microscópicas –moléculas del solvente y iones en solución–, cuya microestructura identificaremos con cαβ y hαβ , α, β= 1, 2, ..., pm 2. pM especies mesoscópicas –coloides–, cuya mesoestructura identificaremos con cαβ y hαβ , α, β= pm + 1, pm + 2, ..., p = pm + pM . En el espacio de Fourier la ecuación matricial de OZ es: H̃(k) = C̃(k) + C̃(k)RH̃(k), (3.26) donde la tilde representa la transformación de Fourier, H̃ = h̃αβ Definamos los proyectores (3.27) (3.28) p×p y C̃ = (c̃αβ )p×p . 4 ! Pm = 1pm ×pm 0pm ×pM 0pM ×pm 0pM ×pM ! PM = 0pm ×pm 0pm ×pM 0pM ×pm 1pM ×pM , . La ecuación de OZ se puede reescribir como un conjunto de cuatro ecuaciones matriciales en las distintas categorías de componentes –micro o mesoscópicas– usando (3.27 y 3.28), esto es, proyectando OZ. La proyección significa la aplicación de la transformación de similaridad a OZ entre pares de proyectores. Así, por ejemplo, la proyección de H̃ sobre Pm es H̃mm = Pm H̃Pm , mientras que entre Pm y PM es H̃mM = Pm H̃PM . De esta manera, tenemos que H̃mm = Pm H̃Pm = h̃αβ pm ×pm 0pM ×pm 0pm ×pM 0pM ×pM H̃M M = PM H̃PM 0pm ×pm 0pm ×pM = 0pM ×pm h̃αβ , , pM ×pM H̃mM = Pm H̃PM = 4 0pm ×pm h̃αβ pm ×pM 0pM ×pm 0pM ×pM , A excepción de las matrices y/o operadores de proyección que se escribirán en cursivas, todas las otras matrices se escribirán en negritas. 22 Capítulo 3. Marco teórico y conceptual y H̃M m 0pm ×pm = PM H̃Pm = h̃αβ pM ×pm 0pm ×pM , 0pM ×pM con expresiones similares para C̃ y R̃. Al aplicar todas las proyecciones posibles obtenemos que (3.29) H̃µν = C̃µν + C̃µm R̃mm H̃mν + C̃µM R̃M M H̃M ν , en donde µ, ν = m, M . Este conjunto de ecuaciones consiste de matrices p × p, por bloques, que contienen solamente a las correlaciones indicadas por los subíndices. La ecuación correspondiente a la meso-estructura (3.30) H̃M M = C̃M M + C̃M m R̃mm H̃mM + C̃M M R̃M M H̃M M , pone de manifiesto el hecho de que las correlaciones entre coloides se acoplan con las de las moléculas. Sin embargo, al combinar esta ecuación con la ecuación correspondiente a las correlaciones mM , podemos reescribirla como (3.31) f ef f H̃M M = C̃ef M M + C̃M M R̃M M H̃M , donde el superíndice ef f significa que se trata de una cantidad efectiva. La matriz de funciones de correlación directa efectivas está dada por (3.32) −1 f C̃ef Rmm C̃mM . M M = C̃M M + C̃M m [1 − Rmm Cmm ] La idea de función de correlación directa efectiva fue introducida, por primera vez y en la forma ilustrada anteriormente, por Adelman en 1976 [18]. En ese trabajo se estableció un marco teórico de funciones de correlación que describe las propiedades termodinámicas de las soluciones iónicas, sin tomar en cuenta de forma explicita al solvente. Los efectos del solvente se empaquetaron en la función de correlación directa efectiva y en los potenciales efectivos entre iones debidos a la presencia del solvente. Estas ideas recibieron un fundamento mecánico-estadístico gracias a los trabajos de McMillan y Mayer [32]. Al proceso de eliminar variables en la descripción de un fenómeno o propiedad física se le llama contracción, o reducción, de la descripción. De esta manera, la obtención de la función de correlación directa efectiva en la forma ilustrada anteriormente es una contracción de la descripción en el marco de la ecuación de OZ. A veces, cuando se contrae la descripción de algunos grados de libertad de un sistema, se dice que se integran dichos grados de libertad. Otros tipos de contracciones existen en los cuales se implican jerarquías de niveles de descripción. Ejemplos de este tipo de contracciones se presentan mucho en el estudio de la dinámica de las suspensiones coloidales. El paradigma de este tipo de contracciones se encuentra en el movimiento Browniano y un ejemplo es la teoría del la ecuación generalizada de Langevin [43]. En general, en casi todas las áreas de la física aplicamos 3.1. Potenciales efectivos 23 contracciones de la descripción cuando aplicamos modelos matemáticos para describir los procesos de la naturaleza. En el ejemplo de contracción de la descripción para obtener la correlación directa efectiva dado anteriormente, resulta que la “ecuación efectiva” es idéntica a la ecuación original. Esto podría establecerse como un ansatz, es decir, establecer la premisa de que las ecuaciones de la física, en cantidades medibles directamente, son invariantes bajo contracciones de la descripción. Sin embargo, hay que aclarar que para que esto sea posible, las ecuaciones originales no deben contener ningún tipo de aproximación inconsistente con su nivel de descripción. En efecto, la ecuación de OZ es una ecuación exacta, la razón es que sólo es una definición para la propagación de las correlaciones al nivel de pares de partículas. De esta manera, si planteamos una ecuación equivalente a nivel de tercias –esto es, en funciones de correlación de 3 puntos o partículas– y aplicamos una aproximación –tipo Kirkwood, por ejemplo– para convertirla en una a nivel de pares, la ecuación por pares aproximada no sería invariante bajo contracciones de la descripción. Las palabras aquí vertidas tienen su origen después de unos cálculos que realizamos con la intención de contraer la descripción en el segundo nivel en la jerarquía BBGKY [10], usando aproximaciones de Kirkwood, y por otro lado, al reducir la descripción en la ecuación de memoria de las mezclas, en una formal similar a la ilustrada aquí para la ecuación de OZ. En este segundo caso, la contracción debe aplicarse a la ecuación de Langevin generalizada y reinterpretar al teorema de fluctuación disipación en la descripción reducida, en una filosofía muy similar al trabajo de Medina-Noyola en su reducción de la descripción de jerarquías de ecuaciones de Langevin [43, 92, 95, 91]. 3.1.3. Potenciales efectivos como una contracción de la descripción En la discusión anterior consideramos explícitamente a las correlaciones, con y del solvente, de una dispersión coloidal. Esto simplemente fue a manera de ilustración y para recordar los orígenes del concepto de correlación directa efectiva. Sin embargo, como subrayamos anteriormente, aquí solamente nos enfocaremos en la mesoestructura, almacenando los efectos microscópicos en el potencial por pares. La contracción de la descripción en este trabajo se refiere a la integración de los grados de libertad de un subconjunto de coloides de la dispersión que, por ejemplo, en un experimento podrían ser unos coloides que no pueden ser observados, pero que sin embargo influyen en la estructura de los coloides observados. Siguiendo esta terminología experimental, en lo sucesivo las correlaciones contraídas se etiquetarán con una U (unobserved), mientras que las correlaciones explícitas se etiquetarán con una O (observed). Supongamos que existe un potencial efectivo entre los coloides observados, el cual conf tiene los efectos de los no observados uef αβ (r). Podemos generalizar la definición (3.21) y establecer la definición de función puente efectiva, en términos del potencial efectivo, y de la función de correlación directa efectiva (3.33) 1 ef f f ef f ef f uαβ (r) = (gαβ (r) − 1) − cef αβ (r) − ln [gαβ (r)] + bαβ (uαβ ; r). kB T 24 Capítulo 3. Marco teórico y conceptual Los subíndices corren sobre las especies de coloides observados. Identificaremos a los coloides observados con los subíndices α, β = 1, 2, · · · , pO y a los no observados con α, β = pO + 1, pO + 2, · · · , p = pO + pU . Notemos que las gαβ ’s son invariantes bajo las ef f contracciones de la descripción, es decir gαβ = g αβ . Esto es porque la mesoestructura de los coloides observados no depende del método experimental usado para obtener dicha estructura Definiendo la matriz de los potenciales efectivos f Uef OO (r) = f uef αβ (r) pO ×pO 0pU ×pO 0pO ×pU 0pU ×pU , el bloque de las g’s observadas GOO (r) = (gαβ (r))pO ×pO 0p0 ×pU , 0pU ×pO 0pU ×pU el de las b’s efectivas f Bef OO (r) = ef f f bef αβ (uαβ ; r) pO ×pO 0pU ×pO 0p0 ×pU 0pU ×pU y a la matriz de logaritmos de las g’s observadas (ln [gαβ (r)])pO ×pO 0p0 ×pU G0OO (r) = 0pU ×pO 0pU ×pU podemos escribir (3.34) 1 ef f f Uef f (r) = (GOO (r) − 1) − COO (r) − G0OO (r) + Bef OO (UOO (r); r). kB T OO Además, originalmente teniamos que (3.35) 1 U(r) = (G(r) − 1) − C(r) − G0 (r) + B(U(r), r). kB T Combinando estas ecuaciones se obtiene que 1 ef f f ef f 0 0 (G UOO − U = (GOO − G) − Cef − C − (r) − G (r)) + B − B . OO OO OO kB T Proyectando está relación al bloque de las cantidades observadas obtenemos que (3.36) 1 ef f f ef f UOO − UOO = − Cef − C + B − B . OO OO OO OO kB T 3.2. Funciones de memoria 25 Esta expresión complementada con −1 f C̃ef RU U C̃U O , OO − C̃OO = C̃OU [1 − RU U CU U ] f y con una aproximación para Bef OO − BOO nos permite obtener el potencial efectivo. La aproximación que usamos en este trabajo es (3.37) f Bef OO − BOO = 0. El afirmar que las funciones puente son invariantes bajo contracciones de la descripción es algo que parece no tener sentido. Sin embargo, estas aproximaciones han sido usadas exitosamente por Méndez-Alcaraz y Castañeda-Priego en el contexto de las fuerzas entrópicas [37]. Parece ser que Medina-Noyola y McQuarrie fueron los primeros autores que aplicaron una contracción de la descripción, en el marco de la ecuación de OZ y con la meta de obtener un potencial efectivo entre dos coloides [33]. No obstante, en ese trabajo no hacen alusión explícita al concepto de correlación directa efectiva y al parecer el esquema anterior lo aplicaron de forma implícita. Estos investigadores contrajeron la descripción de los iones en un sistema de dos coloides. En su trabajo encontraron que el potencial de Yukawa se obtiene automáticamente al considerar las expresiones de Debye y Hückel para las funciones de correlación y usando MSA como relación de cerradura, eliminando así las dudas que surgen al obtener dicho potencial con el método directo de la ecuación de Poisson-Boltzmann, en donde a su vez, se hace la suposición crítica de que el potencial de fuerza media es igual al potencial electrostático. González-Mozuelos y Carbajal-Tinoco aplicaron este esquema de contracción de la descripción a sistemas de partículas cargadas [34]. Entre otros aspectos igualmente importantes, estos autores mostraron que en el límite de grandes distancias entre coloides, e independientemente de la relación de cerradura empleada, que el potencial de Yukawa siempre es una buena aproximación para la interacción entre pares de coloides. Por otro lado, Méndez-Alcaraz y colaboradores han aplicado este esquema de contracción de la descripción en el estudio de las fuerzas entrópicas, dentro de las cuales tenemos a las fuerzas de vaciamiento [35, 36, 37]. Estos últimos autores muestran como el potencial de Asakura y Oosawa se puede obtener de forma inmediata considerando MSA en una dispersión infinitamente diluída de esferas duras. También en estos estudios se aprecia que a densidades finitas –y mediante cálculos precisos que involucran RY– el potencial monótono decreciente de Asakura y Oosawa se transforma en un potencial con oscilaciones que se extienden mas allá del diámetro de las esferas. Más adelante veremos que en nuestro caso ocurre algo similar, cuando comparamos los resultados de HNC con los que se obtienen directamente de BD. 3.2. Funciones de memoria Este estudio sobre los efectos de memoria en las fluctuaciones de la densidad local de un sistema coloidal se basa en la ecuación de memoria de la función intermedia de 26 Capítulo 3. Marco teórico y conceptual la dispersión. En gran parte este trabajo es de naturaleza numérica y de simulación. Para hacer contacto con un esquema teórico, comparamos las funciones de memoria puramente numéricas con las que se obtienen mediante una versión de la teoría de modos acoplados. Por lo tanto, también presentamos una pequeña revisión de este esquema teórico. Como los efectos de memoria en los sistemas coloidales es un tema menos explorado que el de los potenciales efectivos, también hacemos mención a otros desarrollos teóricos y modelos para los efectos de memoria, poniendo así en contexto la relevancia de nuestro estudio. 3.2.1. Variables dinámicas y correlaciones espacio-temporales Consideremos un punto en el espacio fase de un sistema compuesto de N coloides {Ri , Pi }N i=1 ≡ Γ. A medida que el sistema evoluciona en el tiempo Γ describe una trayectoria en el espacio fase. La trayectoria esta gobernada por una ecuación de la forma5 d Γ = iOΓ, ⇒ Γ(t) = exp [iOt] Γ(0), dt en donde O = O(Γ) es el operador de evolución y a exp [iOt] se le conoce como el propagador. El operador de evolución puede ser el operador de Liouville OL , o el de Smoluchowski OS o bien el operador de Fokker-Planck OF P (Secc. 3.2.3). Se supondrá que los operadores de evolución se pueden escribir de la forma O = −i∇Γ ·, en donde ∇Γ · es un operador de divergencia. Como los operadores de evolución OL , OS y OF P son lineales, la variable dinámica a = a(Γ) tiene una evolución temporal formalmente dada por (3.38) a(t) = exp [iOt] a(0). Supongamos que el conjunto {ψi (ti )}∞ i=1 ≡ Lψ forma una base de un espacio de variables dinámicas de dimensión infinita, al cual llamaremos el espacio de Liouville L6 . Cualquier variable dinámica arbitraria a ∈ L tendrá una representación en la base Lψ . Sea ρ0 (Γ) la densidad de probabilidad del espacio fase en equilibrio termodinámico. Además de las operaciones lineales estándar, podemos definir las siguientes operaciones bilineales entre dos variables dinámicas ai , aj ∈ L 5 Por el momento usaremos la representación imaginaria para los operadores de evolución. Con esta notación, la obtención de las ecuaciones de movimiento formales para las variables dinámicas se simplifica, al hacer analogías con los conceptos que encontramos en la mecánica cuántica. Sin embargo, a partir de la sección 3.2.7 usaremos la notación en la que los operadores de evolución son cantidades reales, ya que de esta manera la interpretación de las ecuaciones es mucho mas sencilla. 6 El espacio de Liouville es el conjunto de todas las variables dinámicas que pueden existir, ya sea aquellas que hacen alusión explícita únicamente a las variables microscópicas, aquellas que se refieren únicamente a las variables mesoscópicas y aquellas de carácter mezclado microscópico y mesoscópico. 3.2. Funciones de memoria 27 El producto escalar ˆ (3.39) (ai (ti ) , aj (tj )) = dΓa∗i (Γ (ti )) aj (Γ (tj )) El producto escalar en el ensemble7 ˆ (3.40) hai (ti ) |aj (tj )i = dΓρ0 (Γ)a∗i (Γ (ti )) aj (Γ (tj )) . El producto escalar en el ensemble define la función de correlación temporal (3.41) Cab (t, t0 ) = ha(t)|b(t0 )i . Si las variables dinámicas en cuestión son locales en el espacio, esto es, si dependen de la posición, entonces la función de correlación espacial-temporal se define como8 (3.42) Cab (r, t, t0 ) = ha(r, t)|b(r, t0 )i . Las variables dinámicas mesoscópicas que estudiaremos en este trabajo son las densidades numéricas locales parciales {nα (r, t)}, definidas en la ecuación (3.13), y sus correspondientes componentes de Fourier {nα (k, t)}s por la ecuación (3.17). Dedicaremos la sección 3.2.6 para definir y explicar el significado de las funciones de correlación espaciales temporales correspondientes a estas variables dinámicas. 3.2.2. Operadores de proyección En un líquido coloidal los grados de libertad microscópicos varían mucho más rápido que los grados de libertad mesoscópicos (Secc. 2). Por lo tanto, la base del espacio de Liouville puede separarse en dos subconjuntos, (i) el de la base de las variables dinámicas puramente microscópicas {ψim (t)}∞ i=1 ≡ Lm , esto es, la base de las variables dinámicas de naturaleza puramente rápida y (ii) el subconjunto complemento de Lm , n o∞ M ψi (t) ≡ LM el cual forma una base de las variables dinámicas de naturaleza i=1 puramente lenta, de tal manera que L = Lm ⊕ LM . En las escalas de espacio y tiempo 7 En esta definición de producto escalar en el ensemble se hace uso deliverado de la notación familar de la mecánica cuántica para el producto escalar entre bras y kets. Sin embargo, de la forma en que estamos definiendo el producto escalar, ni el bra ni el ket adquieren significado por si mismos, solamente hasta que se realiza su producto escalar, para lo cual el producto se pesa con la densidad de probabilidad en equilibrio. La notación simplemente se mantiene para recordar que a la variable del lado izquierdo en el producto se le debe tomar su complejo conjugado, o en su caso, su matriz adjunta. 8 Recordemos que estamos asumiendo la homogeneidad en el espacio, por ello solamente tenemos dependencia espacial en una sola variable r. En equilibrio termodinámico también el tiempo es homogéneo y Cab (t, t0 ) = Cab (t> − t< ) = Cab (τ ) en donde t> (t< ) es el mayor (menor) entre t y t0 . En la sección 3.2.4 explicaremos esto con amplio detalle. 28 Capítulo 3. Marco teórico y conceptual mesoscópicas la base Lm esta decorrelacionada de la base LM , esto es, que para todo par i, j: D (3.43) E ψim (t)|ψjM (t0 ) = 0, en escalas de tiempo mesoscópicas. Además, por hipótesis (3.44) D E en escalas de tiempo microscópicas, (3.45) D E en escalas de tiempo mesoscópicas. ψim (t)|ψjm (t0 ) = δij ζ mm (t, t0 ) ψiM (t)|ψjM (t0 ) = δij ζ M M (t, t0 ) En general, una variable dinámica arbitraria X tendrá componentes de variación lenta, así como componentes de variación rápida. Zwanzig [46] y Mori [47] introdujeron un esquema matemático llamado operadores de proyección. Con este formalismo podemos escribir expresiones exactas –y por lo tanto formales– que nos permiten identificar explícitamente las partes de la evolución de una variable dinámica que, por un lado, están determinadas por las variables rápidas y, por otro lado, a aquellas partes que están determinadas por las variables lentas –este formalismo es una extensión del concepto de proyectores en un espacio de Hilbert de la mecánica cuántica al caso del espacio de Liouville [52, 22]. El operador de proyección sobre la variable dinámica a se define como el operador de producto escalar en el ensemble (3.46) Pa = ha| · · · i a, ha|ai y su acción sobre otra variable dinámica arbitraria X es (3.47) Pa [X] = ha|Xi a. ha|ai El operador (3.48) Q a = 1 − Pa , extrae la componente de la variable arbitraria Qa X, que es ortogonal a Pa X. Aquí estudiaremos el conjunto de variables dinámicas de un sistema coloidal de p componentes n(k, t) = {nα (k, t)}pα=1 . Por lo tanto, usaremos proyectores de la forma P = hn(k, 0)| · · · i S(k)−1 n(k, 0), cuya acción es la de proyectar a una variable dinámica arbitraria sobre las fluctuaciones de la densidad. En esta expresión se han usado las definiciones de la sección 3.1.1.3. La transformación de Fourier-Laplace del propagador9 es (3.49) 9 L {exp [iOt]} (z) = 1 1 = . z − iO z − i(P + Q)O L {exp [iOt]} (z) recibe el nombre de resolvente. El resolvente es la función de Green del operador de evolución. 3.2. Funciones de memoria 29 En donde P proyecta sobre una variable arbitraria y Q proyecta sobre el espacio complementario, esto es, P + Q = 1. Usando la identidad en operadores (3.50) 1 1 1 1 − = (B − A) , A B A B con A = z − i(P + Q)O y B = z − iQO obtenemos que (3.51) L {exp [iOt]} (z) = 1 1 1 + iP O , z − iQO z − iO z − iQO y haciendo la transformación inversa obtenemos la siguiente identidad ˆ t exp [iO(t − t0 )] iP O exp [iQOt0 ] . (3.52) exp [iOt] = exp [iQOt] + 0 Esta identidad se usa mucho en el estudio de los procesos de relajación en sistemas disipativos. Su utilidad radica en el hecho de que si P proyecta sobre grados de libertad lentos entonces separa a la evolución de naturaleza microscópica –el primer término del lado derecho– del resto. El segundo término en (3.52) incluye a la evolución de naturaleza mesoscópica y su acoplamiento temporal con la dinámica microscópica. Veremos más adelante que de éste término surge el efecto de memoria. 3.2.3. Movimiento browniano Un concepto básico en la descripción de las propiedades dependientes del tiempo de las dispersiones coloidales en, o fuera de equilibrio, es el movimiento browniano. El movimiento browniano es la manifestación de la granularidad de la materia y resulta del golpeteo incesante de las moléculas que constituyen al solvente donde se suspenden las partículas brownianas –en un líquido coloidal, los coloides son partículas brownianas–. En efecto, el movimiento browniano es una de las piedras angulares en la descripción de las propiedades de la materia blanda. Dos artículos de revisión al respecto son [38, 39]. Antes de introducir las ecuaciones de movimiento de una partícula browniana, introduciremos a priori la definición de escalas de tiempo. Cualquier aparato que usemos para observar el movimiento de un coloide tendrá una resolución temporal específica. Esto significa que seremos capaces de obtener las posiciones de los coloides solamente entre intervalos de tiempo específicos. El grado de “granularidad” del tiempo en la observación dependerá del aparato o experimento que se ejecute para realizar la medición y ello, a su vez, estará en función de las características del movimiento que nos interese estudiar. Por ejemplo, si partiendo de una configuración inicial, nos interesa cómo se moverán inmediatamente después los coloides necesitaremos analizar la dispersión de neutrones del sistema. Si por el contrario, nos interesa el comportamiento a tiempos intermedios, analizaríamos la dispersión de rayos X, o bien de luz. Finalmente, si nos interesa saber como se mueven en intervalos de tiempo del orden de milisegundos –que para algunos líquidos coloidales se pueden considerar como intervalos de tiempo grandes– podemos usar la técnica de vídeo-microscopía. 30 Capítulo 3. Marco teórico y conceptual Inherente en los comentarios anteriores está la noción de escalas de tiempo [11, 3]. En la descripción de las partículas brownianas existen al menos cinco escalas de tiempo que debemos tener muy en cuenta. Estas escalas son: 1. El intervalo de tiempo que le toma a las moléculas de solvente relajar sus posiciones –es decir el intervalo de tiempo promedio entre colisiones de las moléculas–. A esta escala la denotaremos como τsolvente . Las mediciones de la velocidad del sonido revelan que τsolvente ≈ 10−14 s. En la escala τsolvente la velocidad del centro de masa (c.m.) de los coloides es nula. 2. El periodo de tiempo durante el cual los coloides “ven” al solvente como un fluido estacionario de Navier-Stokes, y durante el cual el momento de su c.m. cambia infinitesimalmente, se denomina escala de tiempo de Fokker-Planck. La escala de tiempo de Fokker-Planck se denotará como τF P . Entonces es necesario que τF P τsolvente 10 . 3. Al periodo de tiempo que le toma a un coloide relajar la velocidad de su c.m. le llamaremos escala de tiempo de relajación de la partícula browniana y la denotaremos como τB . Tenemos que τB τF P τsolvente . 4. El intervalo de tiempo durante el cual la posición del c.m. de un coloide cambia infinitesimalmente se llama escala de tiempo de Smoluchowski –o escala de tiempo difusiva– y lo denotaremos como τS . Tenemos que τS τB τF P τsolvente . 5. El intervalo de tiempo que le toma a la mesoestructura relajarse –aproximadamente el tiempo que le toma a la partícula desplazarse una distancia comparable a su tamaño– se le denomina escala de tiempo de relajación estructural y aquí le denotaremos como τe –en la interpretación de Pusey [48] τe es el tiempo necesario para que el coloide salga de la caja de sus vecinos cercanos–. Una escala de tiempo relacionada es la escala de tiempo de interacción. La escala de tiempo de interacción es el intervalo de tiempo necesario para que un coloide salte entre varios valles de su paisaje de energía [3] –esto es, la escala de tiempo en la que la partícula presenta un “movimiento” difusivo en su paisaje de energía–. Tenemos que τe τS τB τF P τsolvente . Las teorías que describen la dinámica en las escalas de tiempo τ , τe ' τ τsolvente , reciben el nombre de dinámicas disipativas. La descripción más detallada –aquella en escalas τ τsolvente – es la mecánica clásica. Cuando los detalles microscópicos son irrelevantes, conviene usar las dinámicas disipativas. Si nos interesa describir con detalle la dinámica de los momentos y las posiciones de los coloides, sin considerar explícitamente los detalles microscópicos, entonces necesitaremos una descripción válida en escalas de tiempo τF P . Por otra parte, si lo que nos interesa es describir el proceso de relajación 10 Hemos de subrayar que la dinámica de Fokker-Planck tiene el problema serio de que en muchas situaciones τF P ≈ τsolvente , lo cual significa que las velocidades de los coloides no están completamente desacopladas de las velocidades de las moléculas. Esto implica que en general los coloides ven a un fluido complejo no estacionario. Esto recala en el hecho, de que los tensores de fricción se vuelvan cantidades dependientes del tiempo (ver comentarios mas adelante) y por lo tanto la dinámica de Fokker-Planck adquiere mayor grado de complejidad. 3.2. Funciones de memoria 31 de las posiciones de los coloides, sin tomar en cuenta explícitamente los detalles microscópicos y la evolución de los momentos de los coloides, entonces necesitaremos una descripción válida en escalas de tiempo τS . La dinámica en escalas de tiempo τF P se denomina dinámica de Fokker-Planck. La dinámica de Fokker-Planck comprende a dos ecuaciones, una que gobierna la evolución de las posiciones y momentos de los coloides, y otra que gobierna la evolución de la densidad de probabilidad de espacio fase de los coloides. A la ecuación para las coordenadas y momentos de los coloides se le llama ecuación de Langevin [42]. A la ecuación para la densidad de probabilidad de espacio fase se le llama ecuación de Fokker-Planck [42, 44] –el término Fokker-Planck se aplica a cualquier ecuación de balance de probabilidad. La dinámica en escalas de tiempo τS se denomina dinámica de Smoluchowski. La dinámica de Smoluchowski comprende a dos ecuaciones, una que gobierna la evolución de las posiciones de los coloides, y otra que gobierna la evolución de la densidad de probabilidad del espacio de configuraciones de los coloides. A la ecuación para las coordenadas se le llama ecuación de Langevin posicional o sobre-amortiguada [11]. A la ecuación para la densidad de probabilidad del espacio configuracional se le llama ecuación de Smoluchowski [14]. Antes de proporcionar las ecuaciones de movimiento en el caso general, revisaremos rápidamente el movimiento browniano de una dispersión coloidal consistente únicamente de un coloide. El desplazamiento cuadrático medio (m.s.d. por su nombre en inglés) es la cantidad fundamental que caracteriza al movimiento browniano. En 1905 Einstein obtuvo una expresión para el m.s.d. de una partícula libre. Posteriormente, Perrin en una serie de experimentos notables y usando la expresión de Einstein para el m.s.d. determinó el número de Avogadro, confirmando así la naturaleza molecular de la materia –en parte por estos trabajos Einstein 11 y Perrin12 recibieron el premio Nóbel en 1921 y 1926, respectivamente. La ecuación de Langevin ζ d P = − P + Fa (t), dt M describe el movimiento de una partícula browniana. Aquí P es el momento de la partícula browniana cuya masa es M . La cantidad ζ es el coeficiente de fricción del solvente y Fa es la fuerza neta aleatoria e instantánea que las moléculas ejercen sobre la partícula browniana. El término de arrastre en la ecuación de Langevin es el término sistemático. El término aleatorio posee las siguientes propiedades: (3.53) (3.54) hFa (t)i = 0, (3.55) hFa (t)|Fa (t0 )i = 2kB T ζδ(t − t0 )1. 11 http://nobelprize.org/nobel_prizes/physics/laureates/1921/einstein-lecture.html 12 http://nobelprize.org/nobel_prizes/physics/laureates/1926/perrin-lecture.html 32 Capítulo 3. Marco teórico y conceptual En estas expresiones los corchetes denotan un promedio en el ensemble y, en las lineas de los comentarios previos, un intervalo de tiempo igual a cero significa que es un intervalo de tiempo pequeño, pero mas grande que τsolvente . La ecuación de Langevin tiene sentido solamente cuando se aclaran las propiedades estadísticas de Fa y lo único que podemos calcular a partir de ella son promedios. La ecuación de Langevin define un proceso estocástico {Pi } conocido como proceso de Orstein-Uhlenbeck [40]. La ecuación (3.55) recibe el nombre de teorema de fluctuacióndisipación. El teorema de fluctuación-disipación es un enunciado de la conservación de la energía y nos dice que la energía que el coloide disipa al moverse bajo el arrastre del solvente, se transmite al solvente y se manifiesta como la fuerza fluctuante que el mismo solvente ejerce sobre el coloide en lo que constituye un tipo de proceso de retroalimentación. En el caso general de un liquido de N coloides cuyas coordenadas y momentos son {Ri , Pi }N i=1 ≡ Γ tenemos para la dinámica de Fokker-Planck, (3.56) N X ζ ij d s Pi = Fi (t) − Pj + Fai (t), dt j=1 Mi (3.57) hFai (t)i = 0, D E Fai (t)|Faj (t0 ) = 2kB T δ(t − t0 )ζ ij (3.58) y d ρF P (Γ(t)) = −iOF P (Γ(t))ρF P (Γ(t)) dt (3.59) con ! N X 1 Pj P i · ∇R + Fs · ∇P + kB T ∇Pi · ζ ij · ∇Pj + (3.60) OF P (Γ) = −i i i i kB T Mj j=1 i=1 Mi N X En estas ecuaciones Fsi es la fuerza sistemática que experimenta el coloide i debido a su interacción directa con los demás coloides y con los campos externos, cada término ζ ij pj /Mj es la fuerza de arrastre hidrodinámico que la partícula i experimenta en el flujo estacionario producido por la partícula j, considerando que las demás partículas permanecen quietas, Fai representa a la fuerza aleatoria fluctuante sobre la partícula i y ρF P (Γ(t)) es la densidad de probabilidad de espacio fase de los coloides. En cuanto a la dinámica de Smoluchowski tenemos [45, 14, 3], con {Ri }N i=1 ≡ ΓR : (3.61) N X d Ri = µij · Fsj + Via + kB T ∇Rj · µij , dt j=1 (3.62) hVia (t)i = 0, 3.2. Funciones de memoria (3.63) 33 D E Via (t)|Vja (t0 ) = 2kB T δ(t − t0 )µij y (3.64) d ρS (ΓR (t)) = −iOS (ΓR (t))ρS (ΓR (t)) dt con (3.65) OS (ΓR ) = −ikB T N X i=1 ∇Ri · N X µij · ∇Rj j=1 1 s F (· · · ) − kB T j En estas ecuaciones Fsi es la fuerza sistemática que experimenta el coloide, las matrices µij son los tensores de movilidad, Via es una velocidad aleatoria y ρS (ΓR (t)) es la densidad de probabilidad del espacio de configuraciones de los coloides. Las ecuaciones (3.59 y 3.64) son las ecuaciones de Fokker-Planck y de Smoluchowski, respectivamente. Sus soluciones, dadas las condiciones iniciales (3.66) ρF P,S (Γ(t)) |t=t0 = ρF P,S (Γ(t0 )) , se denotarán, por brevedad, simplemente como (3.67) ρF P,S (Γ(t0 + t)) , es decir, simplemente agregaremos una constante t0 al argumento temporal para recordar que todo parte de una condición inicial13 . La solución estacionaria de las ecuaciones de de Fokker-Planck y de Smoluchowski, esto es, aquella solución para la cual ∂t ρF P,S = 0, es la densidad de probabilidad de Boltzmann a la cual denotaremos como ρ0 . Cualquier sistema sujeto a una perturbación, inducida o espontánea, presentará una densidad de probabilidad ρF P,S 6= ρ0 . Sin embargo, con el correr del tiempo ρF P,S → ρ0 en todos los sistemas ergódicos. En las dinámicas de Fokker-Planck y de Smoluchowski, las matrices ζ ij y µij con i 6= j describen la fuerza sistemática que los coloides ejercen entre sí, y que se transmite a través del solvente –en un efecto parecido al impulso que transmitimos a una araña al tocar su red–. A este tipo de interacciones se les conoce como interacciones hidrodinámicas. Cuando las interacciones hidrodinámicas son ínfimas, las matrices de fricción y de movilidad se pueden considerar como matrices diagonales. Las interacciones hidrodinámicas aumentan su relevancia entre mas coloides haya en el sistema, esto es, que se pueden despreciar únicamente en sistemas muy diluidos. En algunos sistemas de partículas cargadas, las interacciones directas pueden opacar a las interacciones hidrodinámicas. A menudo, en el estudio de los sistemas de partículas de Yukawa, si la longitud de DebyeHückel λD es mayor que o del orden de la distancia promedio entre partículas d, las 13 En lo sucesivo esta notación se hará extensiva a cualquier función que dependa del tiempo. Por comodidad se suele usar t0 = 0 en todos los textos, pero aquí lo mantendremos simplemente para recordar que todas las cantidades físicas están sujetas a condiciones iniciales, y en consecuencia, a promedios condicionales. 34 Capítulo 3. Marco teórico y conceptual interacciones hidrodinámicas suelen ser despreciadas con muy buenos resultados. En el pie de página 10 hacemos notar el hecho de que los tensores de fricción en general son cantidades dependientes del tiempo. Esto introduce problemas adicionales a la dinámica de Fokker-Planck. La dinámica de Smoluchowski no presenta ese problema porque τS τF P . Adicionalmente, el problema de introducir interacciones hidrodinámicas “estacionarias” es un tema muy complejo que, de hecho, es un tema de investigación actual. En este trabajo empleamos el caso “muy simple” de la dinámica de Smoluchowski sin interacciones hidrodinámicas. La ecuación de Langevin en los momentos se puede obtener a partir de la dinámica de Liouville, proyectando iOL P sobre el espacio de las variables lentas y luego usando la identidad para el operador de evolución (3.52). De esta manera se obtiene una expresión formal exacta para la evolución de los momentos. Posteriormente, se usa el hecho de que la masa molecular es mucho más pequeña que la masa de un coloide [42, 49]. La ecuación de Fokker-Planck se puede derivar de varias formas. La derivación de la ecuación para una partícula la hicieron Lebowitz y Rubin partiendo de la ecuación de Liouville [50]. Deutch y Oppenheim derivaron la ecuación de muchas partículas partiendo de la ecuación de Langevin [42]. Murphy y Aguirre la derivaron partiendo directamente de la ecuación de Liouville [44]. Una derivación más madura fue proporcionada por van Kampen y Oppenheim usando la técnica de eliminación de variables rápidas [51]. La dinámica de Smoluchowski se puede derivar de la dinámica de Fokker-Planck, asumiendo que las partículas coloidales se mueven una distancia muy pequeña comparada con su tamaño durante el proceso de relajación de su velocidad. Sin embargo, todas las aproximaciones que se hacen sucesivamente desde Liouville para llegar a Smoluchowski dejan lugar a dudas sobre la validez de la ecuación de Smoluchowski. Roux derivó la ecuación de Smoluchowski usando principios de hidrodinámica molecular, una ruta completamente independiente al camino Liouville-(Fokker-Planck)-Smoluchowski, mostrando que la ecuación de Smoluchowski es perfectamente general [14]. En la referencia [1] mostramos una derivación heurística simple de las ecuaciones de Fokker-Planck y de Smoluchowski en las lineas del libro de Dhont [3]. Cada una de las ecuaciones (3.53, 3.56, 3.61) con (3.54, 3.57, 3.62) y (3.55, 3.58, 3.63), definen una serie de procesos estocásticos {P(tµ )} ≡ P µ , {Pi (tµ )} ≡ Piµ y {Ri (tµ )} ≡ Riµ que reciben el nombre de cadenas de Markov14 . Una cadena de Markov es un proceso estocástico discreto cuyos valores en cada estado depende solamente del estado mismo y no de los estados previos, esto es, que en nuestro caso P µ = P µ (P µ , ζ, M ), Piµ = Piµ (Piµ , ζij (P µ ), Mi ) y Riµ = Riµ (Riµ , µij (Riµ )). Existe otra clase de procesos estocásticos cuyo valor en un estado depende de los valores previos a dicho estado. A esta clase de procesos se les llama procesos estocásticos con memoria. En general, los procesos P µ , Piµ y Riµ son procesos estocásticos con memoria. En efecto, Lorentz [39] observó que una forma más apropiada de la ecuación de Langevin de una 14 En honor al matemático ruso Andrey Andreyevich Markov, quien trabajó en la teoría matemática de estos procesos estocásticos. 3.2. Funciones de memoria 35 partícula es (3.68) d P=− dt ˆ 0 t ζ(t − t0 ) P(t0 )dt0 + Fa (t), M con (3.69) hFa (t)i = 0, (3.70) hFa (t)|Fa (t0 )i = 2kB T ζ(t − t0 )1. Los momentos de las partículas brownianas son procesos estocásticos con memoria porque –como mencionamos previamente– la escala τF P no está completamente desacoplada de las escalas de tiempo características del solvente [11]. Las posiciones no son Markovianas por (i) el acoplamiento de las velocidades de las partículas brownianas con el campo de velocidad del solvente (interacciones hidrodinámicas) y, más frecuentemente, por (ii) las interacciones directas entre las partículas brownianas – por ejemplo DLVO, dipolar, si son partículas paramagnéticas, etcétera–. Por otro lado, la inclusión de campos externos también influye en la dinámica de las partículas. Finamente, subrayemos las condiciones de validez de las ecuaciones (3.68 y 3.53). Para ello denotamos con una m a la masa molecular y con una nm a la densidad volumétrica de la masa de las moléculas, mientras que con una nM a la densidad de masa del coloide cuya masa es M . La ecuación (3.68) es válida cuando (m/M )1/2 1 y nm /nM . 1, mientras que (3.53) es válida solamente si (m/M )1/2 1 y nm /nM 1 , [39]. 3.2.4. Funciones de autocorrelación en la dinámica de Smoluchowski Los operadores de evolución presentan propiedades distintas actuando en los productos escalares (3.39 y 3.40). En particular, el operador de Liouville OL = −i∇Γ = −i {· · · , H} es Hermitiano, tanto en el producto escalar como en el producto escalar en el ensemble. Aquí {· · · } es el corchete de Poisson y H es el Hamiltoniano. Una consecuencia de la hermiticidad de OL es que la dinámica de Liouville es reversible o simétrica bajo inversiones en el tiempo. Por otra parte, los operadores de evolución de las dinámicas disipativas, OF P y OS , no son Hermitianos –por lo que, su propagador asociado no es unitario– una característica que va de la mano con el hecho de que estas dinámicas son irreversibles. De hecho, las densidades de probabilidad dependientes del tiempo tienden irreversiblemente a la distribución estacionaria de equilibrio. En principio, dado el operador de evolución en la dinámica de Liouville, podemos calcular cualquier promedio en el ensemble, ya que para cualquier variable dinámica podemos emplear la equivalencia 36 Capítulo 3. Marco teórico y conceptual (3.71) ˆ ha (Γ (t0 + t))i = ˆ dΓρ0 (Γ (t0 + t)) a (Γ (t0 )) = dΓρ0 (Γ (t0 )) exp [iOL t] a (Γ (t0 )) , la cual nos permite calcular el promedio sin necesidad de realizar el trabajo complejo de resolver la dependencia temporal en equilibrio de la densidad de probabilidad, dado que se conoce la condición inicial de la variable dinámica y de la densidad de probabilidad en equilibrio. Esto a través de la segunda igualdad, la cual nos dice que el valor promedio de a en el instante t0 + t es el promedio condicional de que a esté en el estado Γ en el instante t0 + t dado que estaba en el mismo estado en el instante inicial. Como el propagador de Liouville exp [iOL t] es unitario ˆ ˆ dΓρ0 (Γ (t0 )) exp [iOL t] a (Γ (t0 )) = dΓa (Γ (t0 )) exp [−iOL (t)] ρ0 (Γ (t0 )) , esto es que ˆ ˆ dΓa (Γ (t0 )) exp [−iOL t] ρ0 (Γ (t0 )) , dΓa (Γ (t0 )) ρ0 (Γ (t0 + t)) = y por lo tanto, en la dinámica de Liouville se cumple la ecuación de continuidad d ρ0 (Γ(t + t0 )) + iOL ρ0 (Γ(t + t0 )) = 0. dt Lo mismo aplica para las funciones de correlación en la dinámica de Liouville: Dado que el operador de Liouville es hermítico, podemos calcular las funciones de correlación espacio temporales sin necesidad de calcular la dependencia temporal de la densidad de probabilidad. Ahora consideremos la dinámica de Smoluchowski [11]. Debido a que el operador de Smoluchowski no es adjunto con respecto al promedio en el ensemble, no podemos usar una equivalencia similar a (3.71) para evadir el cálculo de la dependencia temporal de la densidad de probabilidad. Existe una ruta para dar vuelta a esta dificultad, la cual consiste en usar el operador adjunto a OS con respecto al producto escalar (3.72) (OB b, a) = (b, OS a) . Con una integración por partes obtenemos que (3.73) OB (ΓR ) = −ikB T N X ∇Ri i,j=1 1 s F · µij · ∇Rj . − kB T i El operador OB recibe el nombre de operador de Smoluchowski de retroceso y el subíndice B es por la palabra “backward”. Mediante un argumento similar al que nos llevó a la ecuación de continuidad en la dinámica de Liouville y considerando que b = ρS podemos ver que la acción de OB sobre la probabilidad condicional es (3.74) d ρS (ΓR (t + t0 )) = −iOB (ΓR0 (t0 + t0 )) ρS (ΓR (t + t0 )) , dt 3.2. Funciones de memoria 37 y en ello estriba el nombre de operador en retroceso. Note que esta es una ecuación de continuidad como la de la dinámica de Liouville. En este caso la divergencia la proporciona el operador de retroceso, esto es, que el operador de retroceso es autoadjunto con respecto al producto escalar en el ensemble. En términos del operador en retroceso, las funciones de correlación espacio temporales en la escala τS se pueden escribir como (3.75) Cab (r, t, t0 ) = ha(r, t)| exp [iOB t0 ] b(r, 0)i , esto es, que la evolución de las variables dinámicas, semejante al caso de Liouville, está dada por (3.76) a (Γ (t0 + t)) = exp [iOB t] a (Γ (t0 )) . Finalizamos esta sección mencionando unas propiedades muy importantes de las funciones de autocorrelación en la dinámica de Smoluchowski para sistemas en equilibrio. Primero hablaremos sobre la propiedad de homogeneidad en el tiempo del promedio en el ensemble de equilibrio. A esta propiedad se le conoce como estacionaridad. En equilibrio la estacionaridad se cumple independientemente de la dinámica que utilicemos para describir al sistema. La estacionaridad la podemos observar de dos formas en la igualdad ˆ ˆ dΓ [exp [iOt] ρ0 (Γ(t0 ))] a (Γ (t0 )) = dΓρ0 (Γ (t0 )) exp [iOt] a (Γ (t0 )) . Consideremos primero el lado derecho. La ecuación de continuidad nos permite interpretar ρ0 como una función de campo a la que podemos visualizar como un fluido en el espacio fase, o de configuraciones. Dicho fluido es estacionario e incompresible. La condición inicial Γ (t0 ), ubica a la función de campo en un punto dentro del volumen del fluido cuya forma es fija y cuyo volumen es Vρ0 . El propagador exp [iOt] traslada a este punto formando una trayectoria gobernada por el operador de evolución. La trayectoria siempre estará contenida dentro de Vρ0 . Por otra parte, la variable dinámica está evaluada en la condición inicial y es una constante. Entonces el producto [exp [iOt] ρ0 (Γ(t0 ))] a (Γ (t0 )) se puede interpretar como otra función de campo definida sobre el mismo volumen fluido incompresible Vρ0 . Con el avance del tiempo [exp [iOt] ρ0 (Γ(t0 ))] a (Γ (t0 )) también recorrerá el volumen Vρ0 . La integral se realiza sobre Vρ0 . Entonces, como la trayectoria de [exp [iOt] ρ0 (Γ(t0 ))] a (Γ (t0 )) solamente puede residir dentro del volumen, vemos que la integral no debe depender de la condición inicial porque al final todos los puntos permisibles serán accedidos por la integral y la condición inicial debe estar de acuerdo con las condiciones termodinámicas, las cuales a su vez definen Vρ0 . Consideremos el lado derecho. En este caso tenemos al campo estacionario ρ0 multiplicando al campo escalar exp [iOt] a (Γ (t0 )) con valores variables en el tiempo, pero 38 Capítulo 3. Marco teórico y conceptual también definido siempre sobre Vρ0 . Por lo mismo, la integral no debe depender de Γ0 . Si el sistema no estuviera en equilibrio, estas consideraciones no podrían hacerse, ya que en ese caso Vρ0 no tiene ni forma, ni volumen constante y la integral dependerá de la condición inicial. Los comentarios anteriores nos permiten escribir ver que ha (Γ (t0 + t))i = ha (Γ (t))i (3.77) Además, como Oρ0 = 0, vemos directamente que ˆ ˆ (3.78) dΓ [exp [iOt] ρ0 (Γ(0))] a (Γ (0)) = dΓρ0 (Γ) a (Γ) = ha (Γ)i = Constante. Empleando el mismo razonamiento de los dos párrafos anteriores tenemos que ˆ 0 Cab (t , t) = dΓρ0 (Γ (t0 )) a (Γ (t0 )) exp [iOt] b(0) ˆ o 0 Cab (t , t) = dΓ exp [iO (t0 − t0 )] {ρ0 (Γ (t0 )) a (Γ (t0 ))} exp [iOt] b(0) no debe depender de t0 , así que consideraremos arbitrariamente que t0 = 0 ˆ Cab (0, t) = dΓ exp [−iOt0 ] {ρ0 (Γ (t0 )) a (Γ (t0 ))} exp [iO (t − t0 )] b(t0 ), y si O es autoadjunto obtenemos que ˆ (3.79) Cab (0, t) = dΓρ0 (Γ (t0 )) a (Γ (t0 )) exp [iOL t] b(t0 ) = Cab (t0 , t0 + t). Este es el enunciado matemático de la condición de estacionaridad u homogeneidad en el tiempo (pie de página 8). La propiedad de estacionaridad implica que Caa (−t) = ha(r, 0)|a(r, −t)i = ha(r, t)|a(r, 0)i y tomando el complejo conjugado obtenemos que (3.80) (Caa (−t))∗ = Caa (t) lo cual significa que las funciones de autocorrelación son funciones reales y pares en el tiempo. Por otro lado, la desigualdad de Schwarz nos dice que que |R ha(r, 0)|b(r, t)i| ≤ (ha(r, 0)|a(r, t)i hb(r, 0)|b(r, t)i)1/2 esto es, (3.81) |Caa (t)| ≤ Caa (0). 3.2. Funciones de memoria 39 Las funciones de autocorrelación están acotadas por su valor inicial. Mediante una expansión de la densidad de probabilidad en funciones propias de OS y OB se puede ver que las funciones de autocorrelación en la dinámica de Smoluchowski son monótonas decrecientes [11]. Por lo tanto, las funciones de autocorrelación describen el decaimiento con el tiempo de las fluctuaciones de las variables dinámicas. La propiedad de simetría bajo traslaciones en el tiempo (3.79) es independiente de la dinámica y se aplica a todos los sistemas en equilibrio. Sin embargo, la propiedad de simetría bajo inversiones en el tiempo es un tanto más delicada. El problema surge cuando se trata de interpretar un tiempo negativo en las funciones de autocorrelación cuando sabemos que las mismas describen el decaimiento de las fluctuaciones desde la condición inicial. La irreversibilidad de los sistemas de muchas partículas implica que las funciones de autocorrelación solamente pueden estar definidas para tiempos positivos, esto es, que en general serán irregulares en t = 0. La propiedad enunciada en el párrafo anterior sobre la monotonicidad en el decaimiento de las funciones de autocorrelación es exclusiva de la dinámica de Smoluchowski. La otras dinámicas aceptan comportamientos acotados pero, que en general, no son monótonos. 3.2.5. Ecuación de Langevin generalizada En general, el operador de evolución O tendrá la siguiente forma O = Om + OM + OmM , en donde Om,M y mM contienen las reglas de evolución concernientes a lo microscópico, a lo mesoscópico y al acoplamiento micro-mesoscópico, respectivamente. Sea P un operador que proyecta sobre alguna variable dinámica arbitraria X y Q el operador complemento de P en el espacio de Liouville, esto es, que P + Q = 1. La identidad (3.52) actuando sobre una variable dinámica arbitraria a ˆ t a(t) = exp [iQOt] a(0) + exp [iO(t − t0 )] iP O exp [iQOt0 ] a(0)dt0 , 0 nos dice que la evolución temporal de a consiste de dos partes. La primera, correspondiente al primer término del lado derecho, proviene de los grados de libertad microscópicos y del acoplamiento con los mesoscópicos. La segunda, que corresponde al segundo término del lado derecho, proviene de los grados de libertad mesoscópicos y del acoplamiento con los microscópicos. Ahora veamos cómo evoluciona la ecuación de movimiento de la variable dinámica. Notemos que d a(t) = exp [iOt] iOa(0) = exp [iOt] P (iOa(0)) + exp [iOt] Q (iOa(0)) dt y empleando (3.52) para el segundo término del lado derecho ˆ t exp [iOt] Q (iOa(0)) = f (t) + dt0 exp [iO(t − t0 )] iP O exp [iQOt0 ] Q (iOa(0)) , 0 40 Capítulo 3. Marco teórico y conceptual en donde se ha usado la notación f (t) = exp [iQOt] Q (iOa(0)) . (3.82) El término que contiene la integral puede reescribirse identificando que iP O exp [iQOt0 ] Q (iOa(0)) = iP Of (t0 ) = iP OQf (t0 ) = 1 hX|iOQf (t0 )i X hX|Xi y como Q es un operador hermítico, y si además O lo es, entonces hX|iOQf (t0 )i = − hQ (iOX) |f (t0 )i , y podemos escribir ˆ t ˆ t 0 0 0 0 0 hQ(iOX)|f (t )i exp [iO(t − t0 )] X, dt exp [iO(t − t )] iP Of (t ) = − dt hX|Xi 0 0 para obtener que ˆ d a(t) = exp [iOt] P (iOa(0)) − dt t 0 0 hQ(iOX)|f (t )i dt 0 hX|Xi exp [iO(t − t0 )] X + f (t). El primer término de esta ecuación puede reescribirse observando que exp [iOt] P (iOa(0)) = exp [iOt] 1 hX|iOa(0)i hX|iOa(0)i X = X(t) hX|Xi hX|Xi de tal manera que d hX|iOa(0)i a(t) = X(t) − dt hX|Xi ˆ t 0 0 hQ(iOX)|f (t )i dt 0 hX|Xi exp [iO(t − t0 )] X + f (t). Consideremos el caso en que X = a(0). En este caso se obtiene que ˆ t a(t) a(t − t0 ) d dt0 M (t0 ) a(t) = ω − + f (t), (3.83) dt ha|ai ha|ai 0 en donde se ha usado la notación (3.84) ω = ha(0)|iOa(0)i y (3.85) M (t0 ) = hf (0)|f (t0 )i . La ecuación (3.83) recibe el nombre de ecuación de Langevin generalizada. A ω se le llama la función de frecuencia y a M la función de memoria. La variable dinámica en el espacio de las variables rápidas f (t) recibe el nombre de fuerza fluctuante. La fuerza fluctuante es la parte aleatoria de la ecuación de Langevin generalizada y transforma a a 3.2. Funciones de memoria 41 en un proceso estocástico. La fuerza fluctuante es aleatoria porque su variación temporal es con respecto a las escalas de tiempo características del espacio complementario y, por lo tanto, se manifiesta como una cantidad no determinista fluctuante en el espacio bajo consideración. La ecuación de Langevin en las velocidades, con fricción dependiente del tiempo (3.68), es un caso particular de la ecuación de Langevin generalizada cuando a = P. Por ello, la función de memoria se puede identificar como una función generalizada de viscocidad longitudinal. En efecto, en la dinámica de Fokker-Planck lo es [53, 54]. Sin embargo, en la dinámica de Smoluchowski esta interpretación lleva a resultados erróneos para la función de difusión. En un principio se pensó que esto era una deficiencia de la ecuación de Smoluchowski, pero después de que Roux mostró que la ecuación de Smoluchowski es perfectamente general [14], la duda que surgió fue si en la dinámica de Smoluchowski se podía hacer esta interpretación. Cichocki y Hess [55] mostraron que en la dinámica de Smoluchowski, a diferencia de la Fokker-Planck, la función de memoria no puede interpretarse como una viscocidad longitudinal. Estos autores mostraron que una cantidad cercanamente relacionada con la función de memoria, la cual lleva el nombre de función irreducible de memoria, es la función que se relaciona directamente con la viscocidad longitudinal. Cuando revisemos la teoría de modos acoplados y hayamos dado los elementos necesarios para describir la estructura dinámica, volveremos a tocar este tema. 3.2.6. Estructura dinámica de suspensiones coloidales Todas las funciones que describen a la estructura estática de las dispersiones coloidales, que se definieron en la sección 3.1.1, pueden generalizarse directamente para que describan la evolución temporal de la estructura, esto es, la estructura dinámica. Consideremos un sistema de N coloides, de entre los cuales Nα coloides forman la especie α. Además, consideremos que hay p especies distintas en el sistema de tal manera que P N = pα=1 Nα . Usando la notación xα = Nα /N y denotando la posición del coloide i de la especie α en la forma riα , tenemos: La densidad local parcial (3.86) nα (r, t) = Nα X δ(r − riα (t)). iα =1 La función de autocorrelación de la densidad local, o función de van Hove [15], (3.87) dNβ (t) = nβ Gαβ (r, t)dν r, α = 1, 2, ..., β, ..., p que nos relaciona el numero de partículas, de la especie β en el instante t0 + t, dentro del elemento de volumen dν r que se localiza en r, dado que en el instante inicial t0 había una partícula de la especie α en el origen. En un lenguaje más 42 Capítulo 3. Marco teórico y conceptual elaborado, la función de van Hove es la función de autocorrelación (3.88) 1 √ xα xβ nGαβ (r, t) = q Nα Nβ * Nα ,Nβ X δ r + rjβ (t + t0 ) − riα (t0 ) + . iα ,jβ =1 En el instante inicial t = 0 (3.89) Gαβ (r, 0) = δαβ δ(r) + gαβ (r) Las componentes de Fourier de las densidades parciales (3.90) nα (k, t) = Nα X exp [ik · riα (t)] , iα =1 Y las funciones intermedias de dispersión (3.91) 1/2 Fαβ (k, t) = δαβ + xa1/2 xb nF [Gαβ (r, t) − 1] . * (3.92) Fαβ (k, t) = ! + 1 1 √ nα (−k, t0 ) q nβ (k, t0 + t) . Nα Nβ Para complementar la notación matricial introducida en la sección (3.1.1.3) la matriz de las funciones parciales de van Hove se denota como ˆ q q 3 0 0 0 Gαβ (r, t) = d r nα (r + r , t0 )/ Nα |nβ (r , t0 + t)/ Nβ y la matriz de funciones intermedias de dispersión parciales como F = (Fαβ ). Ahora presentaremos la ecuación de movimiento de la función intermedia de dispersión. 3.2.7. Función de memoria y difusión colectiva Consideremos la dinámica de Smoluchowski en la ecuación de Langevin generalizada (3.83). En la dinámica de Smoluchowski podemos considerar a OB en (3.73) como operador de evolución. Sea {nα (k, t)}pα=1 el conjunto de variables dinámicas en la ecuación de Langevin generalizada y (3.93) P = hn(k, 0)| · · · i S(k)−1 n(k, 0), el operador de proyección sobre dicho conjunto. Bajo esta notación la ecuación de Langevin generalizada de las componentes de Fourier de la densidad local es ˆ t (1) −1 ∂t n(k, t) = µ (k)S n(k, t) − dt0 M(k, t0 )S−1 n(k, t − t0 ) + f (k, t), 0 3.2. Funciones de memoria 43 en donde µ(1) αγ (k) = hnα (k, 0)|iOB nγ (k, 0)i , fα (k, t) = exp [iQOB t] Q (iOB nα (k, 0)) y Mαγ (k, t0 ) = hfα (k, 0)|fγ (k, t)i definen a la matriz de los primeros cumulantes parciales µ(1) (k) = µ(1) αγ (k) p×p , a 15 cada una de las componentes del vector de fuerzas fluctuantes parciales f (k, t) = {fα (k, t)}pα=1 y a la matriz de funciones de memoria 16 M(k, t) = (Mαβ (k, t))p×p , respectivamente. Multiplicando esta ecuación escalarmente en el ensemble por n(k, 0) y tomando en cuenta que en todo instante hn(k, 0)|f (k, t)i = 0 (3.94) obtenemos que ˆ (1) t dt0 M(k, t0 )S−1 (k)F(k, t − t0 ). −1 ∂t F(k, t) = µ (k)S (k)F(k, t) − 0 Esta expresión se llama ecuación de memoria de la función intermedia de la dispersión. Hasta este momento hemos usado operadores de evolución en el espacio imaginario porque de esta manera se facilita la obtención de las ecuaciones formales de Langevin. Sin embargo, para propósitos de cálculo y de identificación de las propiedades de las ecuaciones resultantes conviene trabajar en el espacio real. En el espacio real la ecuación de Smoluchowski [11] con el operador de retroceso es (3.95) d ρS (ΓR (t0 + t)) = −OB (ΓR (t0 )) ρS (ΓR (t0 + t)) , dt0 con (3.96) OB (ΓR ) = p N X X ∇Riα α,β=1 i,j=1 1 s F · Diα jβ · ∇Rjβ . − kB T iα Las matrices D representan a los tensores de difusividad [21] (3.97) Diα jβ = kB T µiα jβ , en donde µiα jβ son las matrices de movilidad (Secc. 3.2.3). Ejecutando las operaciones indicadas por el operador de Smoluchowski la ecuación de Langevin generalizada adquiere la forma ˆ t 2 −1 (3.98) ∂t n(k, t) = −k H(k)S n(k, t) + dt0 MC (k, t0 )S−1 n(k, t − t0 ) + f (k, t), 0 15 En el contexto del estudio de los coeficientes de transporte, las fuerzas fluctuantes también reciben el nombre de flujos disipativos. 16 O de coeficientes de transporte generalizados. 44 Capítulo 3. Marco teórico y conceptual mientras que para la ecuación de memoria tenemos que ˆ t 2 −1 dt0 MC (k, t0 )S−1 (k)F(k, t − t0 ). (3.99) ∂t F(k, t) = −k H(k)S (k)F(k, t) + 0 C En (3.98 y 3.99) las matrices H = (Hαβ )p×p y MC = Mαβ se llaman matriz p×p de las funciones hidrodinámicas parciales y matriz de las funciones memoria colectiva parciales, respectivamente. Cada elemento de las ecuaciones (3.98 y 3.99) se define a continuación. La densidad local dependiente del tiempo (3.100) nα (k, t) = exp [OB t] nα (k, 0) La función intermedia de dispersión (3.101) Fαβ (k, t) = hnα (k, 0)| exp [OB t] nβ (k, 0)i La matriz de las funciones hidrodinámicas parciales (3.102) d Hαβ (k) = δαβ DαS + Hαβ (k), en donde (3.103) D DαS = k̂ · D1α 1α · k̂ E y (3.104) D h iE 1 d k̂ · D1α 2β · k̂ exp ik · R1α − R2β . Hαβ (k) = q Nα Nβ La cantidad DαS es el coeficiente de autodifusión de tiempos cortos de la especie α. El coeficiente de autodifusión de tiempos cortos de la especie α es la pendiente inicial del m.s.d. de una partícula de dicha especie. En la ausencia de las interacd ciones hidrodinámicas Hαβ = 0 y Hαβ (k) = δαβ Dβ0 , en donde Dα0 es el coeficiente de autodifusión de las partículas de la especie α en estado libre17 –esto es, el coeficiente de difusión que una partícula α presentaría si estuviera sola en el seno del solvente. La fuerza fluctuante generalizada fα (k, t) tiene la expresión (3.105) 17 fα (k, t) = exp [QOB Qt] fα (k, 0), La relación entre el coeficiente de difusión y la fricción Dα0 = kB T /ζα se conoce como relación de Einstein(1905)-Smoluchowski(1906). Para partículas esféricas la ley de Stokes dice que ζα = 3πησα , en donde η es la viscocidad de corte del solvente. Entonces, a la expresión Dα0 = kB T /3πησα se le conoce como relación de Stokes-Einstein. En lo sucesivo usaremos el término coeficiente de difusión de Stokes-Einstein de las partículas α para nombrar a Dα0 . 3.2. Funciones de memoria 45 en donde la fuerza estocástica fα (k, 0) está dada por (3.106) fα (k, 0) = QOB nα (k, 0). Notemos que al escribir la expresión para la fuerza fluctuante (3.105) hemos hecho uso de que la fuerza estocástica reside enteramente en el espacio de las variables ortogonales a nα (k, 0), esto es, que Qf (k, 0) = f (k, 0). La función de memoria colectiva tiene la expresión (3.107) C Mαβ (k, t0 ) = hf (k, 0)| exp [QOB Qt] fα (k, 0)i . La ecuación de Langevin generalizada de las componentes de Fourier de la densidad local (3.98) y la ecuación de memoria de la función intermedia de la dispersión (3.99), son dos piedras angulares en la descripción de la dinámica de las dispersiones coloidales en las escalas de tiempo de Smoluchowski18 . Las funciones hidrodinámicas contienen el efecto promedio configuracional de las interacciones hidrodinámicas sobre la dinámica en escalas de tiempo cortas. En la actualidad existe un estudio extenso de las funciones hidrodinámicas. Gracias a esto, las propiedades de autodifusión en escalas de tiempo cortas de los sistemas coloidales abiertos se entienden satisfactoriamente. Estudios relacionados con las funciones hidrodinámicas incluyen teoría, simulación y experimento. Algunos trabajos representativos de estos estudios son [58, 57, 59, 60, 61] y las referencias que en ellos se citan. La difusión es un proceso de transporte muy conocido. Conviene escribir la ecuación de memoria en la forma ˆ t 2 (3.108) ∂t F(k, t) = −k dt0 DC (k, t0 )S−1 (k)F(k, t − t0 ), 0 en donde (3.109) D̃C (k, z) = DC,S (k) − 1 C M̃ (k, z)S−1 (k) k2 y (3.110) DC,S (k) = H(k)S−1 (k). A DC se le conoce como la matriz de los coeficientes de difusión colectiva, DC,S es la matriz de coeficientes de difusión colectiva en escalas de tiempo cortas τe (Secc. 3.2.3) y la tilde denota cantidades en el espacio de Laplace. La matriz de coeficientes de difusión colectiva en escalas de tiempo largas τe , denotada como DC,L , se define como el límite hidrodinámico de (3.109), esto es, (3.111) 18 D̃C,L = lı́m lı́m D̃C (k, z) = kB T µL S−1 (0), z→0 k→0 Frecuentemente se usa la terminología “ecuaciones cinéticas” para denominar a las ecuaciones de evolución de las funciones de algún conjunto de variables pertenecientes al espacio fase, ya sea posiciones o momentos o ambas. De acuerdo a esta terminología (3.98 y 3.99) son las ecuaciones cinéticas, en el espacio de Fourier, de la densidad local de partículas y de la función de distribución espacial-temporal de dos partículas, respectivamente. 46 Capítulo 3. Marco teórico y conceptual con k 2 /z constante. La matriz µL es simétrica y representa a las funciones de movilidad parciales, esto es, los coeficientes de transporte de partículas de Onsager. Las funciones de memoria contienen el efecto de las interacciones hidrodinámicas, así como el de las interacciones directas en cualquier escala de tiempo. El concepto de función de memoria es muy importante en la dinámica de casi cualquier sistema – una revisión interesante que muestra la versatilidad del formalismo de las funciones de memoria es [56]–. Como se ilustró anteriormente, los coeficientes de transporte de Onsager son formas límite de una función más general, la función de memoria. El alcance que tiene el concepto de función de memoria en la descripción de las propiedades dinámicas se ve limitado por el hecho de que su cálculo es muy complejo. Para cerrar esta sección comentaremos sobre la función de memoria de la función intermedia de la dispersión incoherente Fs . La función intermedia de la dispersión incoherente de una partícula de la especie α es la función de autocorrelación que describe la correlación de una partícula consigo misma. Sea niα (r, t) = δ(r − riα (t)), (3.112) la densidad local de la partícula iα , a la cual llamaremos la partícula trazadora, o simplemente la trazadora. La función intermedia de la dispersión incoherente de las partículas de la especie α se define como (3.113) Fs,α (k, t) = hexp [ik · (riα (t + t0 ) − riα (t0 ))]i . La ecuación de memoria asociada a Fs es ˆ (3.114) 2 t dt0 MS (k, t0 )Fs (k, t − t0 ). 0 ∂t Fs (k, t) = −k D Fs (k, t) + 0 A MS también se le llama función de memoria de una partícula o función de memoria de la autodifusión. En este trabajo nos hemos enfocado únicamente en la función de memoria de la difusión colectiva MC (k, t) . 4 Estudios previos sobre los efectos de memoria El conocimiento es de dos tipos. Sabemos el tema, o sabemos dónde podemos encontrar información acerca del tema. Samuel Johnson El estudio de las funciones de correlación espacio temporales de los líquidos, sobre la base del formalismo de las funciones de memoria se remonta hasta la década de los 1960’s, casi inmediatamente después de que Mori –inspirado en los trabajos de Zwanzig sobre las ecuaciones maestras [46]– obtuvo la ecuación de Langevin generalizada [47]. Para esos años las computadoras ya eran del dominio público y resultaron claves en el avance del estudio de la dinámica de los líquidos simples. También, estudios previos de dispersión en física nuclear –como el de Leo van Hove [15]– habían establecido las definiciones de las funciones de correlación necesarias para describir la dinámica de los líquidos. Las expresiones explícitas para las funciones de memoria (3.107) son formales y carecen de utilidad práctica. De hecho, buscar expresiones exactas para las funciones de memoria sobre esta base equivale a resolver la dinámica de Liouville y, por lo tanto, sería una búsqueda infructuosa. Para avanzar sobre la base del formalismo de las funciones de memoria en el estudio de las funciones de correlación debemos idear métodos matemáticos, numéricos y de simulación para saber más acerca de la naturaleza de las funciones de memoria. Los estudios numéricos y de simulación nos habilitan para modelar matemáticamente a las funciones de memoria, esto es, para hacer suposiciones razonables sobre las posibles formas funcionales para dichas funciones. También, sobre la base de consideraciones generales, podemos suponer a priori alguna forma funcional y a posteriori ajustar los parámetros de dichas funciones en base al conocimiento que poseemos. Por otro lado, también podemos formular teorías para calcular explícitamente los efectos de memoria. En esta sección comentamos algunos trabajos relacionados con estas aseveraciones. Primero hablaremos sobre estudios representativos sobre el formalismo de las funciones de memoria en la dinámica de Liouville de los líquidos simples. Luego hablaremos sobre los trabajos realizados en las dinámicas de Smoluchowski y de Langevin. Lo que se pretende es poner en contexto las grandes diferencias técnicas que pueden existir entre estas dinámicas y las complejidades adicionales que se presentan en las dinámicas disipativas. 47 48 Capítulo 4. Estudios previos sobre los efectos de memoria 4.1. Efectos de memoria: Dinámica de Liouville Dentro de los primeros estudios sobre las funciones de memoria de los líquidos simples podemos citar el trabajo de Akcasu y Duderstadt [62]. En este trabajo el formalismo de Mori es extendido al caso de proyectores continuos, para derivar la ecuación cinética con memoria correspondiente a la función de autocorrelación de la distribución de espacio fase –esta función es una generalización de la función de van Hove–. Depositaron especial atención en el caso de la función de autocorrelación de una partícula y en el estudio de su función de memoria, a la cual llamaron el núcleo de amortiguamiento, “damping kernel”. Estudiaron los modelos para la función de memoria que a continuación se mencionan. En la aproximación más simple consideraron que la función de memoria es cero para todo tiempo. Esto produjo una ecuación cinética tipo Vlasov. Como segunda aproximación, y como generalización de la primera, consideraron las ecuaciones cinéticas acopladas correspondientes a (a) la función de distribución de una partícula y (b) la componente perpendicular de la derivada temporal de dicha función de distribución. Llamaron a estas dos ecuaciones la descripción de dos componentes. La ecuación del caso (a) fue llamada la ecuación de la primera componente y la del caso (b) la de la segunda componente. Entonces supusieron que la memoria es cero en la ecuación de la segunda componente y obtuvieron un par de ecuaciones integro-diferenciales que involucran únicamente a la función de distribución y a una función de memoria, la cual posteriormente se puede eliminar para obtener una ecuación en la que interviene solamente la función de distribución. Este procedimiento se puede generalizar a una descripción de ncomponentes, suponiendo que la memoria de la n-ésima componente es cero. El inconveniente de este método es que las ecuaciones, aunque cerradas, se vuelven cada vez más complejas en cada etapa. Como tercera aproximación, consideraron un tratamiento perturbativo para calcular la memoria. En este tratamiento la cantidad perturbada es el operador de Liouville y la referencia es el operador de Liouville de la partícula libre. La primera aproximación es equivalente al límite Markoviano del que hablamos en la sección 3.2.3. La segunda aproximación es similar al método conocido como representación de las funciones de correlación en fracciones continuadas –aunque estrictamente no es lo mismo– [65, 66]. A continuación se mencionan otros trabajos relacionados con el estudio de las funciones de memoria de las funciones de distribución de los líquidos simples. (L1) Modelos funcionales exponenciales, conocidos como modelos de un tiempo de relajación (Duderstadt y Akcasu 1975, [63]) (L2) Las aproximaciones tipo Vineyard [67] que relacionan a la función de memoria de una partícula con la de muchas partículas en una descripción de varias componentes (Kim y Nelkim 1971, [68]). (L3) Las expansiones en series de potencias de la frecuencia en el espacio de Laplace (Yoshida y Takeno, 1975 [70]). 4.1. Efectos de memoria: Dinámica de Liouville 49 (L4) Cálculo de las funciones de memoria mediante el método de las funciones de Green termodinámicas (Mazenko 1971, [64]). (L5) Aproximación de dos modos de excitación (Götze y Lücke 1975, [69]). Actualmente, este esquema también se conoce como teoría de modos acoplados y dedicaremos una sección para su revisión. (L6) Trabajos en donde la función de memoria de la función de memoria –la segunda función de memoria– se expresa en términos de una parte de partícula libre, más una parte de interacción. La parte de interacción se modela en el tiempo como una función gaussiana en el caso de una sola partícula y con una expansión en frecuencias en el caso de la dinámica colectiva (Yoshida y Takeno 1977, [71, 72]). (L7) Los modelos de suma de funcionales exponenciales (Lantelme, Turq y Schofield 1979, [73] y referencias contenidas). (L8) Los modelos funcionales gaussianos (Denner y Wagner, 1984 [74]). (L9) Cálculo de función de memoria a partir de simulaciones de dinámica molecular en el cual se usan modelos estocásticos autorregresivos para las funciones de correlación. Los parámetros de estos modelos los ajustan con las trayectorias de la simulación. La función de memoria se obtiene discretizando la ecuación de memoria y usando una transformación conocida como la transformada Z. (Kneller y Hinsen 2001, [75]) (L10) En el estudio del límite de numero de onda y frecuencia pequeñas del factor de estructura dinámica de un líquido simple confinado entre dos placas (Porcheron y Schoen 2002, [76]). Estos autores usan un método numérico implementado por Berne y Harp [77]. El método de Berne y Harp es un método numérico con el cual se puede obtener la función de memoria dada la función intermedia de la dispersión y viceversa. El método consiste en usar la F (k, t) extraída de las simulaciones para obtener la memoria de la siguiente manera: (L10.1) Consideran la solución numérica de la ecuación de Volterra. La ecuación de Volterra es la ecuación de memoria con el primer cumulante incluido en la integral. (L10.2) Discretizan la primera derivada de la ecuación de Volterra. (L10.3) En tiempos cortos las derivadas temporales de F se calculan a partir de los primeros cuatro momentos, para tiempos largos usan una fórmula de interpolación para representar a los datos de simulación. (L10.4) Calculan cuatro valores iniciales para la memoria empleando el método de Day. (L10.5) Los valores de la función de memoria subsecuentes se calculan a partir de la primera derivada de F e iterando respecto a los valores iniciales que se calcularon con el método de Day y usando la formula de Gregory. (L11) Un método en el que la ecuación de Langevin generalizada se transforma en un conjunto de ecuaciones diferenciales, las cuales en principio son mucho más fáciles de resolver (Wilkie 2003, [78]). 50 Capítulo 4. Estudios previos sobre los efectos de memoria (L12) Técnicas de expansiones diagramáticas (Noah-Vanhoucke y Andersen 2007, [79] y referencias contenidas). Estos trabajos ilustran varias formas de atacar el problema. En la sección que sigue veremos que algunos poseen contrapartes análogas en la descripción de la dinámica coloidal. Los análogos en la dinámica coloidal que revisaremos en la sección siguiente corresponden a (L1 y L7, L2, L5). También comentaremos sobre trabajos similares a (L9 y L10), porque nuestro trabajo entra dentro de esta categoría. En este trabajo un modelo lorentziano –y su generalización a la función hiper-geométrica de Gauss– surge naturalmente de los cálculos numéricos y de simulación. Al parecer, éste es el primer trabajo que reporta acerca de la forma lorentziana como un modelo matemático para las funciones de memoria. 4.2. Efectos de memoria: Dinámicas disipativas 4.2.1. Dinámica de Smoluchowski I Dinámica de Smoluchowski Casos: Acoplamiento débil. Longitud de onda grande. Densidad pequeña. Esferas duras. SEXP. Empezamos esta revisión mencionando algunos estudios representativos de los efectos de memoria en la dinámica de Smoluchowski. Estos estudios fueron encaminados a dilucidar el comportamiento de la función de memoria en los límites de (a) interacciones débiles, (b) número de onda pequeño y (c) densidad pequeña. En la actualidad, solamente en límite de baja densidad contamos con expresiones explícitas para las funciones de memoria. Esto gracias a que en este límite el operador de evolución completo se puede aproximar con el operador de evolución de dos partículas. Los estudios aquí presentados ilustran distintas formas de atacar el problema con interacciones directas y con interacciones hidrodinámicas en diversos niveles de aproximación. Uno de los trabajos pioneros en la dinámica de Smoluchowski fue realizado por Bruce Ackerson (Ackerson, 1978 [20]1 ). En este trabajo se derivaron por primera vez las ecuaciones de memoria, colectiva y auto, para sistemas monodispersos en la dinámica de Smoluchowski. Ackerson considera las interacciones hidrodinámicas bajo la aproxima1 Tres años atrás Pusey y colaboradores habían identificado que la taza de decaimiento de F (k, t) en escalas de tiempo τ > τe es más pequeña que la correspondiente a las escalas de tiempo τ ≈ τS [80, 81], lo cual apuntaba a la importancia de estudiar los efectos de memoria. 4.2. Efectos de memoria: Dinámicas disipativas 51 ción de Oseen, es decir, usando los tensores de difusión de Kirkwood2 3σD0 1 Rij Rij (1 − δij ) Dij = D 1 + + 3 8 Rij Rij 0 (4.1) ! , en donde D0 es el coeficiente de difusión de Stokes-Einstein y Rij = Ri − Rj . Ackerson estudió las siguientes aproximaciones para la función de memoria. La aproximación de acoplamiento débil, que consiste en expandir la función de meP moria en potencias de la energía potencial por partícula coloidal N −1 N i6=j=1 uij (r). Aquí u es el potencial por pares y N es el número de partículas que se encuentran en el volumen V , en el límite termodinámico. Obtiene expresiones explícitas para la transformada de Laplace de las funciones de memoria M̂ C y M̂ S en términos del potencial manteniendo (i) la fuerza estocástica a primer orden en el potencial, (ii) el operador OB a orden cero en el potencial y (iii) ignorando las interacciones hidrodinámicas. Estas expresiones son3 (4.2) C M̂ (k, z) = n 3 (2π) D0 kB T 2 ˆ 2 d3 k 0 (k · k0 ) k · (k − k0 ) ũ (k0 ) ũ (k − k0 ) + (k · k0 ) ũ2 (k0 ) h i , 2 z + D0 k02 + (k − k0 ) y (4.3) M̂ S (k, z) = n 3 (2π) D0 kB T 2 ˆ 2 d3 k 0 (k · k0 ) ũ2 (k0 ) h i. 2 z + D0 k02 + (k − k0 ) Se observa que (a) M̂ C captura apropiadamente el límite de numero de onda pequeño, esto es, que M̂ C tiende a cero más rápido que µ(1) cuando k → 0. (b) En el límite de número de onda grande, en donde se monitorea el movimiento de una partícula, M̂ C también captura el comportamiento adecuado, pues la aproximación dice que la memoria crece más lento que el primer cumulante. (c) Se obtiene que M̂ S en numeros de onda pequeños no puede despreciarse en comparación con el primer cumulante, es decir, que en general FS no es exponencial para números de onda pequeños. Aproximación para números de onda pequeños. En esta aproximación mantiene las fuerzas estocásticas a primer orden en el número de onda y al operador de evolución P OB lo reemplaza por OB . Encuentra que (4.4) D E M̂ C (k, z) = kk L(0, 0)| (z − OB )−1 L(0, 0) 2 Este tensor lo derivó Kirkwood bajo la aproximación del campo de velocidades de Oseen. Jens Rotne y Stephen Prager introdujeron una corrección para este tensor, pues posee la propiedad de que no es positivo definido en todas las distancias. Ahora al tensor corregido se le conoce como tensor de Rotne-Prager [85]. Las interacciones hidrodinámicas en general no son aditivas por pares, pero en sistemas no muy concentrados se pueden aproximar como aditivas por pares. En la literatura existen muchas otras aproximaciones para las interacciones hidrodinámicas por pares. 3 En lo sucesivo añadiremos el símbolo de sombreritoˆa las transformaciones de Fourier-Laplace en el tiempo de la cantidad bajo el símbolo. Además, como hemos venido usando, la tilde ˜ indica a las funciones que se les aplica la transformación de Fourier en el espacio. 52 Capítulo 4. Estudios previos sobre los efectos de memoria y D E M̂ S (k, z) = kk LS (0, 0)| (z − OB )−1 LS (0, 0) . (4.5) En estas expresiones (4.6) L = L(k, 0) = − √ N X 1 Fsi · Dij · exp [ik · Rj (0)] N kB T i,j=1 y (4.7) N X 1 L = L (k, 0) = − √ Fsi · Dij · exp [ik · Rj (0)] N kB T i=1 S S En donde, como hemos venido manejando, T es la temperatura y FSi es la fuerza sistemática que experimenta la partícula i. Como es usual es el símbolo de contracción. Se observa que (1) en este límite M̂ C y M̂ S van como k 2 . (2) Que si se ignoran las interacciones hidrodinámicas, o bien si se mantienen pero la energía es aditiva por pares como suele suceder en los sistemas diluidos, entonces M̂ C = 0, independientemente de la intensidad de las interacciones directas por pares. Ackerson concluye que en sistemas diluidos monodispersos F (0, t) siempre es exponencial. Y (3) que en general M̂ S 6= 0 en consistencia con el inciso (c) de la aproximación de acoplamiento débil. Jones y Burfield generalizaron el trabajo de Ackerson al considerar sistemas polidispersos (Jones y Burfield 1982, [21]). Mostraron que la polidispersidad y la inclusión de una aproximación más precisa que la de Oseen para las interacciones hidrodinámicas incrementa la relevancia de los efectos de memoria. En [21], Jones y Burfield obtienen una expresión aproximada, pero explícita, para M̂ C en el límite de números de onda pequeños y densidades muy bajas. Dicha expresión es válida para sistemas de partículas con interacciones arbitrarias. Las interacciones hidrodinámicas las tomaron en cuenta bajo la siguiente aproximación4 Diα iα = Dα0 1 + Nα X Aαα (Riα jα ) + X β6=α jα = 1 jα 6= iα Nα X Aαβ Riα jβ jα = 1 jα 6= iα y Diα jβ = Biα jβ Riα jβ , iα 6= jβ , en donde a diferencia del trabajo de Ackerson, quién usó los tensores de Oseen cuya divergencia es cero, los tensores de difusión que ellos usan tienen divergencia no nula. Esto repercute en que, aún a muy baja densidad, los efectos de memoria no se pueden despreciar. 4 Las expresiones explícitas para A y B son demasiado extensas y corresponden a las ecuaciones (4.24.5) en [87]. No obstante, las expresiones explícitas no son necesarias para continuar la discusión. 4.2. Efectos de memoria: Dinámicas disipativas 53 Obtienen la expresión explícita para M̂C , bajo el argumento de que a baja densidad la 5 función de Green de (z− OB (ΓR )) se puede reemplazar por la función de Green de dos cuerpos asociada a z − OB Riα , Riβ . Además, consideran solamente las contribuciones por pares de partículas en la fuerza estocástica. La expresión es C M̂αβ (k, z) = k · Mαβ (z) · k + O(k 3 ), (4.8) con ˆ M̂ C αα (z) = X nν d3 Riα iν exp [−uαν (Riα iν ) /kB T ] hαν (Riα iν ) ν6=α ˆ d3 Ri0 α iν Gαν (Riα iν , R0 iα iν ; z) hαν Ri0α iν , M̂ C αβ ˆ h i √ (z) = nα nβ d3 Riα iβ exp −uαβ Riα iβ /kB T hβα −Riα iβ ˆ d3 Ri0 α iβ Gαβ Riα iβ , R0 iα iβ ; z hαβ Ri0α iβ α 6= β y 1 s Fiα iβ · Dβ0 1 + Aαβ Riα iβ − Bαβ Riα iβ kB T − ∇Riα · Aαβ Riα iβ − Bαβ Riα iβ , hαβ (Riα iβ ) = − en donde Gαν (Riα iν , R0 iα iν ; z) es la función de Green de dos cuerpos6 y se ha usado la forma de baja densidad para la función de distribución. Posteriormente, aplicaron estos resultados al estudio de un sistema de esferas duras [82]. Se observa que el término de la divergencia en h es el que contribuye al efecto de memoria. En esta aplicación ignoran las interacciones hidrodinámicas en el operador de evolución, pero las mantienen en las fuerzas fluctuantes. Encuentran que (4.9) P nν dαν (z) α = β M̂ αβ (k, z) = k 2 √ ν6=α nα nβ eαβ (z) α= 6 β en donde kB T dαν (z) = 2 3η eαν (z) = − kB T 3η !2 ˆ ∞ ˆ ∞ 0 0 dl0 Aαν 1 (l, l ; z)yαν (l ), dlyαν (l) %αν %αν !2 ˆ ∞ ˆ ∞ 0 0 dl0 Aαν 1 (l, l ; z)yαν (l ), dlyνα (l) %αν %να 5 Esto último es lo que se conoce como la aproximación de colisiones binarias y la función de Green se llama la función de Green de dos cuerpos. 6 Así como G, definiremos otras funciones en el espacio de Laplace y no les añadiremos el sombrerito. Esto es porque son funciones derivadas, en el espacio de Laplace, de otras que previamente se transformaron. En este caso la función transformada fue M C . 54 Capítulo 4. Estudios previos sobre los efectos de memoria yαν (l) = X αν = 5%3αν , Y αν = 27 4 X αν Y αν Z αν + 5 + 6 , l3 l l − 20 %α 2 %ν %5αν , Z αν = 125 3 3 % % , 12 α ν %αν = %α + %ν , 0 Aαν 1 (l, l ; z) i0 (vT ) q = i1 (v)k1 (v) − 10 k1 (v)k1 (v 0 ) , 2 k (v ) 1 T 2π Dαν Dαν /z " 3 # Dαν = Dα0 + Dν0 , s v= z l, Dαν s 0 v = q z 0 l, Dαν vT = z %αν Dαν y s q 2π In+1/2 (v), kn (v) = 2π Kn+1/2 (v) v v en donde In+1/2 , Kn+1/2 son las funciones de Bessel modificadas, el apóstrofe indica la derivada total respecto al argumento y %α = σα /2 es el radio de las esferas duras de la especie α. Además, recordemos que en la notación con la que hemos venido trabajando σα , nα y Dα0 son el diámetro, la densidad numérica parcial y Dα0 = kB T /3πησ con η la viscocidad de corte, es el coeficiente de difusión de Stokes-Einstein, de las partículas de la especie α respectivamente. in (v) = Esta expresión no puede evaluarse en forma cerrada, excepto en el límite de baja frecuencia. Realizando un análisis en el plano complejo obtienen que el efecto de memoria colectiva, a primer orden en la densidad en un sistema monodisperso, es el de cambiar el decaimiento inicial exponencial de F en escalas de tiempo pequeñas por un decaimiento de la forma t−5/2 en escalas de tiempo grandes 7 . Sin embargo, subrayan que este comportamiento de primer orden en la densidad sería observable solamente en escalas de tiempo τ & 20τe . Esta escala de tiempo es tan grande que los efectos de orden superior en la densidad podrían empezar a manifestarse y apantallar la aparición de dicho comportamiento. En trabajos posteriores, Jones y Felderhof [83, 84] encontraron modelos adicionales para las funciones de memoria de esferas duras en el límite de baja densidad. En [83] Jones propone la expresión8 (4.10) M̂ C (k, z) = −24φD0 k 2 ∞ X l = 0, 2, 4 · · · (2l + 1) kl (µσ) 0 2 [j (k%)] , µσ kl0 (µσ) l 7 Formas funcionales temporales de este tipo para las funciones de correlación suelen llamarse en inglés “long-time tails”. 8 Note que la expresión en [83] no tiene el signo − incluido aquí. Nosotros lo incluimos por consistencia porque el término integral de la ecuación de memoria en nuestra notación, que es la notación estándar en la actualidad y es la más intuitiva, lo tenemos sumando al primer cumulante. En cambio, Jones lo pone restando al primer cumulante y por eso nosotros debemos multiplicar por −1 a sus expresiones para M C . 4.2. Efectos de memoria: Dinámicas disipativas en donde φ = 4π%2 n/3 es la fracción de llenado y µ = k denotan a las funciones esféricas de Bessel. 55 q k 2 /4 − iz/2D0 . Las letras j y La expresión temporal para la función de memoria (4.10) se obtiene mediante la transformación de Fourier-Laplace inversa ˆ ∞ 1 C exp [−izt] M̂ C (k, z)dz, (4.11) M (k, t) = 2π −∞ mediante la identificación de los puntos de ramificación de (4.10). La expresión que resulta es 2 (4.12) 3φ (D0 k 2 ) M (k, t) = 2π ∞ X C j 0 (k%) (2l + 1) l k% l=0 l par ˆ en donde !2 ! Hl " D0 −D0 k 2 t t exp %2 2 # ∞ exp [−ρx/8] Dl (ρ)dρ, Hl (x) = 0 Dl (ρ) = ρ1/2 Pl ρ Pl−1 p−1 p−l+1 − (l + 1) p=0 (2p − l − 1) C (l, p) ρ p=0 C (l − 1, p) ρ 4 y C (l, p) = (2l − p)! (2l − 2p)! . p! [(l − p)!]2 La memoria colectiva (4.12) manifiesta decaimiento exponencial global de un tiempo de relajación. Jones hace la observación de que el término exponencial en (4.12) se debe a la difusión del centro de masa de un par de esferas. Tomando el límite asintótico cuando t → 0 encuentra que la memoria diverge como t−1/2 . Investigaciones concernientes a sistemas diluidos de partículas interactuantes, no solamente mediante el potencial de esfera dura sino también con potenciales de largo alcance9 , han sido realizadas por Dietrich, Peschel y Cichocki en el contexto del cálculo de la función de difusión. Observando la forma que tiene (3.109), comprendemos que estos estudios equivalen al cálculo de la función de memoria. Felderhof y Vogel (1992, [86]) comentan sobre los trabajos de Dietrich, Peschel y Cichocki. En [86] no trabajan sobre M C directamente, si no con la función Φ que se relaciona con M C en la forma (4.13) Φ̂(k, z) M̂ C (k, z) = 1+ 9 Φ̂(k,z) iz−k2 DC,Short . Debemos ser cuidadosos al hacer la afirmación potencial de largo alcance. Aquí nos referimos a que la interacción se extiende más allá del diámetro de la partícula pero tiene un alcance finito. Por lo tanto, a diferencia de las esferas duras, la partículas con interacciones de largo alcance pueden colisionar y dispersarse sin tocarse. Estrictamente, solamente los potenciales como el de Coulomb son de largo alcance en el sentido de que su alcance es extenso absolutamente. Entonces, hablando ligeramente, podemos considerar que un potencial de Yukawa puede ser de largo o de corto alcance si λD ≈ σ o λD > σ, respectivamente. 56 Capítulo 4. Estudios previos sobre los efectos de memoria la función Φ̂(k, z) tiene la ventaja de que su operador de evolución no está proyectado sobre el espacio complemento de {n(k, t)}. Esta función está dada por (4.14) Φ̂(k, z) = E 1 D f (k, 0)| (iz + OB )−1 f (k, 0) . N S(q) A primer orden en la densidad ˆ (4.15) Φ̂(k, z) = 2n d3 R21 g(R21 )UR21 (−k) [iz + OB,R21 ]−1 UR21 (k) + O(n2 ), en donde R21 = |R2 − R1 | es la distancia relativa entre dos partículas idénticas, g(R21 ) = exp [−u(R21 )/kB T ] es el límite de baja densidad de la función de distribución radial, OB,R21 = −Z(k, R21 ) + ∇R21 1 (∇R21 u(R21 )) · DR21 · ∇R21 , − kB T 1 Z(q, R21 ) = k · [D11 (R21 ) + D12 (R21 )] · k, 2 DR21 = 2 [D11 (R12 ) − D12 (R12 )] y 1 UR21 (k) = OB,R21 + D k cos k · R21 . 2 Para avanzar en el cálculo de Φ(k, z), Felderhof y Vogel identifican a h 0 2 i ρk (R21 ) = g(R21 )UR21 (k) como una densidad de carga libre y a (R21 ) = g(R21 ) DR21 2D0 como un tensor dieléctrico para reescribir a Φ(k, z) en la forma ˆ Φ(k, z) = d3 R21 ρk (R21 ) ψ1 (k, z; R21 ) , en donde ψ1 (k, z; R21 ) es solución a la ecuación [iz + OB,R21 ] ψ1 (k, z; R21 ) = UR21 (k) . En [88] Felderhof aplica estas expresiones para estudiar el coeficiente de difusión colectiva de tiempos largos de esferas duras con interacciones hidrodinámicas. 4.2. Efectos de memoria: Dinámicas disipativas 57 Hemos mostrado que los límites de numero de onda pequeño y densidad baja permiten obtener expresiones explícitas para las funciones de memoria. Expresiones cerradas, esto es formas funcionales explícitas, solamente se han podido obtener para sistemas de esferas duras en los dos límites mencionados. La expresión (4.12) ilustra el resultado típico: Una suma de exponenciales pesada con una función espectral [89]. Cichocki y Felderhof [89] afirman que las funciones de memoria siempre pueden representarse así, aun en sistemas concentrados y con interacciones de largo alcance. Se basan en un análisis de las propiedades de la función de memoria en el espacio complejo. En concreto, plantean que el efecto de las interacciones solamente es mover los polos de la función de memoria. En efecto, los modelos exponenciales para las funciones de memoria se han usado por un largo tiempo. Sin embargo, no en todos los casos estos modelos capturan el comportamiento adecuado en escalas de tiempo intermedias τS τ . τe . Como veremos más adelante, en la teoría de modos acoplados la aproximación más simple consiste en suponer que las funciones intermedias de dispersión son exponenciales y la función de memoria irreducible que resulta es precisamente la integral de F (k, t) con una estructura muy similar a (4.12). Arauz-Lara y Medina-Noyola propusieron un modelo para la función de memoria que consiste de una forma funcional exponencial. Este modelo se conoce como la aproximación de una sola exponencial y frecuentemente es referido como la SEXP (single exponential approximation). La SEXP consiste en suponer que (4.16) M SEXP (k, t) = a(k) exp [−b(k)t] . Luego, usando la ecuación de memoria, los primeros cuatro momentos m(0) (k), m(1) (k), m(2) (k) y m(3) (k)de F en la expansión (4.17) F (k, t) = ∞ X 1 (n) m (k)tn n=0 n! y con una aproximación para las funciones de distribución de tres puntos que aparecen en m(3) (k), se puede obtener a(k) y b(k) explícitamente en términos de las funciones de estructura estática. La SEXP a sido usada en el estudio se sistemas diluidos con interacciones. A continuación hablaremos sobre dos puntos de vista distintos, pero enfocados hacia el mismo objetivo de estudiar la dinámica de Smoluchowski como el límite sobreamortiguado de la dinámica de Fokker-Planck. La relevancia de la dinámica de Smoluchowski estriba en el hecho de que lo que se mide con mayor facilidad en los experimentos son las fluctuaciones de las posiciones de las partículas brownianas. El límite sobre-amortiguado ∞ (k) /M es el límite de la dinámica de Fokker-Planck en escalas de tiempo τ τB ≈ ζ̂αβ ∞ en donde ζ̂αβ (k) es el coeficiente de fricción de alta frecuencia. Ambos enfoques se basan en las ecuaciones de la hidrodinámica generalizada, la diferencia es que en uno se emplea el operador de Fokker-Planck para guiar la dinámica y en el otro se usa la ecuación de Langevin. El primer enfoque que comentaremos parte de la dinámica de Fokker-Planck y fue formulado como una extensión de la hidrodinámica generalizada de los líquidos simples 58 Capítulo 4. Estudios previos sobre los efectos de memoria al contexto de las partículas Brownianas por Walter Hess y Rudolph Klein entre finales de los 1970’s y principios de los 1980’s. El segundo enfoque que comentaremos se refiere a los trabajos que Medina-Noyola ha venido realizando basándose en la ecuación de Langevin y en el formalismo de contracción de la descripción aplicado a la jerarquía de ecuaciones de Langevin que surge en la hidrodinámica generalizada. 4.2.2. Hidrodinámica generalizada y aproximación viscoelástica Una enfoque alternativo a la dinámica de las dispersiones coloidales es la hidrodinámica generalizada[41, 9]. En la hidrodinámica generalizada, el estudio parte de las ecuaciones de evolución acopladas para las componentes de Fourier de (a) la densidad local y (b) la densidad de corriente. Estas ecuaciones son ∂t ñ(k, t) = −∇ · j̃(k, t) (4.18) y (4.19) ∂t j̃(k, t) = −∇p̃(k, t) + ∇ · σ̃(k, t) + f̃ f ricción (k, t) = −∇p̃(k, t) + f̃ (k, t). En estas ecuaciones p̃(k, t), σ̃(k, t), f̃ (k, t)’s y j̃(k, t) son las transformaciones de Fourier espaciales de la presión local, del tensor de esfuerzos local, de las fuerzas hidrodinámicas locales y de la densidad de corriente, respectivamente. La densidad de corriente está dada por (4.20) N Pi 1 X exp [ık · Ri (t)] j̃(k, t) = √ N i=1 M Para resolver las ecuaciones de la hidrodinámica generalizada se proponen dos ansatz: (1) la ley de Fick generalizada ˆ (4.21) t D(k, t − t0 ) · ∇ñ(k, t)dt0 , t ≥ 0, j̃(k, t) = − 0 (4.22) δ j̃(k, t) D(k, t − t ) = − δ (∇ñ(k, t0 )) ∇ñ=0 0 y (2) el ansatz hidrodinámico ˆ (4.23) t ζ(k, t − t0 ) · j̃(k, t)dt0 , t ≥ 0, f̃ (k, t) = − 0 (4.24) ζ(k, t − t0 ) = − δ f̃ (k, t) δ j̃(k, t0 ) . j̃=0 4.2. Efectos de memoria: Dinámicas disipativas 59 A D(k, t − t0 ) se le llama función generalizada de difusión y a ζ(k, t − t0 ) función generalizada de fricción. Las funciones generalizadas de difusión y de fricción, son las funciones de respuesta de la densidad de corriente respecto a fluctuaciones del gradiente de densidad local, y de las fuerzas hidrodinámicas con respecto a las fluctuaciones de densidad de corriente, respectivamente. Mediante estos ansatz se obtienen las ecuaciones generalizadas de continuidad ˆ t 2 D(k, t − t0 )ñ(k, t)dt0 , t ≥ 0, (4.25) ∂t ñ(k, t) = −k 0 y de Navier-Stokes (4.26) ˆ t ζ(k, t − t0 ) · j̃(k, t)dt0 , t ≥ 0. ∂t j̃(k, t) = −∇p̃(k, t) − 0 Estas ecuaciones junto con (4.27) p̃(k, t) = kB T n(k, t) S(k)f 0 (k, t) y con las expresiones o modelos para las funciones D y ζ forman el corazón de la hidrodinámica generalizada. Así como las funciones de memoria, D y ζ son objetos muy difícil de calcular. Hemos agregado una variable dinámica más a la descripción, la densidad de corriente. Para describir la densidad de corriente introducimos además a la nueva función ζ que contiene los efectos de fricción y de viscocidad. Sea C|| (k, t) la función de autocorrelación de la densidad de corriente paralela al vector k, la también llamada función de autocorrelación de la componente longitudinal, y ζ|| (k, t) a su función generalizada de fricción. Debido al acoplamiento entre las fluctuaciones de la densidad y la componente longitudinal de la densidad de corriente, D(k, t) y ζ|| (k, t) se relacionan mediante (4.28) D̂(k, z) = 1 kB T . M S(k) z + ζ̂|| (k, z) Esta expresión se llama relación de Stokes-Einstein generalizada (pie 17 en el capítulo anterior). La teoría de respuesta lineal permite obtener expresiones, en la forma de funciones de autocorrelación, para las funciones de respuesta D(k, t) y ζ|| (k, t). La relación de Stokes-Einstein permite obtener a D(k, t) en términos de ζ|| (k, t) así que sólo se tiene que calcular ζ|| (k, t). La ecuación de memoria para F se puede escribir en el espacio de Laplace como (4.29) F̂ (k, z) = S(k) , z + D̂(k, z)k 2 por lo tanto podemos considerar que ζ|| (k, t) es la función de memoria de D(k, t). Mediante la teoría de respuesta lineal en la dinámica de Fokker-Planck Hess y Klein derivan la expresión para ζ̂αβ (k, z). Dicha expresión resulta al estudiar la respuesta de la fuerza generalizada con respecto a las fluctuaciones de corriente y es (4.30) ∞ (k) + 4ζ̂αβ (k, z), ζ̂αβ (k, z) = ζ̂αβ 60 Capítulo 4. Estudios previos sobre los efectos de memoria en donde (4.31) (4.32) (4.33) ∞ (k) ζ̂αβ 1 =− hjα (k)|fβ (k)i , M N kB T 4ζ̂αβ (k, z) = ηαγδβ (k, z) = kγ kδ f ricción ηαγδβ (k, z) + 4ζ̂αβ (k, z), n E kB T D σαγ (k)| [z − QOF P ]−1 σδβ (k) V y (4.34) f ricción 4ζ̂αβ (k, z) = − E kB T D f ricción Qfα (k) | [z − QOF P ]−1 Qfβf ricción (k) . N ∞ (k) se le conoce como el coeficiente de fricción de alta frecuencia, a ηαγδβ (k, z) A ζ̂αβ f ricción (k, z) es la contribución de fricción. Esta última como el tensor de viscocidad y 4ζ̂αβ cantidad surge de las interacciones hidrodinámicas, esto es, sin interacciones hidrodif ricción námicas 4ζ̂αβ (k, z) = 0. El operador Q proyecta sobre el espacio perpendicular a las densidades de partículas y de corriente. Expresiones exponenciales para las funciones de memoria surgen de forma natural en el contexto de la teoría viscoelástica. Esta teoría reproduce adecuadamente el límite de tiempos cortos, así como el límite hidrodinámico. La teoría viscoelástica se basa en la siguiente aseveración: A alta frecuencia un fluído posee cierta rigidez. Esto puede visualizarse imaginando que en cierto instante de tiempo todas las partículas del fluido están en un mínimo de su paisaje de energía. Esta condición no puede mantenerse por mucho tiempo, ya que la estructura fluctua y pasa a las partículas a un nuevo mínimo en una intervalo de tiempo promedio ∆salto t τe . Sin embargo, si aplicamos un impulso a una partícula durante un intervalo de tiempo mucho menor que ∆salto t, entonces la partícula experimentará una fuerza restauradora hacía el mínimo donde se encontraba en el momento de la aplicación de la fuerza. Por ello, se dice que el fluido adquiere rigidez en intervalos de tiempo cortos. En tiempos cortos se puede obtener que (4.35) f̃ (k, t) = −ζ ∞ (k) · j̃(k, t) − ∆ζ(k, 0) · X (Ri (t) − Ri (0)) . i Por otro lado, si se supone que la función de fricción se relaja mucho más rápido que la densidad de corriente10 (4.36) 10 ˆf̃ (k, z) = −ζ ∞ (k) · ˆj̃(k, z) − ∆ζ̂(k, 0) · ˆj̃(k, z). Recordemos que ˜ identifica a una trasformación de Fourier espacial y ˆ a una de Laplace. En lo sucesivo ˆ ˜ indicará que se han aplicado ambas transformaciones sobre la función bajo el adorno. 4.2. Efectos de memoria: Dinámicas disipativas 61 Entonces, en tiempos cortos la fuerza generalizada contiene una parte friccional y una parte elástica. En cambio, en tiempos largos es puramente friccional. La aproximación viscoelástica consiste en interpolar los límites del párrafo anterior de tal manera que (4.37) ∆ζ̂ || (k, z) = ∆ζ̂ || (k, 0) −1 , z + τ||M (k) en donde τ||M (k) es el tiempo de relajación de Maxwell de las fluctuaciones longitudinales de corriente. Usando esta aproximación en (4.28 y 4.25) se ve que esta aproximación implica que F̂ (k, z) tendrá tres polos y por lo tanto F (k, t) una variación exponencial de tres tiempos de relajación. Así mismo, D tendrá una variación exponencial de dos tiempos de relajación. El esquema de hidrodinámica generalizada mencionado anteriormente data desde la teoría de los líquidos simples. Hess y Klein desarrollaron el esquema correspondiente para partículas brownianas en el contexto de la dinámica de Fokker-Planck [41]. La diferencia principal entre ambos esquemas radica en el hecho de que en los líquidos simples no existen las interacciones hidrodinámicas, ni el fondo que ejerce fricción, de tal manera que la función de fricción (4.30) en los líquidos simples solamente posee la parte del tensor de viscocidad y la parte de alta frecuencia es una constante. En [41] Hess y Klein estudian la dinámica de Smoluchowski como una forma límite de sus estudios de la dinámica de Fokker-Planck, como el límite fuertemente sobreamortiguado ∞ (k) /M . En el límite fuertemente sobre-amortiguado τ ζ̂αβ ˆ (4.38) 2 ∞ ∂t F (k, t) = −k D (k)F (k, t) + k t ∆D(k, t − t0 )F (k, t)dt0 , t ≥ 0, 2 0 D∞ (k) = (4.39) kB T 1 S(k) ζ||∞ (k) y (4.40) ∆D̂(k, z) = D∞ (k)∆ζ̂|| (k, z) 1 . ∞ ζ|| (k) 1 + ∆ζ̂|| (k, z)/ζ||∞ (k) En la aproximación viscoelástica la función generalizada de difusión es (4.41) ∆D̂(k, z) = D∞ (k)∆ζ|| (k, 0) 1 −1 , ∞ ζ|| (k) z + τDM (k) y entonces la función de memoria de F es la exponencial (4.42) ∆D(k, t) = h i D∞ (k)∆ζ|| (k, 0) M exp −t/τ (k) , t ≥ 0. D ζ||∞ (k) 62 Capítulo 4. Estudios previos sobre los efectos de memoria Entonces, F tendrá dos modos de decaimiento exponencial. La escala de tiempo τDM (k) es el tiempo de relajación de Maxwell de la función de difusión y está dado por (4.43) −1 τDM (k) = ∆ζ|| (k, 0) ζ̂|| (k, z) . ζ||∞ (k) ∆ζ̂|| (k, z) Hess y Klein remarcan la dificultad de interpretar físicamente los dos modos de decaimiento de F , excepto en casos muy particulares. Estos modos están dados por las frecuencias características −1 τ1,2 −1 1 (1) µ (k) + τDM (k) = 2 ± 1 (1) µ (k) − τDM (k) 2 −1 1/2 (2) 1 − 4µ (k) −1 2 µ(1) (k) − τDM (k) en donde µ(i) es el i-ésimo cumulante de F (4.44) µ(i) (k) = − lı́m+ ∂t ln F (k, t), t→0 (4.45) µ(1) (k) = k 2 D∞ (k) = (4.46) µ(2) (k) = −µ(1) (k) 4.2.3. k 2 kB T , S(k) ζ||∞ (k) ∆ζ|| (k, 0) . ζ||∞ (k) Hidrodinámica generalizada y teorema de estacionaridad Ambos, Hess y Klein, y Yeomans-Reyna y Medina-Noyola parten de la extensión de la hidrodinámica generalizada de los líquidos simples al caso de las suspensiones coloidales. Esta extensión implica el uso de ecuaciones de Langevin generalizadas para las cantidades mesoscópicas/macroscópicas. Sin embargo, una vez que estas ecuaciones generalizadas para las densidades locales se han definido, cada par de autores toma una ruta distinta para estudiar la estructura de estas ecuaciones11 . Además, las definiciones de las ecuación de Langevin generalizadas que proporcionan también es distinta, mientras Hess y Klein las planean en términos de funciones de respuesta Yeomans-Reyna y Medina-Noyola se basan en el teorema de estacionaridad discutido por Medina-Noyola y Del Río-Correa [92]. Entonces Hess y Klein basan su estudio en (a) las ecuaciones de Langevin generalizadas de las fluctuaciones de la densidad y de corriente, en (b) la teoría de respuesta lineal 11 Recordemos que la ecuación de Langevin generalizada es un resultado formal que nos da información únicamente del cumulante de primer orden, y que toda la demás información está condensada en la función de memoria. 4.2. Efectos de memoria: Dinámicas disipativas 63 para obtener las expresiones matemáticas para las funciones de respuesta, en (c) el formalismo de operadores de proyección para contraer la parte dinámica microscópica, y (d) en el operador de evolución de Fokker-Planck para guiar la evolución de las variables dinámicas. Posteriormente, toman el límite de sobreamortiguamiento12 . Por otro lado, Yeomans-Reyna y Medina-Noyola parten del teorema de estacionaridad que establece, en términos generales, la estructura matemática de la ecuación de evolución de los procesos estocásticos estacionarios. El teorema se fundamenta bajo la condición de que la estructura matemática de las ecuaciones debe preservar el teorema de fluctuación disipación bajo contracciones de la descripción [92]. Posteriormente, consideran la ecuación de Langevin de N partículas [42] para poder obtener la información microscópica que determina el comportamiento de la función de memoria13 . El resultado que obtienen es una jerarquía de funciones de memoria. Haciendo aproximaciones sobre los elementos de la jerarquía de orden mayor que M C , pueden obtener expresiones no triviales para M C . A continuación bosquejamos las ideas generales de este esquema. El teorema de estacionaridad establece que: la ecuación diferencial estocástica más general que describe un proceso estocástico estacionario n-variado a(t) = {ai (t)}ni=1 debe tener la forma ˆ t d −1 L(t − t0 )a(t0 )dt0 + f (t), a(t) = −ωχ a(t) − (4.47) dt 0 (4.48) ω = −ω † , (4.49) χ = ha(0)|a(0)i , (4.50) L(t) = hf (0)|f (t)i . En donde la matriz L = L† . Las condiciones de simetría y las relaciones de Onsaguer ayudan a identificar cuales elementos de las matrices ω y L son nulos y también permiten determinar a ω. Como las funciones de memoria contienen información microscópica, no pueden determinarse únicamente a partir de argumentos fenomenológicos pertenecientes al mundo micro- o mesoscópico. En esto último ayuda la ecuación de Langevin, para obtener más información acerca de los elementos de L que quedan indeterminados. En este contexto, el trabajo de Hess y Klein corresponde al caso a = {n, j}. Vimos que la introducción de la nueva variable j agrega a la descripción la función de memoria ζ cuya componente longitudinal es la función de memoria de D, siendo a su vez D la función de memoria de n(k, t). Por lo tanto, podemos decir que ζ es la memoria de 12 En cierto sentido, la formulación de Hess y Klein es la extensión de la mecánica de Liouville para estudiar partículas brownianas. 13 Podemos decir, entonces, que la formulación de Medina-Noyola y colaboradores es como la extensión de la mecánica de Newton al los sistemas de partículas brownianas. Tal vez por ello la formulación de Hess y Klein parezca un poco mas “oscura”, ya que condensa más la información. 64 Capítulo 4. Estudios previos sobre los efectos de memoria segundo orden de n(k, t). Hemos visto que una memoria de segundo orden con un polo produce una memoria de primer orden con dos polos. En otras palabras, vimos que la estructura de la memoria de primer orden es más rica que la de la memoria de segundo orden. Por lo tanto, no es sorprendente que haciendo aproximaciones triviales sobre la memoria de segundo orden se obtengan resultados no triviales para la memoria de primer orden14 . La idea, entonces, es aumentar el número de elementos de a para tener una descripción más detallada que permita conocer más acerca de la función de memoria del orden más bajo. Desde luego, cada nuevo elemento debe decirnos algo sobre la dinámica del elemento precedente. Esta forma sistemática de estudiar a las suspensiones coloidales tiene un análogo en el estudio de los líquidos simples de Kim y Nelkim mencionados en la sección 4.1 como el trabajo (L2) . Alarcón-Waess y Medina-Noyola introdujeron un nuevo elemento que proviene de la ecuación de balance de j|| . Usando la definición de densidad de corriente (4.20) y la ecuación de Langevin de N partículas (3.56) se puede escribir [91] (4.51) ∂t j̃|| (k, t) = − f˜0 (k, t) ζ0 j̃|| (k, t) + + ikδ p̃(k, t) + ikδσ̃ 0 (k, t), M M en donde δ p̃(k, t) y δσ̃ 0 (k, t) = δσ̃(k, t)−δ p̃(k, t) describen las fluctuaciones de la presión local y de la componente isotrópica diagonal del tensor de esfuerzos, respectivamente. Además, 1 X k · Fsi (t) exp [ık · Ri (t)] (4.52) f˜0 (k, t) = √ N i y ζ 0 es ζ̂ ∞ sin interacciones hidrodinámicas. El nuevo elemento introducido en la descripción es el tensor de esfuerzos. A continuación se presenta la jerarquía de ecuaciones de Langevin generalizadas en cada uno de los niveles de descripción. (4.53) 15 a = {n} ˆ t 2 ∂t ñ(k, t) = −k DC (k, t − t0 )S(k)−1 ñ(k, t)dt0 + f˜n (k, t). Para el primer nivel 0 n Para el segundo nivel a = n, j|| (4.54) o ∂t ñ(k, t) = −ωn|| χ−1 || j̃|| (k, t), 14 Esto nos recuerda al caso de los potenciales efectivos en donde suposiciones triviales sobre las funciones de correlación directa produce potenciales efectivos altamente no triviales. 15 La función Lnn no es la función de memoria M C definida en la sección 3.2.7, pero notemos que difiere del coeficiente de difusión colectiva DC por un factor k 2 , Lnn = k 2 DC , y de la función de difusión de Fick por un factor S, Lnn = D × S. Entonces, por consistencia con la notación que venimos manejando en esta revisión reemplazaremos en las expresiones de [91] a Lnn por Lnn = k 2 DC . Además, atendiendo a la forma de la ecuación local de estado (4.27), identificamos que si L|| denota al elemento de L en la dirección paralela a k, entonces L|| = ζ|| χ|| y también haremos este reemplazamiento. 4.2. Efectos de memoria: Dinámicas disipativas 65 y ˆ (4.55) t ζ|| (k, t − t0 )j̃|| (k, t)dt0 + f˜|| (k, t). −1 ∂t j̃|| (k, t) = −ω||n S(k) ñ(k, t) − 0 n Para el tercer nivel a = n, j|| , σ o ∂t ñ(k, t) = −ωn|| χ−1 || j̃|| (k, t), (4.56) (4.57) ∂t j̃|| (k, t) = − (4.58) ζ0 f˜0 (k, t) + ikδ p̃(k, t) + ikδσ̃ 0 (k, t), j̃|| (k, t) + M M ∂t σ̃(k, t) = −ωσ|| χ|| −1 ˆ t 0 0 ˜ Lσσ (k, t − t0 )χ−1 σσ σ̃ (k, t)dt + fσ (k, t). j̃|| (k, t) − 0 En el primer nivel de descripción tenemos que (4.59) F̂ (k, z) = S(k) z+ k 2 D̂C (k, z)S −1 (k) . Combinando las ecuaciones del segundo nivel y comparando con la anterior se ve que (4.60) D̂C (k, z) = χ|| z + ζ̂|| (k, z) . Y por último (4.61) k 2 χσσ χ−1 ζ0 || ζ̂|| (k, z) − = . −1 M z + χσσ L̂σσ En todas estas expresiones χ|| = kB T /M , ωn|| = −ikχ|| y ωjσ = −ikχσσ con χσσ dada en términos de la estructura estática del sistema " !# !2 ˆ kB T 1 − cos kz 1 kB T 3 2 3kB T + n d rg(r)∂z [u(r)] − . (4.62) χσσ (k) = M2 k2 S(k) M Hess y Klein propusieron que como la parte cinética del tensor de esfuerzos σK se relaja mucho más rápido que la parte de interacción σU , entonces únicamente esa otra parte debería de considerarse en χσσ . Yeomans-Reyna y Medina-Noyola formalizaron esa sugerencia introduciendo en su descripción el tensor n de esfuerzos o descompuesto en sus partes cinética y potencial. Consideraron que a = n, j|| , σK , σU y obtuvieron que en el límite de sobre-amortiguamiento (4.63) F̂ (k, z) = S(k) z+ k2 D0 S −1 (k) k2 D 0 χU U χ−2 || 1+ z+χ−1 L̂U U (k,z) UU . 66 Capítulo 4. Estudios previos sobre los efectos de memoria En esta expresión " kB T kB T + n (4.64) χU U (k) = M2 ˆ 1 − cos kz d3 rg(r)∂z2 [u(r)] k2 !# 1 − S(k) kB T M !2 . Este par de ecuaciones (4.63 y 4.64) reproduce exactamente los primeros tres momentos m(0) , m(1) , m(2) , de la función intermedia de dispersión que fueron calculados previamente por Ackerson a partir del operador de evolución de Smoluchowski [93]. Aplicando el mismo procedimiento para el estudio de Fs obtienen que (4.65) F̂s (k, z) = 1 z+ k2 D0 (S) −2 k2 D 0 χ χ U U || 1+ (S) −1 (S) z+ χ L̂ (k,z) UU UU ( ) con (4.66) (S) χU U (k) = χ−2 || ˆ d3 rng(r)∂z2 [u(r)/kB T ] . k2 Como subrayan Yeomans y Medina, el propósito de este tipo de construcciones no debe ser el de reproducir los momentos o condiciones de tiempos cortos de F , ya que para ello existen métodos de calculo que pueden ser mas directos. El propósito debe ser dilucidar formas funcionales razonables para DC o M C a partir de esta serie de aproximaciones. Arauz y Medina [90] previamente habían calculado m(3) para hacer el ajuste de una exponencial que se mencionó al final de la sección 4.2.1. Entonces, Yeomans y Medina usaron este resultado para extrapolar cómo sería la función de Memoria. Para poder hacer esto, se debe proponer una forma funcional para L̂U U que cumpla con la condición del tercer momento. Desde luego, la primer suposición plausible es escribir LU U (k, t) = L(0) (k)δ(t) + ∆LU U (k, t) , es decir, identificar primero a la parte markoviana del proceso estocástico σU U a la cual se le denota como L(0) (k). Lo que hacen Yeomans y Medina es hallar aquel L(0) (k) que cumple con la condición del tercer momento, es decir, hallar el L(0) (k) tal que con el se pueda obtener el tercer momento. Luego, suponen que ∆LU U (k, t) = 0 y recuperan la SEXP. Las expresiones para la SEXP en el lenguaje de la ecuación generalizada de Langevin quedan como (4.67) F̂ (k, z) = S(k) z+ k2 D0 S −1 (k) (SEXP) 1+ζ̂|| (k,z) , con (4.68) (SEXP) ζ̂|| (k, z) = k 2 D0 χU U χ−2 || (0) z + χ−1 U U L (k) y (4.69) F̂s (k, z) = 1 z+ k2 D0 S(SEXP) 1+ζ̂|| (k,z) 4.2. Efectos de memoria: Dinámicas disipativas 67 con (S) (4.70) S(SEXP) ζ̂|| (k, z) = k 2 D0 χU U χ−2 || (S) −1 z + χU U LS(0) (k) Una aplicación que Yeomans, Medina y Acuña-Campa [94] hacen del formalismo anterior se refiere a una serie de aproximaciones del tipo Vineyard [67] para las funciones de memoria. La aproximación de Vineyard más simple consiste en suponer que F = SFs . En el contexto de los líquidos simples ya se había considerado la aproximación de Vineyard que relaciona a la función de memoria de una partícula con la memoria colectiva. El trabajo pionero en esa linea fue el de Kim y Nelkim mencionado como (L2) en la sección 4.1. Sin embargo, no se había extendido esa noción al caso de los líquidos coloidales hasta el trabajo [94]. Yeomans, Acuña y Medina, sobre la base de la jerarquía de ecuaciones de memoria en el formalismo de la dinámica de Langevin desarrollado por ellos mismos, propusieron aproximaciones de Vineyard que relacionan a la función de memoria colectiva del tensor de esfuerzos con la correspondiente a la autodifusión [94]. En ese trabajo fueron más allá de la suposición de que la parte no markoviana de la función de memoria de tercer orden es cero, es decir, mas allá de la SEXP. Para ello, relacionaron a las partes no markovianas a través de aproximaciones de Vineyard. A través de cálculos numéricos llegaron a la 0 0 S S conclusión de que la aproximación de Vineyard más precisa es ∆L̂/L = ∆L̂ / L . La metodología que usaron para realizar el estudio numérico consiste (a) en calcular a partir de las simulaciones a F y Fs , (b) a partir de Fs obtener ∆L̂S , (c) con las aproximaciones de Vineyard calculan la F correspondiente, a la cual podemos denotar como F ∼ , y (d) compararon a F con F ∼ en la posición del máximo principal kmax del factor de estructura estática. Un punto que no se discute en este trabajo con detalle es el problema de la inversión de Laplace. En este trabajo nos enfrentamos a este problema y nos dimos cuenta de que es un problema de análisis numérico muy complicado. En efecto, los matemáticos lo identifican como un “ill-posed problem” debido al comportamiento singular del kernel de la transformación (Ver por ejemplo, [96]). Sin embargo, es notable la concordancia que obtienen entre F y F ∼ en la que concluyen que es su mejor aproximación. Hasta este punto la parte de los trabajos de Hess y Klein fincados sobre la teoría de respuesta lineal, así como los trabajos mencionados de Medina-Noyola y colaboradores, son inconsistentes en el sentido de que las ecuaciones no quedan cerradas. Puesto en otras palabras, se obtienen las ecuaciones de memoria y se hacen algunas aproximaciones concernientes a su estructura, las cuales están basadas en formas límite o condiciones iniciales del comportamiento de F , pero las ecuaciones sin tales aproximaciones no se pueden resolver autoconsistentemente debido a la falta de una relación de cerradura que relacione a las funciones de memoria con las demás cantidades, y con las condiciones iniciales de la estructura. Recordemos que lo mismo pasa en la estructura estática, pues no se sabe a ciencia cierta como son las funciones puente. En efecto, para cerrar el sistema de ecuaciones en la dinámica también debemos recurrir a aproximaciones. 68 Capítulo 4. Estudios previos sobre los efectos de memoria La forma en que Hess y Klein cerraron sus ecuaciones es la conocida como teoría de modos acoplados de segundo orden. Dedicaremos la siguiente sección para discutir la teoría de modos acoplados. Medina y Yeomans también formularon una teoría autoconsistente como culminación de los dos trabajos que hemos comentado en esta sección. A continuación bosquejamos la teoría de Medina-Noyola a la cual él llama la ecuación de Langevin autoconsistente de la dinámica coloidal [95]. Las aproximaciones de Vineyard de Yeomans, Campa y Noyola fue el primer paso que se dió hacia la formulación autoconsistente de la dinámica colectiva sobre la base de la ecuación de Langevin generalizada, esto es, Medina y colaboradores toman el punto de vista de que la dinámica colectiva debe relacionarse de forma sencilla con la dinámica de una partícula. Por lo tanto, para cerrar el esquema proponen un método para calcular Fs autoconsistentemente. Este método, a su vez, parte de la suposición intuitiva de que la función Fs debe relacionarse de forma sencilla con las propiedades que caracterizan –que no es lo mismo que las que lo determinan– la dinámica difusiva de una partícula browniana, como por ejemplo el m.s.d.. De hecho, lo que proponen es relacionar a M S con la función de memoria del m.s.d., esto es, con la parte no markoviana de la función de fricción ζ(t) en la ecuación de Langevin generalizada para una partícula (3.68) la cual como se ha venido haciendo se denota como ∆ζ(t). Previamente Medina-Noyola había desarrollado un esquema de contracción de la descripción [43] en el cual relaciona a ∆ζ(t) con F y Fs y con ello la descripción se vuelve autoconsistente. Una relación de cerradura que proponen es M̂ S (k, z) = (4.71) con la expresión aproximada (4.72) kB T n ∆ζ (t) = (2π)3 ζ 0 ∆ζ̂(z) = ∆ζ̂ ? (z) ζ0 ˆ ? d3 k [kz h(k)]2 F (k, t)Fs (k, t). 1 + nh(k) El sistema se cierra con una aproximación de Vineyard que relaciona a M C con M S . Sin embargo, esta aproximación puede ser precisa solamente en números de onda pequeños. Esto se debe al hecho de que las propiedades de autodifusión están dadas únicamente por M̂ S en el límite de numero de onda pequeño. Para mejorar la aproximación anterior proponen una interpolación de M S entre los (SEXP) comportamientos ∆ζ̂ ? (z) para números de onda pequeños y ζ̂ || (k, z) para números de onda grandes. Para realizar esto toman como función a interpolar a ∆LSU U (k, t), a través de una función de interpolación α(k), proponiendo que (4.73) ∆LSU U (k, t) = k 2 D0 (S) 2 χU U χ−2 || 1 ∆ζ̂ ? (z) − 1 (SEXP) ζ̂ || (k, z) α(k) y que la función de interpolación deba cumplir lı́mk→0 α(k) = 1 y lı́mk→∞ α(k) = 0. Arbitrariamente escogen la función (4.74) α(k) = 1 1+ k kc ν , 4.2. Efectos de memoria: Dinámicas disipativas 69 con la cual obtienen una relación de cerradura directa entre la función de memoria de segundo orden no markoviana ζ̂ S|| (k, z) y la función de fricción dependiente del tiempo S(SEXP) ∆ζ̂ ? (z), a través de la parte markoviana ζ̂ || Dicha cerradura es (4.75) S(SEXP) ζ̂ S|| (k, z) = ζ̂ || (k, z) y de una nueva función λ(k). h S(SEXP) (k, z) + ∆ζ̂ ? (z) − ζ̂ || i (k, z) λ(k) con S(SEXP) (4.76) λ(k) = ζ̂ || ∆ζ̂ ? (z) + h (k, z)α(k) S(SEXP) ζ̂ || (k, z) i − ∆ζ̂ ? (z) α(k) de tal manera que lı́mk→0 λ(k) = 1 y lı́mk→∞ λ(k) = 0. Incluyendo a las aproximaciones Vineyard, lo único que les falta en su esquema es determinar a los parámetros kC y ν en la función de interpolación. La determinación de estos parámetros la efectúan mediante la comparación de la soluciones de su sistema autoconsistente con los resultados que se obtienen de simulaciones, barriendo una gama de valores posibles para ν y kC , en un sistema bidimensional de referencia compuesto de partículas brownianas de Yukawa y notando cuales valores ajustan mejor los datos de ese sistema de referencia. Llegan a la conclusión de que para los sistemas bidimensionales de partículas de Yukawa las elecciones óptimas son ν = 2 y kC = kmin , en donde kmin es el número de onda que localiza el primer mínimo de S(k) . Recientemente, la teoría estudiada en esta sección se ha extendido al estudio de mezclas [97]. Sin embargo, como mencionan en [97] esta teoría aún carece de una forma simple para introducir las interacciones hidrodinámicas, así como tampoco puede tratar de forma rigurosa los sistemas de esferas duras. 4.2.4. Dinámica de Smoluchowski II. Teoría de modos acoplados Hasta este momento hemos considerado dos esquemas autoconsistentes: La aproximación de acoplamiento débil y la teoría autoconsistente de la ecuación de Langevin generalizada. Sin embargo, la aproximación de acoplamiento débil es muy limitada y en la practica su realización no es de interés. En esta sección comentaremos sobre el esquema autoconsistente denominado teoría de modos acoplados (MMCA por mode-mode coupling approximation). El esquema de la teoría de modos acoplados se basa en el formalismo de operadores de proyección que introdujimos en la sección 3.2.2. Una revisión de los fundamentos de la teoría de modos acoplados fue proporcionada por Keyes [22]. Después del trabajo fenomenológico de Onsaguer [98, 99] sobre las propiedades de transporte16 , el formalismo de operadores de proyección surgió como una herramienta muy útil para determinar los coeficientes de Onsaguer. El esquema de modos acoplados es, dentro de la dinámica coloidal, la aplicación por excelencia del formalismo de operadores de proyección. Fixman 16 Por ejemplo, la movilidad introducida en la sección 3.2.7. 70 Capítulo 4. Estudios previos sobre los efectos de memoria introdujo las primeras ideas que forman la base de la teoría de modos acoplados actual. Fixman estaba interesado en estudiar el incremento súbito de la absorción del sonido en la aproximación a un punto crítico[100]. Sin embargo, su formulación fue heurística, con gran intuición física, y no se parece en mucho a la teoría de modos acoplados actual. Kadanoff y Swift [101] y Kawasaki [102] formalizaron las ideas de Fixman, dándole a la teoría de modos acoplados el aspecto que hoy le conocemos. Götze y Luke trasladaron este formalismo al estudio de los líquidos simples; es el trabajo que listamos como (L5) en la sección 4.1. Desde el descubrimiento por Pusey y colaboradores de la no exponencialidad de F en sistemas coloidales una de las primeras teorías autoconsistentes que trató de reproducir estos resultados fue la teoría de los modos acoplados. Hess y Klein [41] la extendieron para estudiar la dinámica de Fokker-Planck y de Smoluchowski de las dispersiones coloidales sin interacciones hidrodinámicas. Recientemente, Nägele y colaboradores han trabajado intensamente en el estudio de la dinámica coloidal partiendo de la MMCA y considerando las interacciones hidrodinámicas [103, 104, 105, 106, 107, 108]. Antes de proporcionar el esquema autoconsistente de la dinámica coloidal en el formalismo de la MMCA revisaremos las ideas generales de la teoría. 4.2.4.1. Ideas generales Las nociones de variables conservadas, variables lentas y variables rápidas forman el punto de partida de la teoría de modos acoplados. Sin embargo, ¿cómo saber cuándo una variable es lenta?. En la dinámica de Smoluchowski de las partículas coloidales se considera que la variable conservada y “lenta” principal es la densidad local parcial (4.77) Nα X nα (r, t) = δ(r − riα (t)). iα =1 Ahora examinemos el porque de esta afirmación. En general, cualquier variable dinámica a asociada con una propiedad molecular Ai para cada partícula i, a la podamos representar en la forma (4.78) a(r, t) = Nα X Ai (t)δ(r − riα (t)). iα =1 o bien (4.79) ã(k, t) = Nα X Ai (t) exp [ık · riα (t)] iα =1 ˜ t), vees una variable conservada. Además, como ∂t ã(k, t) = −∇ · j̃(k, t) = −ik·j(k, mos entonces que todas las variables conservadas son lentas si las monitoreamos en longitudes de onda grandes, es decir, en números de onda lo suficientemente pequeños. 4.2. Efectos de memoria: Dinámicas disipativas 71 Debemos precisar más el criterio dado anteriormente, pues a primera vista parecer que es muy limitado, es decir, debemos especificar que tan grandes deben ser las longitudes de onda bajo consideración. Deberíamos juzgar que k = 2π/λ es pequeño si k < 2π/λa en donde λa es la escala de longitud dominante en el comportamiento de a. Por ejemplo, para la variable dinámica nα (r, t) la escala de longitud característica es la distancia promedio entre partículas coloidales, o bien, el tamaño de las mismas. Por lo tanto, si se ha de hacer una aproximación para describir a nα (r, t), o a Fαβ (k, t), sobre la base de que las nα (r, t) son variables lentas, dicha aproximación parecería válida solamente para describir fluctuaciones de números de onda k < k (min) , en donde k (min) es el menor de los números de onda característicos. Sin embargo, si atendemos a otra propiedad conservada b de carácter microscópico veremos que λb λa . Por lo tanto, si incluimos a todas las nα (k, t) en la descripción, diremos que el conjunto {nα (r, t)} es el más lento entre todos los conjunto posibles de variables dinámicas. Sea ã(k, t) una variable dinámica conservada y lenta, cuyo flujo disipativo o fuerza fluctuante es f˜a , es decir, que ha|f a i = 0. La teoría de modos acoplados parte de la idea de que los productos ã(k1 −k2 , t)ã(k2 , t), ã(k1 −k2 − k3 , t)ã(k2 , t)ã(k3 , t), ..., son las variables más lentas dentro de las variables rápidas, es decir, que en general hã(k1 −k2 , t)ã(k2 , t) · · · |f a (k1 , t)i = 6 0. A hã(k1 −k2 , t)ã(+k2 , t)|f a (k, t)i , hã(k1 −k2 − k3 , t)ã(k2 , t)ã(k3 , t)|f a (k, t)i , etc., se les llama la componente bilineal, la componente trilineal, etc., del flujo disipativo, respectivamente. La suposición más simple para obtener la fuerza fluctuante en términos de las variables lentas es la proyección bilineal, esto es, la proyección de f a (k, t) sobre productos ã(k1 −k2 , t)ã(k2 , t)17 f a (k1 , t) = f a(0) (k1 , t) + P (2) f a (k1 , 0), (4.80) en donde f a(0) (k1 , t) = 1 − P (2) f a (k1 , 0) (4.81) y (4.82) P (2) = kC X hã(k1 −k2 , 0)ã(k2 , 0)| · · · i ã(k1 −k2 , t)ã(k2 , t) k2 =0 hã(k1 −k2 , 0)ã(k2 , 0)|ã(k1 −k2 , 0)ã(k2 , 0)i son la componente completamente markoviana y el operador de proyección sobre la componente no markoviana de la fuerza fluctuante, respectivamente. Por construcción, f a(0) (k, t) es ortogonal tanto a f a (k, t) como a ã(k, t). 17 Mediante experimentos numéricos y técnicas diagramáticas se ha verificado que la contribución bilineal es la más importante en la determinación de f a (k, t); por una parte, Lo y Kawasaki encontraron que las correcciones trilineales en adelante son pequeñas [109] y, por otra parte, Bedeaux y Mazur encontraron que dichas correcciones varían más rápido que la contribución bilineal [110]. 72 Capítulo 4. Estudios previos sobre los efectos de memoria Entonces, la función de memoria asociada a ã(k, t) tendrá la expresión M (a) (k1 , t) hf a (k1 , 0)|f a (k1 , t)i D E = f a(0) (k1 , 0)|f a(0) (k1 , t) = + kC X Uk1 ;k1 −k2 ,k2 Uk1 ;k1 −k20 ,k20 ã(k1 −k02 , 0)ã(k20 , 0)|ã(k1 −k2 , t)ã(k2 , t) , k2 ,k20 =0 en donde (4.83) Uk1 ;k1 −k2 ,k2 = hã(k1 −k2 , 0)ã(k2 , 0)|f a (k1 , 0)i . hã(k1 −k2 , 0)ã(k2 , 0)|ã(k1 −k2 , 0)ã(k2 , 0)i El término bilineal se aproxima mediante la factorización Gaussiana [111] (4.84) ã(k1 −k02 , 0)ã(k20 , 0)|ã(k1 −k2 , t)ã(k2 , t) = ã(k1 −k02 , 0)|ã(k1 −k2 , t) hã(k20 , 0)|ã(k2 , t)i δk2 ,k20 . De tal manera que la ecuación de Langevin generalizada (3.83) de ã(k, t) es18 d ã(k1 , t) ã(k1 , t) = ω(k1 ) − L(0) (k1 ) + f a (k1 , t) dt hã(k1 , 0)|ã(k1 , 0)i ˆ t k C X − dt0 (Uk1 ;k1 −k2 ,k2 )2 k2 =0 0 × hã(k1 −k2 , 0)|ã(k1 −k2 , t)i hã(k2 , 0)|ã(k2 , t)i ã(k1 , t − t0 ) , × hã(k1 , 0)|ã(k1 , 0)i en donde L(0) (k) es el coeficiente de transporte que proviene de la parte markoviana f a(0) (k, t). Entonces, la ecuación de memoria correspondiente es (4.85) hã(k , 0)|ã(k , t)i d 1 1 hã(k1 , 0)|ã(k1 , t)i = ω(k1 ) − L(0) (k1 ) dt hã(k1 , 0)|ã(k1 , 0)i ˆ t kC X (Uk1 ;k1 −k2 ,k2 )2 − dt0 0 k2 =0 × hã(k1 −k2 , 0)|ã(k1 −k2 , t)i hã(k2 , 0)|ã(k2 , t)i] hã(k1 , 0)|ã(k1 , t − t0 )i × . hã(k1 , 0)|ã(k1 , 0)i Entonces, dada una aproximación para la función de correlación de cuatro puntos a tiempos iguales U , el término entre corchetes puede interpretarse como la relación de cerradura que relaciona a la función de memoria de ã(k1 , t) con su correspondiente función de autocorrelación. Sin embargo, surge la dificultad de que hay que conocer C̃aa (k, t) no solamente para k = k1 , si no para un rango de valores de k2 . Habitualmente 18 Note que mantenemos la notación en la ecuación (3.83) conservando a la función de frecuencia. 4.2. Efectos de memoria: Dinámicas disipativas 73 se usa una forma límite de C̃aa (k, t), como su límite de longitudes de onda pequeñas, para poder calcular la función de memoria y así cerrar el esquema. Introducir la teoría de modos acoplados en la forma que acabamos de proporcionar es puramente esquemática y oculta muchas dificultades y, a la vez, la riqueza que tiene la teoría [22]. No obstante, para propósitos de introducción es suficiente con asimilar estos conceptos básicos. La formulación estrictamente formal de la teoría de modos acoplados la proporcionó por primera vez Kawasaki [102]. El mismo Kawasaki proporcionó un método de solución de las ecuaciones de modos acoplados. A su vez Kawasaki basó sus ideas en el trabajo de Wyld [112] sobre la teoría de la turbulencia, el cual a su vez se basa en técnicas ordinarias de la teoría cuántica de los campos. A continuación, mencionaremos muy brevemente los puntos clave del trabajo de Kawasaki. De acuerdo al esquema anterior, no queda claro porque se debe considerar únicamente la ecuación de evolución de la variable dinámica. ¿Por qué no considerar también las ecuaciones de evolución de las variables bilineales, y luego la de las trilineales, etc?. Pues a final de cuentas todas estas ecuaciones están acopladas. El problema con este punto de vista es: ¡hay que considerar las variables no lineales hasta el orden infinito!. Si se trunca el conjunto de ecuaciones hasta la de orden n entonces la de orden n + 1 afectará a todas las de orden < n + 1 [22]. Kawasaki consideró otro punto de vista, el cual se basa en lo siguiente [22]. De acuerdo a la teoría clásica del movimiento browniano, si con certeza {a(k, t)} contiene a todas las variables lentas, entonces para cualquier variable f (k, t) ˆ (4.86) M (k, t − t0 )f (k, t0 )dt0 = L(0) f (k, t). Supongamos que en realidad hemos identificado a todas las variables lentas posibles. Kawasaki propone entonces que únicamente se debe resolver la ecuación de hã(k , 0)|ã(k , t)i d 1 1 hã(k1 , 0)|ã(k1 , t)i = ω(k1 ) − L(0) (k1 ) dt hã(k1 , 0)|ã(k1 , 0)i + kC X VkA,B hB(k1 , k2 , 0)|B(k1 , k2 , t)i 1 ;k1 −k2 ,k2 k2 =0 + kC X VkA,T hT (k1 , k2 , k3 , 0)|T (k1 , k2 , k3 , t)i 1 ;k1 −k2 −k3 ,k2 ,k3 k2 ,k3 =0 + ···, en donde B(k1 , k2 , t) = A(k1 − k2 , t)A(k2 , t) T (k1 , k2 , k3 , t) = A(k1 − k2 − k3 , t)A(k2 , t)A(k3 , t) ··· 74 Capítulo 4. Estudios previos sobre los efectos de memoria y = VkA,B 1 ;k1 −k2 ,k2 VkA,T = 1 ;k1 −k2 ,k2 ık hB(k1 , k2 , 0)|f a (k1 , 0)i , hB(k1 , k2 , 0)|B(k1 , k2 , 0)i ık hT (k1 , k2 , k3 , 0)|f a (k1 , 0)i , hT (k1 , k2 , k3 , 0)|T (k1 , k2 , k3 , 0)i ···. La ecuación de memoria y esta última ecuación son equivalentes. La única diferencia es que en la primera los efectos no lineales se ocultan en la función de memoria y en esta última son explícitos. Mediante argumentos de hidrodinámica, se puede mostrar que las variables bilineales emergen de forma natural en el estudio de la dinámica de las fluctuaciones de la densidad. En efecto, si gα (r, t) n(r, t), nα (r, t) g(r, t) = (4.87) representa la densidad de cantidad de movimiento, entonces con argumentos hidrodinámicos se puede ver que [22, 113] (4.88) ∂t nα (k, t) = −k 2 D0 nα (k, t) + kC ik X · nα (k − k0 , t)g(k0 , t) + f n(0) (k, t). mN k0 =0 Kawasaki propuso un método para resolver la ecuación de Langevin bilineal (4.89) kC X d ã(k1 , t) ã(k1 , t) = ω(k1 ) − L(0) (k1 ) + VkA,B ã(k1 − k2 , t)ã(k2 , t) + f a(0) (k, t). 1 ;k1 −k2 ,k2 dt hã(k1 , 0)|ã(k1 , 0)i k2 =0 El método consiste en usar la identidad relacionada con (4.90) ∂t γ(t) = βγ(t) + (t) y dada una γ 0 conocida tal que (4.91) ∂t γ 0 (t) = βγ 0 (t), γ 0 (t = 0) = γ(t = 0) entonces (4.92) ˆ 0 γ(t) = γ (t) + t 0γ dt 0 (t − t0 ) 0 (t ). γ 0 (0) 0 De tal forma que se define el propagador de orden cero (4.93) G0 (k, t) = exp h i ω(k) − L(0) (k) t Θ(t) y el propagador (4.94) G(k, t − t0 ) = hã(k, t0 )|ã(−k, t)i Θ(t − t0 ) hã(k, 0)|ã(−k, 0)i 4.2. Efectos de memoria: Dinámicas disipativas tales que con ˆ ã(k1 , t) = ã(k1 , 0)G (k1 , t) + 0 t dt0 G0 (k1 , t − t0 ) + t dt0 G0 (k1 , t − t0 )f a(0) (k1 , t0 ) 0 ˆ 75 0 kC X ã(k1 − k2 , t0 )ã(k2 , t0 ) VkA,B 1 ;k1 −k2 ,k2 k2 =0 por iteración podemos obtener una expresión perturbativa para el propagador completo. La expansión iterativa mencionada es muy familiar en la teoría cuántica de los campos. La estructura de esta expansión presenta términos en donde una función V siempre está entre dos propagadores de orden cero. Por ello, la función V se llama función vértice. Estas expansiones se tratan con técnicas propias de la teoría cuántica de los campos, las cuales no tiene caso describir aquí [22]. 4.2.4.2. Acoplamiento de modos en dispersiones coloidales Hess y Klein , y posteriormente Szamel y Löwen en el estudio de la transición vítrea [41, 114], trasladaron la teoría de modos acoplados a la dinámica coloidal, ignorando las interacciones hidrodinámicas. Luego, Nägele y colaboradores iniciaron el estudio de los efectos de las interacciones hidrodinámicas que aún hoy en día se sigue explorando [108]. De acuerdo a la formulación preliminar sobre la teoría de modos acoplados, en donde la función de memoria está dada por el termino entre corchetes de la expresión 4.85, parece natural extenderla a las fluctuaciones de la densidad local, y escribir la relación de cerradura para la función de memoria M C en términos de dichas fluctuaciones. Otra ruta sería aplicar la teoría de modos acoplados a la dinámica de Fokker-Planck y luego tomar el límite de sobreamortiguamiento para describir al sistema en la escala difusiva. Ahora veremos que si se toman estos puntos de vista los resultados no concuerdan. La interpretación de la función de memoria como una función de viscocidad generalizada, es uno de los grandes beneficios que se obtienen cuando se conoce la función de memoria. Esta interpretación proviene del hecho de que [54] (4.95) C M (k, t) = k kB T !2 D E ˜|| (k, 0)| exp [QOS Qt] Qσ̄ ˜|| (k, 0) , D0 Qσ̄ en donde, como hemos venido considerando, Q proyecta sobre el espacio ortogonal a las fluctuaciones de la densidad local y OS es el operador de Smoluchowski (3.65). La ˜|| (k) es la componente longitudinal del tensor de esfuerzos promediado sobre función σ̄ los momentos N X k · Fsi (0) ˜|| (k) = √1 σ̄ ı + kB T exp [ık · Ri (0)] . k2 N i=1 ! (4.96) Usando el formalismo de respuesta lineal Hess mostró que (4.97) M C (k, t) = k 2 η̃|| (k, t) nζ 0 76 Capítulo 4. Estudios previos sobre los efectos de memoria de tal manera que la función de difusión en la dinámica de Smoluchowski es η̃ˆ|| (k, z) ). nζ 0 Una función de difusión físicamente aceptable solamente puede ser positiva definida. Sin embargo, en sistemas fuertemente interactuantes no hay garantía de que esta expresión cumpla con ese criterio. La dinámica de Fokker-Planck, por su lado, proporciona el siguiente resultado: (4.98) (4.99) D̂(k, z) = D0 (1 − k 2 D̂(k, z) = D0 1 + k2 η̃ˆ|| (k,z) nζ 0 el cual siempre es positivo definido. En un principio, se pensó que esto era una falla de la dinámica de Smoluchowski. Posteriormente, Cichocki y Hess [55] mostraron que la discrepancia es por dos razones. La primera es considerar a M C como la función generalizada de viscocidad longitudinal. La segunda es que M C no es la función de memoria más elemental. La función de memoria elemental en la difusión colectiva es la conocida como función irreducible de memoria [115, 116]. A continuación transcribimos unos fragmentos del trabajo de Cichocki y Hess. 19 “ Ackerson ... y Dietrich y Peschel ... han derivado una ecuación de memoria para la función de autocorrelación de la concentración ! ˆ t D0 k 2 ∂ 0 0 0 dt M̃ (k, t − t )S(k, t ) S(k, t) = − S(k, t) − ∂t S(k) 0 ... En el lenguaje de la teoría de muchos cuerpos, una función sería llamada una función de memoria si su operador de evolución temporal es irreducible de una partícula. A primera vista uno esperaría que el operador exp [QOS Qt] fuera irreducible de una partícula, ya que Q proyecta sobre el espacio ortogonal a las únicas excitaciones relevantes de una partícula en la descripción de Smoluchowski, las fluctuaciones de la concentración δn. Esto sería cierto si OS fuera un operador diferencial de primer orden (como es el caso del operador de Liouville de un líquido de una componente, por ejemplo) pero como el operador de Smoluchowski es un operador de segundo orden, se puede realizar una reducción adicional de una partícula mediante la inserción de un operador de proyección Qi = 1 − Pi , Pi = hexp [ık · Ri ] | · · · i exp [ık · Ri ] , detrás del primer operador gradiente en QOS Q. Entonces se encuentra que la función de memoria M̂ C (k, z), usada hasta ahora, puede expresarse en términos de una nueva función irreducible de memoria M̂ irr (k, z) como M̂ C (k, z) = 19 M̂ irr (k, z) 1 + M̂ irr (k, z) Estos autores usan una notación ligeramente distinta a la que nosotros hemos venido usando en este trabajo. Respetaremos esa notación únicamente en el texto entre comillas. 4.2. Efectos de memoria: Dinámicas disipativas 77 ...” Entonces la función de memoria elemental es la función irreducible de memoria. En términos de M̂ irr (k, z) (4.100) D̂(k, z) = D0 1 + M̂ irr (k, z) De tal forma que nζ 0 η̃ˆ|| (k, z) = 2 M̂ irr (k, z), k (4.101) es decir, que la función que se relaciona con la viscocidad longitudinal de forma directa es la función irreducible de memoria. De esta manera, aunque la relación D = D0 (1−M C ) es matemáticamente correcta, siempre debe usarse la expresión de Fokker-Planck (4.99) para la función de difusión. Después del trabajo de Cichocki y Hess, ahora se sabe que la aplicación directa de la MMCA proporcionará mejores resultados si se aplica al cálculo de M irr , o equivalentemente a la componente longitudinal de la función de fricción colectiva, en lugar de aplicarla directamente a M C como se podría pensar a primera vista. A continuación finalizamos esta sección presentando el esquema autoconsistente para la difusión colectiva en la MMCA. En nuestra notación, la función de memoria colectiva y su contraparte irreducible para un sistema monodisperso y sin interacciones hidrodinámicas, están relacionadas por ˆ t C 2 irr (4.102) M (k, t) = k M (k, t) − dt0 M irr (k, t0 )M C (k, t) 0 y la ecuación de memoria recordemos que es ˆ (4.103) 2 0 ∂t F (k, t) = −k D S −1 t dt0 M C (k, t0 )S −1 (k)F (k, t − t0 ). (k)F (k, t) + 0 La función irreducible de memoria en la aproximación bilineal es ˆ nD0 2 irr d3 k 0 |V (k, k0 )| F (|k − k0 | , t)F (k 0 , t), (4.104) Mαβ (k, t) = 3 2(2π) en donde (4.105) V (k, k0 ) = k · k0 k · (k − k0 ) c̃(k) + c̃(|k − k0 |) + knc̃(3) (k − k0 , k0 ) k k con (4.106) c̃(k) = 1 [1 − S(k)] n y c̃(3) (k − k0 , k0 ) es la transformada doble de Fourier de la función de correlación directa de tres cuerpos. 78 Capítulo 4. Estudios previos sobre los efectos de memoria Lo único que hace falta para cerrar el sistema autoconsistente es una aproximación para la función de tres puntos. Idealmente, dada una aproximación para c̃(3) (k − k0 , k0 ), las ecuaciones (4.103 y 7.24) pueden resolverse mediante un método numérico. En la práctica, se suele aproximar a las F ’s en la expresión M irr mediante sus expresiones de tiempos cortos. Una derivación del esquema para muchas componentes, incluyendo interacciones hidrodinámicas, es muy extensa y puede encontrarse explicada en [106]. La aproximación que se suele usar para la función vértice es la aproximación de convolución. La aproximación de convolución consiste en considerar que c̃(3) (k − k0 , k0 ) = 0. Se llama aproximación de convolución porque equivale a usar la aproximación de convolución para las funciones de correlación de tres puntos que aparecen en la proyección bilineal de la fuerza estocástica. El principal uso que ha tenido la MMCA en la dinámica coloidal ha sido en el estudio de la transición vítrea y ha predicho valores muy precisos de la fracción de llenado. Nägele y colaboradores, así como trabajos relacionados la han usado para obtener las propiedades de difusión a tiempos largos pues permite calcular los conocidos como factores de no exponencialidad de la función intermedia de la dispersión. El esquema correspondiente a la autodifusión es muy similar. En este trabajo verificaremos la validez de la MMCA en sistemas bidimensionales de Yukawas, sin interacciones hidrodinámicas, en lo que se refiere a su poder para predecir el comportamiento de la función de memoria colectiva. 4.2.5. Otros estudios Finalizamos este capítulo con esta pequeña sección, cuyo objetivo es comentar rápidamente sobre algunas investigaciones alternativas a los formalismos autoconsistentes mencionados en este capitulo. En cuanto a estudios de simulación, podemos mencionar los trabajos de Szymczak y Cichocki en los cuales emplean simulaciones de dinámica Browniana para obtener el promedio configuracional, con condiciones de frontera periódicas, del límite de longitud de onda corta de la función de memoria [117], dada a partir de su expresión microscópica. Sin embargo, su interés no parece radicar en la estructura misma de la función de memoria, sino en los valores del coeficiente de difusión de tiempos largos que proporciona y en los tiempos de relajación que a partir de los resultados numéricos emergen. Sin embargo, aún la simulación de número de onda pequeño presenta muchas dificultades. Cabe mencionar que los demás estudios parecen apuntar en la misma dirección: calcular coeficientes de transporte, de no exponencialidad, tiempos de relajación, etc., los cuales están dados por integrales en el tiempo de la función de memoria. Por ello, en estos trabajos, la estructura de la función de memoria parece jugar un papel secundario en tanto su integral de los valores correctos para estas cantidades. La mayor parte de los estudios de simulación en donde se obtiene la función de memoria tienen que ver con alguna forma de invertir la ecuación de memoria. La mayoría están enfocados al caso de la función de autocorrelación de las velocidades y en dinámica molecular. Estos métodos, como el de Berne y Harp [77], consisten en transformar la ecuación de memoria en otra ecuación que numéricamente sea más estable. Sin embargo, 4.2. Efectos de memoria: Dinámicas disipativas 79 siempre se debe calcular alguna derivada. Como sabemos, siempre que se quiere calcular las derivadas de cantidades fluctuantes se introducen inestabilidades numéricas. También existen trabajos en donde se menciona que se resuelve para la función de memoria mediante la transformación de Laplace de la ecuación de memoria. Sin embargo, la transformación inversa de Laplace, la cual es necesaria para regresar al dominio temporal, es un problema del análisis numérico que actualmente se sigue estudiando, debido a que presenta muchas dificultades que surgen porque el Kernel de la transformación tiende a cero rápidamente. Eso recala en que grandes variaciones en la cantidad a transformar se vuelvan variaciones pequeñas en el espacio de Laplace. Debido a ello, en matemáticas el problema de la transformación inversa de Laplace se dice que es un “ill-posed problem”. Por otro lado, la solución algébrica para la función de memoria en el espacio de Fourier requiere que las entradas, es decir, las F ’s, se calculen con gran precisión, ya que si no, la fase en el espacio complejo variará abruptamente y eso también introduce dificultades en la transformación de Fourier temporal inversa. Al final de este trabajo encontramos un articulo en donde se usa el par de transformaciones Fourier coseno y seno para evaluar la función de memoria cerca de la transición vítrea [118]. Nosotros previamente habíamos decidido implementar la inversión de la ecuación de memoria con este par de transformaciones. Por lo tanto, tenemos la confianza de que nuestros cálculos sobre funciones de memoria son viables para obtener conclusiones veraces. Existen otras metodologías para estudiar las fluctuaciones de la densidad local. Ejemplos son la teoría cinética y, más recientemente, las técnicas de expansiones diagramáticas que están siendo desarrolladas por Szamel [119]. En [119] Szamel obtiene expansiones para las funciones de memoria y de memoria irreducible. Estas expansiones son consistentes con la MMCA. Szamel propone que estas técnicas se pueden usar para ir mas allá de la teoría de modos acoplados actual. 80 Capítulo 4. Estudios previos sobre los efectos de memoria 5 Estructura estática de coloides en capas planas Antes de presentar los resultados que obtuvimos para los potenciales efectivos, presentamos un resumen de los resultados representativos de la estructura estática de los sistemas en capas. Algunos de los resultados aquí mostrados no están contenidos en [1], pues en este trabajo pudimos explorar parámetros con un mejor punto de vista, dada la experiencia que obtuvimos en el trabajo anterior. 5.1. Sistema, simulación, escalas y potencial por pares Consideremos el sistema de capas planas en la figura 5.1. En esta figura se hace referencia a un sistema general compuesto de q capas y en ella se explican las condiciones a estudiar en este trabajo. Figura 5.1: Ilustración de un sistema de q capas bidimensionales abiertas y planas. Todas las capas serán paralelas al plano xy. Se considerará solamente el caso za+1 − za = `, siendo za la coordenada z de la capa a. Cada capa estará compuesta de un solo tipo de coloides, aunque distintas capas podrían constituirse de distintos tipos de coloides. A los “distintos tipos” los llamaremos especies. Todos los coloides serán esféricos y tendrán el mismo diámetro, aunque podrán tener distinta carga. Todo el espacio estará caracterizado por un parámetro de apantallamiento constante. Los coloides no podrán saltar de una a otra capa. La numeración de las capas será desde el z menor hasta el z mayor y solamente consideraremos q = 2 y q = 3. 81 82 Capítulo 5. Estructura estática de coloides en capas planas Como mencionamos en la sección 3.1.1.1, aquí consideraremos como potencial de interacción entre el par de coloides (i, j) al potencial de Yukawa u(rij ) = Ai Aj exp [−κrij ] . rij La amplitud de interacción de los coloides α en la capa a se denotará como Aaα y se supondrá un valor constante de κ y sobre todo el espacio. La densidad macroscópica de coloides α en la capa a se denotará como naα . El coeficiente de fricción sobre un coloide está determinado por la viscocidad longitudinal del solvente y por el diámetro del coloide. Consideraremos que la viscocidad del medio es constante. Por lo tanto, dado que ignoraremos las interacciones hidrodinámicas y como todos los coloides tienen el mismo tamaño, todos tendrán el mismo coeficiente de difusión de alta frecuencia al cual denotaremos como D0 . El vector de posición del coloide i de la especie α que se encuentra en la capa a, al cual en lo sucesivo nos referiremos como el coloide iaα , se denotará como Riαa . Dado que las son homogeneas, la energía potencial de interacción entre el par de coloides capas a b iα , iβ se denotará simplemente como uab αβ (r). Escalaremos la energía en unidades de kB T , las distancias en unidades de la cantidad (5.1) d= v −1 u q p uX X t na α a=1 α=1 y los tiempos en unidades de (5.2) τ0 = d2 . D0 Se harán las redefiniciones (5.3) (5.4) 1 r = r, d uab αβ (r) = 1 ab u (r), kB T αβ en donde se entenderá que r es la distancia entre el par de coloides iaα , ibβ , (5.5) Aα = √ 1 Aα , kB T d y (5.6) b = κd. De tal manera que al potencial de interacción lo reescribiremos en unidades adimensionales como (5.7) uab αβ (r) = Aα Aβ exp [−br] . r 5.1. Sistema, simulación, escalas y potencial por pares 83 Además, siempre usaremos b = 1 en todos los sistemas que estudiaremos en este trabajo y los parámetros que variaremos serán la distancia entre las capas `, y las amplitudes de interacción, en magnitud y en signo. Los resultados aquí mostrados se obtuvieron con la técnica de simulación de dinámica browniana (BD, por brownian dynamics) que resulta de integrar en diferencias finitas la ecuación de Langevin sobreamortiguada [45]. Esta técnica se presentó en [1] y una referencia sobre esta técnica de simulación es el libro de Tildesley y Allen [120]. Las notas de Gerhard Nägele [121] proporcionan una revisión de la BD incluyendo los casos para tratar a las esferas duras y a las interacciones hidrodinámicas (HI, por hydrodynamic interactions). En este trabajo no hemos considerado las esferas duras ni las HI, que al menos en la estructura estática son irrelevantes, pero que pueden jugar un papel importante en la estructura dinámica. La inclusión de las esferas duras es un problema técnico mayor, a veces, hasta artesanal. Por ello no hemos incluido en este trabajo la interacción de esfera dura. El algoritmo de simulación de dinámica browniana empleado en este trabajo es el de Ermak y MacCammon [45] sin HI. Este consiste en hacer evolucionar la posición del coloide i en un intervalo de tiempo ∆t de acuerdo a (5.8) ri (t + ∆t) = ri (t) + D0 Fsi (t)∆t + δ a ri , en donde D0 , Fsi y δ a ri son el coeficiente de difusión de alta frecuencia sin HI, la fuerza sistemática sobre el coloide que se debe a sus interacciones directas con las demás partículas y un desplazamiento aleatorio con distribución gaussiana, respectivamente. El desplazamiento gaussiano está determinado por (5.9) D E D E (δx)2 = (δy)2 = 2D0 ∆t y se genera con una distribución uniforme de números aleatorios. Hemos empleado el generador ran2 del numerical recipes [122] y el generador gaussiano contenido ahí mismo. Empezamos con ran1, pero agotamos su ciclo de 109 ; ran2 fue suficiente para cubrir las necesidades de este trabajo. El intervalo de tiempo ∆t debe estar en la escala de tiempo de Smoluchowski τS (sección 3.2.3, τe τS τB ) , es decir τe ∆t τB . Una estimación cruda en este trabajo para τe será la escala de tiempo de relajación del sistema sin interacciones, esto es, τe = τ 0 . A posteriori, mediante la robustez de los resultados obtenidos, encontramos que la elección óptima de es ∆t = 10−4 τ 0 lo cual es consistente con las mediciones de Pusey [48]. Desde luego, el sistema simulado no corresponde a un sistema en el límite termodinámico, mas bien es una caja rectangular de base cuadrada y altura dada por la distancia entre capas. La dirección z se encuentra restringida y por lo tanto en esa dirección no hay problema. El problema es al considerar la superficie de las capas. Para ello se usa un cuadro de longitud bl, por ejemplo, centrado en el origen, y se aplican las condiciones de frontera periódicas estándar [120], replicando partes del cuadro cuando se requiera. Si una partícula se sale del cuadro en (x, y) = (bl/2, bl/2) + (∆x, ∆y), entonces se vuelve a introducir en (x, y) = (−bl/2, −bl/2) + (∆x, ∆y). 84 Capítulo 5. Estructura estática de coloides en capas planas Dadas las especificaciones anteriores, el sistema se inicia en una configuración aleatoria y se hace evolucionar de acuerdo a 5.8, hasta que alcanza el estado de equilibrio. Después de un número máximo de 5 mil (en los sistemas sin interacciones atractivas estudiados aquí) y hasta de 40 mil pasos (en los sistemas con interacciones atractivas estudiados aquí) de tiempo el sistema alcanza la configuración líquida de equilibrio. Una vez que el equilibrio se ha alcanzado, se siguen generando configuraciones para su uso posterior. Una vez generadas estas configuraciones, cualquier promedio configuracional en el ensemble se puede aproximar aplicando las operaciones apropiadas a estas configuraciones. 5.2. Estructura 5.2.1. Notación Consideraremos que en el sistema de capas hay N coloides, de entre los cuales Nαa coloides son de la especie α que está en la capa a. Además, consideremos que hay q P P capas y p especies, de tal manera que N = qa=1 pα=1 Nαa . La cantidad xaα = Nαa /N es la fracción molar de las partículas α en la capa a. Sea Ω el área de cada capa, entonces en el límite termodinámico1 y dado que en este trabajo usaremos la escala de longitud d, (5.10) N Na Na n= → nd2 = 1, naα = α → naα d2 = α Ω Ω Ω N Ω −1 = xaα . La densidad superficial local de coloides α en la capa a se denotará como a naα (r, t) (5.11) = Nα X δ(r − Riaα (t)). ia α =1 y sus componentes de Fourier como a naα (k, t) (5.12) = Nα X h i exp ik · Riaα (t) . ia α =1 La función de distribución de coloides β en una capa b, vista de desde un coloide α en la ab capa a, se escribirá como gαβ . Dado que la distancia entre las capas ` es un parámetro, se considerará solamente la distancia en dos dimensiones como el argumento en todas las funciones de distribución. La distancia en dos dimensiones es el módulo de la proyección sobre el plano xy del radio-vector que une a la partícula iaα con la partícula jβb . Entonces, para las funciones de distribución reasignaremos2 r 3D = 3D R b jβ − Ri3D a α →r 2D = 2D R b jβ − Ri2D a α xy . 1 Todos los cálculos y teorías discutidos en este trabajo llevan implícita la marca del límite termodinámico. 2 Desde luego, en el cálculo de las fuerzas y energías que se necesitan para llevar a cabo la simulación, consideraremos la distancia en tres dimensiones como argumento del potencial por pares. 5.2. Estructura 85 De aquí en adelante, se entenderá que (5.13) ab ab ab ab ab gαβ = gαβ (r3D ) → gαβ (`, r2D ) = gαβ (r2D ) = gαβ (r), en donde el parámetro ` se omite y se especificará en el transcurso del texto, en los pies de las figuras, o bien como etiquetas en las figuras. Las funciones de distribución parciales se calcularon mediante la definición operacional (5.14) ab dNβb = xbβ gαβ (r)d2 r, α, β = 1, 2, ..., p, a, b = 1, 2, ..., q. Las funciones de correlación total asociadas se denotarán como ab hab αβ (r) = gαβ (r) − 1. (5.15) También presentaremos a los factores parciales de estructura estática. Dado que el sistema es inhomogeneo a lo largo del eje perpendicular a los planos, pero es homogéneo e isotrópico sobre cada capa, en este trabajo solamente consideraremos la componente sobre el plano xy del número de onda. Los factores de estructura parciales (5.16) ab ab Sαβ (k) = δαβ + q xaα xbβ h̃ab αβ (k), se calcularán de acuerdo a la autocorrelación de tiempos iguales * (5.17) + 1 1 ab Sαβ (k) = q naα (−k, t) q nbβ (k, t) . Nβb Nαa No hay problema alguno al considerar que elnúmero de onda es bidimensional o tridi2D − R mensional, pues lo que importa es la fase k · Rj2D iα,a la cual extraerá solamente β,a las componentes bidimensionales. A veces también usaremos como escala de longitud al diámetro de los coloides, especialmente para dar los valores ` de la distancia entre las capas. Como se dijo anteriormente, aquí fijaremos el parámetro reducido de Debye-Hückel a b = κd = 1. Además, fijaremos σ/d = 0.357, de tal manera que b = 2.8σ. Entonces, en todos lo sistemas la fracción superficial total de llenado será de (5.18) φ= π 2 nσ = 0.13, 3 lo cual representa una fracción de llenado de intermedia a moderadamente alta, dependiendo de la intensidad de la interacción3 . El cálculo de la función de distribución de acuerdo a (5.14) y a las condiciones impuestas sobre d2 r en la sección 3.1.1.2 es como sigue. Considere que el sistema está en equilibrio 3 De hecho, un sistema bidimensional monodisperso con esta fracción de llenado y con A = 80 empieza a manifestar la transición no ergódica pues su F (k, t) no decae a cero, sino a un valor distinto de cero. Cuando presentemos el estudio de la dinámica bidimensional tocaremos este punto otra vez. 86 Capítulo 5. Estructura estática de coloides en capas planas y que la longitud del cuadro de simulación bl es mucho mayor que d. Tome una fotografía del sistema en el instante ti y súbase al coloide iaα . Luego, haga un histograma dNβb (iaα , s) que describa cuantas partículas jβb se encuentran dentro de un cascarón circular de grosor dr y área da = 2πrs dr centrado en iaα y con radio medio rs = sdr. Con este experimento usted podrá determinar la función de distribución que ve desde la posición del coloide iaα en el instante ti 1 ab gαβ (rs ) a = dNβb (iα , ti , s). b iα ,ti 2πxβ rs dr Claramente, usted puede aumentar la precisión de este cálculo si se sube a todas las demás partículas iaα , repite el experimento y luego obtiene el promedio aritmético de la muestra obtenida. Más aún, lo puede mejorar considerando Nt fotos del sistema, cada una generada con la aplicación sucesiva de (5.8). De esta manera, usted podrá obtener la función de distribución con una precisión muy alta a ab gαβ (rs ) (5.19) Nα Nt X 1 1 X ab gαβ (rs ) a . = a iα ,ti Nα Nt iaα =1 i=1 Este cálculo es muy simple y sólo se requiere introducir la idea expresada dentro del código de simulación. Ahora mencionaremos cómo se calcula el factor de estructura. Como el seno y el coseno son ortogonales, mediante un cálculo directo podemos ver que (5.16), puede escribirse como * ab Sαβ (k) = 1 q Nαa a Nα X ia α =1 a 1 sin k · Riaα (t) q Nb β X Nβb jβb =1 Nb sin k · Rjβb (t) + Nα β 1 X 1 X + q cos k · Riaα (t) cos k · Rjβb (t) q b a Nβ jβb =1 Nα iaα =1 El promedio en el ensemble se reemplaza por un promedio sobre distintas direcciones de dispersión, por ejemplo, si se consideran los distintos k(iθ ∆θ) = k(cos(iθ ∆θ), sin(iθ ∆θ)) como equivalentes. Además, por la propiedad de estacionaridad, también podemos considerar distintos argumentos temporales como equivalentes, de tal manera que ab Sαβ (k) (5.20) (5.21) = Nθ Nt X 1 1 X Nt Nθ i =1 i =1 t θ a Nβb Nα X X 1 1 × p sin k(iθ ∆θ) · Rj b (it ∆t) sin k(iθ ∆θ) · Riaα (it ∆t) q a β Nα ia =1 Nβb jβb =1 α a Nβb Nα 1 X 1 X + p cos k(iθ ∆θ) · Riaα (it ∆t) q cos k(iθ ∆θ) · Rj b (it ∆t) . a β b Nα ia =1 Nβ jβb =1 α 5.2. Estructura 87 ab Nota técnica: para evaluar los Sαβ se recomienda lo siguiente. Dado que el cálculo de los términos entre paréntesis para cada it usa Nθ veces la configuración it , conviene calcular estos términos para cada instante ti y dirección de observación θi y almacenarlos como una matriz Nt ×Nθ en el disco duro para su uso posterior4 . Con estos datos almacenados, ab ab ’s para lo ’s sino también las Fαβ posteriormente no solamente podemos calcular los Sαβ cual sólo habría que formar productos con argumentos temporales distintos. 4 Desde luego, la escritura debe realizarse por bloques cada cierto ∆Nt que no comprometa mucho uso de memoria RAM y que a la vez sea lo suficientemente grande para no interrumpir la ejecución de la simulación frecuentemente, de lo contrario el tiempo de ejecución puede multiplicarse. 88 5.2.2. Capítulo 5. Estructura estática de coloides en capas planas Dos capas En cuanto a√sistemas q = 2, solamente mostraremos el caso de una especie p = 1 con A11,2 = 50, en el cual ambas capas son igualmente densas. En particular, nos interesaremos en los casos ` = 1.2σ y ` = 1.5σ , aunque también presentaremos otros valores. La elección de estas condiciones y parámetros se basa en el hecho de que ilustran mejor los efectos característicos de los sistemas en capas. 11 22 (r) = g11 (r). El La figura 5.2 muestra las funciones de distribución sobre las capas g11 inset muestra el factor de estructura para el caso ` = 1.2σ. Ahora estudiemos sistemáticamente el comportamiento mostrado por esta figura. Primero podemos analizar los casos límite ` = 0 y ` = 2.9σ > b. 11 22 Figura 5.2: Función de distribución radial 11 (r) de un sistema de dos capas y √ g11 (r) = g1,2 1,2 una especie con los parámetros A1 = 50, b = 1, x1 = 0.5 y σ = 0.357. Se muestran los resultados para tres valores distintos de la distancia entre capas `. El inset muestra al factor de estructura estática para ` = 1.2σ. Los símbolos muestran los resultados de simulación BD y las lineas los que se obtienen resolviendo numéricamente OZ con HNC, mediante el método numérico de Ng [123]. En el caso ` = 0, la función de distribución muestra el comportamiento típico de 5.2. Estructura 89 un sistema bidimensional con densidad n = d−2 , presentando su máximo principal en rmax = d , el cual corresponde a la distancia promedio entre coloides. Por otro lado, el caso ` = 2.9 que corresponde aproximadamente al límite ` → ∞, describe a un sistema bidimensional cuyas partículas se encuentran a una distancia promedio −1/2 √ √ x1,2 d = 2d la cual se manifiesta como el pico principal en rmax = 2d. No hay 1 algo más que decir acerca de estos límites, sólo que reproducen resultados ya conocidos desde hace unos 15 años [27], en el sentido de que, en sistemas con interacciones de largo alcance puramente repulsivas, el máximo principal de la función de distribución se encuentra precisamente en la distancia promedio entre partículas. 12 21 Figura 5.3: Función de distribución radial cruzada g11 (r) = g11 (r) en el sistema de dos capas introducido en la figura 5.2. El inset muestra la variación de la altura del máximo principal con la distancia entre las capas `. Note como la correlación cruzada varía no monotónicamente con `. Inicia aumentando en ` = 0 hasta alcanzar su máximo en ` = σ y luego disminuye hasta el valor del gas ideal. Como se mostró en [1], este efecto de aumento de correlación, reduce el coeficiente de autodifusión de tiempos largos. La función de distribución en el caso intermedio ` = 1.2σ no parece ser una combinación trivial de los casos límite. Lo primero que podemos pensar es que esta función podría √ tener dos picos,√uno en r = d, y el otro en r = 2d, pero eso no sucede, por el contrario, 11 g11 (r) en r = 2d está más cerca de ser un mínimo. Además, entre las posiciones de 90 Capítulo 5. Estructura estática de coloides en capas planas los máximos principales en los casos límite, no hay un solo máximo sino más bien una estructura como el perfil de una silla de montar. Los máximos locales de este perfil √ se mueven acercándose, hasta fusionarse y dar lugar a un solo máximo en r = 2d a medida que las capas se alejan, o bien, alejándose hasta que el segundo máximo desaparece para dar lugar a un solo máximo en r = d, cuando las capas se fusionan. Sin embargo, atendiendo a la forma del factor de estructura, vemos que este presenta dos picos √ sobresalientes. Uno de ellos se localiza exactamente en k = 2π/d y el otro en k = 2π/d. Vemos entonces que el sistema se describe más sencillamente analizando su factor de estructura. Se sabe que esto se debe a que el factor de estructura desnuda completamente las escalas de longitud características. Figura 5.4: Factores de estructura estática parciales del sistema de dos capas y una 11 22 especie introducido en la figura 5.2. Las lineas negras representan a S11 = S11 y las 12 21 grises a S11 = S11 . Se muestran resultados para dos valores distintos de `. Las lineas segmentadas corresponden a ` = 1.2σ y las líneas sólidas a ` = 1.5σ. Los trazos en símbolos representan los resultados de simulación de BD. Las lineas representan los resultados que se obtienen al resolver la ecuación de Ornstein y Zernike, con la relación de cerradura HNC y usando el método numérico de pivoteo basado en el criterio de Ng. Estos resultados numéricos se obtuvieron en el trabajo de tesis [36]. 5.2. Estructura 91 Observamos que los resultados de OZ+HNC subestiman la estructura en comparación con la simulación. Esta discrepancia se conoce desde hace mucho tiempo, en relación al estudio de los sistemas tri- y bidimensionales [27], y apunta al hecho de que la función puente [24, 25, 26] adquiere relevancia especialmente para distancias r & d. Para distancias r < d la cantidad dominante es el potencial por pares. La figura 5.3 muestra a la función de distribución radial entre partículas de capas distintas. Esta describe la distribución de coloides en una capa, como se ve desde un coloide en la otra capa. La principal característica de esta cantidad es la variación no monotónica de la correlación cercana, esto es, la correlación en el máximo más cercano. Analizemos esto a la par que observamos el inset, el cual muestra la variación de la altura del máximo principal a medida que ` crece. Cuando ` crece desde ` = 0, la correlación en el máximo principal aumenta hasta alcanzar un máximo en ` = 1. Luego, cuando ` aumenta desde ` = 1 la correlación en el máximo principal empieza a disminuir y pasa por el valor que tenia inicialmente en ` = 0 aproximadamente cuando ` = 1.5σ. Remarcamos esta última sentencia para recordar que el coeficiente de autodifusión presenta un mínimo justo cuando ` = 1.5σ [1]. La figura 5.4 muestra a los factores de estructura parciales correspondientes a los casos ` = 1.2σ y ` = 1.5σ. La figura ilustra el comportamiento general de estas cantidades. Cuando ` = 0, únicamente se manifiesta el máximo en√k = 2π/d. Por otro lado, cuando ` = ∞ solamente se manifiesta la señal en k = 2π/d. Valores intermedios de `, como los mostrados en la figura 5.4, revelan la presencia de ambas señales. A medida √ que ` aumenta desde 0, la señal en k = 2π/d empieza a disminuir y la señal en k = 2π/d emerge, aumentando con `. Cuando ` = ∞ la señal en k = 2π/d desaparece completamente, quedando únicamente la otra señal. 92 5.2.3. Capítulo 5. Estructura estática de coloides en capas planas Tres capas Ahora describiremos a los sistemas de tres capas, tomando en cuenta dos casos. En el primer caso consideraremos una especie distribuida en las tres capas. En el segundo caso, consideraremos dos especies selectivamente distribuidas en las capas, de tal forma que las capas 1 y 3, a las cuales llamaremos las capas externas, se constituirán de partículas positivas con intensidad de interacción de media a alta. Las partículas en la capa 2, a la cual llamaremos la capa interna, serán negativas y medianamente interactuantes. Además, en ambos casos la capa interna será dos veces más densa que las capas externas. 5.2.3.1. Una especie La figura 5.5 muestra a las distribuciones de partículas sobre las capas. Se muestran resultados para `/σ = 1, 2, 5, esto es, para distancias entre las capas externas de 2σ, 4σ y 10σ. Cuando ` = 5 prácticamente han alcanzado la forma límite correspondiente a ` = ∞, en donde la posición del máximo principal de las distribuciones√de las capas externas corresponde a r = 2d, mientras que el de la capa interna a r = 2d. Notamos que la estructura de las capas menos densas, esto es, la de las capas externas, varía mas abruptamente. Se comporta como si fuera controlada por la estructura de la capa interna. En cambio, la estructura de la capa interna varía muy sistemáticamente. Esto es una consecuencia del hecho de que la capa interna es más densa. Notemos 22 además que en la distancia menor ` = σ, la posición del pico principal de g11 aún está 11 (ó) 33 en r = d, mientras que la de g11 ya se ha desplazado en dirección hacia r = 2d. 11 (ó) 33 Más aún, notemos que cuando ` = 2σ la posición del máximo principal de g11 se desplaza ligeramente más allá de r = 2d. Esto es como si la estructura de las capas externas en distancias intermedias se hiciera ligeramente más compresible por efecto de la presencia de la capa intermedia. La figura 5.6 muestra las funciones de distribución que los coloides ven en capas dis12 tintas a la suya. Observamos que las funciones g11 y sus similares muestran el mismo 12 comportamiento que las g11 en la figura 5.3. Como mencionamos respecto a aquel sistema, esto repercute en el hecho de que el coeficiente de autodifusión tiene un mínimo en ` = 1.5σ. Ahora, en los sistemas de tres capas, esto, además, repercute en que la autodifusión en una capa más densa que su capa mas cercana pueda ser más rápida que la propia de dicha capa cercana. 13 Las correlaciones entre capas externas g11 muestran un comportamiento muy distinto 12 13 al que presentan las g11 . En particular, notemos que g11 (r = 0) 6=> 1, esto es que existe una correlación positiva entre las partículas externas que es inducida por la presencia de la capa interna. Como veremos más adelante, esto se traduce como un pequeño pozo en el potencial efectivo. En términos efectivos, esto es como si se presentara una atracción entre coloides igualmente cargados. Esta atracción efectiva emerge de una condición energética simple que puede visualizarse interpretando que las configuraciones energéticas mas favorables son romboides con vertices en el par de partículas correlacionadas en las capas externas y en otro par localizado en la capa interna. 5.2. Estructura 93 Figura 5.5: Funciones de√distribución de un sistema de tres capas y una especie con los parámetros A1,2,3 = 50, b = 1, x1,3 = 0.25, x21 = 0.5 y σ = 0.357. En (a): 1 1 11 33 22 g11 (r) = g11 (r); en (b): g11 . Se muestran los resultados para tres valores distintos de la distancia entre capas `: lineas continuas para ` = σ, lineas segmentadas para ` = 2σ y lineas de puntos para ` = 5σ. 94 Capítulo 5. Estructura estática de coloides en capas planas 12 21 23 32 Figura 5.6: Funciones de distribución radial cruzadas g11 (r) = g11 (r) = g11 (r) = g11 (r) 13 31 en (a) y g11 (r) = g11 (r) en (b), que corresponden al sistema de tres capas y una especie en la figura 5.5. Se muestran los resultados para lo mismos valores de `: linea continua para ` = σ, linea segmentada para ` = 2σ y linea de puntos para ` = 5σ. Nótese la correlación positiva en r = 0 para ` = 2σ lo cual indica que, en términos efectivos, existe una atracción entre coloides con cargas iguales. En la figura 5.7 notamos que los factores de estructura de las capas externas parecen 5.2. Estructura 95 alcanzar su forma límite de ` = ∞ mucho más rápido que los factores de estructura de la capa interna. Lo cual es consistente con los comentarios con respecto a la figura 5.5. Notemos que a diferencia de los S’s del sistema de dos capas y una especie, en este caso la posición de los picos no se mantiene constante. 11 33 Figura 5.7: Factores de estructura estática de índices iguales S11 (k) = S11 (k) en (a) 22 y S11 (k) en (b), del sistema de tres capas en la figura 5.5. Se muestran los resultados para los mismos tres valores de la distancia entre capas `: linea continua para ` = σ, linea segmentada para ` = 2σ y linea de puntos para ` = 5σ. La figura 5.8 muestra a los factores de estructura cruzados. En consistencia con lo 96 Capítulo 5. Estructura estática de coloides en capas planas 12 obtenido anteriormente, los factores S11 varían monotónicamente en todos los números 12 de onda. Además, se ilustra el límite de “gas ideal” para el cual S11 = 0. En cambio, 13 los factores S11 muestran un comportamiento no monótono cuando cambia `. Así, por ejemplo, el máximo principal es positivo para ` = 2σ y se vuelve negativo abrúptamente para ` = σ. 12 21 Figura 5.8: Factores de estructura estática de índices distintos S11 (k) = S11 (k) = 23 32 13 31 S11 (k) = S11 (k) en (a) y S11 (k) = S11 (k) en (b), del sistema de tres capas en la figura 5.5. Se muestran los resultados para los mismos tres valores de la distancia entre capas `: linea continua para ` = σ, linea segmentada para ` = 2σ y linea de puntos para ` = 5σ. 5.2. Estructura 5.2.3.2. 97 Dos especies En este caso estamos particularmente interesados en estudiar la capa intermedia. Nos interesa cuantificar el efecto de las atracciones inducidas por las partículas de las capas externas. En particular si estas atracciones pueden llegar a formar configuraciones estables. Por ello, deliberadamente hemos elegido que las partículas de la capa intermedia sean ligeramente menos interactuantes. En efecto, veremos que en promedio temporal la atracción inducida puede llegar a formar configuraciones estables. 22 Figura 5.9: Funciones de distribución radial de los coloides en la capa g√ 22 (r) √ interna 1,3 2 en un sistema de tres capas y dos especies con los parámetros A1 = 50, A2 = − 30, 2 A21,3 = A21 = 0, b = 1, x1,3 1 = 0.25, x1 = 0.5 y σ = 0.357. Se muestran los resultados para cuatro valores distintos de la distancia entre capas `: linea gris continua para ` = σ, linea negra continua para ` = 1.5σ, linea gris dash para ` = 2σ y linea negra dash para ` = 5σ. El inset es una fotografía de la capa interna, correspondiente al caso ` = 1.5σ. A escala, el tamaño de los círculos representa alrededor de 3/4 del tamaño real de los coloides. La figura 5.9 describe la estructura de la capa intermedia. El inset ilustra una configuración de esta capa correspondiente a ` = 1.5σ. Cuando ` = 5σ, la estructura ha alcanzado su límite de ` = ∞ caracterizado por la distancia promedio entre partículas √ 2d. A medida que las capas se acercan, el máximo asociado a esta distancia promedio se va desvaneciendo y emerge un pico a su izquierda. El pico se va moviendo a distancias cada vez menores hasta que su posición alcanza el valor de contacto entre las 98 Capítulo 5. Estructura estática de coloides en capas planas partículas σ. Este pico describe la formación de los dímeros ilustrados en la fotografía. Más adelante cuantificaremos la energía invertida en la formación del dímero y si esta función de trabajo es suficiente para lograr que el dímero sea estable. La figura 5.10 muestra a las funciones de distribución cruzadas. Como era de esperarse, existe una correlación positiva grande en el origen. Notemos que la presencia de 13 , en las partículas con carga opuesta en la capa intermedia fortalece la correlación g11 comparación con la misma cuando se tienen partículas de carga positiva. 13 Figura 5.10: Funciones de distribución radial de partículas en capas distintas g11 (r) = 31 12 21 23 32 g11 (r) en el recuadro principal y g12 (r) = g21 (r) = g21 (r) = g12 (r) en el inset, del sistema de tres capas y dos especies en la figura 5.9. Se muestran los resultados para cuatro valores distintos de la distancia entre capas `: círculos transparentes para ` = σ, triángulos transparentes ` = 1.5σ, triángulos opacos ` = 2σ y círculos opacos ` = 5σ. La figura 5.11 muestra a los factores de estructura parciales correspondientes a ` = 22 1.5σ. La característica notable de estas cantidades radica especialmente en S22 , que presenta oscilaciones no despreciables mas allá del primer máximo. Estas oscilaciones se encuentran mucho en sistemas con interacciones atractivas de corto alcance y en particular en sistemas donde se presenta el fenómeno conocido como arresto estructural. 5.2. Estructura 99 Figura 5.11: Factores de estructura estática parciales en el caso ` = 1.5σ correspondientes al sistema de 3 capas y dos especies en la figura 5.9. En línea negra continua 11 33 22 12 21 23 32 S11 = S11 , en linea negra segmentada S22 , en linea gris continua S12 = S21 = S21 = S12 13 31 y en linea gris segmentada S11 = S11 . 100 Capítulo 5. Estructura estática de coloides en capas planas 6 Potenciales efectivos Los potenciales efectivos entre pares de coloides en capas planas se calcularon sobre la base de la teoría general proporcionada en la sección 3.1.3. Aquí interpretaremos aquella teoría general de una forma equivalente, pero que pone de manifiesto la jerarquía de funciones de correlación y potenciales efectivos que emerge mediante la aplicación sucesiva de contracciones de la descripción. 6.1. Introducción Consideremos la ecuación matricial de OZ en el espacio de Fourier H̃(k) = C̃(k) + C̃(k)RH̃(k). (6.1) en donde las matrices son por bloques H̃ = h̃ab , C̃ = c̃ab q×q c̃ab αβ p×p q×q y R = nab ab ab ab nαβ = y nab = δαβ con cada bloque dado por h̃ab = h̃ab αβ p×p , c̃ ejemplo, en el caso de dos capas y una especie simplemente tendríamos que (6.2) 11 12 13 c̃ c̃ c̃ 21 22 C̃ = c̃ c̃23 = c̃ c̃31 c̃32 c̃33 c̃11 11 c̃11 21 c̃21 11 c̃21 21 c̃31 11 c̃31 21 c̃11 12 c̃11 22 c̃21 12 c̃21 22 c̃31 12 c̃31 22 c̃12 11 c̃12 21 c̃22 11 c̃22 21 c̃32 11 c̃32 21 c̃12 12 c̃12 22 c̃22 12 c̃22 22 c̃32 12 c̃32 22 c̃13 11 c̃13 21 c̃23 11 c̃23 21 c̃33 11 c̃33 21 c̃13 12 c̃13 22 c̃23 12 c̃23 22 c̃33 12 c̃33 22 p×p q×q , . Por , y expresiones similares para H̃ y R. Al proceso de reducir la descripción, eliminando a una de las capas en un sistema de q capas, de tal manera que las ecuaciones resultantes contengan explícitamente sólo a las q − 1 capas restantes, lo llamaremos la contracción primera. Supongamos que eliminamos la capa c y, definamos (6.3) X̃ = H̃(k) − C̃(k) − C̃(k)R(k)H̃(k) = 0. La contracción primera consiste en eliminar las partes rojas de (6.4) x̃11 · · · x̃1c . . . · · · .. . c1 X̃ = · · · x̃cc x̃ . . . · · · .. . x̃q1 · · · x̃qc · · · x̃1q . · · · .. · · · x̃cq . · · · .. · · · x̃qq . 101 102 Capítulo 6. Potenciales efectivos Después de realizar esta eliminación, la ecuación de OZ en la descripción reducida es (6.5) H̃(q−1) (k) = C̃(q−1)eff (k) + C̃(q−1)eff (k)R(q−1) (k)H̃(q−1) (k). El superíndice (q−1) indica que las matrices poseen (q−1)×(q−1) bloques, a diferencia de las originales que poseían q × q. Estas nuevas matrices (H̃(q−1) , C̃(q−1) y R(q−1) ) se obtienen eliminando en las originales (H̃, C̃ y R) a la línea y la columna asociadas a la capa contraída. Las matrices de correlación directa efectivas en la contracción primera están dadas por h ac cc cc c̃ab,eff = c̃ab (0) + c̃(0) 1 − n c̃(0) (1) i−1 ncc c̃cb (0) , a, b 6= c. Se agrega el subíndice (i) (en este caso i = 0, 1) para indicar que se trata de las funciones de correlación directa en la contracción i − esima. Si necesitamos eliminar otra capa de la descripción, digamos la capa d, aplicamos el mismo procedimiento, pero ahora partimos de la ecuación (6.6) H̃(q−1) (k) − C̃(q−1)eff (k) − C̃(q−1)eff (k)R(q−1) (k)H̃(q−1) (k) = 0, para arribar a la ecuación (6.7) H̃(q−2) (k) = C̃(q−2)eff (k) + C̃(q−2)eff (k)R(q−2) (k)H̃(q−2) (k), con h c̃ab,eff = c̃ab,eff + c̃ad,eff 1 − ndd c̃dd,eff (2) (1) (1) (1) i−1 ndd c̃db,eff (1) , a, b 6= c, d. Este proceso se puede repetir las veces que necesitemos. En la contracción i-ésima, que elimina a la capa y, llegaríamos a una ecuación de la forma (6.8) H̃(q−i) (k) = C̃(q−i)eff (k) + C̃(q−i)eff (k)R(q−i) (k)H̃(q−i) (k) con h ay,eff yy yy,eff c̃ab,eff = c̃ab,eff (i) (i−1) + c̃(i−1) 1 − n c̃(i−1) i−1 nyy c̃yb,eff (i−1) , a, b 6= c, d, · · · , y. Desde luego, en el sistema de q capas se puede realizar un máximo de q − 1 reducciones de la descripción. Por otra parte, este mismo proceso se puede aplicar a las especies, e inclusive, a las partículas. En el nivel más reducido de descripción, en el cual se eliminan todas las partículas, excepto dos, el potencial obtenido sería el potencial de fuerza media, En cada nivel de descripción hemos ido definiendo a las funciones de correlación directa efectivas. Igualmente, podemos definir los potenciales efectivos correspondientes como ab,eff ab,eff ũ(i) = ũ(i−1) + + n ab,eff c̃ab,eff (i−1) − c̃(i) n o o b̃ab,eff − b̃ab,eff (i) (i−1) . 6.1. Introducción 103 Matemáticamente, este proceso iterativo que va definiendo la jerarquía de reducciones de la descripción no contiene algo nuevo en absoluto si se compara con la discusión de la sección 3.1.2. Sin embargo, conceptualmente, pone de manifiesto el hecho de que en el nivel de descripción (i), las cantidades de entrada (las que teníamos previo dicha contracción), de por sí, son cantidades efectivas. Como hemos comentado anteriormente, aquí supondremos que las funciones puente son invariantes ante la reducción de la descripción, esto es, que (6.9) n o b̃ab,eff − b̃ab,eff (i) (i−1) = 0, de tal manera que (6.10) ab,eff ab,eff ab,eff ũ(i) = ũ(i−1) + ∆ũ(i−1) con (6.11) n o ab,eff ab,eff ∆ũ(i−1) = − c̃ab,eff − c̃ab,eff (i) (i−1) = −∆c̃(i−1) . Notemos que esta aproximación se puede interpretar como una MSA generalizada (sección 3.1.1.4). En la discusión anterior hemos mantenido la generalidad de notación. Sin embargo, para los sistemas que a continuación se presentan las cosas se simplifican mucho porque cada capa es monodispersa, esto es, que los bloques de H̃, C̃ y R son escalares. Para finalizar esta introducción mencionamos una nota técnica importante. Para calcular el potencial efectivo se requiere conocer las funciones de correlación directa parciales. Hay dos rutas posibles para obtenerlas. La primera podría ser usar las funciones de distribución obtenidas de la simulación junto con la ecuación de OZ no reducida. En esta ruta se requiere de trasladar las funciones de correlación hab αβ parciales al espacio de Fourier. Como es bien sabido, la transformación de Fourier introduce los efectos de aliasing y una onda en números de onda pequeños que proviene del radio de corte introducido en la transformación. Aunque pequeños, estos efectos pueden provocar que yy i−1 yy h C̃(q−m+1)eff , el cual va como det (S)−1 , se vuelva infinito 1p×p − R(q−m+1) ya que el determinante se puede anular, especialmente para longitudes de onda mayores que cualquier escala de longitud característica. Esto se reflejaría como potenciales efectivos que oscilan a distancias grandes, lo cual carece de sentido para este tipo de sistemas. Otra ruta es usar los factores de estructura que se obtienen directamente de la simulación. A primera vista parecería que esta ruta sería mas problemática, ya que los factores de estructura estática parciales obtenidos de esta forma varían terriblemente en números de onda pequeños. A pesar de ello, los resultados revelan que esta ruta es mucho más apropiada, aún para radios de corte no muy grandes, aunque desde luego, los resultados son cada vez mejores con radios de corte cada vez más grandes. En efecto, aunque no encontramos una explicación rigurosa para ello, resulta que el det (S) siempre es distinto de cero cuando se usan los S’s obtenidos directamente de la simulación. Los resultados que se muestran a continuación se obtuvieron siguiendo esta ruta. 104 6.2. Capítulo 6. Potenciales efectivos Sistemas de dos capas 11eff 11 Figura 6.1: Transformación Fourier-Bessel ∆u11 11 (k) = u11 (k)−u11 (k), correspondiente al sistema efectivo bidimensional que resulta √ de la primera y única reducción en el sistema de dos capas y una especie con A1,2 = 50, b = 1, x1,2 1 1 = 0.5 y σ = 0.357. Este sistema se introdujo en la sección 5.2.2. La figura 6.1 muestra la transformación de Fourier-Bessel1 ∆ũ11 11 (k) cuando se elimina la capa 2 en la descripción del sistema de dos capas √ y una especie introducido en la sección 5.2.22 . Las variaciones abruptas en la región k < 2π/d se deben a las correspondientes ab de los factores de estructura parciales Sαβ en esa misma región. Estas “fluctuaciones” 1 Todas las transformaciones de Fourier espaciales de los sistemas en capas son bidimensionales. Las transformadas de Fourier bidimensionales reciben el nombre de transformaciones de Fourier-Bessel. 2 Nótese que omitimos los subíndices que indican el nivel de reducción, porque en éste caso solo existe una reducción. 6.2. Sistemas de dos capas 105 son casi irrelevantes porque para obtener su efecto sobre ∆u11 11 (r) se debe aplicar la transformación de Fourier-Bessel inversa (6.12) ∆u11 11 (r) 1 = 2π ˆ ∞ kj0 (kr)∆ũ11 11 (k)dk. 0 Aquí vemos que al aplicar esta operación los efectos de números de onda pequeños se vuelven despreciables si ∆ũ11 11 (k) es finito puesto que |j0 (kr)| < 1. 11,eff (r) = u11 La figura 6.2 muestra a ∆u11 11 (r) + 11 (r) y al potencial efectivo resultante u11 11 ∆u11 (r). Se comparan los resultados que se obtienen de la solución de OZ+HNC con los resultados exactos de simulación. Se encuentra que los resultados de la teoría OZ+HNC son completamente diferentes de los resultados de simulación, los cuales son exactos 11eff 11 dentro de la aproximación B11 − B11 = 0. Esto era de esperarse porque en el esquema OZ+HNC las contribuciones de las funciones puente se ignoran desde el calculo mismo de las funciones de correlación, condición que no se impone en el cálculo de las funciones de correlación que se obtienen directamente de las trayectorias de simulación. 11 Debido a que u11 11 (r) > ∆u11 (r) cerca de la capa de primeros vecinos, esto es, cerca del 11 máximo principal de g11 , el potencial efectivo no es muy conveniente para analizar los resultados. Por lo tanto, analizaremos los resultados atendiendo a la forma de ∆u11 11 (r). 11 La primer √ característica que salta a la vista es el máximo que ∆u11 (r) presenta en en r = 2d. Este máximo es el responsable del desdoblamiento del primer pico de 11 las funciones g11 (r) en la figura 5.2. También notemos que la altura de este máximo disminuye a medida que la distancia entre las capas aumenta, lo cual es consistente con el hecho de que cuando ` = ∞ el máximo debe localizarse precisamente en esa posición. De hecho, cuando ` = ∞, ∆u11 11 (r) = 0 para todo r. Atendiendo al perfil global de ∆u11 (r) notamos que ambos, teoría y simulación, predicen que para todo r 11 11 ∆u11 (r) → 0 a medida que ` → ∞. Como prueba de la validez del potencial efectivo obtenido, introdujimos este potencial en un código Metrópolis-Monte-Carlo para obtener la estructura del sistema bidimensional efectivo. Luego, la estructura obtenida se compara con la estructura de las capas en el sistema original. El resultado de esta comparación se ilustra en la figura 6.3. 106 Capítulo 6. Potenciales efectivos 11eff 11 Figura 6.2: (a) Potencial efectivo en la aproximación B11 −B11 = 0 y (b) el correspondiente ∆u11 , del sistema dos capas y una especie en la figura 6.1. Las lineas representan 11 los resultados que se obtienen con la solución numérica del esquema OZ+HNC obtenidos por Castañeda Priego. Los símbolos representan los resultados que se obtienen al usar los factores de estructura que fueron calculados directamente de la simulación, como se especificó en la sección 5.2. 6.2. Sistemas de dos capas 107 Figura 6.3: Comparación entre las funciones de distribución del sistema de dos capas y una especie de la figura 6.1 (identificadas como BD, ya que se obtuvieron mediante dinámica browniana), con las del sistema bidimensional de coloides que interactúan a través del potencial efectivo en la primera, y única, contracción (identificadas como MC, ya que se obtuvieron mediante Monte Carlo). Se muestran los resultados para dos valores de `. Notemos que la región de discrepancia se localiza principalmente alrededor de máximo principal, precisamente donde los efectos de las funciones puente empiezan a tomar relevancia. Los resultados aquí mostrados se obtuvieron después de un estudio sistemático en el que se consideraron gradualmente radios de corte cada vez más grandes. En particular, llegamos al límite de un radio de corte bl/2 = 70, es decir hasta considerar un total de 19600 partículas en el sistema. También se usaron un total de Nt = 2000 configuraciones y Nθ = 178 direcciones de observación. La complejidad3 del cálculo neto va como N 2 Nt Nθ , por ello hemos usado pocas direcciones de observación y configuraciones, teniendo una muestra de apenas Nt Nθ = 356 × 103 elementos, ya que al aumentar 3 El termino “complejidad” es un término informático que indica cómo escalan el número de operaciones que un algoritmo debe ejecutar para obtener el resultado solicitado. 108 Capítulo 6. Potenciales efectivos el radio de corte el tiempo de cálculo se incrementa considerablemente. A pesar de ello, notamos que al ir de bl = 100 a bl = 140 los resultados obtenidos difieren entre sí muy poco, indicando que los resultados estaban convergiendo al resultado exacto, dentro de 11 11 11eff = 0. = ∆B11 − B11 la aproximación BB11 De acuerdo a los comentarios del párrafo anterior, y dado que las funciones de distribución en el sistema bidimensional efectivo deben ser idénticas a las funciones de distribución originales, llegamos a la conclusión que las discrepancias observadas son 11 = 0 y no de alguna deficiencia en el consecuencia exclusiva de la aproximación ∆B11 cálculo. Esta aproximación contiene como casos particulares a HNC y a la HNC de referencia (Secc. 3.1.1.4). Por lo tanto, hemos probado que el uso de estas aproximaciones puede llegar a ser cuantitativamente inadecuado en la primera capa de vecinos cercanos. 11 En ocasiones ∆B11 = 0 puede llegar a ser mucho más precisa que HNC. Una prueba de ello es que la estructura del sistema efectivo que se obtiene bajo esta aproximación difiere de la estructura exacta únicamente en la región de primeros vecinos cercanos y coincide en el resto de las distancias. Sin embargo, cuando las capas se acercan mucho, esta aproximación empieza a decepcionar ya que la estructura predicha en la capa de primeros vecinos puede llegar a diferir de la estructura exacta no sólo cuantitativamente, sino también cualitativamente, como se muestra en la figura 6.3 en ` = 1.2σ. 6.3. Sistemas de tres capas En cuanto a estos sistemas, nos interesa ilustrar la contracción primera que consiste en eliminar a la capa interna del sistema descrito por la figura 5.5. Este interés emerge 13 mostrada en la figura 6.4. Lo por el comportamiento de la función de distribución g11 primero que viene a la mente al observar el caso ` = 2.0σ es que hay una atracción Figura 6.4: Funciones de distri13 31 bución radial g11 (r) = g11 (r) del sistema de tres capas y una especie con los parámetros A1,2,3 = 1 √ 1,3 2 50, b = 1, x1 = 0.25, x1 = 0.5 y σ = 0.357. El inset muestra la 13 variación con ` de g11 (r = 0) en un sistema de tres capas y una especie similar pero con x1,3 = 1 2 3/8, x1 = 2/8. Este segundo sistema se presentó en [1]. 6.3. Sistemas de tres capas 109 entre las partículas de las capas externas, aún cuando poseen carga del mismo signo. A manera de ilustración también incluimos en esa figura un inset que muestra la variación 13 de g11 en uno de los sistemas de tres capas y una especie estudiados en [1]. 6.3.1. Una especie Figura 6.5: Potenciales efectivos entre las partículas de las capas externas, que se obtienen por eliminación de la capa interna en la descripción del sistema de tres capas 13 y una especie de la figura 6.4. Las lineas negras muestran los potenciales efectivos ueff (1) 11 para ` = 1σ en linea continua, ` = 2σ en linea segmentada y ` = 5σ en linea punteada. Las lineas grises en trazos correspondientes muestran los potenciales por pares u(0) 13 11 . El inset muestra el término de corrección ∆u(0) 13 . 11 La figura 6.5 muestra el potencial efectivo para tres valores distintos de ` y se compara con el potencial por pares. En el inset se incluye la variación del término de corrección al potencial por pares. Notamos que, efectivamente, existe un pozo de potencial cerca de r = 0 cuando ` = 2σ. Más aún, la barrera que delimita a este pozo tiene una altura de aproximadamente 3.5kB T . Esto significa que las partículas de las capas externas se superponen cuando vemos al sistema desde el eje z y que esta configuración puede ser muy estable. Es como si la capa intermedia provocara que los coloides externos se movieran en armonía formando una mancuerna orientada paralela al eje z. Desde luego, 110 Capítulo 6. Potenciales efectivos estas característica se fortalece en las condiciones estudiadas aquí, ya que deliberadamente escojimos que la capa interna fuera densa al doble respecto a las capas externas. De esta manera, se asegura que siempre habrá un par de partículas internas disponibles para alinear a dos partículas de las capas externas. 6.3.2. Dos especies En cuanto a este sistema presentamos el potencial efectivo entre coloides internos. Para obtener este potencial efectivo realizamos la contracción de las capas 1 y 3 como se explicó anteriormente. El resultado para ` = 1.5σ se muestra en la figura 6.6. Se eligió este valor porque es representativo y porque el estado estacionario de equilibrio desde la configuración aleatoria inicial lo alcanza mucho más rápido que el sistema con ` = 1.2σ. Desde luego, el proceso de termalización se puede optimizar disminuyendo por pasos pequeños la distancia entre capas y en cada paso usando como configuración inicial la configuración de equilibrio del paso previo, hasta alcanzar la distancia deseada. Sin embargo, esto no se hizo aquí. Figura 6.6: Potencial efectivo entre los coloides internos que se obtiene eliminando las capas 1 y 3 en la descripción del sistema de tres capas y dos especies de la figura 5.9. La 22 linea negra muestra al potencial efectivo ueff (2) 22 para ` = 1.5σ, mientras que la linea gris eff 22 22 muestra el potencial por pares correspondiente u(0) 22 22 . El inset muestra a u(2) 22 − u(0) 22 . Pruebas Metrópolis-Monte-Carlo también se realizaron sobre estos sistemas, y sobre el sistema anterior, hasta asegurarnos de que las fuentes de error pudieran provenir única- 6.4. Comentarios finales 111 mente de la aproximación de que las funciones puente son invariantes bajo contracciones la descripción. El resultado afirma que en verdad existe una atracción efectiva entre los coloides internos. Esta atracción se manifiesta como el pequeño valle de potencial ubicado cerca de r = σ. Sin embargo, las partículas que caigan dentro de este valle serán fácilmente rescatadas por la agitación térmica ya que es altamente asimétrico y su altura es de apenas del orden de un kB T . Sin embargo, como se mencionó anteriormente, este resultado sólo es representativo y puede tomarse como un punto de partida para encontrar sistemas en donde el valle, o tal vez los valles, sean más profundos y se puedan formar configuraciones estables en equilibrio como las mancuernas efímeras mostradas en la figura 5.9. Inclusive, esperamos que se puedan formar estados arrestados, tanto estructural como dinámicamente, o bien, clusterización en equilibrio [124, 125]. 6.4. Comentarios finales Los sistemas estudiados en este capitulo no parecen tener una aplicación directa inmediata. Sin embargo una posible aplicación podría ser en el estudio de las estructuras en capas que se forman en la región vecina a un substrato. También podemos considerar el estudio de la fase esméctica de los cristales líquidos, el del complejo liposoma-ADN [126, 127], y como auxiliar en diversos modelos dirigidos al estudio de las membranas biológicas, como el modelo clásico de mosaico. Hemos cumplido con el objetivo de mostrar que la distancia entre las capas ` es un parámetro muy simple cuyo control nos garantiza un control muy preciso de las interacciones efectivas y por lo tanto de la estructura estática del sistema. Como se mostró en [1], este parámetro también permite controlar las propiedades de autodifusión de una forma muy precisa. Desde luego, esto debería ser cierto para cualquier cantidad que describa la dinámica, como por ejemplo, las funciones de memoria. Hemos encontrado que la aproximación de que las funciones puente son invariantes bajo contracciones de la descripción es una buena premisa solamente cuando se observan regiones distintas al primer cascarón de vecinos cercanos. En la región de primeros vecinos se necesita analizar las consecuencias de la aproximación de una forma más detallada. Como se mencionó anteriormente, la aproximación incluye como casos particulares a HNC y a RHNC. Esto significa que el uso de estas relaciones de cerradura para calcular los potenciales efectivos puede producir resultados erróneos, lo cual se ilustró explícitamente en el caso de dos capas. En los demás casos no se ilustró, pero esperamos que se llegue a la misma conclusión sin mayores problemas. 112 Capítulo 6. Potenciales efectivos 7 Funciones de memoria en dos dimensiones. Lo importante en la ciencia no es obtener hechos nuevos sino descubrir nuevas formas de pensar acerca de ellos. Sir William Bragg Finalizamos este reporte de resultados presentando nuestro estudio sobre las funciones de memoria. La intención original en este trabajo era realizar un estudio sistemático similar al que se desarrolló para los potenciales efectivos. Sin embargo, el estudio de la función de memoria es conceptualmente mucho más complicado que el de los potenciales efectivos, así como numéricamente más demandante. Prueba de ello es que solamente conocemos modelos simples para las funciones de memoria, o bien, su formas límite en números de onda pequeños (capítulo 4). Por ello, solamente presentamos un estudio sistemático detallado de las funciones de memoria en dos dimensiones. Se consideran los casos de sistemas bidimensionales (a) de coloides de Yukawa y (b) de coloides paramagnéticos. Estudiar las funciones de memoria en dos dimensiones es un prerequisito para entender a las funciones de memoria en los sistemas de capas planas. Los estudios experimentales y de simulación sobre la naturaleza de las funciones de memoria, es decir, no solamente de los efectos que produce sobre los coeficientes de transporte hidrodinámicos o en los factores de no exponencialidad, se han producido en condiciones muy limitadas y son muy escasos. La causa natural por la cual un estudio completo de las funciones de memoria está ausente es el hecho de que, como todas las funciones de correlación temporal en la teoría de líquidos, la función de memoria no se puede evaluar exactamente sobre un intervalo aceptable de condiciones. Sin embargo, al parecer, otra causa es el hecho de que lo único que interesa a final de cuentas son los coeficientes de transporte y, como hemos visto, los coeficientes de transporte se expresan como integrales de las funciones de memoria. Entonces, da la impresión de que si una aproximación para la función de memoria reproduce los coeficientes de transporte, se deja de lado el estudio propio de la función de memoria. Dado lo anterior, resultó imperante que primero estudiaramos ampliamente los efectos de memoria en los sistemas bidimensionales de partículas de Yukawa. No obstante, nuestro estudio no llegó al nivel de rigor que se debe de esperar de un estudio completo, pero ilustra nuevas formas de pensar sobre los efectos de memoria que, hasta nuestro conocimiento, y mediante la consulta a otras personas lideres en estos ambitos, parece que no se habían reportado anteriormente. Una vez que entendamos a plenitud el sistema bidimensional, estaremos en condiciones de atacar el problema del estudio de las funciones de memoria de los sistemas en capas. 113 114 Capítulo 7. Funciones de memoria en dos dimensiones. Sin embargo, ese estudio, de forma rigurosa, se dejará como una perspectiva de trabajo. No obstante, presentaremos una pequeña sección en donde se muestran las funciones de memoria del sistema de dos capas. En estos resultados la precisión es menor en comparación con el grado de precisión con el que se hicieron los cálculos correspondientes a los sistemas bidimensionales. Incluimos esta sección para cerrar parcialmente uno de los objetivos de éste trabajo: mostrar que las propiedades de transporte también se pueden controlar en los sistemas de capas, simplemente variando la distancia ` entre ellas. 7.1. Introducción Este estudio se basa en la ecuación de memoria ˆ t 2 0 −1 (7.1) ∂t F (k, t) = −k D S (k)F (k, t) + dt0 M C (k, t0 )S −1 (k)F (k, t − t0 ). 0 Como en este trabajo solamente hemos estudiado la función de memoria colectiva, en lo sucesivo eliminaremos el superíndice C en M C y nos referiremos a esta cantidad simplemente como la función de memoria. La función de memoria se puede extraer directamente de (7.1), si se conoce la función intermedia de la dispersión. Existen métodos numéricos para tratar este tipo de ecuaciones. Entre ellos tenemos las técnicas de transformaciones integrales de Laplace, de Fourier o el caso general de la transformación de Fourier-Laplace. Otras técnicas incluyen los métodos de elemento finito, que trabajan directamente en el espacio real. Nosotros tomamos otra ruta. Esta ruta consiste en emplear el par de transformaciones de Fourier seno y coseno para convertir a (7.1) en un par de ecuaciones algebraicas en las transformaciones seno FS , MS y coseno FC y MC definidas por ˆ ∞ (7.2) fS (z) = f (t) sin (zt) dt 0 y ˆ (7.3) ∞ f (t) cos (zt) dt. fC (z) = 0 Conocidas FS y FC , las ecuaciones que resultan de las dos transformaciones, (7.4) − zFC (k, z) = −k 2 D0 S −1 (k)FS (k, t) + MC (k, z)S −1 (k)FS (k, z) + MS (k, z)S −1 (k)FC (k, z) y (7.5) − zFS (k, z) − S(k) = −k 2 D0 S −1 (k)FC (k, t) + MC (k, z)S −1 (k)FC (k, z) − MS (k, z)S −1 (k)FS (k, z), nos permiten obtener la función de memoria. 7.2. Efecto de las interacciones directas y de la concentración 115 Es conveniente escribir estas ecuaciones en las escalas d y τ 0 (7.6) − zFC (k, z) = −k 2 S −1 (k)FS (k, t) + MC (k, z)S −1 (k)FS (k, z) + MS (k, z)S −1 (k)FC (k, z). (7.7) − zFS (k, z) − S(k) = −k 2 S −1 (k)FC (k, t) + MC (k, z)S −1 (k)FC (k, z) − MS (k, z)S −1 (k)FS (k, z). Una eliminación algebraica sencilla nos arroja el resultado MC (k, z)S −1 (k) = k 2 S −1 (k) − (7.8) S(k) FC (k, z) (FS (k, z)) + (FC (k, z))2 2 y MS (k, z)S −1 (k) = −z + (7.9) S(k) FS (k, z) (FS (k, z)) + (FC (k, z))2 2 Se sabe que la transformación de Fourier seno es mas susceptible a los errores numéricos cerca de t = 0 y, viceversa, que la transformación de Fourier coseno muestra mayor estabilidad numérica en t = 0. En tiempos grandes los papeles se invierten, esto es, la transformación seno es más estable numéricamente. En nuestros cálculos resultó que MC es más conveniente que MS para obtener las funciones de memoria. La función de memoria de vuelta en el tiempo se obtiene a partir de la transformación inversa ˆ 2 ∞ (7.10) fC (t) = fC (z) cos (zt) dz. π 0 7.2. Efecto de las interacciones directas y de la concentración El primer efecto que presentamos es el comportamiento que la función de memoria manifiesta al variar la amplitud de interacción y la concentración de coloides. Por completez, primero presentamos resultados concernientes a la función intermedia de dispersión. Además, en esta sección solamente se discutirán con detalle los resultados para la posición del máximo principal de S, en donde los efectos de memoria son más importantes. En la sección que sigue se estudia la forma general k-dependiente de las funciones de memoria e intermedia de dispersión. 7.2.1. Función intermedia de dispersión La función intermedia de dispersión se calculó de acuerdo a la generalización de tiempos distintos de la definición de promedio estadístico (5.21) correspondiente al factor de estructura. Esta generalización es F (k, t) = + Nt Nθ 1 1 X0 X Nt0 Nθ i =1 i =1 " ! ! N N 1 X 1 X √ √ sin k(iθ ∆θ) · Ri (it0 ∆t) sin k(iθ ∆θ) · Ri (it0 ∆t + t) N i=1 N i=1 t0 θ ! !# N N 1 X 1 X √ √ cos k(iθ ∆θ) · Ri (it0 ∆t) cos k(iθ ∆θ) · Ri (it0 ∆t + t) . N i=1 N i=1 116 Capítulo 7. Funciones de memoria en dos dimensiones. Figura 7.1: Variación de la función intermedia de dispersión F (kmax , t) con la concentración, en un sistema de coloides que interactúan débilmente. En todos los resultados que a continuación se muestran a lo largo de esta sección se usaron Nt0 = 138, 888 configuraciones como origen en el tiempo y Nθ = 720 direcciones de observación. Esto significa que en cada cálculo de la función intermedia de dispersión se usó una muestra estadística con 1 × 108 elementos. Para mejorar aún más la precisión del cálculo, para un mismo sistema se obtuvo su F (k, t) correspondiente a cada una de diez semillas aleatorias en la simulación. De esta manera se obtuvo una F (k, t) promedio sobre estas semillas y se pudo calcular la desviación estándar correspondiente. En lo que sigue, cuando se trace un serie de barras sobre las curvas mostradas, esas barras representarán a la desviación estándar. La figura (7.1) ilustra la variación de la función intermedia de la dispersión con la densidad de partículas. Esta figura describe a un sistema de coloides que interactúan débilmente entre sí. La figura 7.2 muestra el caso de un sistema de coloides que interactúan con una intensidad moderada. Notamos que la función intermedia de dispersión es altamente sensible a las variaciones en la densidad. Aunque no se muestra aquí, el caso más diluido con A2 = 7 se puede ajustar perfectamente con una exponencial. Esto significa que el efecto de memoria debe ser despreciable para A2 = 7, y n = 0.2. Las barras de error indican que la determinación de estas cantidades es tan precisa, que si hubiéramos elegido símbolos para graficarlas, las barras se confundirían con los símbolos. No obstante, es notable que el error mismo es una función complicada del tiempo. Esto se debe al hecho de que en distintos tiempos se usa una muestra distinta de puntos del espacio de configuraciones para calcular F . En el límite ideal en que pudiéramos repetir este cálculo con cientos o tal vez miles de semillas aleatorias el error 7.2. Efecto de las interacciones directas y de la concentración 117 Figura 7.2: Variación de la función intermedia de dispersión F (kmax , t) con la concentración, en un sistema de coloides que interactúan moderadamente. Figura 7.3: Variación de la función intermedia de dispersión F (kmax , t) con el alcance del potencial, en un sistema de coloides moderadamente interactuantes. 118 Capítulo 7. Funciones de memoria en dos dimensiones. Figura 7.4: Variación de la función intermedia de dispersión F (kmax , t) con la intensidad de interacción, a alcance y concentración moderadas. en la determinación de F debería ser el mismo en todo tiempo. La figura 7.3 describe la variación de F con el alcance del potencial. Notamos que el efecto es mayor cuando el alcance del potencial disminuye que cuando aumenta. Curiosamente, parece que el efecto es simplemente reducir la intensidad de la estructura dinámica, porque los tiempos de relajación son idénticos. La figura 7.4 muestra la variación de F con la intensidad de la interacción. El caso de mayor intensidad se está acercando a la transición de fase líquido-sólido. De hecho, si graficáramos el caso con A2 = 80 veríamos que la F correspondiente no decae a cero, sino a un valor ligeramente mayor que cero, indicando que el sistema está próximo a una transición no ergódica vítrea. No es el propósito de este trabajo estudiar estados no ergódicos y por ello hemos tomado como límite superior A2 = 70 y diremos que este es un sistema de coloides fuertemente interactuantes. Lo que prosigue después de haber obtenido F es aplicarle las transformaciones seno y coseno para poder determinar la función de memoria. En lo que sigue solamente comentaremos sobre el resultado final de las funciones de memoria. 7.2.2. Función de memoria Las figuras 7.5-7.8 muestran a las transformaciones de Fourier coseno de las funciones de memoria asociadas a cada una de las funciones intermedias de dispersión presentadas en la sección 7.2.1. Aunque parezca descabellado, las barras de error mostradas son las que arrojan los 7.2. Efecto de las interacciones directas y de la concentración 119 Figura 7.5: Variación con la concentración en un sistema débilmente interactuante, de la transformación Fourier coseno MC (kmax , z) de la función de memoria . cálculos. Como se puede apreciar, las barras de error en algunos casos son comparables al valor mismo de la función, inclusive, a veces mayores. La razón de ello estriba en que, especialmente a alta frecuencia, el término S(k)FC (k, z) (FS (k, z))2 + (FC (k, z))2 representa la división de dos números muy pequeños que fluctúan muy rápido y, de hecho, FC puede llegar a fluctuar entre números pequeños positivos y negativos. Adicionalmente, a alta frecuencia tanto FC como FS tienden a cero, y empiezan a experimentar el remanente del tiempo de corte introducido en las transformaciones seno y coseno. Además de que la precisión del cálculo no es la misma en todas las frecuencias y fluctúa impredeciblemente. Para obtener las curvas mostradas, lo que hicimos fue un ajuste que consiste en asignar a cada punto el valor promedio de sus puntos cercanos. El intervalo de puntos considerado en este ajuste de valor medio se tomó como un múltiplo de la frecuencia de Nyquist νc = π/tc , en donde tc es el tiempo de corte. La elección de este fit fue guiada por el hecho de que el promedio de las funciones armónicas sobre un período completo es cero. De esta manera esperábamos reducir el efecto de las oscilaciones inducidas artificialmente por el efecto de corte. En todas las figuras aquí mostradas se tomó como intervalo de promediación a 6νc . Las figuras 7.9-7.12 muestran a las funciones de memoria M (k = kmax , t) correspondientes a las transformaciones Fourier coseno MC (k = kmax , z) en las figuras 7.5-7.8. 120 Figura 7.6: Variación con la concentración en un sistema moderadamente interactuante, de la transformación Fourier coseno MC (kmax , z) de la función de memoria. Figura 7.7: Variación con el alcance del potencial, en un sistema moderadamente interactuante, de la transformación Fourier coseno MC (kmax , z). Capítulo 7. Funciones de memoria en dos dimensiones. 7.2. Efecto de las interacciones directas y de la concentración 121 Figura 7.8: Variación con la intensidad de interacción de la transformación Fourier coseno MC (kmax , z), en un sistema moderadamente denso. Figura 7.9: Variación de la función de memoria M (kmax , t) con la concentración, en un sistema de coloides débilmente interactuantes. 122 Figura 7.10: Variación de la función de memoria M (kmax , t) con la concentración, en un sistema de coloides moderadamente interactuantes. Figura 7.11: Variación de la función de memoria M (kmax , t), con el alcance del potencial, en un sistema medianamente denso de coloides moderadamente interactuantes. Capítulo 7. Funciones de memoria en dos dimensiones. 7.2. Efecto de las interacciones directas y de la concentración 123 Figura 7.12: Variación de la función de memoria M (kmax , t), con la intensidad de interacción, en una dispersión coloidal moderadamente densa. En la figura 7.9 vemos que el efecto de memoria disminuye dramáticamente cuando la densidad del sistema disminuye. De los estudios previos sabemos que en la ausencia de las interacciones hidrodinámicas las funciones de memoria tienen un término dominante en la densidad que va como n2 . De esta manera si la densidad disminuye, el efecto de memoria disminuirá, al menos, cuadráticamente con el decremento de la densidad. Las oscilaciones que manifiestan las funciones de memoria no son físicas. De hecho, la dinámica de Smoluchowski predice que todas las funciones de autocorrelación temporal son monótonas decrecientes [11]. Así que no deberían estar presentes. Su aparición se debe a la convolución del efecto de la frecuencia de corte con el resultado real. De esta manera, las funciones de memoria reales deben quedar mas o menos a lo largo de la bisectriz que ajusta mejor estas gráficas. Sin embargo, de esta forma no queda claro cual forma funcional usar para empezar un análisis de ajuste no lineal. También podríamos intentar emplear un ajuste de vecinos cercanos, como se hizo con MC . Sin embargo, en este caso no es conveniente ya que la M obtenida no oscila tan rápidamente como MC lo hace. Ahora atendamos a la figura 7.10. En este caso los coloides son cinco veces mas interactuantes que los del sistema de la figura 7.5. Observamos que el valor en el instante inicial es altamente sensible a las variaciones de densidad. Sin embargo, el ancho de la curva parece cambiar poco si varía poco la densidad. En cuanto a la figura 7.11, excepto en el valor inicial, observamos que la función de memoria es poco sensible al alcance del potencial, sólo se aprecia que aumenta en los instantes iniciales. Un factor que puede explicar esta condición es el hecho de que los coloides se desplazan sólo una fracción pequeña de su tamaño cuando el efecto de 124 Capítulo 7. Funciones de memoria en dos dimensiones. memoria se ha relajado. La figura 7.12 muestra que la función de memoria se ensancha ligeramente en condiciones de interacción cada vez menores, aunque disminuye su amplitud. Parece como si al disminuir la interacción se delocalizara, es decir, como si “se esparciera” y a la vez se atenuara. De estos resultados parece que el efecto de incrementar las condiciones de interacción, esto es, n o A2 , es el de localizar la memoria cada vez más en torno a t = 0 y a la vez aumentar su importancia en intervalos de tiempo cada vez más grandes. Esto era de esperarse, pero por el momento no podemos decir nada acerca de una posible forma funcional. Por simple inspección visual es evidente que la función de memoria no parece ser exponencial. En cuanto a estudios de la función de autocorrelación de velocidades de sistemas Hamiltonianos, se ha mostrado que las funciones de memoria deben ser funciones pares del tiempo. Parece que aquí nosotros tenemos una función que podría poseer esa característica. No obstante, en este caso no tiene sentido hablar de tiempos negativos ya que la dinámica de Smoluchowski es irreversible y la ecuación de memoria es válida solamente para tiempos positivos. Sin embargo, es notable que parece ser que esta condición se sigue cumpliendo aún en la dinámica de Smoluchowski. Hemos de remarcar que al nivel de los cálculos aquí mostrados, no tenemos la certeza de si los valores de M (k = kmax , t = 0) son lo suficientemente precisos como para formular conclusiones basadas únicamente en el comportamiento de estos valores. Esto se debe al problema con el termino S(k)FC (k, z) (FS (k, z))2 + (FC (k, z))2 del que hablamos anteriormente. Por ello, conviene que nuestro estudio lo hagamos atendiendo a la forma general de la función de memoria y no solamente a su valor inicial. De hecho, mediante la expansión de momentos sería posible determinar con muy buena precisión a M (k = kmax , t = 0). Pero lo que nos interesa a nosotros es el comportamiento global, que no se puede obtener a partir de una expansión de cumulantes. Remarcamos el efecto global que hemos venido mencionando en esta sección: al disminuir las condiciones de interacción la memoria se ensancha y su amplitud disminuye. 7.2.3. Modelo lorentziano Las figuras 7.13-7.16 muestran la gráficas semi-logarítmicas ln [MC (k = kmax , z)] vs z asociadas a las figuras 7.5-7.8. En todas ellas se puede apreciar una región lineal bastante amplia como para asegurar que MC tiene un modo de decaimiento exponencial. El único caso que parece distinto es el del sistema con interacciones más intensas en donde la curva se hace cóncava. No obstante, aún este caso presenta una región lineal amplia a alta frecuencia. Si la función de memoria en el espacio coseno es exponencial esto significa que en el tiempo debe ser una lorentziana centrada en el origen y cuya altura y anchura están 7.2. Efecto de las interacciones directas y de la concentración 125 determinadas por ln [MC (kmax , z = 0)] y la pendiente de ln [MC (k = kmax , z)] vs z, respectivamente. En este lenguaje, parece que el caso con A2 = 70 presenta dos modos de decaimiento lorentzianos, uno más ancho asociado a frecuencias bajas y uno más angosto asociado a frecuencias altas. Por el momento, no sabemos como interpretar físicamente esta separación de escalas. Sin embargo, mediante un argumento físico simple, en la sección siguiente veremos que este caso se puede modelar con una función hipergeométrica de Gauss, lo cual resulta conveniente pues, como sabemos, la lorentziana así como muchísimas otras funciones, es un caso particular de la función hipergeométrica de Gauss. Basados en esta observación, podemos realizar un ajuste lineal de las curvas en 7.137.16. Antes de dar los resultados introduciremos la notación que usaremos. Considere la función de memoria lorenzana M l (k, t) = M0 (7.11) 2 τ l (k) (τ l (k))2 + t2 en donde τ l es el tiempo de relajación lorentziano y M0 es el valor inicial. La transformación de Fourier coseno es h i M0 τ l (k) l exp −τ (k)z , 2π −1 MCl (k, z) = (7.12) de tal manera que (7.13) ln h MCl (k, z) i M0 τ l (k) − τ l (k)z. = ln 2π −1 " # Entonces el ajuste se realiza con una forma funcional (7.14) con y0 = ln y = mx + y0 h M0 τ l (k) 2π −1 i y m = −τ l (k). La tabla 7.1 muestra los parámetros que se obtienen para el modelo lorentziano usando el ajuste lineal de mínimos cuadrados. La columna identificada con R2 es el coeficiente de determinación del ajuste. Esta cantidad representa el porcentaje de los datos mas cercanos a la línea ajuste. El ajuste perfecto tendría un R2 = 1.000 · · · . La columna identificada como χ2red es el coeficiente chi reducido que está dado por (7.15) χ2red Npuntos X (f it(i) − valorreal(i))2 1 = . Npuntos − Nparametros i=1 error(i)2 Idealmente, χ2red = 1. Si es menor que uno significa que se han sobreestimado los errores y si es mayor que se han sub-estimado. Aquí solamente lo reportamos como referencia, pues en realidad se consideró arbitrariamente que σ(i) = 1, porque no calculamos el error del ajuste mediante promedio de vecinos cercanos. Sin embargo, la χred mostrada es útil ya que representa una “desviación estándar” de la función completa. 126 Figura 7.13: Variación de ln [MC (k = kmax , z)] con la concentración, en un sistema débilmente interactuante. Figura 7.14: Variación de ln [MC (k = kmax , z)] con la concentración, en un sistema moderadamente interactuante. Capítulo 7. Funciones de memoria en dos dimensiones. 7.2. Efecto de las interacciones directas y de la concentración 127 Figura 7.15: Variación de [M ln C (k = kmax , z)] con el alcance del potencial, en un sistema moderadamente interactuante. Figura 7.16: Variación de ln [MC (k = kmax , z)] con la con la intensidad de interacción. 128 Capítulo 7. Funciones de memoria en dos dimensiones. A=7 z [50, 90] [0, 350] n 0.2 1.0 b 1.0 1.0 y0 1.24293 2.87972 m −0.02059 −0.00853 M0 107 1329 τL 0.02059 0.00853 χ2red 0.00091 0.00302 R2 0.98359 0.99595 0.8 1.0 1.0 1.0 1.0 2.0 1.0 0.5 3.07163 2.93942 3.03952 3.05878 −0.00539 −0.00442 −0.00397 −0.00364 2548 2722 3350 3725 0.00539 0.00442 0.00397 0.00364 0.00521 0.00435 0.00265 0.00281 0.99407 0.99264 0.99443 0.99296 A = 35 [0, 600] [0, 600] [0, 600] [0, 600] A = 70 [100, 600] 1.0 1.0 3.00356 −0.00277 4632 0.00277 0.0013 0.99197 Cuadro 7.1: Parámetros del ajuste lineal de ln [MC (k = kmax , z)] y los valores correspondientes que resultan para el modelo lorentziano. También se muestran el coeficiente de determinación y la chi cuadrada reducida, que en este caso es una especie de desviación estándar del ajuste. La figura 7.17 muestra a la función de memoria que se obtiene con el ajuste lorentziano y se compara con la función de memoria de la simulación. Podemos apreciar que el ajuste es excelente para el sistema menos interactuante. En cambio, no parece ser muy conveniente para los demás casos, ya que pierde información de tiempos largos, es decir, decrece más rápido que las funciones de memoria exactas. En la leyenda de esta figura hemos llamado al ajuste exponencial de MC que resulta del ajuste lineal de ln MC como un ajuste tipo distribución Boltzmann. Esto se hace así en alusión al factor de Boltzmann exp [−αω]. En este paralelismo, ω sería z y α = ~/kB T sería τ l . En este contexto, podríamos decir que el modelo lorentziano para la función de memoria es uno que sería válido a tiempos de relajación muy cortos (temperaturas altas). Sería raro que un solo modelo lorentziano pudiera modelar a la función de memoria, ya que en sistemas cada vez más interactuantes es razonable suponer que el tiempo de relajación de la función de memoria también aumente. Por el contrario, nosotros observamos que el modelo lorentziano predice que la función de memoria se relaja cada vez más rápido en sistemas cada vez más interactuantes. Entonces, o bien, es necesario usar modelos de varios tiempos de relajación, como se suele hacer en los modelos exponenciales, o bien buscar algún otro modelo. 7.2. Efecto de las interacciones directas y de la concentración 129 Figura 7.17: Modelo Lorentziano para la función de memoria que resulta del ajuste tipo distribución Boltzmann de MC . Las lineas en color representan los modelos lorentzianos. En rosa para A2 = 7, en naranja para A2 = 35 y en rojo para A2 = 70. 7.2.4. Modelo hipergeométrico gaussiano Note que el modelo exponencial para MCl que emerge de la discusión anterior puede escribirse como (7.16) MCl (k, t) = a1 (k) . exp [a2 (k)z] La primer suposición razonable para extender este modelo sería considerar la suma de dos exponenciales con distintos a’s. Sin embargo, por ejemplo, en el caso A2 = 70 no queda claro hasta qué frecuencia cortar la linea en frecuencias bajas para calcular el conjunto de a’s asociado al modo más lento. Por otra parte, notemos que el efecto de aumentar la intensidad de la interacción es el de favorecer los modos de frecuencias bajas. Una función que extiende de forma natural a (7.16) de tal manera que favorezca los modos de decaimiento lentos, es decir, las 130 Capítulo 7. Funciones de memoria en dos dimensiones. frecuencias bajas es MChG (k, z) = (7.17) a1 (k) exp [a2 (k)z] − a3 (k) en donde a3 (k) es un número positivo y a3 (k) < 1. Notemos que esto es como extender la forma tipo Boltzmann de nuestro espectro coseno de la función de memoria a una forma tipo Bose. El superíndice hG se ha incluido porque resulta que la transformación Fourier coseno inversa de MChG es una combinación de dos funciones hipergeométricas de Gauss1 . Tenemos que con el modelo tipo Bose para MChG (7.18) M hG (k, t) = a1 2 2 F1 1, 1 − ıt ;2 a2 − ıt ; a3 a2 a2 − ıt + 2 F1 1, 1 + ıt ;2 a2 a2 + ıt + ıt ; a3 a2 . En donde 2 F1 (a, b, c; x) es la función hipergeométrica de Gauss2 . Esta función está dada por la serie infinita, válida solamente para R |x| < 1 y para x = ±1 si c > a + b (7.19) 2 F1 (a, b; c; x) = ∞ X (a)n (b)n xn , (c)n n! n=0 en donde (a)n = a(a + 1)(a + 2) · · · (a + n − 1) se llama símbolo de Pochamer. Se puede ver entonces que (7.20) 2 F1 1, 1 ± ∞ X 1 ± aıt2 ıt ıt n ; 2 ± ; a3 = ıt (a3 ) a2 a2 n + 1 ± n=0 a2 y, por tanto, (7.21) M hG ∞ (n + 1) (a3 )n a1 X . (k, t) = a2 n=0 (n + 1)2 + (t/a2 )2 En efecto, si a3 = 0 entonces (7.22) M hG (k, t) = a1 a2 = M l (k, t). (a2 )2 + t2 La tabla (7.2) muestra los parámetros que se obtienen para el ajuste MChG de MC . Notemos que en el caso A = 7 el parámetro a2 concuerda exactamente con el parámetro τ l que le corresponde en el ajuste MCl . Sin embargo, los demás parámetros son distintos. Por una parte, uno esperaría que el parámetro a2 coincida siempre con τ l . Pero por 1 http://mathworld.wolfram.com/HypergeometricFunction.html 2 La función hipergeométrica de Gauss tiene aplicaciones en muchas áreas de la física y las matemáticas. En física emerge en la mecánica cuántica, en la gravitación y en la mecánica estadística. En matemáticas ocurre en la teoría de probabilidad. También existe un modelo, llamado la regla 184, para modelar el flujo de tráfico con autómatas celulares. 7.2. Efecto de las interacciones directas y de la concentración 131 otra parte, debido a los errores numéricos, esto no sucede porque una determinación perfectamente precisa de ambos parámetros requiere que, a alta frecuencia, MC esté determinada con muy buena precisión. Entonces, de acuerdo a los comentarios expuestos anteriormente acerca del comportamiento de S(k)FC (k, z) , (FS (k, z))2 + (FC (k, z))2 resulta que estos parámetros no tienen por qué coincidir en nuestros cálculos, si requerimos conocer con alta precisión a MC en alta frecuencia. Nuestra impresión es que el efecto de aliasing puede estar entrando en juego, pues el muestreo en el tiempo estuvo separado por 8 × 10−5 τ 0 para el caso A2 = 70 y la frecuencia asociada es de 33.9 × 103 τ 0−1 . A=7 n 1.0 b 1.0 a1 17.54265 a2 0.00853 a3 0.01617 χ2red 0.03408 R2 0.99822 1.0 1.0 13.34362 0.00326 0.44256 0.02994 0.99904 A = 35 A = 70 1.0 1.0 8.03848 0.00175 0.72804 0.17978 0.99539 Cuadro 7.2: Parámetros del ajuste tipo Bose de MC (kmax , z). La figura (7.18) muestra el ajuste tipo Bose de MC . Notemos la gran coincidencia y que, otra vez, el caso A2 = 70 es el de menor precisión, aunque es aceptable. La figura (7.19) muestra el modelo hipergeométrico correspondiente a la función de memoria. Con este modelo la predicción a tiempos cortos es muy pobre. Lo cual puede deberse a la fuente de error de MC en alta frecuencia. Sin embargo, este modelo muestra un comportamiento cualitativo más coherente que el mostrado por el modelo lorentziano. Como se puede apreciar inmediatamente, el modelo predice que el tiempo de relajación de la función de memoria aumenta al aumentar la intensidad de interacción, lo cual parece tener mucho más sentido. La impresión que nos dan esto resultados es que el modelo hipergeométrico de Gauss en la forma reducida a serie de potencias (7.21) podría ser otro buen candidato para representar los efectos de memoria. Respecto al modelo lorentziano, creemos que aunque puede ajustar las curvas de memoria de forma perfecta en algunos casos, no puede ser un buen candidato si se considera solamente un tiempo de relajación. De hecho (7.21) puede considerarse como un modelo lorentziano con un espectro infinito de tiempos de relajación. 132 Capítulo 7. Funciones de memoria en dos dimensiones. Figura 7.18: Ajuste tipo Bose para MC con las distintas amplitudes de interacción A2 = 7 (trazos negros y rosa) A2 = 35 (trazos grises claros y naranja) y A2 = 70 (trazos grises y rojos). 7.2. Efecto de las interacciones directas y de la concentración 133 Figura 7.19: Modelo hipergeométrico de Gauss de M , que resulta del ajuste tipo Bose en MC en lineas de colores. En rosa para A2 = 7, en naranja para A2 = 35 y en rojo para A2 = 70. 134 7.3. Capítulo 7. Funciones de memoria en dos dimensiones. Dependencia en el número de onda y en la frecuencia Ahora mostraremos la dependencia de la función de memoria en la frecuencia y en el número de onda. Presentaremos solamente el caso medianamente interactuante A2 = 35. La figura 7.20 muestra a F (k, t). Notamos que la parte de números de onda grandes decae casi instantáneamente en comparación con la región cercana al máximo principal del factor de estructura. La figura 7.21 muestra la gráfica correspondiente al intervalo de tiempo en el que la parte de números de onda grandes decae. En cambio, en ese intervalo de tiempo la región cercana al máximo principal apenas varía. Figura 7.20: Dependencia de la función intermedia de dispersión en el número de onda y en el tiempo. Los resultados corresponden al sistema bidimensional con los parámetros A2 = 35, n = 1, b = 1 y σ = 0.357. Se muestra todo el intervalo de tiempo hasta que la función decae completamente. La función de memoria correspondiente a este sistema tiene la transformación Fourier coseno que se presenta en la figura 7.22. Las gráficas mostradas están normalizadas con F (k, 0). En términos generales, se observa que la función de memoria presenta una estructura de máximos y de mínimos con periodicidad idéntica a la mostrada por la función intermedia de dispersión. La figura 7.23 muestra a MC (k, z)/F (k, 0) cerca del 7.3. Dependencia en el número de onda y en la frecuencia 135 Figura 7.21: La figura muestra a F (k, t) durante el intervalo de tiempo en donde la parte de números de onda más grandes ha decaído completamente. 136 Capítulo 7. Funciones de memoria en dos dimensiones. Figura 7.22: MC (k, z)/F (k, 0) asociada a la función de memoria del sistema en la figura 7.20. máximo principal. De la figura 7.23 notamos que si tomamos distintos cortes, esto es distintos valores de k, la forma funcional no debe cambiar mucho lo cual quiere decir que los mismas conclusiones que obtuvimos acerca de k = kmax se pueden aplicar a cualquier número de onda. La figura 7.24 muestra que la superficie ln [MC (k, t)/F (k, 0)] se puede construir, con muy buena aproximación, como una sucesión de infinita de lineas rectas. Esto se confirma considerando la gráfica correspondiente a distintos números de onda que se muestra en la figura 7.25. En estas figuras observamos la tendencia de la pendiente a cero cuando aumenta el número de onda. Esto significa que los efectos de memoria adquieren menor relevancia cuando el número de onda aumenta, lo cual es consistente con los resultados conocidos (Secc. 4.2.1). Los resultados presentados en esta sección muestran, al menos en lo que a sistemas de coloides de Yukawa concierne, que los modelos funcionales para las funciones de memoria son más sensibles a las condiciones de interacción (carga, densidad, alcance, etc.) que al número de onda mismo. Esta afirmación es porque parece que el modelo Lorentziano bien podría aplicase para estudiar todos los números de onda sin necesidad de recurrir al modelo hipergeométrico. 7.3. Dependencia en el número de onda y en la frecuencia 137 Figura 7.23: Comportamiento de MC (k, z)/F (k, 0) del sistema en la figura 7.20, en la región cercana al máximo principal del factor de estructura. Figura 7.24: Superficie ln [MC (k, t)/F (k, 0)] del sistema en la figura 7.20. 138 Capítulo 7. Funciones de memoria en dos dimensiones. Figura 7.25: Comportamiento de ln [MC (k, t)/F (k, 0)] en la figura 7.24, en distintos números de onda. 7.4. Teoría de modos acoplados 7.4. 139 Teoría de modos acoplados Recordemos el esquema autoconsistente de modos acoplados (MMCA) en la aproximación de convolución presentado en la sección 4.2.4.2. En las escalas que estamos manejando y para los sistemas bidimensionales3 ˆ t 2 −1 dt0 M (k, t0 )S −1 (k)F (k, t − t0 ), ∂t F (k, t) = −k S (k)F (k, t) + 0 ˆ 2 (7.23) M (k, t) = k M irr t dt0 M irr (k, t0 )M (k, t), (k, t) − 0 (7.24) (7.25) M irr 1 (k, t) = 2(2π)2 V (k, k0 ) = ˆ 2 d2 k 0 |V (k, k0 )| F (|k − k0 | , t)F (k 0 , t), k · k0 k · (k − k0 ) c̃(k) + c̃(|k − k0 |), k k " (7.26) # 1 c̃(k) = 1 − . S(k) Para hallar la función de memoria colectiva en la aproximación de convolución4 , solamente tenemos que usar las F ’s que hemos calculado con las simulaciones. Sustituir las F ’s y su invariante5 en (7.24-7.26) y luego usar (7.23) para obtener M . Podemos elegir que k y k0 sean paralelos e integrar la parte angular para obtener que ˆ kC 1 2 irr M (k, t) = dk 0 |V (k, k 0 )| F (|k − k 0 | , t)F (k 0 , t). 4π 0 Aquí kC denota a un número de onda de corte, después del cual el integrando alcanza el valor cero. La figura 7.26 muestra a la función de memoria irreducible que se obtiene para el sistema bidimensional con A2 = 35, b = 1 y n = 1. Debido al efecto de frontera, la función vértice fluctúa, no solamente en números de onda pequeños, sino también en una vecindad extensa de k 0 alrededor de k (Ec. 7.25). 3 ´ P El factor 1/(2π)3 proviene de reemplazar una suma discreta k por una integral V (2π)−3 d3 k, pero como aquí estamos trabajando en 2D necesitamos el factor 1/(2π)2 . 4 Hemos elegido esta aproximación porque ha probado ser la más apropiada en una gama amplia de condiciones [106]. 5 Así se le llama al valor t = 0 de las funciones de correlación temporal, así como al de las cantidades fluctuantes. 140 Capítulo 7. Funciones de memoria en dos dimensiones. Figura 7.26: Función de memoria irreducible de acuerdo a (7.24) para un sistema bidimensional en k = kmax . Como es usual, kmax indica la posición del máximo principal de S(k). También se muestran las memorias irreducibles que se obtienen al emplear dos ajustes RY, y uno HNC, para interpolar el S(k) de la simulación, y después usarlo para calcular V (kmax , k). 7.4. Teoría de modos acoplados 141 Las figuras 7.27 y 7.28 muestran a la función vértice para dos valores distintos de su primer argumento. Las líneas a colores muestran los vértices que se obtienen al emplear distintos ajustes teórico-numéricos de S. Estos ajustes se obtuvieron al resolver el sistema OZ más la relación de cerradura de HNC o la de RY (Secc. 3.1.1.4), variando A2 hasta que el S obtenido de esta forma se encimara lo mejor posible con el S obtenido con la simulación. Las figuras muestran un solo valor de HNC, el que ajustó mejor al S(k) de la simulación. Para RY se muestran tres valores, el mayor de ellos ajusta mejor la región vecina a kmax , el intermedio es el valor real, y el menor ajusta mejor la parte de S que corresponde a los números de onda pequeños (k < kmax ). Observamos que las fluctuaciones del S(k) simulado se transmiten en V más alla de la parte de números de onda pequeños. Esto se debe a los términos que contienen k − k0 en la forma funcional de V (Ec. 7.25). Se observa que la M irr obtenida con el vértice asociado al S de las simulaciones está muy lejos de los ajustes. Esto sólo puede significar que los ajustes no son apropiados, porque aunque el V (k, k 0 ) de la simulación fluctúa mucho, lo hace manteniendo una forma bien definida, que de hecho se asemeja a la de los ajustes solamente cuando k 0 > k y difieren mucho en las otras regiones. En lo que sigue usaremos la M irr que se obtuvo de la simulación (sin ajustes).. Una vez que tenemos a M irr , usamos los pares de transformación seno y coseno aplicados a (7.23). Primero obtenemos que (7.27) MC (k, z) = k 2 MCirr (k, z) − MCirr (k, z)MC (k, z) + MSirr (k, z)MS (k, z), (7.28) MS (k, z) = k 2 MSirr (k, z) − MCirr (k, z)MS (k, z) + MSirr (k, z)MC (k, z), y luego, mediante eliminación algebraica (7.29) MC (k, z) = k 2 1 + MCirr (k, z) 1− 2 2 (1 + MCirr (k, z)) + (MSirr (k, z)) ! y (7.30) MS (k, z) = k 2 MSirr (k, z) 2 2. (1 + MCirr (k, z)) + (MSirr (k, z)) Como se mencionó anteriormente, resulta que la expresión para MC es mucho más apropiada para hacer los cálculos. Como anteriormente, en lo sucesivo solamente mostraremos a MC y hablaremos solamente de los resultados que de ella se derivan. La figura 7.29 compara a la transformación Fourier coseno de la función de memoria colectiva de la teoría de modos acoplados, en la aproximación de convolución, con la correspondiente a las simulaciones para el sistema con A2 = 35, b = 1 y n = 1. Se observa que la aproximación de modos acoplados captura más componentes de Fourier de alta frecuencia, esto es, aquellas que contribuyen más a tiempos cortos. De hecho, la teoría de modos acoplados puede ver hasta frecuencias treinta veces mayores 142 Capítulo 7. Funciones de memoria en dos dimensiones. Figura 7.27: Función vértice V (q = 6.8, k) de la simulación (en negro). También se muestran los resultados para cuatro ajustes de S usando las cerraduras HNC y RY. Los números indican el valor de A2 empleado para hacer el ajuste. 7.4. Teoría de modos acoplados 143 Figura 7.28: Función vértice V (q = 8, k) de la simulación (en negro). También se muestran para los cuatro ajustes de S empleados en la figura anterior. 144 Capítulo 7. Funciones de memoria en dos dimensiones. Figura 7.29: Comparación entre la MC (k = kmax , z) que se obtiene de las simulaciones (lineas grises) con la que se obtiene a partir de la teoría de modos acoplados (lineas negras). El inset muestra un rompimiento de ejes. 7.4. Teoría de modos acoplados 145 Figura 7.30: Comparación entre el ln [MC (k = kmax , z)] de las simulaciones (linea gris) y el que se obtiene de la teoría de modos acoplados (linea negra). que aquellas que las simulación puede. La teoría de modos acoplados no está construida para reproducir las propiedades de tiempos cortos de F (k, t), como lo están otras aproximaciones, como por ejemplo la SEXP [11]. Sin embargo, no queda claro cómo es que ésta debilidad de la MMCA se traslada a la escala de tiempo en donde M se manifiesta, la cual, como hemos venido mostrando, es dos ordenes de magnitud menor que la escala en donde F decae. La figura 7.30 muestra los logaritmos naturales de las transformaciones coseno. Notemos la gran diferencia en su comportamiento. Mientras que la curva que corresponde a las simulaciones casi es una recta, la que corresponde a la teoría de modos acoplados es convexa. Además, hemos visto que cuando aumentamos la amplitud de interacción A, los resultados de la simulación predicen que la curva ln [MC (k = kmax , z)] vs z se vuelve cóncava. Estas diferencias sólo pueden deberse a una falla de la aproximación de 146 Capítulo 7. Funciones de memoria en dos dimensiones. Figura 7.31: Función de memoria M (k = kmax , t) de la simulación (en gris) comparada con la función de memoria en la aproximación de convolución de la teoría de modos acoplados (en lineas negras). El inset muestra al ln [M (k = kmax , t)] de la función correspondiente a la teoría de modos acoplados. convolución, o bien, a una deficiencia del esquema de modos acoplados para predecir propiedades detalladas de los líquidos coloidales. Recordemos que la MMCA originalmente está formulada para trabajar en condiciones críticas (alta densidad e interacciones fuertes). Sin embargo, ha probado ser muy precisa al predecir los factores de no exponencialidad de los líquidos coloidales [103]. Los factores de no exponencialidad están íntimamente relacionados con la función de memoria reducida, la cual a su vez, es la integral la función de memoria . La figura 7.31 compara a las funciones de memoria. Como las transformaciones coseno nos permitían anticipar, la función de memoria de la MMCA le da mayor peso a los eventos de tiempos cortos. Como resultado de esto, la función de memoria de la MMCA, aunque es mucho más grande en tiempos cortos, decae mucho más rápido que la función de memoria obtenida de las simulaciones. 7.5. Sistemas bidimensionales de coloides paramagnéticos. 147 El inset en la figura 7.31 muestra que la función de memoria de la MMCA, con muy buena aproximación, podría representarse como una exponencial de un tiempo de relajación. Este último resultado es consistente con los estudios previos, aunque posiblemente los parámetros de ésta exponencial pueden ser distintos de los parámetros del modelo SEXP. El hecho de que la MMCA reproduzca resultados conocidos, mientras que nuestros resultados de simulación no, podría significar que hay algún error en nuestros cálculos. Sin embargo, pensamos que podemos estar desnudando las deficiencias de la aproximación. Esta afirmación se basa en dos hechos, 1) se usan las mismas funciones de entrada en ambos cálculos y 2) se emplea el mismo método de cálculo, así que el mismo error debería manifestarse en los cálculos. 7.5. Sistemas bidimensionales de coloides paramagnéticos. Figura 7.32: F (k = kmax , t) de un sistema bidimensional de coloides paramagnéticos. 148 Capítulo 7. Funciones de memoria en dos dimensiones. Un sistema experimental modelo en el cual los parámetros del potencial de interacción por pares se pueden controlar con gran precisión, es el sistema bidimensional de coloides de poli-estireno paramagnéticos confinados en la interfaz agua-aire [128]. En [128] Zahn, Méndez y Maret, muestran que éste sistema es muy accesible para separar los efectos de las interacciones directas de aquellos que corresponden a las interacciones hidrodinámicas. Por ello, dedicamos esta pequeña sección para comentar sobre su función de memoria colectiva. La figura 7.32 muestra a la función intermedia de dispersión de un sistema bidimensional de coloides con momento dipolar magnético. Los coloides paramagnéticos interactúan a través del potencial (7.31) u(r) = Γ , r3 en donde (7.32) Γ= µ0 2 M 4π con M el momento dipolar magnético. En las escalas kB T y d y, entre otros valores, en el trabajo [128] muestran los resultados para Γ = 8.2, en donde se aprecia una g(r) muy similar a las estudiadas en este trabajo. En esta sección mostramos resultados correspondientes a ese valor y para el número de onda kmax . La función intermedia de dispersión en la figura 7.32 muestra el comportamiento típico de un líquido coloidal. En esta curva las barras de error se muestran en gris. La figura 7.33 muestra la transformación coseno de la función de memoria, junto con su ajuste tipo distribución Bose y el inset muestra su gráfica semi-logarítmica. Observamos un comportamiento muy similar al mostrado por el sistema de partículas de Yukawa. Atendiendo a la figura 7.32, así como a la figura 7.4, notamos que éste sistema posee una correlación intermedia entre los casos A2 = 35 y A2 = 70. Sin embargo, en éste sistema de dipolos la región lineal de ln MC (k, z) se presenta a frecuencias más altas que cualquiera de los dos casos de Yukawas. Esto indica que el sistema de dipolos retiene más memoria, lo cual se justifica por el hecho de que el alcance de su potencial es mucho mayor que el de los Yukawas. En esta sección hemos presentado a otro sistema en el cual el modelo hipergeométrico de Gauss también parece capturar los resultados de la simulación de una forma razonable. Para concluir el reporte de resultados presentado en esta tesis, en la sección que sigue presentamos resultados representativos que ilustran un primer acercamiento a la dinámica colectiva de los sistemas en capas. Con ello habremos mostrado el grado de control que el parámetro ` tiene sobre la función de memoria colectiva y, al menos parcialmente, habremos cerrado el ciclo de éste trabajo. Para cerrarlo completamente debemos definir, calcular y entender lo que es una memoria efectiva. Esto último engloba un trabajo muy extenso que no se pudo concluir aquí y que se dejará como perspectiva de trabajo. 7.5. Sistemas bidimensionales de coloides paramagnéticos. 149 Figura 7.33: MC (k, z) del sistema en la figura 7.32 La linea gris muestra su ajuste tipo Bose y el inset al ln MC (k, z). 150 7.6. Capítulo 7. Funciones de memoria en dos dimensiones. Dinámica colectiva de sistemas en capas: dos capas y una especie Figura 7.34: Funciones intermedias de dispersión parciales del sistema de dos capas y una especie estudiado en este trabajo (Secc. 5.2.2). Solamente √ se muestra el resultado para el número de onda asociado a la escala de longitud 2d, para tres valores de la distancia entre las capas: 1σ en líneas negras, 1.5σ en lineas grises claras y 5σ en lineas 11 22 grises. Las funciones positivas representan a las correlaciones F11 = F11 y las negativas 12 21 a F11 = F11 . Consideremos el sistema de dos capas y una especie introducido y estudiado en las √ 1,2 secciones 5.2.2 y 6.2. Recordemos que en este sistema A1 = 50, b = 1, x11,2 = 0.5 y σ = 0.357. La √ figura 7.34 muestra a la función intermedia de dispersión para el número de onda k = 2π, el cual corresponde a la escala de longitud característica de cada 7.6. Dinámica colectiva de sistemas en capas: dos capas y una especie 151 capa. Se muestran resultados para tres valores de la distancia entre las capas. Se observa que la correlación en tiempos iguales, entre partículas de la misma capa, aumenta monotónicamente al aumentar la distancia entre las capas. Sin embargo, la taza global de decaimiento6 en tiempos distintos no varía monotónicamente. Supongamos 11 que en ` = σ la F11 presenta una taza global de decaimiento simbolizada por z1∗ . Se observa que en ` = 1.5σ la taza global de decaimiento z2∗ es menor que z1∗ (la curva de ` = 1.5σ es más ancha que la de ` = σ). Sin embargo, cuando ` = 5σ la taza global de decaimiento z3∗ es mayor que en los otros dos casos, esto es, z2∗ < z1∗ < z3 , claramente, mostrando un comportamiento no monótono. Por otro lado, las correlaciones entre coloides en capas distintas varían no monotónicamente tanto en tiempos iguales como en tiempos distintos. Esta vez apreciamos que la correlación de tiempos iguales aumenta hasta alcanzar un máximo y luego disminuye hasta cero, a diferencia de la correlación entre coloides de la misma capa, para la cual se aprecia que aumenta con ` hasta alcanzar su valor máximo en el cual permanece para ` incrementándose aún más. La figura 7.35 muestra la transformación coseno de la memoria colectiva en cada uno de los tres casos de la distancia entre capas. La tabla 7.3 muestra los parámetros del ajuste (7.33) hG,1b = MC,11 aab 11 h i ab exp bab 11 z − c11 . Los parámetros para las correlaciones cruzadas correspondientes a ` = 5σ no se muestran porque no se pueden calcular a partir de nuestros resultados ya que están cercanos a a = 0, b > 1 y c = 0. Los coeficientes de determinación R en todos los ajustes, como los mostrados en la sección 7.2.4, son muy cercanos al valor perfecto R = 1. Por lo tanto, al menos numéricamente, el modelo lorentziano de muchos tiempos de relajación también se puede aplicar con confianza en los sistemas de capas. El análisis de los resultados para el sistema de capas es mucho más complicado que en los sistemas bidimensionales. Esto se debe a que en este caso debemos considerar la mezcla de tiempos de relajación que provienen del encajonamiento por los vecinos cercanos en la misma capa, así como el efecto de encajonamiento de los vecinos más cercanos en la otra capa. Dentro del error inherente a nuestros cálculos numéricos, todavía podemos formular algunos comentarios respecto a estos resultados. Primero, podemos notar que el comportamiento de los parámetros a es monótono decreciente con `. Segundo, los coeficientes b y c muestran un comportamiento no monótono. Esto tiene sentido porque las correlaciones temporales F muestran ese mismo comportamiento. Los parámetros b, que indican el patrón de tiempos de relajación en el modelo lorentziano de muchos tiempos de relajación7 , dicen que en los efectos de memoria de las 6 11 Esto es, una estimación global de la velocidad de decaimiento de F11 , o bien, del inverso de la 11 anchura de la curva F11 vs t. 7 Recordemos que cada tiempo de relajación estaría dado por (n + 1)b, (Ec. 7.21). 152 Capítulo 7. Funciones de memoria en dos dimensiones. √ Figura 7.35: MC (kd = 2π, z) para cada uno de los casos en la figura anterior: 1σ en líneas negras, 1.5σ en lineas grises claras y 5σ en lineas grises. Las transformaciones 11 22 de las memorias M11 = M11 se muestran en líneas continúas y las de las memorias 12 21 M11 = M11 en líneas cortadas. El inset muestra al√ln [MC (k, z)]. Las líneas en color naranja muestran los ajustes tipo Bose de MC (k = 2π, z). 7.6. Dinámica colectiva de sistemas en capas: dos capas y una especie ` 1.0σ 11 a11 34.47835 11 b11 0.0064 11 c11 0.26221 12 a11 32.1691 12 b11 0.007 c12 0.20165 11 Cuadro 7.3: Parámetros de los ajustes tipo 1.5σ 23.296 0.00758 0.22237 23.2616 0.00834 0.10054 Bose mostrados en 153 5.0σ 3.63403 0.00806 0.32498 —— —— —— la figura 7.35. correlaciones cruzadas adquieren mayor importancia en distancias intermedias. Esto está de acuerdo, aunque no sabemos explícitamente cual es la relación, con el hecho de que la autodifusión tiene un mínimo en la distancia intermedia. Los parámetros c, que estiman hasta dónde se puede cortar la serie infinita del modelo hipergeométrico gaussiano, nos dicen que la serie hipergeométrica de Gauss converge más rápido cuando ` = 1.5σ. Esto significa que en ese caso los modos de relajación múltiplos de b, que son más pequeños, se vuelven dominantes. 154 Capítulo 7. Funciones de memoria en dos dimensiones. 8 Conclusiones y perspectiva de este trabajo Dum loquimur, furgerit invida aetas: Carpe diem, quam minimu creudula postero. Quintus Horatius Flaccus En este trabajo hemos presentado un estudio de dos cantidades muy importantes en la descripción de las dispersiones coloidales. Estas son el potencial efectivo y la función de memoria. También hemos mostrado que el modelo de dispersión coloidal consistente de capas planas y paralelas es una herramienta, muy simple pero a la vez muy eficiente, que ilustra una alternativa nueva para inducir control sobre el potencial efectivo, y por lo tanto, sobre todas las propiedades meso-estructurales de las dispersiones coloidales. En este trabajo hemos afrontado algunos problemas técnicos y hemos podido obtener algunas conclusiones importantes. En cuanto a los puntos técnicos hemos llegado a la conclusión de que el uso de los factores de estructura, obtenidos de la simulación, o bien del experimento, proporcionan resultados mucho más precisos para calcular los potenciales efectivos que si se usan las funciones de distribución. Otro punto, que no se ha mencionado en este reporte, es que hemos optimizado nuestros programas, paralelizando los códigos cuando así se ha requerido, para poder realizar nuestros cálculos de la forma más eficiente posible –muchos otros cálculos se realizaron, pero no se muestran aquí, para no desviar la atención sobre los aspectos que en verdad deseábamos transmitir. También encontramos que el método de las transformaciones seno y coseno para invertir la ecuación de memoria es muy eficiente. Prácticamente, esta herramienta no se ha usado en estos ámbitos, pero es una técnica estándar en diversas ingenierías. Los métodos estándar en ésta área suelen ser los métodos de las transformaciones de Laplace o Fourier-Laplace. Esos métodos son de gran valor para estudiar las propiedades analíticas de las funciones de dispersión y de memoira y existen varias técnicas estándar para tratar con funciones suaves y que varían lento. En cambio, tratar con funciones que varían rápido con inversiones de Laplace es un reto del análisis numérico actual. La función de memoria es un objeto que puede presentar variaciones muy rápidas, más si se determina a partir de cantidades fluctuantes como aquí hicimos. Por ello, en los inicios de este estudio decidimos dejar de lado las técnicas de de-convolución con transformaciones de Laplace y optamos por el par de transformaciones seno y coseno. En cuanto a los aspectos más propios de la teoría, hemos emitido un juicio sobre la validez de las aproximaciones HNC y RHNC en cuanto al cálculo de los potenciales efectivos en sistemas confinados se refiere. Hemos encontrado que aún cuando estas 155 156 Capítulo 8. Conclusiones y perspectiva de este trabajo aproximaciones suelen proporcionar buenos resultados en el estudio de los sistemas abiertos, en sistemas bajo confinamiento pueden proporcionar resultados muy imprecisos. Cuando estas aproximaciones se usan para calcular el potencial efectivo desde el nivel de la teoría, es decir, sin usar funciones obtenidas de la simulación, y en conjunto con nuestro colaborador Ramón Castañeda, hemos llegado a la conclusión de que los resultados no solo son imprecisos, sino que son completamente distintos. Un aspecto interesante de los sistemas en capas planas es la simplicidad con la que se combinan las escalas de longitud características, esto es, las distancias promedio entre partículas y la distancia entre las capas, para determinar y modular la intensidad del perfil del potencial efectivo. En el nivel mesoscópico de descripción, hemos establecido a los potenciales efectivos y a las funciones de memoria sobre la base de que son objetos igualmente fundamentales y necesarios para entender la dinámica de las dispersiones coloidales y, en general, de la materia blanda. En cuanto a las funciones de memoria, después de un trabajo numérico arduo, hemos encontrado dos nuevos modelos funcionales para representar los efectos de memoria. Estos son el modelo lorentziano y el modelo hipergeométrico de Gauss. Ambos modelos surgieron naturalmente de los cálculos numéricos y de simulación. Encontramos que el modelo lorentziano de un solo tiempo de relajación no puede ser válido para describir la evolución de la función de memoria. Posteriormente, encontramos que el modelo hipergeométrico es equivalente a un modelo lorentziano con un espectro infinito de tiempos de relajación. En conclusión, nuestros resultados muestran que el modelo lorentziano de muchos tiempos de relajación debe considerarse como un candidato serio para representar y estudiar los efectos de memoria. Hemos mostrado que el modelo hipergeométrico de Gauss se puede aplicar, no solamente a sistemas de coloides de Yukawa, sino también a sistemas de coloides paramagnéticos y a los sistemas en capas planas. El grado de control de la función de memoria con el parámetro ` se ha ilustrado también. Sin embargo, en esta dirección aún queda mucho trabajo por hacer y entender. No obstante, hemos mostrado que es posible también controlar la memoria colectiva simplemente variando `. A continuación listamos algunas posibilidades de trabajo posterior en la dirección del presente. En cuanto al modelo de capas planas: Considerar sistemas de capas polidispersas. Estudiar la posibilidad de formación de clusters en equilibrio. Inclusión de las interacciones hidrodinámicas como un primer acercamiento a la interacción hidrodinámica entre partículas y paredes. Efectos de curvatura En cuanto a los potenciales efectivos HNC se caracteriza por una topología bien definida de la expansión diagramática de las funciones de correlación y RHNC es una versión perturbativa de HNC. 157 La aproximación B ef f − B = 0, que contiene como casos particulares a HNC y RHNC, resultó ser mucho más precisa que estas dos. Por lo tanto, es necesario estudiar más de cerca las consecuencias y, principalmente, la naturaleza de esta aproximación. En cuanto a las funciones de memoria Mediante un análisis de momentos determinar los parámetros del modelo lorentziano. Estudiar las propiedades analíticas de F , en particular su función espectral, dada una memoria lorentziana y posteriormente su generalización hipergeométrica de Gauss. Encontrar bajo qué condiciones, dentro de los esquemas teóricos sobre los efectos de memoria, se puede encontrar un modelo de función de memoria colectiva que vaya como t−2 . Esto proporcionaría un sustento sólido para este modelo y nos daría una visión más clara sobre los efectos de memoria. Definir las memoria efectivas, con su correspondiente teorema de fluctuación disipación, y estudiar el caso de las memorias efectivas en capas planas. 158 Capítulo 8. Conclusiones y perspectiva de este trabajo Bibliografía [1] C. Contreras Aburto,Propiedades estructurales y dinámicas de coloides en capas planas MSc Thesis, Cinvestav, Mexico D. F. (2004). [2] P. G. de Gennes, Nature 412 (6845), 385-385 (2001). [3] Dhont, J. K. G., An Introduction to Dynamics of Colloids. Studies in Interface Science Vol. 2, Eds. Möbious D. and R. Miller. Amsterdam: Elsevier (1996) [4] D. F. Evans and H. Wennerström, The colloidal domain: where physics, chemistry, biology, and technology meet , Wiley-VCH (1999). [5] P. G. Degennes, Reviews of Modern Physics 64 (3), 645-648 (1992). [6] I. W. Hamley and V. Castelletto, Angewandte Chemie-International Edition 46 (24), 4442-4455 (2007). [7] T. C. Lubensky, Solid State Communications 102 (2-3), 187-197 (1997). [8] T. A. Witten, Reviews of Modern Physics 71 (2), S367-S373 (1999). [9] Boon, J. P. and Yip S., Molecular Hydrodynamics. New York : McGraw-Hill, (1980). [10] Hansen, J. P. and McDonald I. R., Theory of simple liquids. San Diego: Academic Press. 2nd Ed. (1986). [11] G. Naegele, Physics Reports 272 (5-6), 215-372 (1996). [12] McQuarrie, D. A., Statistical Mechanics, Sausalito: University Science Books. (2000). [13] G. Nägele, Soft Matter: From Syntetic to Biological Materials, 39th IFF Spring School 2008, Series: Key Technologies Vol. 31, Forschugszentrum Jülich Publising (2008). [14] J. N. Roux, Physica A 188 (4), 526-552 (1992). [15] L. van Hove, Physical Review 95 (1), 249-262 (1954). [16] C. N. Likos, Physics Reports 348, 267-439 (2001). [17] L. Belloni, Journal of Physics-Condensed Matter 14, R549-R587 (2000). [18] S. A. Adelman, The Journal of Chemical Physics 64, 724-731 (1976). [19] L. S. Ornstein and F. Zernike, Proc. Akad. Sci. 17 793 (1914). In The Equilibrium Theory of Classical Fluids, H. L. Frisch and J. L. Lebowitz, W. A. Benjamin Inc. (1964). [20] B. J. Ackerson, The Journal of Chemical Physics 69, 684-690 (1978). 159 160 Bibliografía [21] R. B. Jones and G. S. Burfield, Physica A 111, 562-576 (1982). [22] Statistical Mechanics, Part B, Modern Theoretical Chemistry, Vol. 6, Ed. B. J. Berne, New York: Plenum, p. 259 (1977). [23] E. J. W. Verwey and J. T. G. Overbeek, Theory of the Stability of Lyophobic Colloids, Amsterdam: Elsevier (1948). [24] T. Morita, Progress of Theoretical Physics 20, 920 (1958). [25] J. M. J. van Leeuwen, J. Groeneveld and J. deBoer, Physica 25, 792 (1959). [26] J. deBoer, J. M. J. van Leeuwen and J. Groeneveld, Physica 30, 2265 (1959). [27] J. M. Méndez-Alcaraz, M. Chávez-Páez, B. D’Aguanno and R. Klein, Physica A 220, 173 (1995). [28] J. K. Percus, in The Equilibrium Theory of Classical Fluids, Eds. H. L. Frisch and J. L. Lebowitz, New York: Benjamin (1964). [29] J. L. Lebowitz and J. K. Percus, Physical Review 144, 151 (1966). [30] F. Lado, Physical Review 135, A1013 (1964). [31] B. Larsen, Journal of Chemical Physics 68, 4511 (1978). [32] W. G. MacMillan and J. E. Mayer, Journal of Chemical Physics 13, 276 (1945). [33] M. Medina-Noyola and D. A. McQuarrie, Journal of Chemical Physics 73, 6279 (1980). [34] P. González-Mozuelos and M. D. Carbajal-Tinoco, Journal of Chemical Physics 109, 11074 (1998). [35] J. M. Méndez-Alcaraz and R. Klein, Physical Review E 61, 4095-4099 (2000). [36] R. Castañeda-Priego, A. Rodríguez-López and J. M. Méndez-Alcaraz, Journal of Physics: Condensed Matter 15, S3393-S3409 (2003). [37] R. Castañeda-Priego, A. Rodríguez-López and J. M. Méndez-Alcaraz, Physical Review E 73, 051404 (2006). [38] M. D. Haw, Journal of Physics: Condensed Matter 14, 7769-7779 (2002). [39] J. M. Deutch and I. Oppenheim, Faraday Discussions of the Chemical Society 83, 1 (1987). [40] G. E. Uhlenbeck and L. S. Orstein, Physical Review 36, 823 (1930). [41] W. Hess and R. Klein, Advances in Physics 32, 173-283 (1983). [42] J. M. Deutch and I. Oppenheim, Journal of Chemical Physics 54 , 3547 (1971). [43] M. Medina-Noyola, Faraday Discussions of the Chemical Society 83, 21 (1987). [44] T. J. Murphy and J. L. Aguirre, Journal of Chemical Physics 57, 2098 (1972). [45] D. L. Ermak and J. A. McCammon, Journal of Chemical Physics 69, 1352 (1978). [46] R. Zwanzig, Lectures in Theoretical Physics, Vol. 3, Eds. W. Britten and L. Dunham New York: Willey-Interscience (1961). Bibliografía 161 [47] H. Mori, Progress of Theoretical Physics 33, 423 (1965). [48] P. N. Pusey, in Liquids, Freezing and the Glass Transition, Les Houches Session 51, 1989, Eds. D. Lesvesque, J. P. Hansen, and J. Zinn-Justin Amsterdam:NorthHolland (1991). [49] P. Mazur and I. Oppenheim, Physica 50, 241-258 (1970). [50] J. L. Lebowitz and E. Rubin, Physical Review 131, 2381 (1963). [51] N. G. van Kampen and I. Oppenheim, Physica 138A, 231-248 (1986). [52] K. Kawasaki, Journal of Physics 6, 1289 (1973). [53] W. Hess, Journal of Physics A: Mathematical and General 14, L145-L150 (1981). [54] W. Hess, Physica 107A, 190-200 (1981). [55] B. Cichocki and W. Hess, Physica 141A, 475-488 (1988). [56] V. M. Kenkre, in Proceedings of the PASI on Modern Challenges in Statistical Mechanics: Patterns, Noise, and the Interplay of Nonlinearity and Complexity, Eds. V. M. Kenkre and K. Lindenberg, AIP (2003). [57] G. Gapinski et al, The Journal of Chemical Physics 126, 104905 (2007). [58] A. J. Banchio and G. Nägele, The Journal of Chemical Physics 128, 104903 (2008). [59] A. Robert, J. Wagner, W. Hartl, T. Autenrieth and G. Grubel, European Physical Journal E 25, 77 (2008). [60] J. Santana-Solano, A. Ramírez-Saito J. L. Arauz-Lara, Physical Review Letters 95, 198301 (2005). [61] C. W. J. Beenakker and P. Mazur, Physica A 126, 349 (1984). [62] A. Z. Akcasu and J. J. Duderstadt, Physical Review 188, 479 (1969). [63] J. J. Duderstadt and A. Z. Akcasu, Physical Review A 1, 905 (1970). [64] G. F. Mazenko, Physical Review A 3, 2121 (1971). [65] H. Mori, Progress of Theoretical Physics 34, 399 (1965). [66] W. R. Schneider, Zeitschrift für Physik B 24, 135-139 (1976). [67] G. H. Vineyard, Physical Review 110, 999 (1958). [68] K. Kim and M. Nelkin, Physical Review A 4, 2065 (1971). [69] W. Götze and M. Lücke, Physical Review A 11, 2173 (1975). [70] F. Yoshida and S. Takeno, Progress of Theoretical Physics 53, 293 (1975). [71] F. Yoshida and S. Takeno, Progress of Theoretical Physics 58, 15 (1977). [72] F. Yoshida and S. Takeno, Progress of Theoretical Physics 58, 1331 (1977). [73] F. Lantelme and P. Turq, The Journal of Chemical Physics 71, 2508 (1979). [74] V. Denner and M. Wagner, The Journal of Chemical Physics 81, 5034 (1984). [75] G. R. Kneller and K. Hinsen, The Journal of Chemical Physics 115, 11097 (2001). 162 Bibliografía [76] F. Porcheron and M. Schoen, Physical Review E 66, 041205 (2002). [77] B. J. Berne and G. D. Harp, Advances in Chemical Physics 17, 63 (1970). [78] J. Wilkie, Physical Review E 68, 027701 (2003). [79] J. E. Noah-Vanhoucke and H. C. Andersen, The Journal of Chemical Physics 127, 064502 (2007). [80] J. C. Brown, P. N. Pusey, J. W. Goodwin and R. H. Ottewill, Journal of Physics A: Mathematical and General 8, 664 (1975). [81] P. N. Pusey, Journal of Physics A: Mathematical and General 8, 1433 (1975). [82] R. B. Jones and G. S. Burfield, Physica 111A, 577-590 (1982). [83] R. B. Jones, Journal of Physics A: Mathematical and General 17, 2305 (1984). [84] B. U. Felderhof and R. B. Jones, Physica 122A, 89-104 (1983). [85] J. Rotne and S. Prager, The Journal of Chemical Physics 50, 4831 (1969). [86] B. U. Felderhof and J. Vogel, Physica A 183, 54-66 (1992). [87] B. U. Felderhof, Journal of Physics A: Mathematical and General 11, 929 (1978). [88] B. U. Felderhof and J. Vogel, The Journal of Chemical Physics 96, 6978 (1992). [89] B. Cichocki and B. U. Felderhof, Physical Review A 44, 6551 (1991). [90] J. L. Arauz-Lara and M. Medina-Noyola, Physica A 122, 547 (1983). [91] L. Yeomans-Reyna and M. Medina-Noyola, Physical Review E 62, 3382 (2000). [92] M. Medina-Noyola and J. L. del Río-Correa, Physica A 146, 483 (1987). [93] B. J. Ackerson, The Journal of Chemical Physics , (1975). [94] L. Yeomans-Reyna, H. Acuña-Campa and M. Medina-Noyola, Physical Review E 62, 3395 (2000). [95] L. Yeomans-Reyna and M. Medina-Noyola, Physical Review E 64, 066114 (2001). [96] S. Cuomo, L. D’Amore, A Murli and M. Rizzardi, Journal of Computational and Applied Mathematics 198, 98-115 (2007). [97] M. A. Chávez-Rojo and M. Medina-Noyola, Physica A 366, 55 (2006). [98] L. Onsaguer, Physical Review 37, 405 (1931). [99] L. Onsaguer, Physical Review 38, 2265 (1931). [100] M. Fixman, The Journal of Chemical Physics 36, 310 (1968). [101] L. P. Kadanoff and J. Swift, Physical Review 166, 89 (1968) [102] K. Kawasaki, Annals of Physics 61, 1 (1970). [103] G. Nägele and P. Baur, Physica A 245, 297-336 (1997). [104] G. Nägele and J. K. G. Dhont, The Journal of Chemical Physics 108, 9566 (1998). [105] G. Nägele and J. Bergenholtz, The Journal of Chemical Physics 108, 9566 (1998). Bibliografía 163 [106] G. Nägele, J. Bergenholtz and J. K. G. Dhont, The Journal of Chemical Physics 110, 7037-7052 (1999). [107] A. J. Banchio, G. Nägele and J. Bergenholtz, The Journal of Chemical Physics 113, 3381 (2000). [108] M. McPhie and G. Nägele, The Journal of Chemical Physics 127, 034906 (2007). [109] S.-H. Lo and K. Kawasaki, Physical Review A5, 421 (1972). [110] D. Bedeaux and P. Mazur, Physica 73, 431 (1974). [111] J. Wu and J. Cao, Physical Review E 67, 061116 (2003). [112] H. W. Wyld, Annals of Physics 14, 143 (1961). [113] T. Keyes and I. Oppenheim, Physical Review A8, 937 (1973). [114] G. Szamel and K. Löwen, Physical Review A 44, 8215 (1991). [115] K. Kawasaki, Physica A 215, 61-74 (1995). [116] S. J. Pitts and H. C. Andersen, The Journal of Chemical Physics 113, 3945 (2000). [117] P. Szymczak and B. Cichocki, The Journal of Chemical Physics 121, 3329 (2004). [118] H. Teichler, Physical Review E 53, R4287 (1996). [119] G. Szamel, The Journal of Chemical Physics 127, 084515 (2007). [120] M. P. Allen and D. J. Tildesley, Computer Simulations of Liquids, Oxford : Clarendon Press, 1987. [121] G. Nägele, Computational Condensed Matter Physics, 37th IFF Spring School 2006, Series: Matter and Materials Vol. 32, Forschugszentrum Jülich Publising. [122] W. H. Press, S. A. Teukolsky, W. T. Vetterling and B. P. Flannery, Numerical Recipes in Fortran 77, Second Ed., Cambrige University Press (1992). [123] R. Castañeda-Priego, PhD thesis, Cinvestav (2003). [124] A. Imperio and L. Reatto, Journal of Physics: Condensed Matter 16, S3769 (2004). [125] H. Tanaka, J. Meunier and D. Bonn, Physical Review E 69, 031404 (2004). [126] G. Odrizola, F. Jiménez-Angeles and M. Lozada-Casou, Physical Review Letters 97, 018102 (2006). [127] G. Odrizola, F. Jimenez-Angeles, and M. Lozada-Cassou, Journal of Physics: Condensed Matter 18, S2335 (2006). [128] K. Zahn, J. M. Méndez-Alcaraz and G. Maret, Physical Review Letters 79, 175 (1997).