Particulas Brownianas de Yukawa en capas planas: un modelo de

Anuncio
Centro de Investigación y de Estudios Avanzados
del
Instituto Politécnico Nacional
DEPARTAMENTO DE FISICA
Coloides en capas planas paralelas: un
modelo de control coloidal
Tesis que presenta
Claudio Contreras Aburto
para obtener el Grado de
Doctor en Ciencias
en la Especialidad de
Física
Director de tesis: Dr. José Miguel Méndez Alcaraz
México, Distrito Federal
Diciembre, 2008.
“Colloids in parallel planar layers: A model for colloidal control”
Abstract
Colloidal dispersions are a special case of soft condensed matter we usually find every
day. They are excellent models of the mesoscopic world, where length scale interplay,
time scale separation, effective interactions, hydrodynamic interactions, and memory
effects are fundamental concepts. Given the relevance of these systems, it is imperative to
develop methods to control them, either by confining them or by means of an external
field.
In this work we systematically study the effective interaction potentials, as well as the
collective and cooperative memory functions, of model colloidal systems composed of
Yukawa particles contained in parallel planar layers. We demonstrate that this special
geometry allows for the separation between layer to be an excellent control parameter for
the effective interaction and memory functions, and, therefore, for the structural and
transport properties of the system. In order to carry out our calculations, we implement
Brownian dynamics computer simulations, apply integral equations theory of simple
liquids, mode-coupling theory in Smoluchowski dynamics, and solve for the memory in
the memory equation by using the cosine and sine transforms. Effective potentials were
accounted for by a contraction of the description in the framework of the integral
equations theory of simple liquids. We also studied the memory functions of
paramagnetic two-dimensional colloids.
Among other not less important technical aspects, we found that the control induced in
the layered system is so strong, that we can induce an effective attraction between like
charged colloids. Comparisons between theory and simulation allowed us to see that
HNC is not a good approximation when calculating effective potentials in confined
systems. Regarding the memory functions, we obtained a new mathematical model for
collective and cooperative memory functions. This model consists of an infinite time
series with only three adjustable parameters. Comparison between the convolution
approximation, in the mode-mode-coupling theory (MMC), with simulations, shows that
MMC predicts memory functions that decay faster than the memories predicted by the
simulations.
“Coloides en capas planas paralelas: Un modelo de control coloidal”
Resumen
Las dispersiones coloidales son una clase de materia condensada blanda que encontramos
comúnmente en nuestra vida diaria. Como sistemas modelo, los coloides nos auxilian en
el desarrollo de descripciones en la mesoescala, en donde, la combinación de escalas de
longitud, la separación de escalas de tiempo, las interacciones efectivas e hidrodinámicas
y los efectos de memoria, son conceptos fundamentales. Dada la importancia de estos
sistemas, resulta imperante desarrollar modelos que nos permitan aprender a controlarlos,
ya sea mediante alguna condición de confinamiento, o mediante un campo externo.
En este trabajo, un estudio sistemático de los potenciales efectivos y de las funciones de
memoria colectiva y cooperativa, de un sistema coloidal modelo compuesto de coloides
de Yukawa distribuidos sobre capas planas paralelas es realizado. Mostramos que esta
geometría permite que la separación entre las capas sea un excelente parámetro de control
del potencial efectivo y de las funciones de memoria y, consecuentemente, de las
propiedades estructurales y de transporte de estos sistemas. Para realizar nuestros
cálculos, implementamos simulaciones por computadora de dinámica browniana sin
interacciones hidrodinámicas, aplicamos la teoría de ecuaciones integrales de los líquidos
simples, la teoría de acoplamiento de modos en la dinámica de Smoluchowski e
invertimos la ecuación de memoria mediante el par de transformaciones seno y coseno.
Los potenciales efectivos de interacción fueron evaluados por medio de una contracción
de la descripción en el marco de la teoría de ecuaciones integrales de los líquidos simples.
Las funciones de memoria también fueron calculadas para sistemas bidimensionales de
coloides paramagnéticos.
Entre otros aspectos técnicos no menos importantes, obtuvimos que el tipo de control que
puede ejercerse en estos sistemas consigue ser lo suficientemente fuerte como para
inducir una atracción efectiva entre partículas igualmente cargadas. En este aspecto, la
comparación entre teoría y simulación nos permitió emitir juicios sobre la validez de la
aproximación HNC para calcular potenciales efectivos en sistemas confinados. En cuanto
a las funciones de memoria, obtuvimos un nuevo modelo matemático para la función de
memoria. Este modelo consiste en una serie infinita de lorentzianas con solamente tres
parámetros de ajuste. Además, la comparación entre la teoría de modos acoplados en la
aproximación de convolución, con los resultados de simulación, muestran que la teoría
de modos acoplados predice memorias que decaen mucho más rápido que las memorias
obtenidas con la simulación.
Agradecimientos.
Agradezco a Conacyt por la beca 172596 que me otorgó para poder realizar estos
estudios de doctorado en ciencias.
A Cinvestav por todos los apoyos que me otorgó durante mi estancia en esta institución.
A los sinodales de esta tesis por sus valiosos comentarios. En especial al Dr. José
Méndez, por dirigir éste trabajo pacientemente.
A todos aquellos amigos que he tenido a lo largo de mi etapa como estudiante.
A la familia Cortina Bello, por ser como mi familia desde hace ya unos 20 años.
A mi padre Anselmo Contreras y a mi tutor Ezequiel Cortina, cuyas enseñanzas me
permitieron seguir de pie ante las adversidades. En memoria de ellos dedico éste humilde
trabajo.
Potenciales efectivos y funciones de memoria en
dispersiones coloidales
Coloides en capas planas paralelas: un
modelo de control coloidal
Claudio Contreras Aburto
Departamento de Física, Cinvestav
Febrero, 2005 – Diciembre, 2008
Índice general
Índice de figuras
V
1. Introducción
1
2. Generalidades
2.1. Dispersiones coloidales . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Potenciales efectivos y funciones de memoria . . . . . . . . . . . . . . .
7
7
9
3. Marco teórico y conceptual
3.1. Potenciales efectivos . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1. Estructura estática de dispersiones coloidales . . . . . . . . . .
3.1.1.1. Potencial DLVO . . . . . . . . . . . . . . . . . . . .
3.1.1.2. Funciones de estructura estática . . . . . . . . . . . .
3.1.1.3. Funciones de estructura estática en mezclas . . . . .
3.1.1.4. Función de correlación directa y función puente . . .
3.1.2. Función de correlación directa efectiva . . . . . . . . . . . . .
3.1.3. Potenciales efectivos como una contracción de la descripción .
3.2. Funciones de memoria . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1. Variables dinámicas y correlaciones espacio-temporales . . . .
3.2.2. Operadores de proyección . . . . . . . . . . . . . . . . . . . .
3.2.3. Movimiento browniano . . . . . . . . . . . . . . . . . . . . . .
3.2.4. Funciones de autocorrelación en la dinámica de Smoluchowski
3.2.5. Ecuación de Langevin generalizada . . . . . . . . . . . . . . .
3.2.6. Estructura dinámica de suspensiones coloidales . . . . . . . .
3.2.7. Función de memoria y difusión colectiva . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
13
13
14
14
15
18
19
21
23
25
26
27
29
35
39
41
42
4. Estudios previos sobre los efectos de memoria
4.1. Efectos de memoria: Dinámica de Liouville . . . . . . . . . . . . .
4.2. Efectos de memoria: Dinámicas disipativas . . . . . . . . . . . . .
4.2.1. Dinámica de Smoluchowski I . . . . . . . . . . . . . . . .
4.2.2. Hidrodinámica generalizada y aproximación viscoelástica .
4.2.3. Hidrodinámica generalizada y teorema de estacionaridad .
4.2.4. Dinámica de Smoluchowski II. Teoría de modos acoplados
4.2.4.1. Ideas generales . . . . . . . . . . . . . . . . . . .
4.2.4.2. Acoplamiento de modos en dispersiones coloidales
4.2.5. Otros estudios . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
47
48
50
50
58
62
69
70
75
78
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
iii
Índice general
IV
5. Estructura estática de coloides en capas planas
5.1. Sistema, simulación, escalas y potencial por pares
5.2. Estructura . . . . . . . . . . . . . . . . . . . . . .
5.2.1. Notación . . . . . . . . . . . . . . . . . . .
5.2.2. Dos capas . . . . . . . . . . . . . . . . . .
5.2.3. Tres capas . . . . . . . . . . . . . . . . . .
5.2.3.1. Una especie . . . . . . . . . . . .
5.2.3.2. Dos especies . . . . . . . . . . . .
6. Potenciales efectivos
6.1. Introducción . . . . . .
6.2. Sistemas de dos capas
6.3. Sistemas de tres capas
6.3.1. Una especie . .
6.3.2. Dos especies . .
6.4. Comentarios finales . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7. Funciones de memoria en dos dimensiones.
7.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . .
7.2. Efecto de las interacciones directas y de la concentración
7.2.1. Función intermedia de dispersión . . . . . . . . .
7.2.2. Función de memoria . . . . . . . . . . . . . . . .
7.2.3. Modelo lorentziano . . . . . . . . . . . . . . . . .
7.2.4. Modelo hipergeométrico gaussiano . . . . . . . . .
7.3. Dependencia en el número de onda y en la frecuencia . .
7.4. Teoría de modos acoplados . . . . . . . . . . . . . . . . .
7.5. Sistemas bidimensionales de coloides paramagnéticos. . .
7.6. Dinámica colectiva de sistemas en capas: dos capas y una
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
especie
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
81
81
84
84
88
92
92
97
.
.
.
.
.
.
101
101
104
108
109
110
111
.
.
.
.
.
.
.
.
.
.
113
114
115
115
118
124
129
134
139
147
150
8. Conclusiones y perspectiva de este trabajo
155
Bibliografía
159
Índice de figuras
1.1. Tres capas de partículas coloidales. La figura ilustra a uno de los sistemas
estudiados en este trabajo. Las esferitas representan a los coloides. Los centros
de las esferitas definen planos paralelos al plano xy. Los planos trazados en la
figura son imaginarios y solamente funcionan como una guía para el ojo. . .
3
2.1. Coloides en caricatura. Ilustración del entorno de una partícula coloidal rodeada de muchas otras partículas coloidales más pequeñas. El solvente se ilustra
como el fondo rugoso. Los símbolos + y - representan a los iones libres. Los iones libres provienen de la disolución de una sal en el solvente y de los radicales
que se disocian de los coloides. . . . . . . . . . . . . . . . . . . . . . . .
8
3.1. Interpretación (3.5) de la función de distribución de un líquido coloidal bidimensional. La figura es una “fotografía” de una capa de uno de los sistemas
estudiados en este trabajo. El origen del sistema coordenado se toma en la
posición instantánea de una partícula arbitraria. El radio vector r es el radio medio del anillo de longitud dr y área da. Dada la densidad numérica
microscópica de partículas n, la g(r) nos proporciona el número promedio de
partículas que caen dentro del anillo. . . . . . . . . . . . . . . . . . . . . .
3.2. Ejemplo de función de distribución. La figura ilustra la función de distribución
del sistema en la figura 3.1. La escala σ es el diámetro de las partículas. Esta
función nos dice que cada coloide ve con mucha frecuencia a otro coloide a
una distancia 2σ respecto a él. Por otro lado, cuando ve a distancias muy
lejanas, solamente ve una distribución homogénea de partículas pues en ese
caso g(r) = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1. Ilustración de un sistema de q capas bidimensionales abiertas y planas.
Todas las capas serán paralelas al plano xy. Se considerará solamente el
caso za+1 − za = `, siendo za la coordenada z de la capa a. Cada capa
estará compuesta de un solo tipo de coloides, aunque distintas capas
podrían constituirse de distintos tipos de coloides. A los “distintos tipos”
los llamaremos especies. Todos los coloides serán esféricos y tendrán el
mismo diámetro, aunque podrán tener distinta carga. Todo el espacio
estará caracterizado por un parámetro de apantallamiento constante. Los
coloides no podrán saltar de una a otra capa. La numeración de las capas
será desde el z menor hasta el z mayor y solamente consideraremos q = 2
y q = 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
17
81
v
VI
Índice de figuras
11
22
5.2. Función de distribución radial g11
(r) = g11
(r)√de un sistema de dos
1,2
capas y una especie con los parámetros A1 = 50, b = 1, x11,2 = 0.5 y
σ = 0.357. Se muestran los resultados para tres valores distintos de la
distancia entre capas `. El inset muestra al factor de estructura estática
para ` = 1.2σ. Los símbolos muestran los resultados de simulación BD y
las lineas los que se obtienen resolviendo numéricamente OZ con HNC,
mediante el método numérico de Ng [123]. . . . . . . . . . . . . . . . .
88
12
21
5.3. Función de distribución radial cruzada g11
(r) = g11
(r) en el sistema de
dos capas introducido en la figura 5.2. El inset muestra la variación de la
altura del máximo principal con la distancia entre las capas `. Note como
la correlación cruzada varía no monotónicamente con `. Inicia aumentando en ` = 0 hasta alcanzar su máximo en ` = σ y luego disminuye hasta
el valor del gas ideal. Como se mostró en [1], este efecto de aumento de
correlación, reduce el coeficiente de autodifusión de tiempos largos. . .
89
5.4. Factores de estructura estática parciales del sistema de dos capas y una
11
especie introducido en la figura 5.2. Las lineas negras representan a S11
=
21
12
22
S11 y las grises a S11 = S11 . Se muestran resultados para dos valores
distintos de `. Las lineas segmentadas corresponden a ` = 1.2σ y las
líneas sólidas a ` = 1.5σ. . . . . . . . . . . . . . . . . . . . . . . . . . .
90
5.5. Funciones de distribución√de un sistema de tres capas y una especie con
= 50, b = 1, x11,3 = 0.25, x21 = 0.5 y σ = 0.357.
los parámetros A1,2,3
1
22
33
11
. Se muestran los resultados para
(r); en (b): g11
(r) = g11
En (a): g11
tres valores distintos de la distancia entre capas `: lineas continuas para
` = σ, lineas segmentadas para ` = 2σ y lineas de puntos para ` = 5σ. .
93
12
21
23
5.6. Funciones de distribución radial cruzadas g11
(r) = g11
(r) = g11
(r) =
32
13
31
g11 (r) en (a) y g11 (r) = g11 (r) en (b), que corresponden al sistema de
tres capas y una especie en la figura 5.5. Se muestran los resultados para
lo mismos valores de `: linea continua para ` = σ, linea segmentada para
` = 2σ y linea de puntos para ` = 5σ. Nótese la correlación positiva en
r = 0 para ` = 2σ lo cual indica que, en términos efectivos, existe una
atracción entre coloides con cargas iguales. . . . . . . . . . . . . . . . .
94
11
33
5.7. Factores de estructura estática de índices iguales S11
(k) = S11
(k) en (a)
22
y S11 (k) en (b), del sistema de tres capas en la figura 5.5. Se muestran
los resultados para los mismos tres valores de la distancia entre capas
`: linea continua para ` = σ, linea segmentada para ` = 2σ y linea de
puntos para ` = 5σ. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
95
12
21
5.8. Factores de estructura estática de índices distintos S11
(k) = S11
(k) =
23
32
13
31
S11 (k) = S11 (k) en (a) y S11 (k) = S11 (k) en (b), del sistema de tres
capas en la figura 5.5. Se muestran los resultados para los mismos tres
valores de la distancia entre capas `: linea continua para ` = σ, linea
segmentada para ` = 2σ y linea de puntos para ` = 5σ. . . . . . . . . .
96
Índice de figuras
22
5.9. Funciones de distribución radial de los coloides en la capa interna g√
22 (r)
1,3
en un sistema
de tres capas y dos especies con los parámetros A1 = 50,
√
1,3
2
2
A22 = − 30, A1,3
2 = A1 = 0, b = 1, x1 = 0.25, x1 = 0.5 y σ = 0.357.
Se muestran los resultados para cuatro valores distintos de la distancia
entre capas `: linea gris continua para ` = σ, linea negra continua para
` = 1.5σ, linea gris dash para ` = 2σ y linea negra dash para ` = 5σ.
El inset es una fotografía de la capa interna, correspondiente al caso
` = 1.5σ. A escala, el tamaño de los círculos representa alrededor de 3/4
del tamaño real de los coloides. . . . . . . . . . . . . . . . . . . . . . .
13
5.10. Funciones de distribución radial de partículas en capas distintas g11
(r) =
31
12
21
23
32
g11 (r) en el recuadro principal y g12 (r) = g21 (r) = g21 (r) = g12 (r) en el
inset, del sistema de tres capas y dos especies en la figura 5.9. Se muestran
los resultados para cuatro valores distintos de la distancia entre capas
`: círculos transparentes para ` = σ, triángulos transparentes ` = 1.5σ,
triángulos opacos ` = 2σ y círculos opacos ` = 5σ. . . . . . . . . . . . .
5.11. Factores de estructura estática parciales en el caso ` = 1.5σ correspondientes al sistema de 3 capas y dos especies en la figura 5.9. En línea
22
33
11
, en linea gris
, en linea negra segmentada S22
= S11
negra continua S11
31
13
32
23
21
12
. .
= S11
continua S12 = S21 = S21 = S12 y en linea gris segmentada S11
11
11eff
6.1. Transformación Fourier-Bessel ∆u11
11 (k) = u11 (k) − u11 (k), correspondiente al sistema efectivo bidimensional que resulta de la primera
√ y única
reducción en el sistema de dos capas y una especie con A11,2 = 50, b = 1,
x1,2
1 = 0.5 y σ = 0.357. Este sistema se introdujo en la sección 5.2.2. . .
11
11eff
= 0 y (b) el co− B11
6.2. (a) Potencial efectivo en la aproximación B11
11
rrespondiente ∆u11 , del sistema dos capas y una especie en la figura
6.1. Las lineas representan los resultados que se obtienen con la solución
numérica del esquema OZ+HNC obtenidos por Castañeda Priego. Los
símbolos representan los resultados que se obtienen al usar los factores
de estructura que fueron calculados directamente de la simulación, como
se especificó en la sección 5.2. . . . . . . . . . . . . . . . . . . . . . . .
6.3. Comparación entre las funciones de distribución del sistema de dos capas
y una especie de la figura 6.1 (identificadas como BD, ya que se obtuvieron mediante dinámica browniana), con las del sistema bidimensional
de coloides que interactúan a través del potencial efectivo en la primera,
y única, contracción (identificadas como MC, ya que se obtuvieron mediante Monte Carlo). Se muestran los resultados para dos valores de `.
Notemos que la región de discrepancia se localiza principalmente alrededor de máximo principal, precisamente donde los efectos de las funciones
puente empiezan a tomar relevancia. . . . . . . . . . . . . . . . . . . .
13
31
6.4. Funciones de distribución radial g11
(r) = g11
(r)
√ del sistema de1,3tres capas
1,2,3
y una especie con los parámetros A1
= 50, b = 1, x1 = 0.25,
2
13
x1 = 0.5 y σ = 0.357. El inset muestra la variación con ` de g11
(r = 0)
en un sistema de tres capas y una especie similar pero con x1,3
1 = 3/8,
2
x1 = 2/8. Este segundo sistema se presentó en [1]. . . . . . . . . . . . .
VII
97
98
99
104
106
107
108
VIII
Índice de figuras
6.5. Potenciales efectivos entre las partículas de las capas externas, que se
obtienen por eliminación de la capa interna en la descripción del sistema
de tres capas y una especie de la figura 6.4. Las lineas negras muestran
13
los potenciales efectivos ueff
(1) 11 para ` = 1σ en linea continua, ` = 2σ
en linea segmentada y ` = 5σ en linea punteada. Las lineas grises en
trazos correspondientes muestran los potenciales por pares u(0) 13
11 . El inset
13
muestra el término de corrección ∆u(0) 11 . . . . . . . . . . . . . . . . . .
6.6. Potencial efectivo entre los coloides internos que se obtiene eliminando
las capas 1 y 3 en la descripción del sistema de tres capas y dos espe22
cies de la figura 5.9. La linea negra muestra al potencial efectivo ueff
(2) 22
para ` = 1.5σ, mientras que la linea gris muestra el potencial por pares
22
eff 22
correspondiente u(0) 22
22 . El inset muestra a u(2) 22 − u(0) 22 . . . . . . . . .
7.1. Variación de la función intermedia de dispersión F (kmax , t) con la concentración, en un sistema de coloides que interactúan débilmente. . . .
7.2. Variación de la función intermedia de dispersión F (kmax , t) con la concentración, en un sistema de coloides que interactúan moderadamente. .
7.3. Variación de la función intermedia de dispersión F (kmax , t) con el alcance
del potencial, en un sistema de coloides moderadamente interactuantes.
7.4. Variación de la función intermedia de dispersión F (kmax , t) con la intensidad de interacción, a alcance y concentración moderadas. . . . . . . .
7.5. Variación con la concentración en un sistema débilmente interactuante,
de la transformación Fourier coseno MC (kmax , z) de la función de memoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.6. Variación con la concentración en un sistema moderadamente interactuante, de la transformación Fourier coseno MC (kmax , z) de la función
de memoria. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.7. Variación con el alcance del potencial, en un sistema moderadamente
interactuante, de la transformación Fourier coseno MC (kmax , z). . . . .
7.8. Variación con la intensidad de interacción de la transformación Fourier
coseno MC (kmax , z), en un sistema moderadamente denso. . . . . . . .
7.9. Variación de la función de memoria M (kmax , t) con la concentración, en
un sistema de coloides débilmente interactuantes. . . . . . . . . . . . .
7.10. Variación de la función de memoria M (kmax , t) con la concentración, en
un sistema de coloides moderadamente interactuantes. . . . . . . . . .
7.11. Variación de la función de memoria M (kmax , t), con el alcance del potencial, en un sistema medianamente denso de coloides moderadamente
interactuantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.12. Variación de la función de memoria M (kmax , t), con la intensidad de
interacción, en una dispersión coloidal moderadamente densa. . . . . .
7.13. Variación de ln [MC (k = kmax , z)] con la concentración, en un sistema
débilmente interactuante. . . . . . . . . . . . . . . . . . . . . . . . . . .
7.14. Variación de ln [MC (k = kmax , z)] con la concentración, en un sistema
moderadamente interactuante. . . . . . . . . . . . . . . . . . . . . . .
109
110
116
117
117
118
119
120
120
121
121
122
122
123
126
126
Índice de figuras
7.15. Variación de ln [MC (k = kmax , z)] con el alcance del potencial, en un
sistema moderadamente interactuante. . . . . . . . . . . . . . . . . . .
7.16. Variación de ln [MC (k = kmax , z)] con la con la intensidad de interacción.
7.17. Modelo Lorentziano para la función de memoria que resulta del ajuste
tipo distribución Boltzmann de MC . Las lineas en color representan los
modelos lorentzianos. En rosa para A2 = 7, en naranja para A2 = 35 y
en rojo para A2 = 70. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.18. Ajuste tipo Bose para MC con las distintas amplitudes de interacción
A2 = 7 (trazos negros y rosa) A2 = 35 (trazos grises claros y naranja) y
A2 = 70 (trazos grises y rojos). . . . . . . . . . . . . . . . . . . . . . .
7.19. Modelo hipergeométrico de Gauss de M , que resulta del ajuste tipo Bose
en MC en lineas de colores. En rosa para A2 = 7, en naranja para A2 = 35
y en rojo para A2 = 70. . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.20. Dependencia de la función intermedia de dispersión en el número de onda
y en el tiempo. Los resultados corresponden al sistema bidimensional con
los parámetros A2 = 35, n = 1, b = 1 y σ = 0.357. Se muestra todo el
intervalo de tiempo hasta que la función decae completamente. . . . . .
7.21. La figura muestra a F (k, t) durante el intervalo de tiempo en donde la
parte de números de onda más grandes ha decaído completamente. . . .
7.22. MC (k, z)/F (k, 0) asociada a la función de memoria del sistema en la
figura 7.20. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.23. Comportamiento de MC (k, z)/F (k, 0) del sistema en la figura 7.20, en la
región cercana al máximo principal del factor de estructura. . . . . . .
7.24. Superficie ln [MC (k, t)/F (k, 0)] del sistema en la figura 7.20. . . . . . .
7.25. Comportamiento de ln [MC (k, t)/F (k, 0)] en la figura 7.24, en distintos
números de onda. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.26. Función de memoria irreducible de acuerdo a (7.24) para un sistema bidimensional en k = kmax . Como es usual, kmax indica la posición del máximo principal de S(k). También se muestran las memorias irreducibles
que se obtienen al emplear dos ajustes RY, y uno HNC, para interpolar
el S(k) de la simulación, y después usarlo para calcular V (kmax , k). . .
7.27. Función vértice V (q = 6.8, k) de la simulación (en negro). También se
muestran los resultados para cuatro ajustes de S usando las cerraduras
HNC y RY. Los números indican el valor de A2 empleado para hacer el
ajuste. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.28. Función vértice V (q = 8, k) de la simulación (en negro). También se
muestran para los cuatro ajustes de S empleados en la figura anterior. .
7.29. Comparación entre la MC (k = kmax , z) que se obtiene de las simulaciones (lineas grises) con la que se obtiene a partir de la teoría de modos
acoplados (lineas negras). El inset muestra un rompimiento de ejes. . .
7.30. Comparación entre el ln [MC (k = kmax , z)] de las simulaciones (linea gris)
y el que se obtiene de la teoría de modos acoplados (linea negra). . . .
IX
127
127
129
132
133
134
135
136
137
137
138
140
142
143
144
145
X
Índice de figuras
7.31. Función de memoria M (k = kmax , t) de la simulación (en gris) comparada con la función de memoria en la aproximación de convolución
de la teoría de modos acoplados (en lineas negras). El inset muestra al
ln [M (k = kmax , t)] de la función correspondiente a la teoría de modos
acoplados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.32. F (k = kmax , t) de un sistema bidimensional de coloides paramagnéticos.
7.33. MC (k, z) del sistema en la figura 7.32 La linea gris muestra su ajuste
tipo Bose y el inset al ln MC (k, z). . . . . . . . . . . . . . . . . . . . . .
7.34. Funciones intermedias de dispersión parciales del sistema de dos capas y
una especie estudiado en este trabajo (Secc. 5.2.2). Solamente se muestra
√
el resultado para el número de onda asociado a la escala de longitud 2d,
para tres valores de la distancia entre las capas: 1σ en líneas negras,
1.5σ en lineas grises claras y 5σ en lineas grises. Las funciones positivas
11
22
12
21
representan√a las correlaciones F11
= F11
y las negativas a F11
= F11
.
7.35. MC (kd = 2π, z) para cada uno de los casos en la figura anterior: 1σ
en líneas negras, 1.5σ en lineas grises claras y 5σ en lineas grises. Las
11
22
transformaciones de las memorias M11
= M11
se muestran en líneas
21
12
continúas y las de las memorias M11 = M11 en líneas cortadas. El inset
muestra al ln [MC (k, z)].
√ Las líneas en color naranja muestran los ajustes
tipo Bose de MC (k = 2π, z). . . . . . . . . . . . . . . . . . . . . . . .
146
147
149
150
152
1 Introducción
... como los pájaros del bosque, ligeros y siempre silenciosos incluso cuando cantan, incluso cuando se posan. Lo real es suficiente para lo real, y la
sencillez es lo real en sí mismo. ...
André Compte-Sponville.
La construcción del lenguaje que nos permite interpretar y entender a la naturaleza
es una tarea muy compleja. Sin embargo, la naturaleza está ahí con su sencillez y sutileza. A pesar de la complejidad que involucra estudiar los fenómenos naturales, las
conclusiones y expresiones finales que del trabajo científico emergen suelen ser sencillas
y fácilmente asimilables. En ocasiones sucede que las teorías, que se desarrollan estudiando sistemas muy simples, se pueden aplicar a sistemas más complejos, o bien, que
cálculos numéricos y experimentos computacionales muy complejos derivan en resultados simples que no son obvios a primera vista y que incluso en ocasiones hasta son
inesperados. Dos ejemplos representativos de estos dos aspectos son: (1) La aplicación
de la teoría de la estructura de los líquidos simples al estudio de los líquidos coloidales y
(2) la predicción –que se obtuvo en los inicios de las simulaciones por computadora– concerniente a que las esferas duras podrían formar cristales –predicción que renombrados
científicos intentaron refutar porque iba en contra de su sentido común–; actualmente
esta transición está perfectamente explicada.
En este trabajo usamos un modelo sencillo de sistema coloidal y nuestros cálculos,
aunque tediosos, son de una naturaleza muy simple. A pesar de esto, hemos obtenido
conclusiones muy interesantes acerca del cálculo de los potenciales efectivos, de la naturaleza de los mismos y de su relación con la estructura, y por otro lado, acerca de los
efectos de memoria de los sistemas bidimensionales. En cuanto a los efectos de memoria,
después de un arduo trabajo numérico, obtuvimos ajustes analíticos sencillos para las
funciones de memoria. Ahora mencionaremos los sistemas y las cantidades estudiadas.
En nuestra educación básica aprendemos a clasificar a la materia considerando sus propiedades físicas. Por ejemplo, a primera vista el aire que respiramos lo identificamos
como un gas –más precisamente el aire es una dispersión–. El agua –el principal constituyente de los seres vivos– se dice que pertenece al dominio de los líquidos. A los
metales los identificamos como pertenecientes a la categoría de los sólidos. Llamamos a
estas tres categorías de la materia –gas, líquido y sólido– los estados fundamentales de
la materia. La clasificación de los tres estados fundamentales de la materia nos resulta
muy familiar. En la actualidad poseemos una descripción completa de las propiedades
de los gases y de los sólidos. En cambio, el entendimiento de las propiedades de los líquidos –incluso de algunos que pordrían parecer muy simples, como el agua– representa
un reto actual en la investigación científica.
1
2
Capítulo 1. Introducción
Existen materiales que poseen propiedades físicas y químicas distintas a, o bien intermedias entre, las que poseen los materiales pertenecientes al dominio de los tres estados
fundamentales. Estos materiales también son muy comunes, tanto en la naturaleza como en la tecnología desarrollada por el ser humano. Los vidrios, los geles y los cristales
líquidos son algunos ejemplos de materiales prolíferos en nuestra vida diaria. Estos
ejemplos no pertenecen a la clasificación de los estados fundamentales. Otros ejemplos
son los materiales que presentan la coexistencia –en la escala mesoscópica, donde las
fluctuaciones térmicas son importantísimas– de los tres estados fundamentales. Dentro de estos materiales heterogéneos encontramos a las dispersiones. Las suspensiones
coloidales son un ejemplo típico de estados de la materia que contienen fases dispersas.
Los materiales que se mencionaron anteriormente, y que no pertenecen al dominio de
los tres estados fundamentales, forman parte de una clasificación de la materia a la
que se le denomina materia blanda. El estudio de este tipo de materiales comprende
la cooperación inter-disciplinaria de varias áreas de la ciencia, dentro de las cuales
encontramos a la física, a la química, a la biología y a las ciencias de la computación.
El objetivo de estos estudios es el de entender las propiedades de los materiales blandos
en distintos niveles de descripción. Uno de los aspectos más excitantes que de estos
estudios emerge es la conexión física-biología a nivel mesoscópico. No obstante, la meta
de lograr una descripción multi-escala de los procesos en seres vivos aún se ve lejana.
Por el momento, una área relacionada, conocida como bio-mimética, pretende avanzar
en esa dirección mediante el desarrollo de la teoría y de las técnicas relevantes para
sintetizar materiales que imiten algunas de las funciones que realizan los constituyentes
macro-moleculares de los seres vivos. Los sistemas coloidales, además de ser modelos
de estudio para las dispersiones, e incluso para proteínas o complejos como las micelas,
también son modelos muy útiles para estudios fundamentales relacionados con teorías
del caos y, en general, en el estudio del problema de muchos cuerpos.
Un esquema teórico muy importante en la descripción de la materia condensada blanda
y, en particular, de las dispersiones coloidales en estado líquido, es la teoría de los
líquidos simples –o simplemente, teoría de líquidos–. La teoría de líquidos se consolidó
entre 1950 y 1980 –en gran parte gracias al desarrollo de las micro-computadoras–
mediante el estudio de los líquidos cuyas partículas interactúan vía potenciales centrales,
y cuya energía potencial total es la suma de las energías potenciales entre pares de
partículas. Esta teoría se ha complementado con otros marcos teóricos con el objetivo de
describir líquidos más complejos, como las dispersiones coloidales líquidas –en algunos
casos sucede el proceso inverso: Siendo las dispersiones coloidales sistemas accesibles a
la observación experimental, algunas teorías de líquidos y formalismos relacionados se
han verificado dentro del marco de los modelos coloidales–. Entre otros marcos teóricos
no menos importantes, podemos mencionar como teorías relacionadas a la dinámica
disipativa y la hidrodinámica generalizada e, inclusive, a los tecnicismos generados en
la teoría cuántica de los campos.
Existen cuatro conceptos centrales en la descripción de los líquidos coloidales, estos
son: (a) El concepto de potencial efectivo de interacción entre pares de partículas –
a partir del cual se puede obtener todas las propiedades físicas en equilibrio–. (b) El
concepto de funciones de correlación espacio-temporal –caracterizan los procesos de
3
Figura 1.1: Tres capas
de partículas coloidales.
La figura ilustra a uno
de los sistemas estudiados en este trabajo. Las
esferitas representan a los
coloides. Los centros de
las esferitas definen planos paralelos al plano xy.
Los planos trazados en la
figura son imaginarios y
solamente funcionan como una guía para el ojo.
relajación de las fluctuaciones en o fuera de equilibrio–. (c) El concepto de funciones de
memoria –nos da información sobre la naturaleza de los procesos de relajación–. Y (d) la
noción de experimento computacional, o simulación por computadora –que, entre otras
cosas, nos permite verificar los modelos de interacción y las teorías–. En la medida en
que fortalezcamos la estructura y productos que de estos conceptos emergen, seremos
capaces de entender mejor a las dispersiones coloidales y en general a la materia blanda.
Este trabajo es un estudio que involucra a todos estos conceptos, contribuyendo así con
un granito de arena en la construcción de nuestro entendimiento de las propiedades de
las suspensiones coloidales.
Este trabajo se divide en dos partes. En la primera parte estudiamos el potencial efectivo entre coloides dispersos en capas planas paralelas. Nuestro sistema de capas planas
se compone de partículas brownianas de Yukawa que constituyen sistemas bidimensionales planos. Consideraremos dos y tres sistemas bidimensionales paralelos entre sí, y
a la vez paralelos al plano xy. A cada sistema bidimensional le llamamos una capa.
Las partículas estarán restringidas a moverse solamente sobre su plano, esto es, no se
estudiará el efecto de transferencia de partículas entre las capas. Cada capa, aparte
de las propiedades intrínsecas de sus coloides, se caracteriza por la coordenada z que
etiqueta a los planos. La figura 1.1 ilustra a un sistema de tres capas. Mostraremos que
la distancia entre las capas es un parámetro que nos permite controlar la estructura y,
por ende, los potenciales efectivos, de una forma muy simple y eficaz. También mostraremos cómo es que las escalas de longitud características se mezclan para dictar el
comportamiento del potencial efectivo.
El interés subyacente a un sistema modelo de este tipo radica en el concepto de control coloidal. Las investigaciones sobre los sistemas coloidales en distintas etapas del
siglo pasado hicieron posible un entendimiento casi completo de las propiedades mesoestructurales, no dependientes del tiempo, de las suspensiones coloidales abiertas en
4
Capítulo 1. Introducción
cualquier dimensión, es decir, de las suspensiones coloidales en dónde los efectos de
frontera son mínimos. No obstante, los procesos inherentes a la evolución temporal de
la meso-estructura, aún de sistemas abiertos, no se entienden del todo.
Desde hace unos veinte años ha surgido el interés por el estudio de suspensiones coloidales en donde el confinamiento de la suspensión es determinante en sus propiedades.
Este aspecto del área de los coloides está en desarrollo. Otro aspecto íntimamente relacionado con el confinamiento es el concepto de control coloidal. Como toda materia
blanda, es relativamente fácil manipular un sistema coloidal. Por ejemplo, si agregamos
gradualmente sal a una suspensión de esferitas de poli-estireno, podemos llevar a la
suspensión de un estado líquido coloidal hasta un estado de segregación de las esferitas
a medida que la cantidad de sal aumenta. Inclusive esa segregación se puede evitar si
vestimos a los coloides con algún polímero.
Otro ejemplo de manipulación coloidal se presenta en los sistemas coloidales confinados
entre dos placas. En este caso la dispersión coloidal puede presentar distintas fases,
dependiendo de la separación entre las placas. Y así, existen muchos otros mecanismos
de manipulación coloidal. Una vez que hemos aprendido a manipular los coloides, surge
la inquietud de controlarlos, esto es, ejercer una manipulación precisa de los mismos,
de la manera más eficaz que podamos. Otro de los objetivos de este trabajo es ilustrar
que el sistema de capas es un modelo teórico muy eficaz para el control coloidal.
En la segunda parte estudiamos sistemáticamente la dependencia espacio-temporal de
las funciones de memoria de la difusión colectiva de sistemas bidimensionales, y de dos
capas, compuestos de partículas de Yukawa. En este estudio desarrollamos un método
nuevo para obtener funciones de memoria. El método es numérica y matemáticamente
trivial. No obstante, los resultados revelan modelos matemáticos para las funciones de
memoria que nunca antes se habían considerado. Mostraremos que los nuevos modelos matemáticos para la función de memoria que obtuvimos en este trabajo son muy
generales, en cuanto a su aplicabilidad en una gama amplia de condiciones.
La importancia de las funciones de memoria radica en el hecho de que nos dan información sobre la naturaleza del proceso de relajación de las funciones de autocorrelación y,
por su parte, las funciones de autocorrelación nos permiten obtener las propiedades de
transporte de los sistemas. Inclusive, la función de memoria puede interpretarse como
una función de autocorrelación de un tensor de esfuerzos generalizado.
Este reporte consta de 8 capítulos. En el capítulo siguiente precisamos las ideas generales y el contexto de este trabajo. Nuestro propósito en ese capítulo es transmitir los
objetivos de este trabajo en una forma concreta para alguien que domina estos temas.
Los dos capítulos que le siguen proporcionan el marco teórico y los estudios previos, particularmente sobre los efectos de memoria, para alguien que no esté muy familiarizado
con estos temas.
El capítulo 3 está dedicado a la revisión del marco teórico base de este trabajo, así
como a la definición y explicación de los conceptos necesarios para interpretar nuestros
resultados. El capitulo 4 es una revisión y discusión de los estudios previos sobre funciones de memoria. El capítulo 5 contiene la descripción de la estructura de los coloides
en capas planas y funciona como un capítulo auxiliar al capítulo 6. En mi trabajo de
5
maestría [1] habíamos estudiado a este tipo de sistemas. La intención de este capítulo
no es repetir aquellos resultados, de hecho, muchos de los resultados en este capítulo no
están contenidos en [1] y reflejan nuestro mejor entendimiento de este tipo de sistemas.
El capítulo 6 presenta los resultados sobre los potenciales efectivos, mientras que el
capítulo 7 presenta nuestro estudio de las funciones de memoria. Finalizaremos este
reporte con un capítulo de conclusiones y de perspectivas de trabajo.
6
Capítulo 1. Introducción
2 Generalidades
Hay pintores quienes transforman al sol en una mancha amarilla, hay
otros quienes con la ayuda de su arte y su inteligencia transforman a una
mancha amarilla en el sol.
Pablo Picaso.
En muchos aspectos el trabajo de un físico de la materia blanda se asemeja al del
pintor. Debemos tener la visión para identificar las variables determinantes en el comportamiento de los sistemas blandos, en escalas de espacio y tiempo definidas, y en base
a ello desarrollar un modelo teórico que trate de representar lo más fielmente posible
al sistema real. A menudo sucede que nuestros modelos son como la mancha que representa al sol con todas sus tormentas dinámicas caprichosas. Otras veces se proponen
modelos teóricos y a la larga surgen problemas reales para los cuales el modelo es aplicable. Este trabajo pertenece a esta segunda clase, pues sabemos bien que hay muchos
sistemas que presentan estructuramiento en forma de capas, pero nuestro sistema no
es un modelo directo de alguno de esos sistemas. No obstante, aprenderemos mucho de
este modelo sencillo.
El objetivo de este pequeño capítulo es introducir de forma general el contexto dentro
del cual se desarrolla este trabajo. De esta manera hacemos una conexión directa hasta
la parte de los resultados de este trabajo que comprende los capítulos 5, 6 y 7. No
obstante, los dos capítulos que siguen detallan el esquema teórico y conceptual, así
como los estudios previos en la dirección de nuestro trabajo.
2.1.
Dispersiones coloidales
El dominio coloidal [2, 3, 4] es un subdominio de la materia blanda1 [5, 6, 7, 8]. En
general, se dice que un material es blando cuando presenta alguna de las siguientes
características inter-relacionadas:
Los materiales blandos poseen propiedades reológicas intermedias entre las de un
sólido cristalino y las de un líquido molecular. Esto se relaciona con el hecho de
que la materia blanda posee una densidad atómica y una conectividad más baja
que la materia sólida.
1
Los estadounidenses usan el nombre fluidos complejos para la materia blanda. Aunque no todos
los materiales blandos son fluidos, este nombre resalta el hecho de que los materiales blandos son
complejos. Esto implica que la descripción de los materiales blandos usualmente aglutina a muchas
áreas del conocimiento humano.
7
8
Capítulo 2. Generalidades
Figura 2.1: Coloides en caricatura. Ilustración del entorno de
una partícula coloidal rodeada de
muchas otras partículas coloidales
más pequeñas. El solvente se ilustra como el fondo rugoso. Los símbolos + y - representan a los iones
libres. Los iones libres provienen de
la disolución de una sal en el solvente y de los radicales que se disocian de los coloides.
Los constituyentes de los materiales blandos pueden interaccionar no covalentemente. Por ejemplo, los objetos que constituyen a un material blando pueden
presentar interacciones de Coulomb, de Yukawa, de enlaces de hidrógeno, etc.
La entropía es un factor determinante de las propiedades de los materiales blandos.
Los materiales blandos poseen la cualidad de auto-organización, uno de los eslabones del origen de las estructuras de los seres vivos.
Las funciones de respuesta (susceptibilidades) de los materiales blandos son enormes y usualmente bien comportadas. Esto significa que bajo fuerzas generalizadas
muy tenues, los materiales blandos pueden sufrir cambios muy drásticos en sus
propiedades macroscópicas. Por otra parte, esto también significa que los materiales blandos son flexibles, esto es, que aceptan factores de compresión muy elevados
(pueden deformarse mucho sin fracturarse), aunque soportan menos esfuerzos.
La estructura de un material blando puede ser manipulada y a veces hasta controlada por medios químicos, electroquímicos, mecánicos, etc., de una manera relativamente simple. Importante mencionar aquí que la estructura de los materiales
blandos fluctúa aleatoriamente de forma incesante por efecto de las fluctuaciones
térmicas. Por ello, cuando se habla de estructura de un material blando, uno se
refiere a la estructura promedio. La estructura promedio dicta las propiedades
macroscópicas del material en equilibrio termodinámico.
Algunos materiales blandos presentan la propiedad de simetría bajo magnificaciones. Esto significa que una sección de caminata aleatoria, que al menos abarca
un recorrido igual a la longitud de persistencia, se ve igual cuando se magnifica.
Esta simetría se caracteriza a través del decaimiento de la densidad de pasos con
la distancia. El exponente de decaimiento se llama el exponente de escalamiento
del sistema.
El dominio coloidal manifiesta la coexistencia de las fluctuaciones térmicas con las
constricciones características del estado sólido. Otros ejemplos de materia blanda son
los complejos poliméricos, las micro-emulsiones, las espumas y los cristales líquidos. En
este trabajo nos interesan las suspensiones coloidales.
2.2. Potenciales efectivos y funciones de memoria
9
Una suspensión coloidal es un fluido cuyas partículas2 se constituyen de grupos enormes
de moléculas ligadas, como en los sólidos3 . Los grupos se encuentran inmersos en un
líquido molecular. Los grupos son lo suficientemente grandes como para formar una
fase distinta a la del líquido y, a la vez, lo suficientemente pequeños como para que
las fluctuaciones térmicas sean relevantes en su descripción. A los grupos se les llama
coloides o partícula coloidal. Los coloides son las partículas que constituyen al soluto
en una suspensión coloidal. El solvente de la suspensión es un liquido molecular. Las
dimensiones lineales de un coloide van desde los nanómetros hasta los micrómetros. En
cambio, las dimensiones lineales de los sistemas atómicos y moleculares son del orden
de unos cuantos Å. La figura 2.1 ilustra el concepto de partícula coloidal.
2.2.
Potenciales efectivos y funciones de memoria
Imaginemos que un elemento de una suspensión coloidal, ya sea una molécula del solvente o bien un coloide, experimenta un pequeño desbalance de fuerzas que lo lleva a
una velocidad distinta a la velocidad promedio en equilibrio térmico de acuerdo a la
estadística de Boltzmann –en equilibrio térmico, estos desbalances son muy frecuentes
y se denominan fluctuaciones térmicas–. El tiempo que le toma a un coloide alcanzar
la velocidad de equilibrio térmico es, al menos, tres ordenes de magnitud mayor que el
tiempo que le toma a la molécula –el proceso durante el cual los objetos alcanzan la velocidad de equilibrio se llama relajación de la velocidad–. El coloide relaja su velocidad
mucho más lentamente que la molécula y eso permite que sea mucho más fácil rastrear
experimentalmente la dinámica de los coloides que la dinámica de las moléculas en una
suspensión coloidal.
A las posiciones y momentos de los coloides les llamaremos los grados de libertad
mesoscópicos, mientras que las posiciones y momentos de las moléculas del solvente se
denominarán los grados de libertad microscópicos. Se dice que dentro de una suspensión
coloidal existen grados de libertad rápidos y grados de libertad lentos. Los grados de
libertad microscópicos son los rápidos y los grados de libertad mesoscópicos son los
lentos. Esto es, los grados de libertad rápidos se asocian a las moléculas y los grados de
libertad lentos se asocian a los coloides.
Gracias a esta separación de escalas entre los coloides y las moléculas, podemos construir
descripciones de la dinámica de las suspensiones coloidales en las cuales solamente
intervengan los grados de libertad mesoscópicos. Este tipo de dinámicas se llaman
dinámicas disipativas. Si los grados de libertad que se consideran son la posición y la
2
Partícula se define como un objeto puntual sin estructura. Sin embargo, aun cuando sabemos que es
incorrecto se tiene la costumbre de usar este término para referirnos a objetos con estructura. Por
ejemplo, se habla de las partículas coloidales, y ¡por supuesto que las partículas coloidales tienen
estructura! Anticipando, también es costumbre usar la terminología potencial efectivo en lugar del
término energía potencial efectiva que es lo correcto.
3
También existe el término coloides suaves (soft colloids). En los coloides suaves las ligaduras son
menos rígidas que las de un sólido. Un ejemplo de coloide suave es una micela.
10
Capítulo 2. Generalidades
velocidad de los coloides, entonces se dice que se trabaja en una dinámica de FokkerPlanck. Si solamente se consideran las posiciones, entonces se dice que se trabaja en una
dinámica de Smoluchowski [14]. Nosotros trabajamos con la dinámica de Smoluchowski
de sistemas en equilibrio térmico.
Cualquier observable de un sistema coloidal que sea función de los grados de libertad
micro y mesoscópicos es denominado variable dinámica o función del sistema. Las fluctuaciones térmicas en los grados de libertad mesoscópicos se transmiten a las variables
dinámicas. De esta manera, las variables dinámicas son cantidades fluctuantes alrededor de un valor promedio de equilibrio. Uno se puede preguntar ¿cómo es el proceso
de relajación de las variables dinámicas? y ¿qué conclusiones acerca de la naturaleza del sistema podemos obtener de esta información? Para responder estas preguntas
podemos elegir muchas rutas. Una posibilidad es estudiar la dependencia temporal de
la variable dinámica. Otra ruta es estudiar la dependencia temporal de la función de
auto-correlación de la variable dinámica. La segunda ruta ha resultado muy fructífera
y se le llama el formalismo de las funciones de correlación espacio-temporales [9]. Las
funciones de correlación espacio-temporales juegan un papel muy importante en la descripción de las propiedades dependientes del tiempo de la materia blanda. Todos los
coeficientes de transporte pueden escribirse en términos de las funciones de correlación
espacio-temporales y, bajo ciertas circunstancias, su perfil espacial en el instante inicial
nos permite obtener todas las propiedades termodinámicas en equilibrio [9, 12].
En la dinámica de Smoluchowski, la función de correlación espacio-temporal natural
para describir las propiedades dependientes del tiempo de una suspensión coloidal en
equilibrio, o cerca de equilibrio, es la función de auto-correlación de la densidad local
de partículas. A esta función se le conoce como la función de van Hoove G(r, t) [15].
El perfil inicial de la función de van Hoove, g(r) ≡ G(r, t = 0) r 6= 0, llamada función
de distribución radial, su transformación de Fourier espacial F (k, t), llamada función
intermedia de dispersión y el factor de estructura estática S(k) ≡ F (k, t = 0)4 son
algunas funciones de correlación que se usan frecuentemente y son referidas como las
funciones de correlación de las fluctuaciones en la densidad.
Idealmente, en la mecánica clásica –así como en la mecánica cuántica– aprendemos que
la energía potencial de interacción entre pares de partículas, junto con las condiciones iniciales y de frontera, son suficientes para elaborar una descripción completa de
propiedades físicas de cualquier sistema en escalas de espacio y tiempo microscópicas,
esto es, al nivel de átomos o moléculas. Para describir un sistema clásico simplemente
tenemos que resolver su ecuación de Liouville, su ecuación de eigen-valores asociada, o
cualesquier otra ecuación de movimiento de los grados de libertad microscópicos. Para
un sistema líquido, aún siendo el más simple, esto sería una tarea inimaginablemente
4
En la literatura a la transformación de Fourier espacial de G(r, t) se le suele llamar indistintamente
como función intermedia de dispersión, denotándola como F (k, t), o bien como factor de estructura
dinámica, denotándola como S(k, t). También (en la literatura de los líquidos simples e iónicos) a
la transformación de Fourier doble espacio-temporal de G se le suele llamar factor de estructura
dinámica y denotar por S(k, ω), con ω la frecuencia. En este trabajo usaremos la letra F para
denotar a la función intermedia de dispersión y la S para denotar el factor de estructura estática,
evitando el inconveniente de usar la misma letra para dos objetos distintos.
2.2. Potenciales efectivos y funciones de memoria
11
tediosa, tal vez imposible. Sin embargo, aún cuando fuera posible, no sería útil si no
contamos con un esquema apropiado que nos permita interpretar los resultados en las
escalas mesoscópicas y/o en las macroscópicas. Por lo tanto, resulta imperante pensar
que es necesario plantear las ecuaciones que dictan el comportamiento de las variables dinámicas en la escala mesoscópica o la macroscópica, resolverlas y estudiar las
soluciones en condiciones arbitrarias.
El movimiento browniano es un ejemplo notable de descripción en escala mesoscópica5
–esta descripción nos proporciona conclusiones notables acerca de la naturaleza, sin considerar explícitamente los detalles microscópicos–. Los trabajos realizados por Brown,
Einstein, Langevin, Lorentz, Perrin y Smoluchowski fincaron la base de la descripción
fenomenológica del movimiento browniano y otros procesos estocásticos relacionados.
Su trabajo mostró la existencia de los átomos mediante su manifestación en la mesoescala, la cual se refleja como el movimiento errático de las partículas brownianas –en
analogía a la difusión del calor y dado que se gobiernan por ecuaciones similares a el
movimiento errático se le llamó la difusión de la partícula browniana6 –. Otros conceptos han surgido en el desarrollo de la física que no son obvios a partir de los detalles
moleculares, un ejemplo representativo es el concepto de irreversibilidad.
Describir un sistema usando escalas de espacio y tiempo mesoscópicas, como se hace en
la física de coloides y en muchos otros aspectos de la física de la materia blanda, conlleva
a que los potenciales de interacción entre pares de macro-partículas, llamados potenciales efectivos, no sean suficientes para realizar la descripción completa de las propiedades
dependientes del tiempo. Esto se debe a el hecho de que los potenciales efectivos solamente contienen información promedio-configuracional de las macro-partículas, de su
constitución y de su distribución espacial. La información concerniente al solvente queda reducida a algunos parámetros independientes del tiempo. Para tomar en cuenta
efectos de acoplamiento entre la dinámica del solvente –la dinámica rápida del sistema
– y la dinámica del soluto –la dinámica lenta del sistema– se introduce el concepto de
función de memoria. De esta manera, en una descripción mesoscópica completa, aparte
del potencial efectivo, se requiere conocer la función de memoria del sistema. La función
de memoria es el remanente de las fuerzas estocásticas asociadas al solvente. Más aún,
la función de memoria no solamente describe el acoplamiento con el solvente, también
describe por qué el decaimiento de las fluctuaciones no es una simple exponencial, pues
captura los efectos de las interacciones derivables de un potencial, así como el de las
interacciones hidrodinámicas. El origen físico del efecto de memoria puede interpretarse
como el efecto del encajonamiento dinámico que las partículas ejercen entre sí, el cual
5
En inglés el término “coarse-grained description” se refiere a una descripción de las propiedades de
un sistema que no contiene explícitamente algunos detalles (como por ejemplo, la existencia de
moléculas de agua en una suspensión acuosa), sino implícitamente a través de algunos parámetros
(como por ejemplo, la constante dieléctrica en las suspensiones acuosas). Usualmente una coarsegrained description es necesaria en el nivel mesoscópico de descripción, de esta manera, usaremos
en español “descripción mesoscópica” para traducir al español éste término anglosajón.
6
Por ejemplo, ahora hablamos del transporte difusivo, el cual surge de las fluctuaciones térmicas, para
distinguirlo del transporte dirigido, el cual es inducido por un campo externo o por las condiciones
de frontera.
12
Capítulo 2. Generalidades
a su vez, es determinante en el movimiento colectivo y de una partícula.
En el transcurso del desarrollo de la dinámica disipativa han emergido expresiones matemáticas exactas para las funciones de memoria. Usualmente, dichas expresiones nos
indican que debemos calcular alguna función de auto-correlación de todas las variables
rápidas del sistema, esto es, de las variables que no entran explícitamente en la dinámica
disipativa. Esto equivale a resolver la ecuación de Liouville y por lo tanto no es conveniente. Lo que se hace para salvar esta dificultad es estudiar las propiedades generales
que una función de memoria debe cumplir y, en base a ello, se proponen expresiones
matemáticas que sean capaces de modelarla en condiciones específicas.
Así, han surgido los modelos de decaimiento exponencial, de uno o dos tiempos de relajación, los modelos Gaussianos y las descomposiciones espectrales. También se han
formulado esquemas teóricos como la teoría de modos acoplados, la reducción de la
descripción en la jerarquía de ecuaciones de Langevin generalizadas, las teorías cinéticas y más recientemente las expansiones diagramáticas de las funciones de correlación
espacio-temporales. Estos modelos y esquemas teóricos son muy buenas aproximaciones
bajo ciertas circunstancias. Sin embargo, existen muy pocos estudios que se enfocan en
la función de memoria como un objeto de interés por sí mismo.
En este trabajo presentamos los resultados de un estudio sistemático, mediante simulaciones de dinámica Browniana, de los potenciales efectivos del sistema de capas paralelas ilustrado en la figura 1.1, en donde cada capa, aparte de las propiedades intrínsecas
de sus coloides, se caracteriza por la coordenada z que etiqueta a los planos. Mostraremos que la distancia entre las capas es un parámetro que nos permite controlar la
estructura y, por ende, los potenciales efectivos, de una forma muy simple y eficaz. El
cálculo de los potenciales efectivos se efectúa dentro del formalismo de contracción de
la descripción, en el marco de la teoría de ecuaciones integrales de Orstein y Zernike.
En cuanto a las funciones de memoria, se presenta un estudio sistemático de la memoria
colectiva en la dinámica de Smoluchowski de sistemas bidimensionales de partículas
brownianas de Yukawa. El estudio se basa en la inversión numérica de la ecuación de
memoria. De forma natural emergerán dos modelos para los efectos de memoria. Estos
son el modelo lorentziano y el modelo hipergeométrico de Gauss, como una extensión
del lorentziano a un espectro infinito de tiempos de relajación. Dado que el modelo
lorentziano de varios tiempos de relajación surge de forma natural, es decir, no se supone
ad hoc, concluiremos que es un modelo que debe tomarse como otro candidato serio para
estudiar los efectos, así como la naturaleza de las funciones de memoria colectivas. Las
propiedades de analiticidad del modelo, así como su justificación rigurosa dentro de un
esquema teórico se, dejarán como potenciales perspectivas de trabajo.
Los dos capítulos que siguen presentan una revisión teórica de los conceptos y estudios
previos, dentro de los cuales este trabajo se desarrolla. La intención es poner sobre bases
firmes la relevancia de este trabajo. Por lo tanto, alguien versado en estos temas puede
pasar directamente al capítulo 5.
3 Marco teórico y conceptual
El objetivo de este capítulo es presentar la teoría y los conceptos necesarios para hacer
este trabajo autocontenido. Empezamos proporcionando el formalismo de ecuaciones
integrales de Orstein y Zernike que usamos en este trabajo para calcular los potenciales efectivos. En este aspecto mencionamos un resumen de algunas investigaciones
–relevantes para este trabajo– sobre potenciales efectivos1 . Temas muy importantes y
muy activos como las técnicas de los Hamiltonianos efectivos [16] y la teoría de PoissonBoltzmann [17] para el cálculo de los potenciales efectivos no se contemplan en esta
revisión.
Posteriormente, precisaremos los conceptos y el esquema teórico que empleamos para describir la estructura dinámica de las suspensiones coloidales. En este aspecto,
no revisaremos el formalismo de la teoría cinética y las novedosas técnicas diagramáticas. En cambio, nos enfocaremos en el formalismo de las funciones de correlación
espacio-temporales, desde el punto de vista puramente microscópico del formalismo de
operadores de proyección de Mori-Zwanzig-Kawasaki [46, 47], contemplando desde la
dinámica de Liouville, pasando por la de Fokker-Planck y hasta la de Smoluchowski,
que es la que concierne a este trabajo. Reservaremos el capítulo que sigue para reportar
nuestras investigaciones sobre los estudios previos sobre los efectos de memoria. Reservamos un capítulo entero porque en este aspecto pretendemos ser exhaustivos, ya que
hemos obtenido resultados nunca antes reportados.
3.1.
Potenciales efectivos
El marco teórico que usamos en este trabajo para calcular los potenciales efectivos
es la teoría de ecuaciones integrales de los líquidos simples. Esta teoría consiste en la
ecuación integral de Orstein y Zernike y en un conjunto versátil de relaciones de cerradura. Este esquema teórico es complementado con la noción de función de correlación
directa efectiva y con la generalización de contracción de la descripción a las relaciones de cerradura. Antes de explicar el método para calcular los potenciales efectivos,
introduciremos éste marco teórico.
En la descripción de los líquidos coloidales a menudo se habla de tres tipos de potenciales: Del conocido como potencial de interacción por pares, del potencial de fuerza media
y del potencial efectivo. A continuación definimos a cada una de estas cantidades.
1
Como en este trabajo solamente estudiamos interacciones entre partículas, en lo sucesivo la frase
“potencial efectivo de interacción entre pares de partículas” se contraerá simplemente a la frase
“potencial efectivo”.
13
14
Capítulo 3. Marco teórico y conceptual
Consideremos que tenemos un sistema coloidal que consiste solamente de dos
coloides, el solvente y los iones libres. El potencial de interacción por pares describe
el cambio en la energía libre de este sistema cuando los coloides experimentan un
desplazamiento cuasiestático relativo.
Ahora consideremos a dos coloides en una suspensión coloidal de muchos coloides
y a la distribución de probabilidad de espacio fase en equilibrio.
• El potencial de interacción que se obtiene al integrar la energía potencial
total, pesada con la distribución de espacio fase, sobre los grados de libertad
del solvente, los de los iones libres, los de todos los coloides distintos a los dos
coloides bajo consideración y cuyo gradiente nos da la fuerza media entre los
dos coloides, es proporcional al potencial de fuerza media [12]. El potencial
de fuerza media describe el cambio en la energía libre de Helmoltz del sistema
cuando los dos coloides tienen un desplazamiento relativo.
• El potencial de interacción entre los dos coloides que se obtiene al integrar
los grados de libertad del solvente, así como los grados de libertad de un subconjunto de coloides, es el potencial efectivo. El potencial efectivo contiene
toda la información concerniente a las propiedades estructurales por pares
del conjunto de coloides observados, sin considerar explícitamente los grados
de libertad de los coloides integrados.
El potencial por pares, el potencial de fuerza media y el potencial efectivo coinciden en
el límite en que solamente hay dos coloides en el sistema. Una explicación más formal
de estos conceptos puede hallarse en [13]. Antes de proporcionar el método de cálculo
de los potenciales efectivos introduciremos la teoría de funciones de distribución en los
líquidos.
3.1.1.
Estructura estática de dispersiones coloidales
3.1.1.1.
Potencial DLVO
En este trabajo usaremos el potencial por pares de Yukawa:
(3.1)
u(rij ) = Ai Aj
exp [−κrij ]
,
rij
donde los subíndices significan que nos referimos a los coloides i y j, los cuales están
separados por una distancia rij . Las Ai,j dependen de las propiedades intrínsecas de los
coloides y del solvente, las llamaremos amplitudes de interacción. Si los coloides tienen
diámetro σi,j y carga qi,j entonces
(3.2)
Ai,j =
qi,j exp [κσi,j /2]
.
1 + κσi,j /2
El parámetro κ está dado por:
(3.3)
κ2 =
p
4π X
nα qα2 .
kB T α=1
3.1. Potenciales efectivos
15
Aquí es la constante dieléctrica del solvente, kB la constante de Boltzmann, T la temperatura, nα la densidad numérica de iones de la especie α y qα la carga electrónica de
cada ion de la especie α –en el sistema existen p especies distintas de iones libres–. En
la referencia [1] proporcionamos otros ejemplos de potenciales por pares. El potencial
(3.1) con las expresiones (3.2) y (3.3) recibe el nombre de la parte repulsiva del potencial DLVO. DLVO es una abreviación que recuerda los nombres de cuatro personas que
contribuyeron significantemente al estudio de la estabilidad de los coloides liofóbicos
en la década de los 1940’s. Estas personas son los soviéticos Boris Derjaguin y Lev
Landau, y los holandeses Ervert Verwey y Teo Overbeek [23]. La cantidad λD = κ−1
recibe el nombre de longitud de apantallamiento de Debye-Hückel. La longitud de apantallamiento de Debye-Hückel es una medida del alcance del potencial de Yukawa. El
potencial de Yukawa es una aproximación excelente cuando σ < λD < d, en donde d es
la distancia promedio entre coloides. La parte atractiva de los potenciales DLVO es la
interacción de van der Waals.
3.1.1.2.
Funciones de estructura estática
Las funciones de distribución representan la configuración promedio de las partículas
en un líquido. A esta distribución espacial promedio de partículas se le conoce como
la estructura del líquido. Como los coloides viven en el reino mesoscópico –en donde
las dimensiones lineales van desde los nanómetros hasta las micras– diremos que la
distribución espacial promedio de los coloides en una dispersión coloidal define a la
mesoestructura de la dispersión e, igualmente, el solvente define la microestructura. En
adelante, al menos que se especifique lo contrario, cuando hablemos de la estructura
de un líquido coloidal nos estaremos refiriendo a su mesoestructura. Aquí estamos interesados en las conocidas como funciones de distribución de dos puntos. Las funciones
de distribución de dos puntos describen el grado de orden, que en promedio temporal,
cada coloide “observa” en los demás coloides que lo rodean. Se dice que las funciones
de distribución describen qué tan distinto es el líquido de un gas ideal.
En los sistemas homogenéos, las funciones de distribución de dos puntos no dependen
del origen, esto es, que cualquier coloide puede tomarse como referencia. Además, si
el sistema es isotrópico, entonces el orden que cada coloide “ve” no depende de la
dirección de observación. Por lo tanto, en los sistemas homogéneos e isotrópicos las
funciones de distribución de dos puntos son funciones únicamente del radio-vector que
une al origen con el punto de observación. En este trabajo nos ocuparemos, únicamente,
de capas homogéneas e isotrópicas2 y las expresiones matemáticas que en adelante
se proporcionan serán válidas únicamente para este tipo de sistemas. Existen varias
expresiones equivalentes que definen a la función de distribución. Aquí daremos dos
definiciones, una basada en un proceso operacional y otra que pone de manifiesto el
hecho de que la función de distribución es una función de auto-correlación.
2
En los sistemas homogéneos e isotrópicos las funciones de distribución de dos puntos reciben el
nombre de “funciones de distribución radiales”. Aquí usaremos simplemente el término “función de
distribución” para significar que son de dos puntos y que son radiales.
16
Capítulo 3. Marco teórico y conceptual
Figura 3.1: Interpretación (3.5)
de la función de distribución de un
líquido coloidal bidimensional. La
figura es una “fotografía” de una
capa de uno de los sistemas estudiados en este trabajo. El origen
del sistema coordenado se toma en
la posición instantánea de una partícula arbitraria. El radio vector r
es el radio medio del anillo de longitud dr y área da. Dada la densidad numérica microscópica de partículas n, la g(r) nos proporciona
el número promedio de partículas
que caen dentro del anillo.
Consideremos un líquido coloidal homogéneo en ν dimensiones (ν = 1, 2, 3). Supongamos
que el volumen de la dispersión posee una dimensión lineal mínima de magnitud bl –en
un volumen esférico, al igual que en una superficie circular, bl sería la longitud del
diámetro, en un volumen cúbico bl sería la longitud de la arista, etc.–. Supongamos,
además, que bl es mucho mayor que cualquier escala de longitud característica de la
mesoestructura. Denotemos por dN al número de coloides, cuyo diámetro mínimo es
σmin , y que están localizados dentro de un elemento de volumen dν r. Este elemento
de volumen se encuentra centrado en la posición r y debe cumplir que (dν r)−1/ν <
σmin ≤ dmin , en donde dmin es la menor de las escalas de longitud características de la
mesoestructura. La función de distribución se define como
(3.4)
dN = ng(r)dν r,
en donde n es la densidad numérica macroscópica de coloides –n es el límite termodinámico del cociente N/V , en el cual N es el número de coloides en la dispersión y V es
el volumen del líquido coloidal.
En el caso particular de un sistema bidimensional homogéneo
(3.5)
dN = ng(r)da,
da = 2πrdr.
La figura 3.1 muestra la fotografía a escala de una dispersión coloidal bi-dimensional.
La fotografía corresponde a una de las capas que estudiamos en este trabajo. El tamaño
de los círculos es, a escala, alrededor de 3/4 del tamaño original de los coloides. Los
circulos se dibujan de ese tamaño porque así se ilustra mejor la formación de dímeros
que discutiremos más adelante. En este sistema, la interacción entre pares de coloides
presenta dos aspectos interesantes: Los coloides se repelen cuando están muy cercanos,
pero experimentan atracciones y repulsiones en distancias intermedias. La figura 3.2
muestra la función de distribución correspondiente a la figura 3.1. Las funciones de
distribución nos dan información de que tan aleatoria es, o no es, la distribución de
partículas en el líquido coloidal.
3.1. Potenciales efectivos
17
Figura 3.2: Ejemplo de función
de distribución. La figura ilustra
la función de distribución del sistema en la figura 3.1. La escala σ es
el diámetro de las partículas. Esta función nos dice que cada coloide ve con mucha frecuencia a
otro coloide a una distancia 2σ respecto a él. Por otro lado, cuando
ve a distancias muy lejanas, solamente ve una distribución homogénea de partículas pues en ese caso
g(r) = 1.
Sea {ri (t)}N
i=1 el conjunto de vectores de posición de las partículas coloidales. La densidad local de partículas se define como el objeto:
(3.6)
n(r, t) =
N
X
δ(r − ri (t)).
i=1
Aquí δ(r) es la distribución delta de Dirac. La función de distribución se puede escribir
como una función de autocorrelación. Primero, tenemos que si h· · · i denota un promedio
en el ensemble entonces
!
!+
ˆ *
1
1
0
0
√ n (r + r , t)
√ n (r , t) d3 r0 = ng(r) + δ(r).
(3.7)
N
N
La δ(r) representa la correlación de una partícula consigo misma. En el lado derecho de
esta expresión desaparece la dependencia temporal porque el sistema es estacionario3 .
Identificando términos obtenemos
(3.8)
1
ng(r) =
N
* N
X
+
δ (r + rj (t) − ri (t)) ,
i 6= j.
i,j=1
Una función de correlación relacionada con la g(r) es el factor de estructura estática
S(k) = 1 + (2π)3 nδ(k) + nF [g(r) − 1] ,
el cual, siempre y cuando k 6= 0, se puede escribir como
S(k) = 1 + nF [g(r) − 1] .
3
Funciones de autocorrelación como (3.7) se llaman funciones de correlación de tiempos iguales. Esto
es porque los argumentos temporales de las cantidades correlacionadas son idénticos. El la sección
3.2.1 proporcionaremos la definición general de función de autocorrelación espacio-temporal, en las
cuales los argumentos temporales de las cantidades correlacionadas, en general, son distintos. Con
frecuencia, en la dinámica de sistemas de muchas partículas las funciones de correlación de tiempos
iguales se toman como la condición inicial de las ecuaciones de movimiento de las funciones de
autocorrelación espacio-temporales.
18
Capítulo 3. Marco teórico y conceptual
Aquí, F denota la transformación espacial de Fourier. A la función
h(r) = g(r) − 1,
(3.9)
se le conoce como la función de correlación total. En términos de la función de correlación total
(3.10)
S(k) = 1 + nh̃(k).
El factor de estructura estática también se puede escribir como la función de autocorrelación de las componentes de Fourier de la densidad local de partículas
n(k, t) = F [n(r, t)] =
(3.11)
N
X
exp [ik · ri (t)] ,
i=1
de la siguiente forma
*
(3.12)
3.1.1.3.
S(k) =
!
1
√ n(−k, t)
N
!+
1
√ n(k, t)
N
.
Funciones de estructura estática en mezclas
Consideremos un sistema de N coloides, de entre los cuales Nα coloides forman la especie
α. Además, consideremos que hay p especies distintas en el sistema, de tal manera que
P
N = pα=1 Nα . Usando la notación xα = Nα /N y la posición del coloide i de la especie
α como riα tenemos:
La densidad local parcial
(3.13)
nα (r, t) =
Nα
X
δ(r − riα (t)).
iα =1
Las funciones de distribución parciales
(3.14)
dNβ = nβ gαβ (r)dν r,
α, β = 1, 2, ..., p
(3.15)
* Nα ,Nβ
+
X
1
√
xα xβ ngαβ (r) = q
δ r + rjβ (t) − riα (t) ,
Nα Nβ iα ,jβ =1
Las funciones de correlación parciales
(3.16)
hαβ (r) = gαβ (r) − 1.
Las componentes de Fourier de las densidades parciales
(3.17)
nα (k, t) =
Nα
X
iα =1
exp [ik · riα (t)] ,
iα 6= jα ∀ α.
3.1. Potenciales efectivos
19
Y los factores de estructura estática parciales
(3.18)
1/2
Sαβ (k) = δαβ + xa1/2 xb nh̃αβ (k).
*
(3.19)
Sαβ (k) =
!
+
1
1
√ nα (−k, t)  q nβ (−k, t) .
Nα
Nβ
Ahora introduciremos un poco de notación matricial para simplificar la escritura de las
ecuaciones subsecuentes. Las densidades locales parciales definen un vector p-dimensional
{n1 , n2 , ..., np } (r, t) al cual denotaremos como n(r, t). En general, cualquier función de
los grados de libertad microscópicos de un sistema de p componentes a, definirá un
vector a(r ó k, t) tal que dim(a) = p.
Las funciones de autocorrelación de tiempos iguales (pie de página 3 y sección 3.2.1) definen las matrices C(r ó k, t) = ha(r ó k, t)a(r ó k, t)i = (haα (r ó k, t)aβ (r ó k, t)i)p×p .
En particular, en esta sección hemos definido a la matriz de las funciones de distribución
parciales
+
*
ˆ
0
0
3 0 nα (r + r , t + t0 ) nβ (r , t + t0 )
q
√
gαβ (r, t) = d r
Nα
Nβ
y a la matriz de factores de estructura estática parciales S = (Sαβ )p×p .
3.1.1.4.
Función de correlación directa y función puente
Sea uαβ (r) el potencial de interacción entre coloides de las especies α y β. En el límite
de dilución infinita
(3.20)
gαβ (r)|n→0 → exp [−uαβ (r)/kB T ] .
En el caso de una concentración finita
(3.21)
gαβ (r) = exp [−uαβ (r)/kB T + hαβ (r) − cαβ (r) + bαβ (r)] ,
donde c y b se conocen como la función de correlación directa y la función puente,
respectivamente. Una vez que la función de correlación directa se ha definido, la ecuación
(3.21) puede considerase como una definición para la función puente. En adelante, a la
ecuación (3.21) la llamaremos definición de función puente.
La función de correlación directa se puede definir de dos formas superficialmente distintas, pero que en el fondo significan lo mismo. Por una parte, es una medida de la
respuesta de las variaciones en la energía libre cuando la densidad local varía, esto es,
la correlación directa es la derivada funcional de dos puntos de la energía libre. Otra
definición, la que usaremos en este trabajo, es a través de la ecuación de Orstein y
Zernike (OZ, Orstein y Zernike 1914 [19]). La ecuación de OZ de una mezcla de partículas coloidales es una relación entre la hαβ y las cαβ ’s, que para sistemas homogéneos
e isotrópicos se reduce a
ˆ
X
(3.22)
hαβ (r) = cαβ (r) +
cαγ (|r − r0 |)nγ hγβ (r0 )d3 r0 .
γ
20
Capítulo 3. Marco teórico y conceptual
Esta ecuación nos dice que las correlaciones se propagan a través de las funciones de
correlación directa. En forma matricial
ˆ
(3.23)
H(r) = C(r) + C(|r − r0 |)RH(r0 )d3 r0 ,
en donde H (r) = (hαβ (r))p×p , C (r) = (cαβ (r))p×p y R = (δαβ nβ )p×p , con nα =
hnα (r, t)i en donde la densidad local está dada por la ecuación (5.11).
La ecuación de OZ, junto con la ecuación (3.21), forman un sistema de ecuaciones
cerrado si contamos con una expresión analítica para la función puente. Aparte de las
expansiones diagramáticas -que se vuelven muy complejas más allá del primer término-,
no contamos con un método estándar que nos permita obtener expresiones analíticas
para la función puente. Lo que se hace para que (3.21) y (3.22) formen un sistema
cerrado es proponer modelos matemáticos para la función puente. Entonces se dice que
la ecuación (3.21) es la relación de cerradura de la ecuación de OZ. La aproximación
más simple
(3.24)
bαβ (r) = 0,
se conoce como la aproximación de la cadena hipertejida y se denota usando sus siglas
en inglés HNC(hyper-netted-chain) [24, 25, 26]. El término cadena hipertejida se refiere
a la arquitectura de los términos en las expansiones diagramáticas de las funciones de
distribución.
En este trabajo hacemos comparaciones entre la estructura del sistema de dos capas
que se obtiene al resolver OZ con HNC, con la que se obtiene mediante simulaciones
de dinámica browniana (BD, por sus siglas en ingleś). Se ha mostrado que en líquidos de coloides cargados eléctricamente HNC da excelentes resultados cualitativos. Sin
embargo, cuantitativamente HNC produce funciones de distribución más difusas –con
máximos y mínimos menos pronunciados– que las distribuciones exactas [27]. Otras relaciones de cerradura son la cerradura de Percus y Yevick (PY) [28] y la aproximación
esférica media (MSA ó MSM por sus siglas en inglés) [29].
Existen fórmulas que expresan a las cantidades termodinámicas en términos de las
funciones de distribución. Al usar estas formulas surge el problema de que el valor de
una cantidad termodinámica, que se obtiene usando una cerradura determinada, es
distinto del que se obtiene usando otra cerradura. Existe una relación de cerradura –la
cerradura de Rogers y Young (RY)– que mezcla a PY y HNC a través de un parámetro.
El valor del parámetro puede obtenerse exigiendo que la compresibilidad isotérmica que
se obtiene a través de la ecuación de compresibilidad sea igual a la que se obtiene a
partir de la definición termodinámica de compresibilidad isotérmica, en cuya definición
la presión se obtiene usando la función de distribución. Las relaciones de cerradura
análogas a la de RY se llaman cerraduras de consistencia termodinámica parcial. Otras
relaciones de cerradura, conocidas como cerraduras de referencia [30, 31], se obtienen
al separar el potencial por pares en una parte de referencia y en una perturbación. En
este trabajo comentaremos sobre algunos aspectos de la cerradura de referencia de HNC
(RHNC, por reference HNC)
(3.25)
cαβ = g (0) exp [∆γαβ − ∆uαβ ] − γαβ − 1.
3.1. Potenciales efectivos
21
Aquí γ = h − c, y el superíndice 0 denota cantidades del sistema de referencia y ∆uαβ
es la perturbación.
3.1.2.
Función de correlación directa efectiva
Consideremos un líquido coloidal consistente de p componentes que incluyen:
1. pm especies microscópicas –moléculas del solvente y iones en solución–, cuya microestructura identificaremos con cαβ y hαβ , α, β= 1, 2, ..., pm
2. pM especies mesoscópicas –coloides–, cuya mesoestructura identificaremos con cαβ
y hαβ , α, β= pm + 1, pm + 2, ..., p = pm + pM .
En el espacio de Fourier la ecuación matricial de OZ es:
H̃(k) = C̃(k) + C̃(k)RH̃(k),
(3.26)
donde la tilde representa la transformación de Fourier, H̃ = h̃αβ
Definamos los proyectores
(3.27)
(3.28)
p×p
y C̃ = (c̃αβ )p×p .
4
!
Pm =
1pm ×pm 0pm ×pM
0pM ×pm 0pM ×pM
!
PM =
0pm ×pm 0pm ×pM
0pM ×pm 1pM ×pM
,
.
La ecuación de OZ se puede reescribir como un conjunto de cuatro ecuaciones matriciales en las distintas categorías de componentes –micro o mesoscópicas– usando (3.27
y 3.28), esto es, proyectando OZ. La proyección significa la aplicación de la transformación de similaridad a OZ entre pares de proyectores. Así, por ejemplo, la proyección
de H̃ sobre Pm es H̃mm = Pm H̃Pm , mientras que entre Pm y PM es H̃mM = Pm H̃PM .
De esta manera, tenemos que
 H̃mm = Pm H̃Pm = 
h̃αβ
pm ×pm
0pM ×pm
0pm ×pM
0pM ×pM

H̃M M = PM H̃PM
0pm ×pm 0pm ×pM
=
0pM ×pm h̃αβ

,

,
pM ×pM

H̃mM = Pm H̃PM = 
4
0pm ×pm
h̃αβ

pm ×pM
0pM ×pm 0pM ×pM
,
A excepción de las matrices y/o operadores de proyección que se escribirán en cursivas, todas las
otras matrices se escribirán en negritas.
22
Capítulo 3. Marco teórico y conceptual
y

H̃M m
0pm ×pm
= PM H̃Pm =  h̃αβ
pM ×pm

0pm ×pM
,
0pM ×pM
con expresiones similares para C̃ y R̃.
Al aplicar todas las proyecciones posibles obtenemos que
(3.29)
H̃µν = C̃µν + C̃µm R̃mm H̃mν + C̃µM R̃M M H̃M ν ,
en donde µ, ν = m, M . Este conjunto de ecuaciones consiste de matrices p × p, por
bloques, que contienen solamente a las correlaciones indicadas por los subíndices.
La ecuación correspondiente a la meso-estructura
(3.30)
H̃M M = C̃M M + C̃M m R̃mm H̃mM + C̃M M R̃M M H̃M M ,
pone de manifiesto el hecho de que las correlaciones entre coloides se acoplan con las de
las moléculas. Sin embargo, al combinar esta ecuación con la ecuación correspondiente
a las correlaciones mM , podemos reescribirla como
(3.31)
f
ef f
H̃M M = C̃ef
M M + C̃M M R̃M M H̃M ,
donde el superíndice ef f significa que se trata de una cantidad efectiva. La matriz de
funciones de correlación directa efectivas está dada por
(3.32)
−1
f
C̃ef
Rmm C̃mM .
M M = C̃M M + C̃M m [1 − Rmm Cmm ]
La idea de función de correlación directa efectiva fue introducida, por primera vez
y en la forma ilustrada anteriormente, por Adelman en 1976 [18]. En ese trabajo se
estableció un marco teórico de funciones de correlación que describe las propiedades
termodinámicas de las soluciones iónicas, sin tomar en cuenta de forma explicita al
solvente. Los efectos del solvente se empaquetaron en la función de correlación directa
efectiva y en los potenciales efectivos entre iones debidos a la presencia del solvente.
Estas ideas recibieron un fundamento mecánico-estadístico gracias a los trabajos de
McMillan y Mayer [32].
Al proceso de eliminar variables en la descripción de un fenómeno o propiedad física
se le llama contracción, o reducción, de la descripción. De esta manera, la obtención
de la función de correlación directa efectiva en la forma ilustrada anteriormente es
una contracción de la descripción en el marco de la ecuación de OZ. A veces, cuando
se contrae la descripción de algunos grados de libertad de un sistema, se dice que se
integran dichos grados de libertad.
Otros tipos de contracciones existen en los cuales se implican jerarquías de niveles de
descripción. Ejemplos de este tipo de contracciones se presentan mucho en el estudio de
la dinámica de las suspensiones coloidales. El paradigma de este tipo de contracciones
se encuentra en el movimiento Browniano y un ejemplo es la teoría del la ecuación
generalizada de Langevin [43]. En general, en casi todas las áreas de la física aplicamos
3.1. Potenciales efectivos
23
contracciones de la descripción cuando aplicamos modelos matemáticos para describir
los procesos de la naturaleza.
En el ejemplo de contracción de la descripción para obtener la correlación directa efectiva dado anteriormente, resulta que la “ecuación efectiva” es idéntica a la ecuación
original. Esto podría establecerse como un ansatz, es decir, establecer la premisa de
que las ecuaciones de la física, en cantidades medibles directamente, son invariantes
bajo contracciones de la descripción. Sin embargo, hay que aclarar que para que esto
sea posible, las ecuaciones originales no deben contener ningún tipo de aproximación
inconsistente con su nivel de descripción. En efecto, la ecuación de OZ es una ecuación
exacta, la razón es que sólo es una definición para la propagación de las correlaciones
al nivel de pares de partículas. De esta manera, si planteamos una ecuación equivalente
a nivel de tercias –esto es, en funciones de correlación de 3 puntos o partículas– y aplicamos una aproximación –tipo Kirkwood, por ejemplo– para convertirla en una a nivel
de pares, la ecuación por pares aproximada no sería invariante bajo contracciones de la
descripción. Las palabras aquí vertidas tienen su origen después de unos cálculos que
realizamos con la intención de contraer la descripción en el segundo nivel en la jerarquía
BBGKY [10], usando aproximaciones de Kirkwood, y por otro lado, al reducir la descripción en la ecuación de memoria de las mezclas, en una formal similar a la ilustrada
aquí para la ecuación de OZ. En este segundo caso, la contracción debe aplicarse a la
ecuación de Langevin generalizada y reinterpretar al teorema de fluctuación disipación
en la descripción reducida, en una filosofía muy similar al trabajo de Medina-Noyola en
su reducción de la descripción de jerarquías de ecuaciones de Langevin [43, 92, 95, 91].
3.1.3.
Potenciales efectivos como una contracción de la
descripción
En la discusión anterior consideramos explícitamente a las correlaciones, con y del
solvente, de una dispersión coloidal. Esto simplemente fue a manera de ilustración
y para recordar los orígenes del concepto de correlación directa efectiva. Sin embargo,
como subrayamos anteriormente, aquí solamente nos enfocaremos en la mesoestructura,
almacenando los efectos microscópicos en el potencial por pares. La contracción de la
descripción en este trabajo se refiere a la integración de los grados de libertad de un
subconjunto de coloides de la dispersión que, por ejemplo, en un experimento podrían
ser unos coloides que no pueden ser observados, pero que sin embargo influyen en la
estructura de los coloides observados. Siguiendo esta terminología experimental, en lo
sucesivo las correlaciones contraídas se etiquetarán con una U (unobserved), mientras
que las correlaciones explícitas se etiquetarán con una O (observed).
Supongamos que existe un potencial efectivo entre los coloides observados, el cual conf
tiene los efectos de los no observados uef
αβ (r). Podemos generalizar la definición (3.21)
y establecer la definición de función puente efectiva, en términos del potencial efectivo,
y de la función de correlación directa efectiva
(3.33)
1 ef f
f
ef f
ef f
uαβ (r) = (gαβ (r) − 1) − cef
αβ (r) − ln [gαβ (r)] + bαβ (uαβ ; r).
kB T
24
Capítulo 3. Marco teórico y conceptual
Los subíndices corren sobre las especies de coloides observados. Identificaremos a los
coloides observados con los subíndices α, β = 1, 2, · · · , pO y a los no observados con
α, β = pO + 1, pO + 2, · · · , p = pO + pU . Notemos que las gαβ ’s son invariantes bajo las
ef f
contracciones de la descripción, es decir gαβ
= g αβ . Esto es porque la mesoestructura
de los coloides observados no depende del método experimental usado para obtener
dicha estructura
Definiendo la matriz de los potenciales efectivos
 f

Uef
OO (r) =
f
uef
αβ (r)
pO ×pO
0pU ×pO
0pO ×pU
0pU ×pU

,
el bloque de las g’s observadas

GOO (r) = 

(gαβ (r))pO ×pO 0p0 ×pU 
,
0pU ×pO
0pU ×pU
el de las b’s efectivas
 f

Bef
OO (r) =
ef f
f
bef
αβ (uαβ ; r)
pO ×pO
0pU ×pO
0p0 ×pU
0pU ×pU


y a la matriz de logaritmos de las g’s observadas


(ln [gαβ (r)])pO ×pO 0p0 ×pU 
G0OO (r) = 
0pU ×pO
0pU ×pU
podemos escribir
(3.34)
1
ef f
f
Uef f (r) = (GOO (r) − 1) − COO (r) − G0OO (r) + Bef
OO (UOO (r); r).
kB T OO
Además, originalmente teniamos que
(3.35)
1
U(r) = (G(r) − 1) − C(r) − G0 (r) + B(U(r), r).
kB T
Combinando estas ecuaciones se obtiene que
1 ef f
f
ef f
0
0
(G
UOO − U = (GOO − G) − Cef
−
C
−
(r)
−
G
(r))
+
B
−
B
.
OO
OO
OO
kB T
Proyectando está relación al bloque de las cantidades observadas obtenemos que
(3.36)
1 ef f
f
ef f
UOO − UOO = − Cef
−
C
+
B
−
B
.
OO
OO
OO
OO
kB T
3.2. Funciones de memoria
25
Esta expresión complementada con
−1
f
C̃ef
RU U C̃U O ,
OO − C̃OO = C̃OU [1 − RU U CU U ]
f
y con una aproximación para Bef
OO − BOO nos permite obtener el potencial efectivo. La
aproximación que usamos en este trabajo es
(3.37)
f
Bef
OO − BOO = 0.
El afirmar que las funciones puente son invariantes bajo contracciones de la descripción
es algo que parece no tener sentido. Sin embargo, estas aproximaciones han sido usadas
exitosamente por Méndez-Alcaraz y Castañeda-Priego en el contexto de las fuerzas
entrópicas [37].
Parece ser que Medina-Noyola y McQuarrie fueron los primeros autores que aplicaron
una contracción de la descripción, en el marco de la ecuación de OZ y con la meta
de obtener un potencial efectivo entre dos coloides [33]. No obstante, en ese trabajo
no hacen alusión explícita al concepto de correlación directa efectiva y al parecer el
esquema anterior lo aplicaron de forma implícita. Estos investigadores contrajeron la
descripción de los iones en un sistema de dos coloides. En su trabajo encontraron que el
potencial de Yukawa se obtiene automáticamente al considerar las expresiones de Debye
y Hückel para las funciones de correlación y usando MSA como relación de cerradura,
eliminando así las dudas que surgen al obtener dicho potencial con el método directo
de la ecuación de Poisson-Boltzmann, en donde a su vez, se hace la suposición crítica
de que el potencial de fuerza media es igual al potencial electrostático.
González-Mozuelos y Carbajal-Tinoco aplicaron este esquema de contracción de la descripción a sistemas de partículas cargadas [34]. Entre otros aspectos igualmente importantes, estos autores mostraron que en el límite de grandes distancias entre coloides, e
independientemente de la relación de cerradura empleada, que el potencial de Yukawa
siempre es una buena aproximación para la interacción entre pares de coloides. Por otro
lado, Méndez-Alcaraz y colaboradores han aplicado este esquema de contracción de la
descripción en el estudio de las fuerzas entrópicas, dentro de las cuales tenemos a las
fuerzas de vaciamiento [35, 36, 37]. Estos últimos autores muestran como el potencial
de Asakura y Oosawa se puede obtener de forma inmediata considerando MSA en una
dispersión infinitamente diluída de esferas duras. También en estos estudios se aprecia
que a densidades finitas –y mediante cálculos precisos que involucran RY– el potencial
monótono decreciente de Asakura y Oosawa se transforma en un potencial con oscilaciones que se extienden mas allá del diámetro de las esferas. Más adelante veremos que
en nuestro caso ocurre algo similar, cuando comparamos los resultados de HNC con los
que se obtienen directamente de BD.
3.2.
Funciones de memoria
Este estudio sobre los efectos de memoria en las fluctuaciones de la densidad local de
un sistema coloidal se basa en la ecuación de memoria de la función intermedia de
26
Capítulo 3. Marco teórico y conceptual
la dispersión. En gran parte este trabajo es de naturaleza numérica y de simulación.
Para hacer contacto con un esquema teórico, comparamos las funciones de memoria
puramente numéricas con las que se obtienen mediante una versión de la teoría de
modos acoplados. Por lo tanto, también presentamos una pequeña revisión de este
esquema teórico. Como los efectos de memoria en los sistemas coloidales es un tema
menos explorado que el de los potenciales efectivos, también hacemos mención a otros
desarrollos teóricos y modelos para los efectos de memoria, poniendo así en contexto la
relevancia de nuestro estudio.
3.2.1.
Variables dinámicas y correlaciones espacio-temporales
Consideremos
un punto en el espacio fase de un sistema compuesto de N coloides
{Ri , Pi }N
i=1 ≡ Γ. A medida que el sistema evoluciona en el tiempo Γ describe una
trayectoria en el espacio fase. La trayectoria esta gobernada por una ecuación de la
forma5
d
Γ = iOΓ, ⇒ Γ(t) = exp [iOt] Γ(0),
dt
en donde O = O(Γ) es el operador de evolución y a exp [iOt] se le conoce como el
propagador. El operador de evolución puede ser el operador de Liouville OL , o el de
Smoluchowski OS o bien el operador de Fokker-Planck OF P (Secc. 3.2.3). Se supondrá
que los operadores de evolución se pueden escribir de la forma O = −i∇Γ ·, en donde
∇Γ · es un operador de divergencia. Como los operadores de evolución OL , OS y OF P
son lineales, la variable dinámica a = a(Γ) tiene una evolución temporal formalmente
dada por
(3.38)
a(t) = exp [iOt] a(0).
Supongamos que el conjunto {ψi (ti )}∞
i=1 ≡ Lψ forma una base de un espacio de variables
dinámicas de dimensión infinita, al cual llamaremos el espacio de Liouville L6 . Cualquier
variable dinámica arbitraria a ∈ L tendrá una representación en la base Lψ . Sea ρ0 (Γ)
la densidad de probabilidad del espacio fase en equilibrio termodinámico. Además de
las operaciones lineales estándar, podemos definir las siguientes operaciones bilineales
entre dos variables dinámicas ai , aj ∈ L
5
Por el momento usaremos la representación imaginaria para los operadores de evolución. Con esta
notación, la obtención de las ecuaciones de movimiento formales para las variables dinámicas se
simplifica, al hacer analogías con los conceptos que encontramos en la mecánica cuántica. Sin
embargo, a partir de la sección 3.2.7 usaremos la notación en la que los operadores de evolución son
cantidades reales, ya que de esta manera la interpretación de las ecuaciones es mucho mas sencilla.
6
El espacio de Liouville es el conjunto de todas las variables dinámicas que pueden existir, ya sea
aquellas que hacen alusión explícita únicamente a las variables microscópicas, aquellas que se refieren únicamente a las variables mesoscópicas y aquellas de carácter mezclado microscópico y
mesoscópico.
3.2. Funciones de memoria
27
El producto escalar
ˆ
(3.39)
(ai (ti ) , aj (tj )) =
dΓa∗i (Γ (ti )) aj (Γ (tj ))
El producto escalar en el ensemble7
ˆ
(3.40)
hai (ti ) |aj (tj )i = dΓρ0 (Γ)a∗i (Γ (ti )) aj (Γ (tj )) .
El producto escalar en el ensemble define la función de correlación temporal
(3.41)
Cab (t, t0 ) = ha(t)|b(t0 )i .
Si las variables dinámicas en cuestión son locales en el espacio, esto es, si dependen de
la posición, entonces la función de correlación espacial-temporal se define como8
(3.42)
Cab (r, t, t0 ) = ha(r, t)|b(r, t0 )i .
Las variables dinámicas mesoscópicas que estudiaremos en este trabajo son las densidades numéricas locales parciales {nα (r, t)}, definidas en la ecuación (3.13), y sus
correspondientes componentes de Fourier {nα (k, t)}s por la ecuación (3.17). Dedicaremos la sección 3.2.6 para definir y explicar el significado de las funciones de correlación
espaciales temporales correspondientes a estas variables dinámicas.
3.2.2.
Operadores de proyección
En un líquido coloidal los grados de libertad microscópicos varían mucho más rápido
que los grados de libertad mesoscópicos (Secc. 2). Por lo tanto, la base del espacio
de Liouville puede separarse en dos subconjuntos, (i) el de la base de las variables
dinámicas puramente microscópicas {ψim (t)}∞
i=1 ≡ Lm , esto es, la base de las variables
dinámicas
de
naturaleza
puramente
rápida
y
(ii) el subconjunto complemento de Lm ,
n
o∞
M
ψi (t)
≡ LM el cual forma una base de las variables dinámicas de naturaleza
i=1
puramente lenta, de tal manera que L = Lm ⊕ LM . En las escalas de espacio y tiempo
7
En esta definición de producto escalar en el ensemble se hace uso deliverado de la notación familar
de la mecánica cuántica para el producto escalar entre bras y kets. Sin embargo, de la forma en
que estamos definiendo el producto escalar, ni el bra ni el ket adquieren significado por si mismos,
solamente hasta que se realiza su producto escalar, para lo cual el producto se pesa con la densidad
de probabilidad en equilibrio. La notación simplemente se mantiene para recordar que a la variable
del lado izquierdo en el producto se le debe tomar su complejo conjugado, o en su caso, su matriz
adjunta.
8
Recordemos que estamos asumiendo la homogeneidad en el espacio, por ello solamente tenemos
dependencia espacial en una sola variable r. En equilibrio termodinámico también el tiempo es
homogéneo y Cab (t, t0 ) = Cab (t> − t< ) = Cab (τ ) en donde t> (t< ) es el mayor (menor) entre t y t0 .
En la sección 3.2.4 explicaremos esto con amplio detalle.
28
Capítulo 3. Marco teórico y conceptual
mesoscópicas la base Lm esta decorrelacionada de la base LM , esto es, que para todo
par i, j:
D
(3.43)
E
ψim (t)|ψjM (t0 ) = 0,
en escalas de tiempo mesoscópicas.
Además, por hipótesis
(3.44)
D
E
en escalas de tiempo microscópicas,
(3.45)
D
E
en escalas de tiempo mesoscópicas.
ψim (t)|ψjm (t0 ) = δij ζ mm (t, t0 )
ψiM (t)|ψjM (t0 ) = δij ζ M M (t, t0 )
En general, una variable dinámica arbitraria X tendrá componentes de variación lenta,
así como componentes de variación rápida. Zwanzig [46] y Mori [47] introdujeron un
esquema matemático llamado operadores de proyección. Con este formalismo podemos
escribir expresiones exactas –y por lo tanto formales– que nos permiten identificar
explícitamente las partes de la evolución de una variable dinámica que, por un lado,
están determinadas por las variables rápidas y, por otro lado, a aquellas partes que están
determinadas por las variables lentas –este formalismo es una extensión del concepto
de proyectores en un espacio de Hilbert de la mecánica cuántica al caso del espacio de
Liouville [52, 22].
El operador de proyección sobre la variable dinámica a se define como el operador de
producto escalar en el ensemble
(3.46)
Pa =
ha| · · · i
a,
ha|ai
y su acción sobre otra variable dinámica arbitraria X es
(3.47)
Pa [X] =
ha|Xi
a.
ha|ai
El operador
(3.48)
Q a = 1 − Pa ,
extrae la componente de la variable arbitraria Qa X, que es ortogonal a Pa X. Aquí estudiaremos el conjunto de variables dinámicas de un sistema coloidal de p componentes
n(k, t) = {nα (k, t)}pα=1 . Por lo tanto, usaremos proyectores de la forma
P = hn(k, 0)| · · · i S(k)−1 n(k, 0),
cuya acción es la de proyectar a una variable dinámica arbitraria sobre las fluctuaciones
de la densidad. En esta expresión se han usado las definiciones de la sección 3.1.1.3.
La transformación de Fourier-Laplace del propagador9 es
(3.49)
9
L {exp [iOt]} (z) =
1
1
=
.
z − iO
z − i(P + Q)O
L {exp [iOt]} (z) recibe el nombre de resolvente. El resolvente es la función de Green del operador
de evolución.
3.2. Funciones de memoria
29
En donde P proyecta sobre una variable arbitraria y Q proyecta sobre el espacio complementario, esto es, P + Q = 1. Usando la identidad en operadores
(3.50)
1
1
1
1
− = (B − A) ,
A B
A
B
con A = z − i(P + Q)O y B = z − iQO obtenemos que
(3.51)
L {exp [iOt]} (z) =
1
1
1
+
iP O
,
z − iQO z − iO
z − iQO
y haciendo la transformación inversa obtenemos la siguiente identidad
ˆ t
exp [iO(t − t0 )] iP O exp [iQOt0 ] .
(3.52)
exp [iOt] = exp [iQOt] +
0
Esta identidad se usa mucho en el estudio de los procesos de relajación en sistemas
disipativos. Su utilidad radica en el hecho de que si P proyecta sobre grados de libertad
lentos entonces separa a la evolución de naturaleza microscópica –el primer término del
lado derecho– del resto. El segundo término en (3.52) incluye a la evolución de naturaleza mesoscópica y su acoplamiento temporal con la dinámica microscópica. Veremos
más adelante que de éste término surge el efecto de memoria.
3.2.3.
Movimiento browniano
Un concepto básico en la descripción de las propiedades dependientes del tiempo de
las dispersiones coloidales en, o fuera de equilibrio, es el movimiento browniano. El
movimiento browniano es la manifestación de la granularidad de la materia y resulta del
golpeteo incesante de las moléculas que constituyen al solvente donde se suspenden las
partículas brownianas –en un líquido coloidal, los coloides son partículas brownianas–.
En efecto, el movimiento browniano es una de las piedras angulares en la descripción
de las propiedades de la materia blanda. Dos artículos de revisión al respecto son
[38, 39]. Antes de introducir las ecuaciones de movimiento de una partícula browniana,
introduciremos a priori la definición de escalas de tiempo.
Cualquier aparato que usemos para observar el movimiento de un coloide tendrá una
resolución temporal específica. Esto significa que seremos capaces de obtener las posiciones de los coloides solamente entre intervalos de tiempo específicos. El grado de
“granularidad” del tiempo en la observación dependerá del aparato o experimento que
se ejecute para realizar la medición y ello, a su vez, estará en función de las características del movimiento que nos interese estudiar. Por ejemplo, si partiendo de una
configuración inicial, nos interesa cómo se moverán inmediatamente después los coloides
necesitaremos analizar la dispersión de neutrones del sistema. Si por el contrario, nos
interesa el comportamiento a tiempos intermedios, analizaríamos la dispersión de rayos
X, o bien de luz. Finalmente, si nos interesa saber como se mueven en intervalos de tiempo del orden de milisegundos –que para algunos líquidos coloidales se pueden considerar
como intervalos de tiempo grandes– podemos usar la técnica de vídeo-microscopía.
30
Capítulo 3. Marco teórico y conceptual
Inherente en los comentarios anteriores está la noción de escalas de tiempo [11, 3]. En
la descripción de las partículas brownianas existen al menos cinco escalas de tiempo
que debemos tener muy en cuenta. Estas escalas son:
1. El intervalo de tiempo que le toma a las moléculas de solvente relajar sus posiciones –es decir el intervalo de tiempo promedio entre colisiones de las moléculas–.
A esta escala la denotaremos como τsolvente . Las mediciones de la velocidad del
sonido revelan que τsolvente ≈ 10−14 s. En la escala τsolvente la velocidad del centro
de masa (c.m.) de los coloides es nula.
2. El periodo de tiempo durante el cual los coloides “ven” al solvente como un fluido
estacionario de Navier-Stokes, y durante el cual el momento de su c.m. cambia
infinitesimalmente, se denomina escala de tiempo de Fokker-Planck. La escala
de tiempo de Fokker-Planck se denotará como τF P . Entonces es necesario que
τF P τsolvente 10 .
3. Al periodo de tiempo que le toma a un coloide relajar la velocidad de su c.m. le
llamaremos escala de tiempo de relajación de la partícula browniana y la denotaremos como τB . Tenemos que τB τF P τsolvente .
4. El intervalo de tiempo durante el cual la posición del c.m. de un coloide cambia
infinitesimalmente se llama escala de tiempo de Smoluchowski –o escala de tiempo
difusiva– y lo denotaremos como τS . Tenemos que τS τB τF P τsolvente .
5. El intervalo de tiempo que le toma a la mesoestructura relajarse –aproximadamente
el tiempo que le toma a la partícula desplazarse una distancia comparable a su
tamaño– se le denomina escala de tiempo de relajación estructural y aquí le denotaremos como τe –en la interpretación de Pusey [48] τe es el tiempo necesario
para que el coloide salga de la caja de sus vecinos cercanos–. Una escala de tiempo
relacionada es la escala de tiempo de interacción. La escala de tiempo de interacción es el intervalo de tiempo necesario para que un coloide salte entre varios
valles de su paisaje de energía [3] –esto es, la escala de tiempo en la que la partícula presenta un “movimiento” difusivo en su paisaje de energía–. Tenemos que
τe τS τB τF P τsolvente .
Las teorías que describen la dinámica en las escalas de tiempo τ , τe ' τ τsolvente ,
reciben el nombre de dinámicas disipativas. La descripción más detallada –aquella en
escalas τ τsolvente – es la mecánica clásica. Cuando los detalles microscópicos son irrelevantes, conviene usar las dinámicas disipativas. Si nos interesa describir con detalle la
dinámica de los momentos y las posiciones de los coloides, sin considerar explícitamente
los detalles microscópicos, entonces necesitaremos una descripción válida en escalas de
tiempo τF P . Por otra parte, si lo que nos interesa es describir el proceso de relajación
10
Hemos de subrayar que la dinámica de Fokker-Planck tiene el problema serio de que en muchas
situaciones τF P ≈ τsolvente , lo cual significa que las velocidades de los coloides no están completamente desacopladas de las velocidades de las moléculas. Esto implica que en general los coloides
ven a un fluido complejo no estacionario. Esto recala en el hecho, de que los tensores de fricción
se vuelvan cantidades dependientes del tiempo (ver comentarios mas adelante) y por lo tanto la
dinámica de Fokker-Planck adquiere mayor grado de complejidad.
3.2. Funciones de memoria
31
de las posiciones de los coloides, sin tomar en cuenta explícitamente los detalles microscópicos y la evolución de los momentos de los coloides, entonces necesitaremos una
descripción válida en escalas de tiempo τS .
La dinámica en escalas de tiempo τF P se denomina dinámica de Fokker-Planck. La dinámica de Fokker-Planck comprende a dos ecuaciones, una que gobierna la evolución de
las posiciones y momentos de los coloides, y otra que gobierna la evolución de la densidad de probabilidad de espacio fase de los coloides. A la ecuación para las coordenadas
y momentos de los coloides se le llama ecuación de Langevin [42]. A la ecuación para la
densidad de probabilidad de espacio fase se le llama ecuación de Fokker-Planck [42, 44]
–el término Fokker-Planck se aplica a cualquier ecuación de balance de probabilidad.
La dinámica en escalas de tiempo τS se denomina dinámica de Smoluchowski. La dinámica de Smoluchowski comprende a dos ecuaciones, una que gobierna la evolución
de las posiciones de los coloides, y otra que gobierna la evolución de la densidad de
probabilidad del espacio de configuraciones de los coloides. A la ecuación para las coordenadas se le llama ecuación de Langevin posicional o sobre-amortiguada [11]. A la
ecuación para la densidad de probabilidad del espacio configuracional se le llama ecuación de Smoluchowski [14]. Antes de proporcionar las ecuaciones de movimiento en
el caso general, revisaremos rápidamente el movimiento browniano de una dispersión
coloidal consistente únicamente de un coloide.
El desplazamiento cuadrático medio (m.s.d. por su nombre en inglés) es la cantidad
fundamental que caracteriza al movimiento browniano. En 1905 Einstein obtuvo una
expresión para el m.s.d. de una partícula libre. Posteriormente, Perrin en una serie de
experimentos notables y usando la expresión de Einstein para el m.s.d. determinó el
número de Avogadro, confirmando así la naturaleza molecular de la materia –en parte
por estos trabajos Einstein 11 y Perrin12 recibieron el premio Nóbel en 1921 y 1926,
respectivamente.
La ecuación de Langevin
ζ
d
P = − P + Fa (t),
dt
M
describe el movimiento de una partícula browniana. Aquí P es el momento de la partícula browniana cuya masa es M . La cantidad ζ es el coeficiente de fricción del solvente y
Fa es la fuerza neta aleatoria e instantánea que las moléculas ejercen sobre la partícula
browniana. El término de arrastre en la ecuación de Langevin es el término sistemático.
El término aleatorio posee las siguientes propiedades:
(3.53)
(3.54)
hFa (t)i = 0,
(3.55)
hFa (t)|Fa (t0 )i = 2kB T ζδ(t − t0 )1.
11
http://nobelprize.org/nobel_prizes/physics/laureates/1921/einstein-lecture.html
12
http://nobelprize.org/nobel_prizes/physics/laureates/1926/perrin-lecture.html
32
Capítulo 3. Marco teórico y conceptual
En estas expresiones los corchetes denotan un promedio en el ensemble y, en las lineas
de los comentarios previos, un intervalo de tiempo igual a cero significa que es un
intervalo de tiempo pequeño, pero mas grande que τsolvente . La ecuación de Langevin
tiene sentido solamente cuando se aclaran las propiedades estadísticas de Fa y lo único
que podemos calcular a partir de ella son promedios.
La ecuación de Langevin define un proceso estocástico {Pi } conocido como proceso de
Orstein-Uhlenbeck [40]. La ecuación (3.55) recibe el nombre de teorema de fluctuacióndisipación. El teorema de fluctuación-disipación es un enunciado de la conservación de
la energía y nos dice que la energía que el coloide disipa al moverse bajo el arrastre
del solvente, se transmite al solvente y se manifiesta como la fuerza fluctuante que
el mismo solvente ejerce sobre el coloide en lo que constituye un tipo de proceso de
retroalimentación.
En el caso general de un liquido de N coloides cuyas coordenadas y momentos son
{Ri , Pi }N
i=1 ≡ Γ tenemos para la dinámica de Fokker-Planck,
(3.56)
N
X
ζ ij
d
s
Pi = Fi (t) −
Pj + Fai (t),
dt
j=1 Mi
(3.57)
hFai (t)i = 0,
D
E
Fai (t)|Faj (t0 ) = 2kB T δ(t − t0 )ζ ij
(3.58)
y
d
ρF P (Γ(t)) = −iOF P (Γ(t))ρF P (Γ(t))
dt
(3.59)
con

!
N
X
1 Pj 
P
 i · ∇R + Fs · ∇P + kB T
∇Pi · ζ ij · ∇Pj +
(3.60) OF P (Γ) = −i
i
i
i
kB T Mj
j=1
i=1 Mi
N
X
En estas ecuaciones Fsi es la fuerza sistemática que experimenta el coloide i debido a
su interacción directa con los demás coloides y con los campos externos, cada término
ζ ij pj /Mj es la fuerza de arrastre hidrodinámico que la partícula i experimenta en el
flujo estacionario producido por la partícula j, considerando que las demás partículas
permanecen quietas, Fai representa a la fuerza aleatoria fluctuante sobre la partícula i
y ρF P (Γ(t)) es la densidad de probabilidad de espacio fase de los coloides.
En cuanto a la dinámica de Smoluchowski tenemos [45, 14, 3], con {Ri }N
i=1 ≡ ΓR :
(3.61)
N
X
d
Ri =
µij · Fsj + Via + kB T ∇Rj · µij ,
dt
j=1
(3.62)
hVia (t)i = 0,
3.2. Funciones de memoria
(3.63)
33
D
E
Via (t)|Vja (t0 ) = 2kB T δ(t − t0 )µij
y
(3.64)
d
ρS (ΓR (t)) = −iOS (ΓR (t))ρS (ΓR (t))
dt
con
(3.65)
OS (ΓR ) = −ikB T
N
X
i=1

∇Ri · 
N
X
µij · ∇Rj
j=1

1 s
F (· · · )
−
kB T j
En estas ecuaciones Fsi es la fuerza sistemática que experimenta el coloide, las matrices
µij son los tensores de movilidad, Via es una velocidad aleatoria y ρS (ΓR (t)) es la
densidad de probabilidad del espacio de configuraciones de los coloides.
Las ecuaciones (3.59 y 3.64) son las ecuaciones de Fokker-Planck y de Smoluchowski,
respectivamente. Sus soluciones, dadas las condiciones iniciales
(3.66)
ρF P,S (Γ(t)) |t=t0 = ρF P,S (Γ(t0 )) ,
se denotarán, por brevedad, simplemente como
(3.67)
ρF P,S (Γ(t0 + t)) ,
es decir, simplemente agregaremos una constante t0 al argumento temporal para recordar que todo parte de una condición inicial13 . La solución estacionaria de las ecuaciones de de Fokker-Planck y de Smoluchowski, esto es, aquella solución para la cual
∂t ρF P,S = 0, es la densidad de probabilidad de Boltzmann a la cual denotaremos como
ρ0 . Cualquier sistema sujeto a una perturbación, inducida o espontánea, presentará una
densidad de probabilidad ρF P,S 6= ρ0 . Sin embargo, con el correr del tiempo ρF P,S → ρ0
en todos los sistemas ergódicos.
En las dinámicas de Fokker-Planck y de Smoluchowski, las matrices ζ ij y µij con i 6= j
describen la fuerza sistemática que los coloides ejercen entre sí, y que se transmite a través del solvente –en un efecto parecido al impulso que transmitimos a una araña al tocar
su red–. A este tipo de interacciones se les conoce como interacciones hidrodinámicas.
Cuando las interacciones hidrodinámicas son ínfimas, las matrices de fricción y de movilidad se pueden considerar como matrices diagonales. Las interacciones hidrodinámicas
aumentan su relevancia entre mas coloides haya en el sistema, esto es, que se pueden
despreciar únicamente en sistemas muy diluidos. En algunos sistemas de partículas cargadas, las interacciones directas pueden opacar a las interacciones hidrodinámicas. A
menudo, en el estudio de los sistemas de partículas de Yukawa, si la longitud de DebyeHückel λD es mayor que o del orden de la distancia promedio entre partículas d, las
13
En lo sucesivo esta notación se hará extensiva a cualquier función que dependa del tiempo. Por
comodidad se suele usar t0 = 0 en todos los textos, pero aquí lo mantendremos simplemente para
recordar que todas las cantidades físicas están sujetas a condiciones iniciales, y en consecuencia, a
promedios condicionales.
34
Capítulo 3. Marco teórico y conceptual
interacciones hidrodinámicas suelen ser despreciadas con muy buenos resultados. En el
pie de página 10 hacemos notar el hecho de que los tensores de fricción en general son
cantidades dependientes del tiempo. Esto introduce problemas adicionales a la dinámica de Fokker-Planck. La dinámica de Smoluchowski no presenta ese problema porque
τS τF P . Adicionalmente, el problema de introducir interacciones hidrodinámicas “estacionarias” es un tema muy complejo que, de hecho, es un tema de investigación actual.
En este trabajo empleamos el caso “muy simple” de la dinámica de Smoluchowski sin
interacciones hidrodinámicas.
La ecuación de Langevin en los momentos se puede obtener a partir de la dinámica de
Liouville, proyectando iOL P sobre el espacio de las variables lentas y luego usando la
identidad para el operador de evolución (3.52). De esta manera se obtiene una expresión
formal exacta para la evolución de los momentos. Posteriormente, se usa el hecho de que
la masa molecular es mucho más pequeña que la masa de un coloide [42, 49]. La ecuación de Fokker-Planck se puede derivar de varias formas. La derivación de la ecuación
para una partícula la hicieron Lebowitz y Rubin partiendo de la ecuación de Liouville
[50]. Deutch y Oppenheim derivaron la ecuación de muchas partículas partiendo de la
ecuación de Langevin [42]. Murphy y Aguirre la derivaron partiendo directamente de
la ecuación de Liouville [44]. Una derivación más madura fue proporcionada por van
Kampen y Oppenheim usando la técnica de eliminación de variables rápidas [51].
La dinámica de Smoluchowski se puede derivar de la dinámica de Fokker-Planck, asumiendo que las partículas coloidales se mueven una distancia muy pequeña comparada
con su tamaño durante el proceso de relajación de su velocidad. Sin embargo, todas las
aproximaciones que se hacen sucesivamente desde Liouville para llegar a Smoluchowski dejan lugar a dudas sobre la validez de la ecuación de Smoluchowski. Roux derivó
la ecuación de Smoluchowski usando principios de hidrodinámica molecular, una ruta
completamente independiente al camino Liouville-(Fokker-Planck)-Smoluchowski, mostrando que la ecuación de Smoluchowski es perfectamente general [14]. En la referencia
[1] mostramos una derivación heurística simple de las ecuaciones de Fokker-Planck y de
Smoluchowski en las lineas del libro de Dhont [3].
Cada una de las ecuaciones (3.53, 3.56, 3.61) con (3.54, 3.57, 3.62) y (3.55, 3.58, 3.63),
definen una serie de procesos estocásticos {P(tµ )} ≡ P µ , {Pi (tµ )} ≡ Piµ y {Ri (tµ )} ≡
Riµ que reciben el nombre de cadenas de Markov14 . Una cadena de Markov es un proceso
estocástico discreto cuyos valores en cada estado depende solamente del estado mismo
y no de los estados previos, esto es, que en nuestro caso P µ = P µ (P µ , ζ, M ), Piµ =
Piµ (Piµ , ζij (P µ ), Mi ) y Riµ = Riµ (Riµ , µij (Riµ )). Existe otra clase de procesos estocásticos
cuyo valor en un estado depende de los valores previos a dicho estado. A esta clase de
procesos se les llama procesos estocásticos con memoria.
En general, los procesos P µ , Piµ y Riµ son procesos estocásticos con memoria. En efecto,
Lorentz [39] observó que una forma más apropiada de la ecuación de Langevin de una
14
En honor al matemático ruso Andrey Andreyevich Markov, quien trabajó en la teoría matemática
de estos procesos estocásticos.
3.2. Funciones de memoria
35
partícula es
(3.68)
d
P=−
dt
ˆ
0
t
ζ(t − t0 )
P(t0 )dt0 + Fa (t),
M
con
(3.69)
hFa (t)i = 0,
(3.70)
hFa (t)|Fa (t0 )i = 2kB T ζ(t − t0 )1.
Los momentos de las partículas brownianas son procesos estocásticos con memoria
porque –como mencionamos previamente– la escala τF P no está completamente desacoplada de las escalas de tiempo características del solvente [11]. Las posiciones no son
Markovianas por (i) el acoplamiento de las velocidades de las partículas brownianas
con el campo de velocidad del solvente (interacciones hidrodinámicas) y, más frecuentemente, por (ii) las interacciones directas entre las partículas brownianas – por ejemplo
DLVO, dipolar, si son partículas paramagnéticas, etcétera–. Por otro lado, la inclusión
de campos externos también influye en la dinámica de las partículas.
Finamente, subrayemos las condiciones de validez de las ecuaciones (3.68 y 3.53). Para
ello denotamos con una m a la masa molecular y con una nm a la densidad volumétrica
de la masa de las moléculas, mientras que con una nM a la densidad de masa del coloide
cuya masa es M . La ecuación (3.68) es válida cuando (m/M )1/2 1 y nm /nM . 1,
mientras que (3.53) es válida solamente si (m/M )1/2 1 y nm /nM 1 , [39].
3.2.4.
Funciones de autocorrelación en la dinámica de
Smoluchowski
Los operadores de evolución presentan propiedades distintas actuando en los productos escalares (3.39 y 3.40). En particular, el operador de Liouville OL = −i∇Γ =
−i {· · · , H} es Hermitiano, tanto en el producto escalar como en el producto escalar
en el ensemble. Aquí {· · · } es el corchete de Poisson y H es el Hamiltoniano. Una
consecuencia de la hermiticidad de OL es que la dinámica de Liouville es reversible o
simétrica bajo inversiones en el tiempo. Por otra parte, los operadores de evolución de
las dinámicas disipativas, OF P y OS , no son Hermitianos –por lo que, su propagador
asociado no es unitario– una característica que va de la mano con el hecho de que estas
dinámicas son irreversibles. De hecho, las densidades de probabilidad dependientes del
tiempo tienden irreversiblemente a la distribución estacionaria de equilibrio.
En principio, dado el operador de evolución en la dinámica de Liouville, podemos calcular cualquier promedio en el ensemble, ya que para cualquier variable dinámica podemos
emplear la equivalencia
36
Capítulo 3. Marco teórico y conceptual
(3.71)
ˆ
ha (Γ (t0 + t))i =
ˆ
dΓρ0 (Γ (t0 + t)) a (Γ (t0 )) =
dΓρ0 (Γ (t0 )) exp [iOL t] a (Γ (t0 )) ,
la cual nos permite calcular el promedio sin necesidad de realizar el trabajo complejo de
resolver la dependencia temporal en equilibrio de la densidad de probabilidad, dado que
se conoce la condición inicial de la variable dinámica y de la densidad de probabilidad en
equilibrio. Esto a través de la segunda igualdad, la cual nos dice que el valor promedio
de a en el instante t0 + t es el promedio condicional de que a esté en el estado Γ en
el instante t0 + t dado que estaba en el mismo estado en el instante inicial. Como el
propagador de Liouville exp [iOL t] es unitario
ˆ
ˆ
dΓρ0 (Γ (t0 )) exp [iOL t] a (Γ (t0 )) = dΓa (Γ (t0 )) exp [−iOL (t)] ρ0 (Γ (t0 )) ,
esto es que
ˆ
ˆ
dΓa (Γ (t0 )) exp [−iOL t] ρ0 (Γ (t0 )) ,
dΓa (Γ (t0 )) ρ0 (Γ (t0 + t)) =
y por lo tanto, en la dinámica de Liouville se cumple la ecuación de continuidad
d
ρ0 (Γ(t + t0 )) + iOL ρ0 (Γ(t + t0 )) = 0.
dt
Lo mismo aplica para las funciones de correlación en la dinámica de Liouville: Dado
que el operador de Liouville es hermítico, podemos calcular las funciones de correlación
espacio temporales sin necesidad de calcular la dependencia temporal de la densidad
de probabilidad.
Ahora consideremos la dinámica de Smoluchowski [11]. Debido a que el operador de
Smoluchowski no es adjunto con respecto al promedio en el ensemble, no podemos usar
una equivalencia similar a (3.71) para evadir el cálculo de la dependencia temporal de
la densidad de probabilidad. Existe una ruta para dar vuelta a esta dificultad, la cual
consiste en usar el operador adjunto a OS con respecto al producto escalar
(3.72)
(OB b, a) = (b, OS a) .
Con una integración por partes obtenemos que
(3.73)
OB (ΓR ) = −ikB T
N X
∇Ri
i,j=1
1 s
F · µij · ∇Rj .
−
kB T i
El operador OB recibe el nombre de operador de Smoluchowski de retroceso y el subíndice B es por la palabra “backward”. Mediante un argumento similar al que nos llevó
a la ecuación de continuidad en la dinámica de Liouville y considerando que b = ρS
podemos ver que la acción de OB sobre la probabilidad condicional es
(3.74)
d
ρS (ΓR (t + t0 )) = −iOB (ΓR0 (t0 + t0 )) ρS (ΓR (t + t0 )) ,
dt
3.2. Funciones de memoria
37
y en ello estriba el nombre de operador en retroceso. Note que esta es una ecuación de
continuidad como la de la dinámica de Liouville. En este caso la divergencia la proporciona el operador de retroceso, esto es, que el operador de retroceso es autoadjunto con
respecto al producto escalar en el ensemble.
En términos del operador en retroceso, las funciones de correlación espacio temporales
en la escala τS se pueden escribir como
(3.75)
Cab (r, t, t0 ) = ha(r, t)| exp [iOB t0 ] b(r, 0)i ,
esto es, que la evolución de las variables dinámicas, semejante al caso de Liouville, está
dada por
(3.76)
a (Γ (t0 + t)) = exp [iOB t] a (Γ (t0 )) .
Finalizamos esta sección mencionando unas propiedades muy importantes de las funciones de autocorrelación en la dinámica de Smoluchowski para sistemas en equilibrio.
Primero hablaremos sobre la propiedad de homogeneidad en el tiempo del promedio en
el ensemble de equilibrio. A esta propiedad se le conoce como estacionaridad. En equilibrio la estacionaridad se cumple independientemente de la dinámica que utilicemos
para describir al sistema. La estacionaridad la podemos observar de dos formas en la
igualdad
ˆ
ˆ
dΓ [exp [iOt] ρ0 (Γ(t0 ))] a (Γ (t0 )) = dΓρ0 (Γ (t0 )) exp [iOt] a (Γ (t0 )) .
Consideremos primero el lado derecho. La ecuación de continuidad nos permite interpretar ρ0 como una función de campo a la que podemos visualizar como un fluido en
el espacio fase, o de configuraciones. Dicho fluido es estacionario e incompresible. La
condición inicial Γ (t0 ), ubica a la función de campo en un punto dentro del volumen del
fluido cuya forma es fija y cuyo volumen es Vρ0 . El propagador exp [iOt] traslada a este
punto formando una trayectoria gobernada por el operador de evolución. La trayectoria
siempre estará contenida dentro de Vρ0 .
Por otra parte, la variable dinámica está evaluada en la condición inicial y es una constante. Entonces el producto [exp [iOt] ρ0 (Γ(t0 ))] a (Γ (t0 )) se puede interpretar como
otra función de campo definida sobre el mismo volumen fluido incompresible Vρ0 . Con el
avance del tiempo [exp [iOt] ρ0 (Γ(t0 ))] a (Γ (t0 )) también recorrerá el volumen Vρ0 . La integral se realiza sobre Vρ0 . Entonces, como la trayectoria de [exp [iOt] ρ0 (Γ(t0 ))] a (Γ (t0 ))
solamente puede residir dentro del volumen, vemos que la integral no debe depender de
la condición inicial porque al final todos los puntos permisibles serán accedidos por la
integral y la condición inicial debe estar de acuerdo con las condiciones termodinámicas,
las cuales a su vez definen Vρ0 .
Consideremos el lado derecho. En este caso tenemos al campo estacionario ρ0 multiplicando al campo escalar exp [iOt] a (Γ (t0 )) con valores variables en el tiempo, pero
38
Capítulo 3. Marco teórico y conceptual
también definido siempre sobre Vρ0 . Por lo mismo, la integral no debe depender de Γ0 .
Si el sistema no estuviera en equilibrio, estas consideraciones no podrían hacerse, ya
que en ese caso Vρ0 no tiene ni forma, ni volumen constante y la integral dependerá de
la condición inicial. Los comentarios anteriores nos permiten escribir ver que
ha (Γ (t0 + t))i = ha (Γ (t))i
(3.77)
Además, como Oρ0 = 0, vemos directamente que
ˆ
ˆ
(3.78)
dΓ [exp [iOt] ρ0 (Γ(0))] a (Γ (0)) = dΓρ0 (Γ) a (Γ) = ha (Γ)i = Constante.
Empleando el mismo razonamiento de los dos párrafos anteriores tenemos que
ˆ
0
Cab (t , t) =
dΓρ0 (Γ (t0 )) a (Γ (t0 )) exp [iOt] b(0)
ˆ
o
0
Cab (t , t) =
dΓ exp [iO (t0 − t0 )] {ρ0 (Γ (t0 )) a (Γ (t0 ))} exp [iOt] b(0)
no debe depender de t0 , así que consideraremos arbitrariamente que t0 = 0
ˆ
Cab (0, t) = dΓ exp [−iOt0 ] {ρ0 (Γ (t0 )) a (Γ (t0 ))} exp [iO (t − t0 )] b(t0 ),
y si O es autoadjunto obtenemos que
ˆ
(3.79)
Cab (0, t) = dΓρ0 (Γ (t0 )) a (Γ (t0 )) exp [iOL t] b(t0 ) = Cab (t0 , t0 + t).
Este es el enunciado matemático de la condición de estacionaridad u homogeneidad en
el tiempo (pie de página 8).
La propiedad de estacionaridad implica que
Caa (−t) = ha(r, 0)|a(r, −t)i = ha(r, t)|a(r, 0)i
y tomando el complejo conjugado obtenemos que
(3.80)
(Caa (−t))∗ = Caa (t)
lo cual significa que las funciones de autocorrelación son funciones reales y pares en el
tiempo. Por otro lado, la desigualdad de Schwarz nos dice que que
|R ha(r, 0)|b(r, t)i| ≤ (ha(r, 0)|a(r, t)i hb(r, 0)|b(r, t)i)1/2
esto es,
(3.81)
|Caa (t)| ≤ Caa (0).
3.2. Funciones de memoria
39
Las funciones de autocorrelación están acotadas por su valor inicial. Mediante una
expansión de la densidad de probabilidad en funciones propias de OS y OB se puede
ver que las funciones de autocorrelación en la dinámica de Smoluchowski
son monótonas decrecientes [11]. Por lo tanto, las funciones de autocorrelación
describen el decaimiento con el tiempo de las fluctuaciones de las variables dinámicas.
La propiedad de simetría bajo traslaciones en el tiempo (3.79) es independiente de la
dinámica y se aplica a todos los sistemas en equilibrio. Sin embargo, la propiedad de
simetría bajo inversiones en el tiempo es un tanto más delicada. El problema surge
cuando se trata de interpretar un tiempo negativo en las funciones de autocorrelación
cuando sabemos que las mismas describen el decaimiento de las fluctuaciones desde la
condición inicial. La irreversibilidad de los sistemas de muchas partículas implica que las
funciones de autocorrelación solamente pueden estar definidas para tiempos positivos,
esto es, que en general serán irregulares en t = 0. La propiedad enunciada en el párrafo
anterior sobre la monotonicidad en el decaimiento de las funciones de autocorrelación es
exclusiva de la dinámica de Smoluchowski. La otras dinámicas aceptan comportamientos
acotados pero, que en general, no son monótonos.
3.2.5.
Ecuación de Langevin generalizada
En general, el operador de evolución O tendrá la siguiente forma
O = Om + OM + OmM ,
en donde Om,M y mM contienen las reglas de evolución concernientes a lo microscópico, a lo mesoscópico y al acoplamiento micro-mesoscópico, respectivamente. Sea P un
operador que proyecta sobre alguna variable dinámica arbitraria X y Q el operador
complemento de P en el espacio de Liouville, esto es, que P + Q = 1. La identidad
(3.52) actuando sobre una variable dinámica arbitraria a
ˆ t
a(t) = exp [iQOt] a(0) +
exp [iO(t − t0 )] iP O exp [iQOt0 ] a(0)dt0 ,
0
nos dice que la evolución temporal de a consiste de dos partes. La primera, correspondiente al primer término del lado derecho, proviene de los grados de libertad microscópicos y del acoplamiento con los mesoscópicos. La segunda, que corresponde al
segundo término del lado derecho, proviene de los grados de libertad mesoscópicos y
del acoplamiento con los microscópicos. Ahora veamos cómo evoluciona la ecuación de
movimiento de la variable dinámica.
Notemos que
d
a(t) = exp [iOt] iOa(0) = exp [iOt] P (iOa(0)) + exp [iOt] Q (iOa(0))
dt
y empleando (3.52) para el segundo término del lado derecho
ˆ t
exp [iOt] Q (iOa(0)) = f (t) +
dt0 exp [iO(t − t0 )] iP O exp [iQOt0 ] Q (iOa(0)) ,
0
40
Capítulo 3. Marco teórico y conceptual
en donde se ha usado la notación
f (t) = exp [iQOt] Q (iOa(0)) .
(3.82)
El término que contiene la integral puede reescribirse identificando que
iP O exp [iQOt0 ] Q (iOa(0)) = iP Of (t0 ) = iP OQf (t0 ) =
1
hX|iOQf (t0 )i X
hX|Xi
y como Q es un operador hermítico, y si además O lo es, entonces
hX|iOQf (t0 )i = − hQ (iOX) |f (t0 )i ,
y podemos escribir
ˆ t
ˆ t
0
0
0
0
0 hQ(iOX)|f (t )i
exp [iO(t − t0 )] X,
dt exp [iO(t − t )] iP Of (t ) = −
dt
hX|Xi
0
0
para obtener que
ˆ
d
a(t) = exp [iOt] P (iOa(0)) −
dt
t
0
0 hQ(iOX)|f (t )i
dt
0
hX|Xi
exp [iO(t − t0 )] X + f (t).
El primer término de esta ecuación puede reescribirse observando que
exp [iOt] P (iOa(0)) = exp [iOt]
1
hX|iOa(0)i
hX|iOa(0)i X =
X(t)
hX|Xi
hX|Xi
de tal manera que
d
hX|iOa(0)i
a(t) =
X(t) −
dt
hX|Xi
ˆ
t
0
0 hQ(iOX)|f (t )i
dt
0
hX|Xi
exp [iO(t − t0 )] X + f (t).
Consideremos el caso en que X = a(0). En este caso se obtiene que
ˆ t
a(t)
a(t − t0 )
d
dt0 M (t0 )
a(t) = ω
−
+ f (t),
(3.83)
dt
ha|ai
ha|ai
0
en donde se ha usado la notación
(3.84)
ω = ha(0)|iOa(0)i
y
(3.85)
M (t0 ) = hf (0)|f (t0 )i .
La ecuación (3.83) recibe el nombre de ecuación de Langevin generalizada. A ω se le
llama la función de frecuencia y a M la función de memoria. La variable dinámica en
el espacio de las variables rápidas f (t) recibe el nombre de fuerza fluctuante. La fuerza
fluctuante es la parte aleatoria de la ecuación de Langevin generalizada y transforma a a
3.2. Funciones de memoria
41
en un proceso estocástico. La fuerza fluctuante es aleatoria porque su variación temporal
es con respecto a las escalas de tiempo características del espacio complementario y,
por lo tanto, se manifiesta como una cantidad no determinista fluctuante en el espacio
bajo consideración.
La ecuación de Langevin en las velocidades, con fricción dependiente del tiempo (3.68),
es un caso particular de la ecuación de Langevin generalizada cuando a = P. Por ello,
la función de memoria se puede identificar como una función generalizada de viscocidad
longitudinal. En efecto, en la dinámica de Fokker-Planck lo es [53, 54]. Sin embargo,
en la dinámica de Smoluchowski esta interpretación lleva a resultados erróneos para la
función de difusión. En un principio se pensó que esto era una deficiencia de la ecuación
de Smoluchowski, pero después de que Roux mostró que la ecuación de Smoluchowski
es perfectamente general [14], la duda que surgió fue si en la dinámica de Smoluchowski
se podía hacer esta interpretación.
Cichocki y Hess [55] mostraron que en la dinámica de Smoluchowski, a diferencia de
la Fokker-Planck, la función de memoria no puede interpretarse como una viscocidad
longitudinal. Estos autores mostraron que una cantidad cercanamente relacionada con
la función de memoria, la cual lleva el nombre de función irreducible de memoria, es la
función que se relaciona directamente con la viscocidad longitudinal. Cuando revisemos
la teoría de modos acoplados y hayamos dado los elementos necesarios para describir
la estructura dinámica, volveremos a tocar este tema.
3.2.6.
Estructura dinámica de suspensiones coloidales
Todas las funciones que describen a la estructura estática de las dispersiones coloidales, que se definieron en la sección 3.1.1, pueden generalizarse directamente para que
describan la evolución temporal de la estructura, esto es, la estructura dinámica.
Consideremos un sistema de N coloides, de entre los cuales Nα coloides forman la especie
α. Además, consideremos que hay p especies distintas en el sistema de tal manera que
P
N = pα=1 Nα . Usando la notación xα = Nα /N y denotando la posición del coloide i de
la especie α en la forma riα , tenemos:
La densidad local parcial
(3.86)
nα (r, t) =
Nα
X
δ(r − riα (t)).
iα =1
La función de autocorrelación de la densidad local, o función de van Hove [15],
(3.87)
dNβ (t) = nβ Gαβ (r, t)dν r,
α = 1, 2, ..., β, ..., p
que nos relaciona el numero de partículas, de la especie β en el instante t0 + t,
dentro del elemento de volumen dν r que se localiza en r, dado que en el instante
inicial t0 había una partícula de la especie α en el origen. En un lenguaje más
42
Capítulo 3. Marco teórico y conceptual
elaborado, la función de van Hove es la función de autocorrelación
(3.88)
1
√
xα xβ nGαβ (r, t) = q
Nα Nβ
* Nα ,Nβ
X
δ r + rjβ (t + t0 ) − riα (t0 )
+
.
iα ,jβ =1
En el instante inicial t = 0
(3.89)
Gαβ (r, 0) = δαβ δ(r) + gαβ (r)
Las componentes de Fourier de las densidades parciales
(3.90)
nα (k, t) =
Nα
X
exp [ik · riα (t)] ,
iα =1
Y las funciones intermedias de dispersión
(3.91)
1/2
Fαβ (k, t) = δαβ + xa1/2 xb nF [Gαβ (r, t) − 1] .
*
(3.92)
Fαβ (k, t) =
!
+
1
1
√ nα (−k, t0 )  q nβ (k, t0 + t) .
Nα
Nβ
Para complementar la notación matricial introducida en la sección (3.1.1.3) la matriz
de las funciones parciales de van Hove se denota como
ˆ
q
q
3 0
0
0
Gαβ (r, t) = d r nα (r + r , t0 )/ Nα |nβ (r , t0 + t)/ Nβ
y la matriz de funciones intermedias de dispersión parciales como F = (Fαβ ). Ahora
presentaremos la ecuación de movimiento de la función intermedia de dispersión.
3.2.7.
Función de memoria y difusión colectiva
Consideremos la dinámica de Smoluchowski en la ecuación de Langevin generalizada
(3.83). En la dinámica de Smoluchowski podemos considerar a OB en (3.73) como operador de evolución. Sea {nα (k, t)}pα=1 el conjunto de variables dinámicas en la ecuación
de Langevin generalizada y
(3.93)
P = hn(k, 0)| · · · i S(k)−1 n(k, 0),
el operador de proyección sobre dicho conjunto. Bajo esta notación la ecuación de
Langevin generalizada de las componentes de Fourier de la densidad local es
ˆ t
(1)
−1
∂t n(k, t) = µ (k)S n(k, t) −
dt0 M(k, t0 )S−1 n(k, t − t0 ) + f (k, t),
0
3.2. Funciones de memoria
43
en donde
µ(1)
αγ (k) = hnα (k, 0)|iOB nγ (k, 0)i ,
fα (k, t) = exp [iQOB t] Q (iOB nα (k, 0))
y
Mαγ (k, t0 ) = hfα (k, 0)|fγ (k, t)i
definen a la matriz de los primeros cumulantes parciales µ(1) (k) =
µ(1)
αγ (k)
p×p
, a
15
cada una de las componentes del vector de fuerzas fluctuantes parciales f (k, t) =
{fα (k, t)}pα=1 y a la matriz de funciones de memoria 16 M(k, t) = (Mαβ (k, t))p×p , respectivamente. Multiplicando esta ecuación escalarmente en el ensemble por n(k, 0) y
tomando en cuenta que en todo instante
hn(k, 0)|f (k, t)i = 0
(3.94)
obtenemos que
ˆ
(1)
t
dt0 M(k, t0 )S−1 (k)F(k, t − t0 ).
−1
∂t F(k, t) = µ (k)S (k)F(k, t) −
0
Esta expresión se llama ecuación de memoria de la función intermedia de la dispersión.
Hasta este momento hemos usado operadores de evolución en el espacio imaginario
porque de esta manera se facilita la obtención de las ecuaciones formales de Langevin.
Sin embargo, para propósitos de cálculo y de identificación de las propiedades de las
ecuaciones resultantes conviene trabajar en el espacio real. En el espacio real la ecuación
de Smoluchowski [11] con el operador de retroceso es
(3.95)
d
ρS (ΓR (t0 + t)) = −OB (ΓR (t0 )) ρS (ΓR (t0 + t)) ,
dt0
con
(3.96)
OB (ΓR ) =
p
N X
X
∇Riα
α,β=1 i,j=1
1 s
F
· Diα jβ · ∇Rjβ .
−
kB T iα
Las matrices D representan a los tensores de difusividad [21]
(3.97)
Diα jβ = kB T µiα jβ ,
en donde µiα jβ son las matrices de movilidad (Secc. 3.2.3).
Ejecutando las operaciones indicadas por el operador de Smoluchowski la ecuación de
Langevin generalizada adquiere la forma
ˆ t
2
−1
(3.98)
∂t n(k, t) = −k H(k)S n(k, t) +
dt0 MC (k, t0 )S−1 n(k, t − t0 ) + f (k, t),
0
15
En el contexto del estudio de los coeficientes de transporte, las fuerzas fluctuantes también reciben
el nombre de flujos disipativos.
16
O de coeficientes de transporte generalizados.
44
Capítulo 3. Marco teórico y conceptual
mientras que para la ecuación de memoria tenemos que
ˆ t
2
−1
dt0 MC (k, t0 )S−1 (k)F(k, t − t0 ).
(3.99)
∂t F(k, t) = −k H(k)S (k)F(k, t) +
0
C
En (3.98 y 3.99) las matrices H = (Hαβ )p×p y MC = Mαβ
se llaman matriz
p×p
de las funciones hidrodinámicas parciales y matriz de las funciones memoria colectiva
parciales, respectivamente. Cada elemento de las ecuaciones (3.98 y 3.99) se define a
continuación.
La densidad local dependiente del tiempo
(3.100)
nα (k, t) = exp [OB t] nα (k, 0)
La función intermedia de dispersión
(3.101)
Fαβ (k, t) = hnα (k, 0)| exp [OB t] nβ (k, 0)i
La matriz de las funciones hidrodinámicas parciales
(3.102)
d
Hαβ (k) = δαβ DαS + Hαβ
(k),
en donde
(3.103)
D
DαS = k̂ · D1α 1α · k̂
E
y
(3.104)
D
h
iE
1
d
k̂ · D1α 2β · k̂ exp ik · R1α − R2β
.
Hαβ
(k) = q
Nα Nβ
La cantidad DαS es el coeficiente de autodifusión de tiempos cortos de la especie
α. El coeficiente de autodifusión de tiempos cortos de la especie α es la pendiente
inicial del m.s.d. de una partícula de dicha especie. En la ausencia de las interacd
ciones hidrodinámicas Hαβ
= 0 y Hαβ (k) = δαβ Dβ0 , en donde Dα0 es el coeficiente
de autodifusión de las partículas de la especie α en estado libre17 –esto es, el
coeficiente de difusión que una partícula α presentaría si estuviera sola en el seno
del solvente.
La fuerza fluctuante generalizada fα (k, t) tiene la expresión
(3.105)
17
fα (k, t) = exp [QOB Qt] fα (k, 0),
La relación entre el coeficiente de difusión y la fricción Dα0 = kB T /ζα se conoce como relación de
Einstein(1905)-Smoluchowski(1906). Para partículas esféricas la ley de Stokes dice que ζα = 3πησα ,
en donde η es la viscocidad de corte del solvente. Entonces, a la expresión Dα0 = kB T /3πησα se le
conoce como relación de Stokes-Einstein. En lo sucesivo usaremos el término coeficiente de difusión
de Stokes-Einstein de las partículas α para nombrar a Dα0 .
3.2. Funciones de memoria
45
en donde la fuerza estocástica fα (k, 0) está dada por
(3.106)
fα (k, 0) = QOB nα (k, 0).
Notemos que al escribir la expresión para la fuerza fluctuante (3.105) hemos hecho
uso de que la fuerza estocástica reside enteramente en el espacio de las variables
ortogonales a nα (k, 0), esto es, que Qf (k, 0) = f (k, 0).
La función de memoria colectiva tiene la expresión
(3.107)
C
Mαβ
(k, t0 ) = hf (k, 0)| exp [QOB Qt] fα (k, 0)i .
La ecuación de Langevin generalizada de las componentes de Fourier de la densidad
local (3.98) y la ecuación de memoria de la función intermedia de la dispersión (3.99),
son dos piedras angulares en la descripción de la dinámica de las dispersiones coloidales
en las escalas de tiempo de Smoluchowski18 .
Las funciones hidrodinámicas contienen el efecto promedio configuracional de las interacciones hidrodinámicas sobre la dinámica en escalas de tiempo cortas. En la actualidad
existe un estudio extenso de las funciones hidrodinámicas. Gracias a esto, las propiedades de autodifusión en escalas de tiempo cortas de los sistemas coloidales abiertos se
entienden satisfactoriamente. Estudios relacionados con las funciones hidrodinámicas
incluyen teoría, simulación y experimento. Algunos trabajos representativos de estos
estudios son [58, 57, 59, 60, 61] y las referencias que en ellos se citan.
La difusión es un proceso de transporte muy conocido. Conviene escribir la ecuación de
memoria en la forma
ˆ t
2
(3.108)
∂t F(k, t) = −k
dt0 DC (k, t0 )S−1 (k)F(k, t − t0 ),
0
en donde
(3.109)
D̃C (k, z) = DC,S (k) −
1 C
M̃ (k, z)S−1 (k)
k2
y
(3.110)
DC,S (k) = H(k)S−1 (k).
A DC se le conoce como la matriz de los coeficientes de difusión colectiva, DC,S es
la matriz de coeficientes de difusión colectiva en escalas de tiempo cortas τe (Secc.
3.2.3) y la tilde denota cantidades en el espacio de Laplace. La matriz de coeficientes
de difusión colectiva en escalas de tiempo largas τe , denotada como DC,L , se define
como el límite hidrodinámico de (3.109), esto es,
(3.111)
18
D̃C,L = lı́m lı́m D̃C (k, z) = kB T µL S−1 (0),
z→0 k→0
Frecuentemente se usa la terminología “ecuaciones cinéticas” para denominar a las ecuaciones de
evolución de las funciones de algún conjunto de variables pertenecientes al espacio fase, ya sea
posiciones o momentos o ambas. De acuerdo a esta terminología (3.98 y 3.99) son las ecuaciones
cinéticas, en el espacio de Fourier, de la densidad local de partículas y de la función de distribución
espacial-temporal de dos partículas, respectivamente.
46
Capítulo 3. Marco teórico y conceptual
con k 2 /z constante. La matriz µL es simétrica y representa a las funciones de movilidad
parciales, esto es, los coeficientes de transporte de partículas de Onsager.
Las funciones de memoria contienen el efecto de las interacciones hidrodinámicas, así
como el de las interacciones directas en cualquier escala de tiempo. El concepto de
función de memoria es muy importante en la dinámica de casi cualquier sistema –
una revisión interesante que muestra la versatilidad del formalismo de las funciones
de memoria es [56]–. Como se ilustró anteriormente, los coeficientes de transporte de
Onsager son formas límite de una función más general, la función de memoria. El
alcance que tiene el concepto de función de memoria en la descripción de las propiedades
dinámicas se ve limitado por el hecho de que su cálculo es muy complejo.
Para cerrar esta sección comentaremos sobre la función de memoria de la función intermedia de la dispersión incoherente Fs . La función intermedia de la dispersión incoherente de una partícula de la especie α es la función de autocorrelación que describe la
correlación de una partícula consigo misma. Sea
niα (r, t) = δ(r − riα (t)),
(3.112)
la densidad local de la partícula iα , a la cual llamaremos la partícula trazadora, o
simplemente la trazadora. La función intermedia de la dispersión incoherente de las
partículas de la especie α se define como
(3.113)
Fs,α (k, t) = hexp [ik · (riα (t + t0 ) − riα (t0 ))]i .
La ecuación de memoria asociada a Fs es
ˆ
(3.114)
2
t
dt0 MS (k, t0 )Fs (k, t − t0 ).
0
∂t Fs (k, t) = −k D Fs (k, t) +
0
A MS también se le llama función de memoria de una partícula o función de memoria
de la autodifusión. En este trabajo nos hemos enfocado únicamente en la función de
memoria de la difusión colectiva MC (k, t) .
4 Estudios previos sobre los efectos de
memoria
El conocimiento es de dos tipos. Sabemos el tema, o sabemos dónde podemos encontrar información acerca del tema.
Samuel Johnson
El estudio de las funciones de correlación espacio temporales de los líquidos, sobre la
base del formalismo de las funciones de memoria se remonta hasta la década de los
1960’s, casi inmediatamente después de que Mori –inspirado en los trabajos de Zwanzig
sobre las ecuaciones maestras [46]– obtuvo la ecuación de Langevin generalizada [47].
Para esos años las computadoras ya eran del dominio público y resultaron claves en
el avance del estudio de la dinámica de los líquidos simples. También, estudios previos
de dispersión en física nuclear –como el de Leo van Hove [15]– habían establecido las
definiciones de las funciones de correlación necesarias para describir la dinámica de los
líquidos.
Las expresiones explícitas para las funciones de memoria (3.107) son formales y carecen de utilidad práctica. De hecho, buscar expresiones exactas para las funciones de
memoria sobre esta base equivale a resolver la dinámica de Liouville y, por lo tanto,
sería una búsqueda infructuosa. Para avanzar sobre la base del formalismo de las funciones de memoria en el estudio de las funciones de correlación debemos idear métodos
matemáticos, numéricos y de simulación para saber más acerca de la naturaleza de
las funciones de memoria. Los estudios numéricos y de simulación nos habilitan para
modelar matemáticamente a las funciones de memoria, esto es, para hacer suposiciones
razonables sobre las posibles formas funcionales para dichas funciones. También, sobre
la base de consideraciones generales, podemos suponer a priori alguna forma funcional
y a posteriori ajustar los parámetros de dichas funciones en base al conocimiento que
poseemos. Por otro lado, también podemos formular teorías para calcular explícitamente los efectos de memoria. En esta sección comentamos algunos trabajos relacionados
con estas aseveraciones.
Primero hablaremos sobre estudios representativos sobre el formalismo de las funciones
de memoria en la dinámica de Liouville de los líquidos simples. Luego hablaremos
sobre los trabajos realizados en las dinámicas de Smoluchowski y de Langevin. Lo que
se pretende es poner en contexto las grandes diferencias técnicas que pueden existir
entre estas dinámicas y las complejidades adicionales que se presentan en las dinámicas
disipativas.
47
48
Capítulo 4. Estudios previos sobre los efectos de memoria
4.1.
Efectos de memoria: Dinámica de Liouville
Dentro de los primeros estudios sobre las funciones de memoria de los líquidos simples
podemos citar el trabajo de Akcasu y Duderstadt [62]. En este trabajo el formalismo de
Mori es extendido al caso de proyectores continuos, para derivar la ecuación cinética con
memoria correspondiente a la función de autocorrelación de la distribución de espacio
fase –esta función es una generalización de la función de van Hove–. Depositaron especial
atención en el caso de la función de autocorrelación de una partícula y en el estudio de su
función de memoria, a la cual llamaron el núcleo de amortiguamiento, “damping kernel”.
Estudiaron los modelos para la función de memoria que a continuación se mencionan.
En la aproximación más simple consideraron que la función de memoria es cero
para todo tiempo. Esto produjo una ecuación cinética tipo Vlasov.
Como segunda aproximación, y como generalización de la primera, consideraron
las ecuaciones cinéticas acopladas correspondientes a (a) la función de distribución
de una partícula y (b) la componente perpendicular de la derivada temporal de
dicha función de distribución. Llamaron a estas dos ecuaciones la descripción de
dos componentes. La ecuación del caso (a) fue llamada la ecuación de la primera
componente y la del caso (b) la de la segunda componente. Entonces supusieron
que la memoria es cero en la ecuación de la segunda componente y obtuvieron
un par de ecuaciones integro-diferenciales que involucran únicamente a la función
de distribución y a una función de memoria, la cual posteriormente se puede
eliminar para obtener una ecuación en la que interviene solamente la función de
distribución. Este procedimiento se puede generalizar a una descripción de ncomponentes, suponiendo que la memoria de la n-ésima componente es cero. El
inconveniente de este método es que las ecuaciones, aunque cerradas, se vuelven
cada vez más complejas en cada etapa.
Como tercera aproximación, consideraron un tratamiento perturbativo para calcular la memoria. En este tratamiento la cantidad perturbada es el operador de
Liouville y la referencia es el operador de Liouville de la partícula libre.
La primera aproximación es equivalente al límite Markoviano del que hablamos en la
sección 3.2.3. La segunda aproximación es similar al método conocido como representación de las funciones de correlación en fracciones continuadas –aunque estrictamente
no es lo mismo– [65, 66].
A continuación se mencionan otros trabajos relacionados con el estudio de las funciones
de memoria de las funciones de distribución de los líquidos simples.
(L1) Modelos funcionales exponenciales, conocidos como modelos de un tiempo de
relajación (Duderstadt y Akcasu 1975, [63])
(L2) Las aproximaciones tipo Vineyard [67] que relacionan a la función de memoria de
una partícula con la de muchas partículas en una descripción de varias componentes (Kim y Nelkim 1971, [68]).
(L3) Las expansiones en series de potencias de la frecuencia en el espacio de Laplace
(Yoshida y Takeno, 1975 [70]).
4.1. Efectos de memoria: Dinámica de Liouville
49
(L4) Cálculo de las funciones de memoria mediante el método de las funciones de Green
termodinámicas (Mazenko 1971, [64]).
(L5) Aproximación de dos modos de excitación (Götze y Lücke 1975, [69]). Actualmente, este esquema también se conoce como teoría de modos acoplados y dedicaremos
una sección para su revisión.
(L6) Trabajos en donde la función de memoria de la función de memoria –la segunda
función de memoria– se expresa en términos de una parte de partícula libre, más
una parte de interacción. La parte de interacción se modela en el tiempo como
una función gaussiana en el caso de una sola partícula y con una expansión en
frecuencias en el caso de la dinámica colectiva (Yoshida y Takeno 1977, [71, 72]).
(L7) Los modelos de suma de funcionales exponenciales (Lantelme, Turq y Schofield
1979, [73] y referencias contenidas).
(L8) Los modelos funcionales gaussianos (Denner y Wagner, 1984 [74]).
(L9) Cálculo de función de memoria a partir de simulaciones de dinámica molecular
en el cual se usan modelos estocásticos autorregresivos para las funciones de correlación. Los parámetros de estos modelos los ajustan con las trayectorias de la
simulación. La función de memoria se obtiene discretizando la ecuación de memoria y usando una transformación conocida como la transformada Z. (Kneller y
Hinsen 2001, [75])
(L10) En el estudio del límite de numero de onda y frecuencia pequeñas del factor de
estructura dinámica de un líquido simple confinado entre dos placas (Porcheron
y Schoen 2002, [76]). Estos autores usan un método numérico implementado por
Berne y Harp [77]. El método de Berne y Harp es un método numérico con el cual
se puede obtener la función de memoria dada la función intermedia de la dispersión
y viceversa. El método consiste en usar la F (k, t) extraída de las simulaciones para
obtener la memoria de la siguiente manera:
(L10.1) Consideran la solución numérica de la ecuación de Volterra. La ecuación de
Volterra es la ecuación de memoria con el primer cumulante incluido en la integral.
(L10.2) Discretizan la primera derivada de la ecuación de Volterra.
(L10.3) En tiempos cortos las derivadas temporales de F se calculan a partir de los
primeros cuatro momentos, para tiempos largos usan una fórmula de interpolación
para representar a los datos de simulación.
(L10.4) Calculan cuatro valores iniciales para la memoria empleando el método de
Day.
(L10.5) Los valores de la función de memoria subsecuentes se calculan a partir de la
primera derivada de F e iterando respecto a los valores iniciales que se calcularon
con el método de Day y usando la formula de Gregory.
(L11) Un método en el que la ecuación de Langevin generalizada se transforma en un
conjunto de ecuaciones diferenciales, las cuales en principio son mucho más fáciles
de resolver (Wilkie 2003, [78]).
50
Capítulo 4. Estudios previos sobre los efectos de memoria
(L12) Técnicas de expansiones diagramáticas (Noah-Vanhoucke y Andersen 2007, [79]
y referencias contenidas).
Estos trabajos ilustran varias formas de atacar el problema. En la sección que sigue
veremos que algunos poseen contrapartes análogas en la descripción de la dinámica
coloidal. Los análogos en la dinámica coloidal que revisaremos en la sección siguiente
corresponden a (L1 y L7, L2, L5). También comentaremos sobre trabajos similares a
(L9 y L10), porque nuestro trabajo entra dentro de esta categoría. En este trabajo un
modelo lorentziano –y su generalización a la función hiper-geométrica de Gauss– surge
naturalmente de los cálculos numéricos y de simulación. Al parecer, éste es el primer
trabajo que reporta acerca de la forma lorentziana como un modelo matemático para
las funciones de memoria.
4.2.
Efectos de memoria: Dinámicas disipativas
4.2.1.
Dinámica de Smoluchowski I
Dinámica de Smoluchowski Casos:
Acoplamiento débil.
Longitud de onda grande.
Densidad pequeña.
Esferas duras.
SEXP.
Empezamos esta revisión mencionando algunos estudios representativos de los efectos
de memoria en la dinámica de Smoluchowski. Estos estudios fueron encaminados a
dilucidar el comportamiento de la función de memoria en los límites de (a) interacciones débiles, (b) número de onda pequeño y (c) densidad pequeña. En la actualidad,
solamente en límite de baja densidad contamos con expresiones explícitas para las funciones de memoria. Esto gracias a que en este límite el operador de evolución completo
se puede aproximar con el operador de evolución de dos partículas. Los estudios aquí
presentados ilustran distintas formas de atacar el problema con interacciones directas
y con interacciones hidrodinámicas en diversos niveles de aproximación.
Uno de los trabajos pioneros en la dinámica de Smoluchowski fue realizado por Bruce
Ackerson (Ackerson, 1978 [20]1 ). En este trabajo se derivaron por primera vez las ecuaciones de memoria, colectiva y auto, para sistemas monodispersos en la dinámica de
Smoluchowski. Ackerson considera las interacciones hidrodinámicas bajo la aproxima1
Tres años atrás Pusey y colaboradores habían identificado que la taza de decaimiento de F (k, t) en
escalas de tiempo τ > τe es más pequeña que la correspondiente a las escalas de tiempo τ ≈ τS
[80, 81], lo cual apuntaba a la importancia de estudiar los efectos de memoria.
4.2. Efectos de memoria: Dinámicas disipativas
51
ción de Oseen, es decir, usando los tensores de difusión de Kirkwood2
3σD0
1
Rij Rij
(1 − δij )
Dij = D 1 +
+
3
8
Rij
Rij
0
(4.1)
!
,
en donde D0 es el coeficiente de difusión de Stokes-Einstein y Rij = Ri − Rj . Ackerson
estudió las siguientes aproximaciones para la función de memoria.
La aproximación de acoplamiento débil, que consiste en expandir la función
de meP
moria en potencias de la energía potencial por partícula coloidal N −1 N
i6=j=1 uij (r).
Aquí u es el potencial por pares y N es el número de partículas que se encuentran
en el volumen V , en el límite termodinámico. Obtiene expresiones explícitas para
la transformada de Laplace de las funciones de memoria M̂ C y M̂ S en términos
del potencial manteniendo (i) la fuerza estocástica a primer orden en el potencial,
(ii) el operador OB a orden cero en el potencial y (iii) ignorando las interacciones
hidrodinámicas. Estas expresiones son3
(4.2)
C
M̂ (k, z) =
n
3
(2π)
D0
kB T
2 ˆ
2
d3 k 0
(k · k0 ) k · (k − k0 ) ũ (k0 ) ũ (k − k0 ) + (k · k0 ) ũ2 (k0 )
h
i
,
2
z + D0 k02 + (k − k0 )
y
(4.3)
M̂ S (k, z) =
n
3
(2π)
D0
kB T
2 ˆ
2
d3 k 0
(k · k0 ) ũ2 (k0 )
h
i.
2
z + D0 k02 + (k − k0 )
Se observa que (a) M̂ C captura apropiadamente el límite de numero de onda pequeño, esto es, que M̂ C tiende a cero más rápido que µ(1) cuando k → 0. (b) En
el límite de número de onda grande, en donde se monitorea el movimiento de una
partícula, M̂ C también captura el comportamiento adecuado, pues la aproximación dice que la memoria crece más lento que el primer cumulante. (c) Se obtiene
que M̂ S en numeros de onda pequeños no puede despreciarse en comparación con
el primer cumulante, es decir, que en general FS no es exponencial para números
de onda pequeños.
Aproximación para números de onda pequeños. En esta aproximación mantiene
las fuerzas estocásticas a primer orden en el número de onda y al operador de
evolución P OB lo reemplaza por OB . Encuentra que
(4.4)
D
E
M̂ C (k, z) = kk L(0, 0)| (z − OB )−1 L(0, 0)
2
Este tensor lo derivó Kirkwood bajo la aproximación del campo de velocidades de Oseen. Jens Rotne
y Stephen Prager introdujeron una corrección para este tensor, pues posee la propiedad de que no
es positivo definido en todas las distancias. Ahora al tensor corregido se le conoce como tensor
de Rotne-Prager [85]. Las interacciones hidrodinámicas en general no son aditivas por pares, pero
en sistemas no muy concentrados se pueden aproximar como aditivas por pares. En la literatura
existen muchas otras aproximaciones para las interacciones hidrodinámicas por pares.
3
En lo sucesivo añadiremos el símbolo de sombreritoˆa las transformaciones de Fourier-Laplace en el
tiempo de la cantidad bajo el símbolo. Además, como hemos venido usando, la tilde ˜ indica a las
funciones que se les aplica la transformación de Fourier en el espacio.
52
Capítulo 4. Estudios previos sobre los efectos de memoria
y
D
E
M̂ S (k, z) = kk LS (0, 0)| (z − OB )−1 LS (0, 0) .
(4.5)
En estas expresiones
(4.6)
L = L(k, 0) = − √
N
X
1
Fsi · Dij · exp [ik · Rj (0)]
N kB T i,j=1
y
(4.7)
N
X
1
L = L (k, 0) = − √
Fsi · Dij · exp [ik · Rj (0)]
N kB T i=1
S
S
En donde, como hemos venido manejando, T es la temperatura y FSi es la fuerza
sistemática que experimenta la partícula i. Como es usual es el símbolo de
contracción. Se observa que (1) en este límite M̂ C y M̂ S van como k 2 . (2) Que
si se ignoran las interacciones hidrodinámicas, o bien si se mantienen pero la
energía es aditiva por pares como suele suceder en los sistemas diluidos, entonces
M̂ C = 0, independientemente de la intensidad de las interacciones directas por
pares. Ackerson concluye que en sistemas diluidos monodispersos F (0, t) siempre
es exponencial. Y (3) que en general M̂ S 6= 0 en consistencia con el inciso (c) de
la aproximación de acoplamiento débil.
Jones y Burfield generalizaron el trabajo de Ackerson al considerar sistemas polidispersos (Jones y Burfield 1982, [21]). Mostraron que la polidispersidad y la inclusión de
una aproximación más precisa que la de Oseen para las interacciones hidrodinámicas
incrementa la relevancia de los efectos de memoria. En [21], Jones y Burfield obtienen
una expresión aproximada, pero explícita, para M̂ C en el límite de números de onda
pequeños y densidades muy bajas. Dicha expresión es válida para sistemas de partículas
con interacciones arbitrarias. Las interacciones hidrodinámicas las tomaron en cuenta
bajo la siguiente aproximación4
Diα iα = Dα0 1 +
Nα
X
Aαα (Riα jα ) +
X
β6=α
jα = 1
jα 6= iα
Nα
X
Aαβ Riα jβ
jα = 1
jα 6= iα
y
Diα jβ = Biα jβ Riα jβ , iα 6= jβ ,
en donde a diferencia del trabajo de Ackerson, quién usó los tensores de Oseen cuya
divergencia es cero, los tensores de difusión que ellos usan tienen divergencia no nula.
Esto repercute en que, aún a muy baja densidad, los efectos de memoria no se pueden
despreciar.
4
Las expresiones explícitas para A y B son demasiado extensas y corresponden a las ecuaciones (4.24.5) en [87]. No obstante, las expresiones explícitas no son necesarias para continuar la discusión.
4.2. Efectos de memoria: Dinámicas disipativas
53
Obtienen la expresión explícita para M̂C , bajo el argumento de que a baja densidad la
5
función de Green de (z− OB (ΓR )) se puede
reemplazar por la función de Green de
dos cuerpos asociada a z − OB Riα , Riβ . Además, consideran solamente las contribuciones por pares de partículas en la fuerza estocástica. La expresión es
C
M̂αβ
(k, z) = k · Mαβ (z) · k + O(k 3 ),
(4.8)
con
ˆ
M̂ C
αα
(z) =
X
nν
d3 Riα iν exp [−uαν (Riα iν ) /kB T ] hαν (Riα iν )
ν6=α
ˆ
d3 Ri0 α iν Gαν (Riα iν , R0 iα iν ; z) hαν Ri0α iν ,
M̂ C
αβ
ˆ
h
i
√
(z) =
nα nβ d3 Riα iβ exp −uαβ Riα iβ /kB T hβα −Riα iβ
ˆ
d3 Ri0 α iβ Gαβ Riα iβ , R0 iα iβ ; z hαβ Ri0α iβ
α 6= β
y
1 s
Fiα iβ · Dβ0 1 + Aαβ Riα iβ − Bαβ Riα iβ
kB T
− ∇Riα · Aαβ Riα iβ − Bαβ Riα iβ ,
hαβ (Riα iβ ) = −
en donde Gαν (Riα iν , R0 iα iν ; z) es la función de Green de dos cuerpos6 y se ha usado la
forma de baja densidad para la función de distribución.
Posteriormente, aplicaron estos resultados al estudio de un sistema de esferas duras
[82]. Se observa que el término de la divergencia en h es el que contribuye al efecto de
memoria. En esta aplicación ignoran las interacciones hidrodinámicas en el operador de
evolución, pero las mantienen en las fuerzas fluctuantes. Encuentran que
(4.9)
P

nν dαν (z) α = β
M̂ αβ (k, z) = k 2 √ ν6=α
nα nβ eαβ (z)
α=
6 β
en donde
kB T
dαν (z) = 2
3η
eαν (z) = −
kB T
3η
!2 ˆ ∞
ˆ
∞
0
0
dl0 Aαν
1 (l, l ; z)yαν (l ),
dlyαν (l)
%αν
%αν
!2 ˆ ∞
ˆ
∞
0
0
dl0 Aαν
1 (l, l ; z)yαν (l ),
dlyνα (l)
%αν
%να
5
Esto último es lo que se conoce como la aproximación de colisiones binarias y la función de Green
se llama la función de Green de dos cuerpos.
6
Así como G, definiremos otras funciones en el espacio de Laplace y no les añadiremos el sombrerito.
Esto es porque son funciones derivadas, en el espacio de Laplace, de otras que previamente se
transformaron. En este caso la función transformada fue M C .
54
Capítulo 4. Estudios previos sobre los efectos de memoria
yαν (l) =
X
αν
=
5%3αν ,
Y
αν
=
27
4
X αν Y αν Z αν
+ 5 + 6 ,
l3
l
l
− 20
%α 2
%ν
%5αν ,
Z αν =
125 3 3
% % ,
12 α ν
%αν = %α + %ν ,
0
Aαν
1 (l, l ; z)
i0 (vT )
q
=
i1 (v)k1 (v) − 10
k1 (v)k1 (v 0 ) ,
2
k
(v
)
1 T
2π Dαν Dαν /z
"
3
#
Dαν = Dα0 + Dν0 ,
s
v=
z
l,
Dαν
s
0
v =
q
z 0
l,
Dαν
vT =
z
%αν
Dαν
y
s
q
2π
In+1/2 (v),
kn (v) = 2π
Kn+1/2 (v)
v
v
en donde In+1/2 , Kn+1/2 son las funciones de Bessel modificadas, el apóstrofe indica la
derivada total respecto al argumento y %α = σα /2 es el radio de las esferas duras de la
especie α. Además, recordemos que en la notación con la que hemos venido trabajando
σα , nα y Dα0 son el diámetro, la densidad numérica parcial y Dα0 = kB T /3πησ con η la
viscocidad de corte, es el coeficiente de difusión de Stokes-Einstein, de las partículas de
la especie α respectivamente.
in (v) =
Esta expresión no puede evaluarse en forma cerrada, excepto en el límite de baja frecuencia. Realizando un análisis en el plano complejo obtienen que el efecto de memoria
colectiva, a primer orden en la densidad en un sistema monodisperso, es el de cambiar
el decaimiento inicial exponencial de F en escalas de tiempo pequeñas por un decaimiento de la forma t−5/2 en escalas de tiempo grandes 7 . Sin embargo, subrayan que
este comportamiento de primer orden en la densidad sería observable solamente en escalas de tiempo τ & 20τe . Esta escala de tiempo es tan grande que los efectos de orden
superior en la densidad podrían empezar a manifestarse y apantallar la aparición de
dicho comportamiento.
En trabajos posteriores, Jones y Felderhof [83, 84] encontraron modelos adicionales para
las funciones de memoria de esferas duras en el límite de baja densidad. En [83] Jones
propone la expresión8
(4.10)
M̂ C (k, z) = −24φD0 k 2
∞
X
l = 0, 2, 4 · · ·
(2l + 1) kl (µσ) 0
2
[j (k%)] ,
µσ kl0 (µσ) l
7
Formas funcionales temporales de este tipo para las funciones de correlación suelen llamarse en inglés
“long-time tails”.
8
Note que la expresión en [83] no tiene el signo − incluido aquí. Nosotros lo incluimos por consistencia
porque el término integral de la ecuación de memoria en nuestra notación, que es la notación
estándar en la actualidad y es la más intuitiva, lo tenemos sumando al primer cumulante. En
cambio, Jones lo pone restando al primer cumulante y por eso nosotros debemos multiplicar por
−1 a sus expresiones para M C .
4.2. Efectos de memoria: Dinámicas disipativas
en donde φ = 4π%2 n/3 es la fracción de llenado y µ =
k denotan a las funciones esféricas de Bessel.
55
q
k 2 /4 − iz/2D0 . Las letras j y
La expresión temporal para la función de memoria (4.10) se obtiene mediante la transformación de Fourier-Laplace inversa
ˆ ∞
1
C
exp [−izt] M̂ C (k, z)dz,
(4.11)
M (k, t) =
2π −∞
mediante la identificación de los puntos de ramificación de (4.10). La expresión que
resulta es
2
(4.12)
3φ (D0 k 2 )
M (k, t) =
2π
∞
X
C
j 0 (k%)
(2l + 1) l
k%
l=0
l par
ˆ
en donde
!2
!
Hl
"
D0
−D0 k 2 t
t
exp
%2
2
#
∞
exp [−ρx/8] Dl (ρ)dρ,
Hl (x) =
0
Dl (ρ) =
ρ1/2
Pl
ρ Pl−1
p−1
p−l+1 − (l + 1)
p=0 (2p − l − 1) C (l, p) ρ
p=0 C (l − 1, p) ρ
4
y
C (l, p) =
(2l − p)! (2l − 2p)!
.
p! [(l − p)!]2
La memoria colectiva (4.12) manifiesta decaimiento exponencial global de un tiempo de
relajación. Jones hace la observación de que el término exponencial en (4.12) se debe a
la difusión del centro de masa de un par de esferas. Tomando el límite asintótico cuando
t → 0 encuentra que la memoria diverge como t−1/2 .
Investigaciones concernientes a sistemas diluidos de partículas interactuantes, no solamente mediante el potencial de esfera dura sino también con potenciales de largo
alcance9 , han sido realizadas por Dietrich, Peschel y Cichocki en el contexto del cálculo
de la función de difusión. Observando la forma que tiene (3.109), comprendemos que
estos estudios equivalen al cálculo de la función de memoria. Felderhof y Vogel (1992,
[86]) comentan sobre los trabajos de Dietrich, Peschel y Cichocki. En [86] no trabajan
sobre M C directamente, si no con la función Φ que se relaciona con M C en la forma
(4.13)
Φ̂(k, z)
M̂ C (k, z) =
1+
9
Φ̂(k,z)
iz−k2 DC,Short
.
Debemos ser cuidadosos al hacer la afirmación potencial de largo alcance. Aquí nos referimos a que
la interacción se extiende más allá del diámetro de la partícula pero tiene un alcance finito. Por
lo tanto, a diferencia de las esferas duras, la partículas con interacciones de largo alcance pueden
colisionar y dispersarse sin tocarse. Estrictamente, solamente los potenciales como el de Coulomb
son de largo alcance en el sentido de que su alcance es extenso absolutamente. Entonces, hablando
ligeramente, podemos considerar que un potencial de Yukawa puede ser de largo o de corto alcance
si λD ≈ σ o λD > σ, respectivamente.
56
Capítulo 4. Estudios previos sobre los efectos de memoria
la función Φ̂(k, z) tiene la ventaja de que su operador de evolución no está proyectado
sobre el espacio complemento de {n(k, t)}. Esta función está dada por
(4.14)
Φ̂(k, z) =
E
1 D
f (k, 0)| (iz + OB )−1 f (k, 0) .
N S(q)
A primer orden en la densidad
ˆ
(4.15)
Φ̂(k, z) = 2n d3 R21 g(R21 )UR21 (−k) [iz + OB,R21 ]−1 UR21 (k) + O(n2 ),
en donde
R21 = |R2 − R1 |
es la distancia relativa entre dos partículas idénticas,
g(R21 ) = exp [−u(R21 )/kB T ]
es el límite de baja densidad de la función de distribución radial,
OB,R21 = −Z(k, R21 ) + ∇R21
1
(∇R21 u(R21 )) · DR21 · ∇R21 ,
−
kB T
1
Z(q, R21 ) = k · [D11 (R21 ) + D12 (R21 )] · k,
2
DR21 = 2 [D11 (R12 ) − D12 (R12 )]
y
1
UR21 (k) = OB,R21 + D k cos k · R21 .
2
Para avanzar en el cálculo de Φ(k, z), Felderhof y Vogel identifican a
h
0 2
i
ρk (R21 ) = g(R21 )UR21 (k)
como una densidad de carga libre y a
(R21 ) =
g(R21 )
DR21
2D0
como un tensor dieléctrico para reescribir a Φ(k, z) en la forma
ˆ
Φ(k, z) = d3 R21 ρk (R21 ) ψ1 (k, z; R21 ) ,
en donde ψ1 (k, z; R21 ) es solución a la ecuación
[iz + OB,R21 ] ψ1 (k, z; R21 ) = UR21 (k) .
En [88] Felderhof aplica estas expresiones para estudiar el coeficiente de difusión colectiva de tiempos largos de esferas duras con interacciones hidrodinámicas.
4.2. Efectos de memoria: Dinámicas disipativas
57
Hemos mostrado que los límites de numero de onda pequeño y densidad baja permiten
obtener expresiones explícitas para las funciones de memoria. Expresiones cerradas,
esto es formas funcionales explícitas, solamente se han podido obtener para sistemas
de esferas duras en los dos límites mencionados. La expresión (4.12) ilustra el resultado
típico: Una suma de exponenciales pesada con una función espectral [89].
Cichocki y Felderhof [89] afirman que las funciones de memoria siempre pueden representarse así, aun en sistemas concentrados y con interacciones de largo alcance. Se basan
en un análisis de las propiedades de la función de memoria en el espacio complejo. En
concreto, plantean que el efecto de las interacciones solamente es mover los polos de la
función de memoria. En efecto, los modelos exponenciales para las funciones de memoria se han usado por un largo tiempo. Sin embargo, no en todos los casos estos modelos
capturan el comportamiento adecuado en escalas de tiempo intermedias τS τ . τe .
Como veremos más adelante, en la teoría de modos acoplados la aproximación más simple consiste en suponer que las funciones intermedias de dispersión son exponenciales
y la función de memoria irreducible que resulta es precisamente la integral de F (k, t)
con una estructura muy similar a (4.12).
Arauz-Lara y Medina-Noyola propusieron un modelo para la función de memoria que
consiste de una forma funcional exponencial. Este modelo se conoce como la aproximación de una sola exponencial y frecuentemente es referido como la SEXP (single
exponential approximation). La SEXP consiste en suponer que
(4.16)
M SEXP (k, t) = a(k) exp [−b(k)t] .
Luego, usando la ecuación de memoria, los primeros cuatro momentos m(0) (k), m(1) (k),
m(2) (k) y m(3) (k)de F en la expansión
(4.17)
F (k, t) =
∞
X
1 (n)
m (k)tn
n=0 n!
y con una aproximación para las funciones de distribución de tres puntos que aparecen
en m(3) (k), se puede obtener a(k) y b(k) explícitamente en términos de las funciones
de estructura estática. La SEXP a sido usada en el estudio se sistemas diluidos con
interacciones.
A continuación hablaremos sobre dos puntos de vista distintos, pero enfocados hacia el
mismo objetivo de estudiar la dinámica de Smoluchowski como el límite sobreamortiguado de la dinámica de Fokker-Planck. La relevancia de la dinámica de Smoluchowski
estriba en el hecho de que lo que se mide con mayor facilidad en los experimentos son las
fluctuaciones de las posiciones de las partículas brownianas. El límite sobre-amortiguado
∞
(k) /M
es el límite de la dinámica de Fokker-Planck en escalas de tiempo τ τB ≈ ζ̂αβ
∞
en donde ζ̂αβ (k) es el coeficiente de fricción de alta frecuencia. Ambos enfoques se
basan en las ecuaciones de la hidrodinámica generalizada, la diferencia es que en uno
se emplea el operador de Fokker-Planck para guiar la dinámica y en el otro se usa la
ecuación de Langevin.
El primer enfoque que comentaremos parte de la dinámica de Fokker-Planck y fue
formulado como una extensión de la hidrodinámica generalizada de los líquidos simples
58
Capítulo 4. Estudios previos sobre los efectos de memoria
al contexto de las partículas Brownianas por Walter Hess y Rudolph Klein entre finales
de los 1970’s y principios de los 1980’s. El segundo enfoque que comentaremos se refiere
a los trabajos que Medina-Noyola ha venido realizando basándose en la ecuación de
Langevin y en el formalismo de contracción de la descripción aplicado a la jerarquía de
ecuaciones de Langevin que surge en la hidrodinámica generalizada.
4.2.2.
Hidrodinámica generalizada y aproximación viscoelástica
Una enfoque alternativo a la dinámica de las dispersiones coloidales es la hidrodinámica
generalizada[41, 9]. En la hidrodinámica generalizada, el estudio parte de las ecuaciones
de evolución acopladas para las componentes de Fourier de (a) la densidad local y (b)
la densidad de corriente. Estas ecuaciones son
∂t ñ(k, t) = −∇ · j̃(k, t)
(4.18)
y
(4.19)
∂t j̃(k, t) = −∇p̃(k, t) + ∇ · σ̃(k, t) + f̃ f ricción (k, t) = −∇p̃(k, t) + f̃ (k, t).
En estas ecuaciones p̃(k, t), σ̃(k, t), f̃ (k, t)’s y j̃(k, t) son las transformaciones de Fourier
espaciales de la presión local, del tensor de esfuerzos local, de las fuerzas hidrodinámicas
locales y de la densidad de corriente, respectivamente. La densidad de corriente está
dada por
(4.20)
N
Pi
1 X
exp [ık · Ri (t)]
j̃(k, t) = √
N i=1 M
Para resolver las ecuaciones de la hidrodinámica generalizada se proponen dos ansatz:
(1) la ley de Fick generalizada
ˆ
(4.21)
t
D(k, t − t0 ) · ∇ñ(k, t)dt0 , t ≥ 0,
j̃(k, t) = −
0
(4.22)
δ j̃(k, t) D(k, t − t ) = −
δ (∇ñ(k, t0 )) ∇ñ=0
0
y (2) el ansatz hidrodinámico
ˆ
(4.23)
t
ζ(k, t − t0 ) · j̃(k, t)dt0 , t ≥ 0,
f̃ (k, t) = −
0
(4.24)
ζ(k, t − t0 ) = −
δ f̃ (k, t) δ j̃(k, t0 ) .
j̃=0
4.2. Efectos de memoria: Dinámicas disipativas
59
A D(k, t − t0 ) se le llama función generalizada de difusión y a ζ(k, t − t0 ) función
generalizada de fricción. Las funciones generalizadas de difusión y de fricción, son las
funciones de respuesta de la densidad de corriente respecto a fluctuaciones del gradiente
de densidad local, y de las fuerzas hidrodinámicas con respecto a las fluctuaciones de
densidad de corriente, respectivamente. Mediante estos ansatz se obtienen las ecuaciones
generalizadas de continuidad
ˆ t
2
D(k, t − t0 )ñ(k, t)dt0 , t ≥ 0,
(4.25)
∂t ñ(k, t) = −k
0
y de Navier-Stokes
(4.26)
ˆ
t
ζ(k, t − t0 ) · j̃(k, t)dt0 , t ≥ 0.
∂t j̃(k, t) = −∇p̃(k, t) −
0
Estas ecuaciones junto con
(4.27)
p̃(k, t) =
kB T
n(k, t)
S(k)f 0 (k, t)
y con las expresiones o modelos para las funciones D y ζ forman el corazón de la
hidrodinámica generalizada. Así como las funciones de memoria, D y ζ son objetos
muy difícil de calcular.
Hemos agregado una variable dinámica más a la descripción, la densidad de corriente.
Para describir la densidad de corriente introducimos además a la nueva función ζ que
contiene los efectos de fricción y de viscocidad. Sea C|| (k, t) la función de autocorrelación de la densidad de corriente paralela al vector k, la también llamada función de
autocorrelación de la componente longitudinal, y ζ|| (k, t) a su función generalizada de
fricción. Debido al acoplamiento entre las fluctuaciones de la densidad y la componente
longitudinal de la densidad de corriente, D(k, t) y ζ|| (k, t) se relacionan mediante
(4.28)
D̂(k, z) =
1
kB T
.
M S(k) z + ζ̂|| (k, z)
Esta expresión se llama relación de Stokes-Einstein generalizada (pie 17 en el capítulo
anterior). La teoría de respuesta lineal permite obtener expresiones, en la forma de
funciones de autocorrelación, para las funciones de respuesta D(k, t) y ζ|| (k, t). La
relación de Stokes-Einstein permite obtener a D(k, t) en términos de ζ|| (k, t) así que
sólo se tiene que calcular ζ|| (k, t). La ecuación de memoria para F se puede escribir en
el espacio de Laplace como
(4.29)
F̂ (k, z) =
S(k)
,
z + D̂(k, z)k 2
por lo tanto podemos considerar que ζ|| (k, t) es la función de memoria de D(k, t).
Mediante la teoría de respuesta lineal en la dinámica de Fokker-Planck Hess y Klein
derivan la expresión para ζ̂αβ (k, z). Dicha expresión resulta al estudiar la respuesta de
la fuerza generalizada con respecto a las fluctuaciones de corriente y es
(4.30)
∞
(k) + 4ζ̂αβ (k, z),
ζ̂αβ (k, z) = ζ̂αβ
60
Capítulo 4. Estudios previos sobre los efectos de memoria
en donde
(4.31)
(4.32)
(4.33)
∞
(k)
ζ̂αβ
1
=−
hjα (k)|fβ (k)i ,
M
N kB T
4ζ̂αβ (k, z) =
ηαγδβ (k, z) =
kγ kδ
f ricción
ηαγδβ (k, z) + 4ζ̂αβ
(k, z),
n
E
kB T D
σαγ (k)| [z − QOF P ]−1 σδβ (k)
V
y
(4.34)
f ricción
4ζ̂αβ
(k, z) = −
E
kB T D f ricción Qfα
(k) | [z − QOF P ]−1 Qfβf ricción (k) .
N
∞
(k) se le conoce como el coeficiente de fricción de alta frecuencia, a ηαγδβ (k, z)
A ζ̂αβ
f ricción
(k, z) es la contribución de fricción. Esta última
como el tensor de viscocidad y 4ζ̂αβ
cantidad surge de las interacciones hidrodinámicas, esto es, sin interacciones hidrodif ricción
námicas 4ζ̂αβ
(k, z) = 0. El operador Q proyecta sobre el espacio perpendicular a
las densidades de partículas y de corriente.
Expresiones exponenciales para las funciones de memoria surgen de forma natural en
el contexto de la teoría viscoelástica. Esta teoría reproduce adecuadamente el límite de
tiempos cortos, así como el límite hidrodinámico.
La teoría viscoelástica se basa en la siguiente aseveración: A alta frecuencia un fluído
posee cierta rigidez. Esto puede visualizarse imaginando que en cierto instante de tiempo todas las partículas del fluido están en un mínimo de su paisaje de energía. Esta
condición no puede mantenerse por mucho tiempo, ya que la estructura fluctua y pasa
a las partículas a un nuevo mínimo en una intervalo de tiempo promedio ∆salto t τe .
Sin embargo, si aplicamos un impulso a una partícula durante un intervalo de tiempo
mucho menor que ∆salto t, entonces la partícula experimentará una fuerza restauradora
hacía el mínimo donde se encontraba en el momento de la aplicación de la fuerza. Por
ello, se dice que el fluido adquiere rigidez en intervalos de tiempo cortos.
En tiempos cortos se puede obtener que
(4.35)
f̃ (k, t) = −ζ ∞ (k) · j̃(k, t) − ∆ζ(k, 0) ·
X
(Ri (t) − Ri (0)) .
i
Por otro lado, si se supone que la función de fricción se relaja mucho más rápido que
la densidad de corriente10
(4.36)
10
ˆf̃ (k, z) = −ζ ∞ (k) · ˆj̃(k, z) − ∆ζ̂(k, 0) · ˆj̃(k, z).
Recordemos que ˜ identifica a una trasformación de Fourier espacial y ˆ a una de Laplace. En lo
sucesivo ˆ
˜ indicará que se han aplicado ambas transformaciones sobre la función bajo el adorno.
4.2. Efectos de memoria: Dinámicas disipativas
61
Entonces, en tiempos cortos la fuerza generalizada contiene una parte friccional y una
parte elástica. En cambio, en tiempos largos es puramente friccional.
La aproximación viscoelástica consiste en interpolar los límites del párrafo anterior de
tal manera que
(4.37)
∆ζ̂ || (k, z) =
∆ζ̂ || (k, 0)
−1 ,
z + τ||M (k)
en donde τ||M (k) es el tiempo de relajación de Maxwell de las fluctuaciones longitudinales
de corriente. Usando esta aproximación en (4.28 y 4.25) se ve que esta aproximación
implica que F̂ (k, z) tendrá tres polos y por lo tanto F (k, t) una variación exponencial
de tres tiempos de relajación. Así mismo, D tendrá una variación exponencial de dos
tiempos de relajación.
El esquema de hidrodinámica generalizada mencionado anteriormente data desde la
teoría de los líquidos simples. Hess y Klein desarrollaron el esquema correspondiente
para partículas brownianas en el contexto de la dinámica de Fokker-Planck [41]. La
diferencia principal entre ambos esquemas radica en el hecho de que en los líquidos
simples no existen las interacciones hidrodinámicas, ni el fondo que ejerce fricción, de
tal manera que la función de fricción (4.30) en los líquidos simples solamente posee la
parte del tensor de viscocidad y la parte de alta frecuencia es una constante.
En [41] Hess y Klein estudian la dinámica de Smoluchowski como una forma límite de sus
estudios de la dinámica de Fokker-Planck, como el límite fuertemente sobreamortiguado
∞
(k) /M . En el límite fuertemente sobre-amortiguado
τ ζ̂αβ
ˆ
(4.38)
2
∞
∂t F (k, t) = −k D (k)F (k, t) + k
t
∆D(k, t − t0 )F (k, t)dt0 , t ≥ 0,
2
0
D∞ (k) =
(4.39)
kB T 1
S(k) ζ||∞ (k)
y
(4.40)
∆D̂(k, z) =
D∞ (k)∆ζ̂|| (k, z)
1
.
∞
ζ|| (k)
1 + ∆ζ̂|| (k, z)/ζ||∞ (k)
En la aproximación viscoelástica la función generalizada de difusión es
(4.41)
∆D̂(k, z) =
D∞ (k)∆ζ|| (k, 0)
1
−1 ,
∞
ζ|| (k)
z + τDM (k)
y entonces la función de memoria de F es la exponencial
(4.42)
∆D(k, t) =
h
i
D∞ (k)∆ζ|| (k, 0)
M
exp
−t/τ
(k)
, t ≥ 0.
D
ζ||∞ (k)
62
Capítulo 4. Estudios previos sobre los efectos de memoria
Entonces, F tendrá dos modos de decaimiento exponencial. La escala de tiempo τDM (k)
es el tiempo de relajación de Maxwell de la función de difusión y está dado por
(4.43)
−1
τDM (k)
=
∆ζ|| (k, 0) ζ̂|| (k, z)
.
ζ||∞ (k) ∆ζ̂|| (k, z)
Hess y Klein remarcan la dificultad de interpretar físicamente los dos modos de decaimiento de F , excepto en casos muy particulares. Estos modos están dados por las
frecuencias características
−1
τ1,2
−1
1 (1)
µ (k) + τDM (k)
=
2

±
1 (1)
µ (k) − τDM (k)
2
−1 1/2
(2)

1 − 4µ (k)

−1 2 
µ(1) (k) − τDM (k)
en donde µ(i) es el i-ésimo cumulante de F
(4.44)
µ(i) (k) = − lı́m+ ∂t ln F (k, t),
t→0
(4.45)
µ(1) (k) = k 2 D∞ (k) =
(4.46)
µ(2) (k) = −µ(1) (k)
4.2.3.
k 2 kB T
,
S(k) ζ||∞ (k)
∆ζ|| (k, 0)
.
ζ||∞ (k)
Hidrodinámica generalizada y teorema de estacionaridad
Ambos, Hess y Klein, y Yeomans-Reyna y Medina-Noyola parten de la extensión de
la hidrodinámica generalizada de los líquidos simples al caso de las suspensiones coloidales. Esta extensión implica el uso de ecuaciones de Langevin generalizadas para
las cantidades mesoscópicas/macroscópicas. Sin embargo, una vez que estas ecuaciones
generalizadas para las densidades locales se han definido, cada par de autores toma una
ruta distinta para estudiar la estructura de estas ecuaciones11 . Además, las definiciones
de las ecuación de Langevin generalizadas que proporcionan también es distinta, mientras Hess y Klein las planean en términos de funciones de respuesta Yeomans-Reyna y
Medina-Noyola se basan en el teorema de estacionaridad discutido por Medina-Noyola
y Del Río-Correa [92].
Entonces Hess y Klein basan su estudio en (a) las ecuaciones de Langevin generalizadas
de las fluctuaciones de la densidad y de corriente, en (b) la teoría de respuesta lineal
11
Recordemos que la ecuación de Langevin generalizada es un resultado formal que nos da información
únicamente del cumulante de primer orden, y que toda la demás información está condensada en
la función de memoria.
4.2. Efectos de memoria: Dinámicas disipativas
63
para obtener las expresiones matemáticas para las funciones de respuesta, en (c) el
formalismo de operadores de proyección para contraer la parte dinámica microscópica,
y (d) en el operador de evolución de Fokker-Planck para guiar la evolución de las
variables dinámicas. Posteriormente, toman el límite de sobreamortiguamiento12 .
Por otro lado, Yeomans-Reyna y Medina-Noyola parten del teorema de estacionaridad que establece, en términos generales, la estructura matemática de la ecuación de
evolución de los procesos estocásticos estacionarios. El teorema se fundamenta bajo la
condición de que la estructura matemática de las ecuaciones debe preservar el teorema
de fluctuación disipación bajo contracciones de la descripción [92]. Posteriormente, consideran la ecuación de Langevin de N partículas [42] para poder obtener la información
microscópica que determina el comportamiento de la función de memoria13 . El resultado que obtienen es una jerarquía de funciones de memoria. Haciendo aproximaciones
sobre los elementos de la jerarquía de orden mayor que M C , pueden obtener expresiones
no triviales para M C . A continuación bosquejamos las ideas generales de este esquema.
El teorema de estacionaridad establece que: la ecuación diferencial estocástica más
general que describe un proceso estocástico estacionario n-variado a(t) = {ai (t)}ni=1
debe tener la forma
ˆ t
d
−1
L(t − t0 )a(t0 )dt0 + f (t),
a(t) = −ωχ a(t) −
(4.47)
dt
0
(4.48)
ω = −ω † ,
(4.49)
χ = ha(0)|a(0)i ,
(4.50)
L(t) = hf (0)|f (t)i .
En donde la matriz L = L† . Las condiciones de simetría y las relaciones de Onsaguer
ayudan a identificar cuales elementos de las matrices ω y L son nulos y también permiten
determinar a ω. Como las funciones de memoria contienen información microscópica, no
pueden determinarse únicamente a partir de argumentos fenomenológicos pertenecientes
al mundo micro- o mesoscópico. En esto último ayuda la ecuación de Langevin, para
obtener más información acerca de los elementos de L que quedan indeterminados.
En este contexto, el trabajo de Hess y Klein corresponde al caso a = {n, j}. Vimos que
la introducción de la nueva variable j agrega a la descripción la función de memoria
ζ cuya componente longitudinal es la función de memoria de D, siendo a su vez D la
función de memoria de n(k, t). Por lo tanto, podemos decir que ζ es la memoria de
12
En cierto sentido, la formulación de Hess y Klein es la extensión de la mecánica de Liouville para
estudiar partículas brownianas.
13
Podemos decir, entonces, que la formulación de Medina-Noyola y colaboradores es como la extensión
de la mecánica de Newton al los sistemas de partículas brownianas. Tal vez por ello la formulación
de Hess y Klein parezca un poco mas “oscura”, ya que condensa más la información.
64
Capítulo 4. Estudios previos sobre los efectos de memoria
segundo orden de n(k, t). Hemos visto que una memoria de segundo orden con un polo
produce una memoria de primer orden con dos polos. En otras palabras, vimos que la
estructura de la memoria de primer orden es más rica que la de la memoria de segundo
orden. Por lo tanto, no es sorprendente que haciendo aproximaciones triviales sobre
la memoria de segundo orden se obtengan resultados no triviales para la memoria de
primer orden14 .
La idea, entonces, es aumentar el número de elementos de a para tener una descripción
más detallada que permita conocer más acerca de la función de memoria del orden
más bajo. Desde luego, cada nuevo elemento debe decirnos algo sobre la dinámica del
elemento precedente. Esta forma sistemática de estudiar a las suspensiones coloidales
tiene un análogo en el estudio de los líquidos simples de Kim y Nelkim mencionados en
la sección 4.1 como el trabajo (L2) .
Alarcón-Waess y Medina-Noyola introdujeron un nuevo elemento que proviene de la
ecuación de balance de j|| . Usando la definición de densidad de corriente (4.20) y la
ecuación de Langevin de N partículas (3.56) se puede escribir [91]
(4.51)
∂t j̃|| (k, t) = −
f˜0 (k, t)
ζ0
j̃|| (k, t) +
+ ikδ p̃(k, t) + ikδσ̃ 0 (k, t),
M
M
en donde δ p̃(k, t) y δσ̃ 0 (k, t) = δσ̃(k, t)−δ p̃(k, t) describen las fluctuaciones de la presión
local y de la componente isotrópica diagonal del tensor de esfuerzos, respectivamente.
Además,
1 X
k · Fsi (t) exp [ık · Ri (t)]
(4.52)
f˜0 (k, t) = √
N i
y ζ 0 es ζ̂ ∞ sin interacciones hidrodinámicas. El nuevo elemento introducido en la descripción es el tensor de esfuerzos.
A continuación se presenta la jerarquía de ecuaciones de Langevin generalizadas en cada
uno de los niveles de descripción.
(4.53)
15
a = {n}
ˆ t
2
∂t ñ(k, t) = −k
DC (k, t − t0 )S(k)−1 ñ(k, t)dt0 + f˜n (k, t).
Para el primer nivel
0
n
Para el segundo nivel a = n, j||
(4.54)
o
∂t ñ(k, t) = −ωn|| χ−1
|| j̃|| (k, t),
14
Esto nos recuerda al caso de los potenciales efectivos en donde suposiciones triviales sobre las funciones de correlación directa produce potenciales efectivos altamente no triviales.
15
La función Lnn no es la función de memoria M C definida en la sección 3.2.7, pero notemos que
difiere del coeficiente de difusión colectiva DC por un factor k 2 , Lnn = k 2 DC , y de la función
de difusión de Fick por un factor S, Lnn = D × S. Entonces, por consistencia con la notación
que venimos manejando en esta revisión reemplazaremos en las expresiones de [91] a Lnn por
Lnn = k 2 DC . Además, atendiendo a la forma de la ecuación local de estado (4.27), identificamos
que si L|| denota al elemento de L en la dirección paralela a k, entonces L|| = ζ|| χ|| y también
haremos este reemplazamiento.
4.2. Efectos de memoria: Dinámicas disipativas
65
y
ˆ
(4.55)
t
ζ|| (k, t − t0 )j̃|| (k, t)dt0 + f˜|| (k, t).
−1
∂t j̃|| (k, t) = −ω||n S(k) ñ(k, t) −
0
n
Para el tercer nivel a = n, j|| , σ
o
∂t ñ(k, t) = −ωn|| χ−1
|| j̃|| (k, t),
(4.56)
(4.57)
∂t j̃|| (k, t) = −
(4.58)
ζ0
f˜0 (k, t)
+ ikδ p̃(k, t) + ikδσ̃ 0 (k, t),
j̃|| (k, t) +
M
M
∂t σ̃(k, t) = −ωσ|| χ||
−1
ˆ
t
0
0
˜
Lσσ (k, t − t0 )χ−1
σσ σ̃ (k, t)dt + fσ (k, t).
j̃|| (k, t) −
0
En el primer nivel de descripción tenemos que
(4.59)
F̂ (k, z) =
S(k)
z+
k 2 D̂C (k, z)S −1 (k)
.
Combinando las ecuaciones del segundo nivel y comparando con la anterior se ve que
(4.60)
D̂C (k, z) =
χ||
z + ζ̂|| (k, z)
.
Y por último
(4.61)
k 2 χσσ χ−1
ζ0
||
ζ̂|| (k, z) −
=
.
−1
M
z + χσσ L̂σσ
En todas estas expresiones χ|| = kB T /M , ωn|| = −ikχ|| y ωjσ = −ikχσσ con χσσ dada
en términos de la estructura estática del sistema
"
!#
!2
ˆ
kB T
1 − cos kz
1
kB T
3
2
3kB T + n d rg(r)∂z [u(r)]
−
.
(4.62) χσσ (k) =
M2
k2
S(k) M
Hess y Klein propusieron que como la parte cinética del tensor de esfuerzos σK se
relaja mucho más rápido que la parte de interacción σU , entonces únicamente esa otra
parte debería de considerarse en χσσ . Yeomans-Reyna y Medina-Noyola formalizaron
esa sugerencia introduciendo en su descripción el tensor
n de esfuerzos
o descompuesto en
sus partes cinética y potencial. Consideraron que a = n, j|| , σK , σU y obtuvieron que
en el límite de sobre-amortiguamiento
(4.63)
F̂ (k, z) =
S(k)
z+
k2 D0 S −1 (k)
k2 D 0 χU U χ−2
||
1+
z+χ−1 L̂U U (k,z)
UU
.
66
Capítulo 4. Estudios previos sobre los efectos de memoria
En esta expresión
"
kB T
kB T + n
(4.64) χU U (k) =
M2
ˆ
1 − cos kz
d3 rg(r)∂z2 [u(r)]
k2
!#
1
−
S(k)
kB T
M
!2
.
Este par de ecuaciones (4.63 y 4.64) reproduce exactamente los primeros tres momentos
m(0) , m(1) , m(2) , de la función intermedia de dispersión que fueron calculados previamente por Ackerson a partir del operador de evolución de Smoluchowski [93]. Aplicando
el mismo procedimiento para el estudio de Fs obtienen que
(4.65)
F̂s (k, z) =
1
z+
k2 D0
(S) −2
k2 D 0 χ
χ
U U ||
1+
(S) −1 (S)
z+ χ
L̂
(k,z)
UU
UU
(
)
con
(4.66)
(S)
χU U (k)
=
χ−2
||
ˆ
d3 rng(r)∂z2 [u(r)/kB T ] .
k2
Como subrayan Yeomans y Medina, el propósito de este tipo de construcciones no
debe ser el de reproducir los momentos o condiciones de tiempos cortos de F , ya que
para ello existen métodos de calculo que pueden ser mas directos. El propósito debe
ser dilucidar formas funcionales razonables para DC o M C a partir de esta serie de
aproximaciones. Arauz y Medina [90] previamente habían calculado m(3) para hacer
el ajuste de una exponencial que se mencionó al final de la sección 4.2.1. Entonces,
Yeomans y Medina usaron este resultado para extrapolar cómo sería la función de
Memoria. Para poder hacer esto, se debe proponer una forma funcional para L̂U U que
cumpla con la condición del tercer momento. Desde luego, la primer suposición plausible
es escribir LU U (k, t) = L(0) (k)δ(t) + ∆LU U (k, t) , es decir, identificar primero a la parte
markoviana del proceso estocástico σU U a la cual se le denota como L(0) (k). Lo que
hacen Yeomans y Medina es hallar aquel L(0) (k) que cumple con la condición del tercer
momento, es decir, hallar el L(0) (k) tal que con el se pueda obtener el tercer momento.
Luego, suponen que ∆LU U (k, t) = 0 y recuperan la SEXP. Las expresiones para la
SEXP en el lenguaje de la ecuación generalizada de Langevin quedan como
(4.67)
F̂ (k, z) =
S(k)
z+
k2 D0 S −1 (k)
(SEXP)
1+ζ̂||
(k,z)
,
con
(4.68)
(SEXP)
ζ̂||
(k, z)
=
k 2 D0 χU U χ−2
||
(0)
z + χ−1
U U L (k)
y
(4.69)
F̂s (k, z) =
1
z+
k2 D0
S(SEXP)
1+ζ̂||
(k,z)
4.2. Efectos de memoria: Dinámicas disipativas
67
con
(S)
(4.70)
S(SEXP)
ζ̂||
(k, z)
=
k 2 D0 χU U χ−2
||
(S) −1
z + χU U
LS(0) (k)
Una aplicación que Yeomans, Medina y Acuña-Campa [94] hacen del formalismo anterior se refiere a una serie de aproximaciones del tipo Vineyard [67] para las funciones de
memoria. La aproximación de Vineyard más simple consiste en suponer que F = SFs .
En el contexto de los líquidos simples ya se había considerado la aproximación de Vineyard que relaciona a la función de memoria de una partícula con la memoria colectiva.
El trabajo pionero en esa linea fue el de Kim y Nelkim mencionado como (L2) en la sección 4.1. Sin embargo, no se había extendido esa noción al caso de los líquidos coloidales
hasta el trabajo [94].
Yeomans, Acuña y Medina, sobre la base de la jerarquía de ecuaciones de memoria en
el formalismo de la dinámica de Langevin desarrollado por ellos mismos, propusieron
aproximaciones de Vineyard que relacionan a la función de memoria colectiva del tensor
de esfuerzos con la correspondiente a la autodifusión [94]. En ese trabajo fueron más allá
de la suposición de que la parte no markoviana de la función de memoria de tercer orden
es cero, es decir, mas allá de la SEXP. Para ello, relacionaron a las partes no markovianas
a través de aproximaciones de Vineyard. A través de cálculos numéricos llegaron
a la
0
0
S
S
conclusión de que la aproximación de Vineyard más precisa es ∆L̂/L = ∆L̂ / L .
La metodología que usaron para realizar el estudio numérico consiste (a) en calcular a
partir de las simulaciones a F y Fs , (b) a partir de Fs obtener ∆L̂S , (c) con las aproximaciones de Vineyard calculan la F correspondiente, a la cual podemos denotar como
F ∼ , y (d) compararon a F con F ∼ en la posición del máximo principal kmax del factor
de estructura estática. Un punto que no se discute en este trabajo con detalle es el
problema de la inversión de Laplace. En este trabajo nos enfrentamos a este problema
y nos dimos cuenta de que es un problema de análisis numérico muy complicado. En
efecto, los matemáticos lo identifican como un “ill-posed problem” debido al comportamiento singular del kernel de la transformación (Ver por ejemplo, [96]). Sin embargo,
es notable la concordancia que obtienen entre F y F ∼ en la que concluyen que es su
mejor aproximación.
Hasta este punto la parte de los trabajos de Hess y Klein fincados sobre la teoría de respuesta lineal, así como los trabajos mencionados de Medina-Noyola y colaboradores, son
inconsistentes en el sentido de que las ecuaciones no quedan cerradas. Puesto en otras
palabras, se obtienen las ecuaciones de memoria y se hacen algunas aproximaciones
concernientes a su estructura, las cuales están basadas en formas límite o condiciones
iniciales del comportamiento de F , pero las ecuaciones sin tales aproximaciones no se
pueden resolver autoconsistentemente debido a la falta de una relación de cerradura
que relacione a las funciones de memoria con las demás cantidades, y con las condiciones iniciales de la estructura. Recordemos que lo mismo pasa en la estructura estática,
pues no se sabe a ciencia cierta como son las funciones puente. En efecto, para cerrar
el sistema de ecuaciones en la dinámica también debemos recurrir a aproximaciones.
68
Capítulo 4. Estudios previos sobre los efectos de memoria
La forma en que Hess y Klein cerraron sus ecuaciones es la conocida como teoría de
modos acoplados de segundo orden. Dedicaremos la siguiente sección para discutir la
teoría de modos acoplados. Medina y Yeomans también formularon una teoría autoconsistente como culminación de los dos trabajos que hemos comentado en esta sección. A
continuación bosquejamos la teoría de Medina-Noyola a la cual él llama la ecuación de
Langevin autoconsistente de la dinámica coloidal [95].
Las aproximaciones de Vineyard de Yeomans, Campa y Noyola fue el primer paso que
se dió hacia la formulación autoconsistente de la dinámica colectiva sobre la base de la
ecuación de Langevin generalizada, esto es, Medina y colaboradores toman el punto de
vista de que la dinámica colectiva debe relacionarse de forma sencilla con la dinámica de
una partícula. Por lo tanto, para cerrar el esquema proponen un método para calcular
Fs autoconsistentemente. Este método, a su vez, parte de la suposición intuitiva de que
la función Fs debe relacionarse de forma sencilla con las propiedades que caracterizan
–que no es lo mismo que las que lo determinan– la dinámica difusiva de una partícula
browniana, como por ejemplo el m.s.d.. De hecho, lo que proponen es relacionar a M S
con la función de memoria del m.s.d., esto es, con la parte no markoviana de la función
de fricción ζ(t) en la ecuación de Langevin generalizada para una partícula (3.68) la
cual como se ha venido haciendo se denota como ∆ζ(t). Previamente Medina-Noyola
había desarrollado un esquema de contracción de la descripción [43] en el cual relaciona
a ∆ζ(t) con F y Fs y con ello la descripción se vuelve autoconsistente.
Una relación de cerradura que proponen es
M̂ S (k, z) =
(4.71)
con la expresión aproximada
(4.72)
kB T n
∆ζ (t) =
(2π)3 ζ 0
∆ζ̂(z)
= ∆ζ̂ ? (z)
ζ0
ˆ
?
d3 k
[kz h(k)]2
F (k, t)Fs (k, t).
1 + nh(k)
El sistema se cierra con una aproximación de Vineyard que relaciona a M C con M S . Sin
embargo, esta aproximación puede ser precisa solamente en números de onda pequeños.
Esto se debe al hecho de que las propiedades de autodifusión están dadas únicamente
por M̂ S en el límite de numero de onda pequeño.
Para mejorar la aproximación anterior proponen una interpolación de M S entre los
(SEXP)
comportamientos ∆ζ̂ ? (z) para números de onda pequeños y ζ̂ ||
(k, z) para números
de onda grandes. Para realizar esto toman como función a interpolar a ∆LSU U (k, t), a
través de una función de interpolación α(k), proponiendo que

(4.73)
∆LSU U (k, t) = k 2 D0
(S) 2
χU U

χ−2
||
1
∆ζ̂ ? (z)
−

1
(SEXP)
ζ̂ ||
(k, z)
 α(k)
y que la función de interpolación deba cumplir lı́mk→0 α(k) = 1 y lı́mk→∞ α(k) = 0.
Arbitrariamente escogen la función
(4.74)
α(k) =
1
1+
k
kc
ν ,
4.2. Efectos de memoria: Dinámicas disipativas
69
con la cual obtienen una relación de cerradura directa entre la función de memoria de
segundo orden no markoviana ζ̂ S|| (k, z) y la función de fricción dependiente del tiempo
S(SEXP)
∆ζ̂ ? (z), a través de la parte markoviana ζ̂ ||
Dicha cerradura es
(4.75)
S(SEXP)
ζ̂ S|| (k, z) = ζ̂ ||
(k, z) y de una nueva función λ(k).
h
S(SEXP)
(k, z) + ∆ζ̂ ? (z) − ζ̂ ||
i
(k, z) λ(k)
con
S(SEXP)
(4.76)
λ(k) =
ζ̂ ||
∆ζ̂ ? (z) +
h
(k, z)α(k)
S(SEXP)
ζ̂ ||
(k, z)
i
− ∆ζ̂ ? (z) α(k)
de tal manera que lı́mk→0 λ(k) = 1 y lı́mk→∞ λ(k) = 0.
Incluyendo a las aproximaciones Vineyard, lo único que les falta en su esquema es
determinar a los parámetros kC y ν en la función de interpolación. La determinación
de estos parámetros la efectúan mediante la comparación de la soluciones de su sistema
autoconsistente con los resultados que se obtienen de simulaciones, barriendo una gama
de valores posibles para ν y kC , en un sistema bidimensional de referencia compuesto de
partículas brownianas de Yukawa y notando cuales valores ajustan mejor los datos de
ese sistema de referencia. Llegan a la conclusión de que para los sistemas bidimensionales
de partículas de Yukawa las elecciones óptimas son ν = 2 y kC = kmin , en donde kmin
es el número de onda que localiza el primer mínimo de S(k) . Recientemente, la teoría
estudiada en esta sección se ha extendido al estudio de mezclas [97]. Sin embargo,
como mencionan en [97] esta teoría aún carece de una forma simple para introducir
las interacciones hidrodinámicas, así como tampoco puede tratar de forma rigurosa los
sistemas de esferas duras.
4.2.4.
Dinámica de Smoluchowski II. Teoría de modos acoplados
Hasta este momento hemos considerado dos esquemas autoconsistentes: La aproximación de acoplamiento débil y la teoría autoconsistente de la ecuación de Langevin generalizada. Sin embargo, la aproximación de acoplamiento débil es muy limitada y en la
practica su realización no es de interés. En esta sección comentaremos sobre el esquema autoconsistente denominado teoría de modos acoplados (MMCA por mode-mode
coupling approximation).
El esquema de la teoría de modos acoplados se basa en el formalismo de operadores de
proyección que introdujimos en la sección 3.2.2. Una revisión de los fundamentos de la
teoría de modos acoplados fue proporcionada por Keyes [22]. Después del trabajo fenomenológico de Onsaguer [98, 99] sobre las propiedades de transporte16 , el formalismo
de operadores de proyección surgió como una herramienta muy útil para determinar los
coeficientes de Onsaguer. El esquema de modos acoplados es, dentro de la dinámica coloidal, la aplicación por excelencia del formalismo de operadores de proyección. Fixman
16
Por ejemplo, la movilidad introducida en la sección 3.2.7.
70
Capítulo 4. Estudios previos sobre los efectos de memoria
introdujo las primeras ideas que forman la base de la teoría de modos acoplados actual.
Fixman estaba interesado en estudiar el incremento súbito de la absorción del sonido
en la aproximación a un punto crítico[100]. Sin embargo, su formulación fue heurística,
con gran intuición física, y no se parece en mucho a la teoría de modos acoplados actual.
Kadanoff y Swift [101] y Kawasaki [102] formalizaron las ideas de Fixman, dándole a la
teoría de modos acoplados el aspecto que hoy le conocemos. Götze y Luke trasladaron
este formalismo al estudio de los líquidos simples; es el trabajo que listamos como (L5)
en la sección 4.1.
Desde el descubrimiento por Pusey y colaboradores de la no exponencialidad de F en
sistemas coloidales una de las primeras teorías autoconsistentes que trató de reproducir
estos resultados fue la teoría de los modos acoplados. Hess y Klein [41] la extendieron
para estudiar la dinámica de Fokker-Planck y de Smoluchowski de las dispersiones
coloidales sin interacciones hidrodinámicas. Recientemente, Nägele y colaboradores han
trabajado intensamente en el estudio de la dinámica coloidal partiendo de la MMCA y
considerando las interacciones hidrodinámicas [103, 104, 105, 106, 107, 108]. Antes de
proporcionar el esquema autoconsistente de la dinámica coloidal en el formalismo de la
MMCA revisaremos las ideas generales de la teoría.
4.2.4.1.
Ideas generales
Las nociones de variables conservadas, variables lentas y variables rápidas forman el
punto de partida de la teoría de modos acoplados. Sin embargo, ¿cómo saber cuándo
una variable es lenta?. En la dinámica de Smoluchowski de las partículas coloidales se
considera que la variable conservada y “lenta” principal es la densidad local parcial
(4.77)
Nα
X
nα (r, t) =
δ(r − riα (t)).
iα =1
Ahora examinemos el porque de esta afirmación.
En general, cualquier variable dinámica a asociada con una propiedad molecular Ai
para cada partícula i, a la podamos representar en la forma
(4.78)
a(r, t) =
Nα
X
Ai (t)δ(r − riα (t)).
iα =1
o bien
(4.79)
ã(k, t) =
Nα
X
Ai (t) exp [ık · riα (t)]
iα =1
˜ t), vees una variable conservada. Además, como ∂t ã(k, t) = −∇ · j̃(k, t) = −ik·j(k,
mos entonces que todas las variables conservadas son lentas si las monitoreamos en
longitudes de onda grandes, es decir, en números de onda lo suficientemente pequeños.
4.2. Efectos de memoria: Dinámicas disipativas
71
Debemos precisar más el criterio dado anteriormente, pues a primera vista parecer que es
muy limitado, es decir, debemos especificar que tan grandes deben ser las longitudes de
onda bajo consideración. Deberíamos juzgar que k = 2π/λ es pequeño si k < 2π/λa en
donde λa es la escala de longitud dominante en el comportamiento de a. Por ejemplo,
para la variable dinámica nα (r, t) la escala de longitud característica es la distancia
promedio entre partículas coloidales, o bien, el tamaño de las mismas. Por lo tanto, si
se ha de hacer una aproximación para describir a nα (r, t), o a Fαβ (k, t), sobre la base
de que las nα (r, t) son variables lentas, dicha aproximación parecería válida solamente
para describir fluctuaciones de números de onda k < k (min) , en donde k (min) es el menor
de los números de onda característicos. Sin embargo, si atendemos a otra propiedad
conservada b de carácter microscópico veremos que λb λa . Por lo tanto, si incluimos
a todas las nα (k, t) en la descripción, diremos que el conjunto {nα (r, t)} es el más lento
entre todos los conjunto posibles de variables dinámicas.
Sea ã(k, t) una variable dinámica conservada y lenta, cuyo flujo disipativo o fuerza
fluctuante es f˜a , es decir, que ha|f a i = 0. La teoría de modos acoplados parte de la
idea de que los productos ã(k1 −k2 , t)ã(k2 , t), ã(k1 −k2 − k3 , t)ã(k2 , t)ã(k3 , t), ..., son
las variables más lentas dentro de las variables rápidas, es decir, que en general
hã(k1 −k2 , t)ã(k2 , t) · · · |f a (k1 , t)i =
6 0.
A
hã(k1 −k2 , t)ã(+k2 , t)|f a (k, t)i ,
hã(k1 −k2 − k3 , t)ã(k2 , t)ã(k3 , t)|f a (k, t)i ,
etc., se les llama la componente bilineal, la componente trilineal, etc., del flujo disipativo,
respectivamente.
La suposición más simple para obtener la fuerza fluctuante en términos de las variables lentas es la proyección bilineal, esto es, la proyección de f a (k, t) sobre productos
ã(k1 −k2 , t)ã(k2 , t)17
f a (k1 , t) = f a(0) (k1 , t) + P (2) f a (k1 , 0),
(4.80)
en donde
f a(0) (k1 , t) = 1 − P (2) f a (k1 , 0)
(4.81)
y
(4.82)
P (2) =
kC
X
hã(k1 −k2 , 0)ã(k2 , 0)| · · · i
ã(k1 −k2 , t)ã(k2 , t)
k2 =0 hã(k1 −k2 , 0)ã(k2 , 0)|ã(k1 −k2 , 0)ã(k2 , 0)i
son la componente completamente markoviana y el operador de proyección sobre la
componente no markoviana de la fuerza fluctuante, respectivamente. Por construcción,
f a(0) (k, t) es ortogonal tanto a f a (k, t) como a ã(k, t).
17
Mediante experimentos numéricos y técnicas diagramáticas se ha verificado que la contribución bilineal es la más importante en la determinación de f a (k, t); por una parte, Lo y Kawasaki encontraron
que las correcciones trilineales en adelante son pequeñas [109] y, por otra parte, Bedeaux y Mazur
encontraron que dichas correcciones varían más rápido que la contribución bilineal [110].
72
Capítulo 4. Estudios previos sobre los efectos de memoria
Entonces, la función de memoria asociada a ã(k, t) tendrá la expresión
M (a) (k1 , t)
hf a (k1 , 0)|f a (k1 , t)i
D
E
=
f a(0) (k1 , 0)|f a(0) (k1 , t)
=
+
kC
X
Uk1 ;k1 −k2 ,k2 Uk1 ;k1 −k20 ,k20 ã(k1 −k02 , 0)ã(k20 , 0)|ã(k1 −k2 , t)ã(k2 , t) ,
k2 ,k20 =0
en donde
(4.83)
Uk1 ;k1 −k2 ,k2 =
hã(k1 −k2 , 0)ã(k2 , 0)|f a (k1 , 0)i
.
hã(k1 −k2 , 0)ã(k2 , 0)|ã(k1 −k2 , 0)ã(k2 , 0)i
El término bilineal se aproxima mediante la factorización Gaussiana [111]
(4.84)
ã(k1 −k02 , 0)ã(k20 , 0)|ã(k1 −k2 , t)ã(k2 , t) = ã(k1 −k02 , 0)|ã(k1 −k2 , t) hã(k20 , 0)|ã(k2 , t)i δk2 ,k20 .
De tal manera que la ecuación de Langevin generalizada (3.83) de ã(k, t) es18
d
ã(k1 , t)
ã(k1 , t) = ω(k1 ) − L(0) (k1 )
+ f a (k1 , t)
dt
hã(k1 , 0)|ã(k1 , 0)i
ˆ t
k
C
X
−
dt0 (Uk1 ;k1 −k2 ,k2 )2
k2 =0
0
× hã(k1 −k2 , 0)|ã(k1 −k2 , t)i hã(k2 , 0)|ã(k2 , t)i
ã(k1 , t − t0 )
,
×
hã(k1 , 0)|ã(k1 , 0)i
en donde L(0) (k) es el coeficiente de transporte que proviene de la parte markoviana
f a(0) (k, t). Entonces, la ecuación de memoria correspondiente es
(4.85)
hã(k , 0)|ã(k , t)i
d
1
1
hã(k1 , 0)|ã(k1 , t)i = ω(k1 ) − L(0) (k1 )
dt
hã(k1 , 0)|ã(k1 , 0)i
ˆ t  kC
X
(Uk1 ;k1 −k2 ,k2 )2
−
dt0 
0
k2 =0
× hã(k1 −k2 , 0)|ã(k1 −k2 , t)i hã(k2 , 0)|ã(k2 , t)i]
hã(k1 , 0)|ã(k1 , t − t0 )i
×
.
hã(k1 , 0)|ã(k1 , 0)i
Entonces, dada una aproximación para la función de correlación de cuatro puntos a
tiempos iguales U , el término entre corchetes puede interpretarse como la relación de
cerradura que relaciona a la función de memoria de ã(k1 , t) con su correspondiente
función de autocorrelación. Sin embargo, surge la dificultad de que hay que conocer
C̃aa (k, t) no solamente para k = k1 , si no para un rango de valores de k2 . Habitualmente
18
Note que mantenemos la notación en la ecuación (3.83) conservando a la función de frecuencia.
4.2. Efectos de memoria: Dinámicas disipativas
73
se usa una forma límite de C̃aa (k, t), como su límite de longitudes de onda pequeñas,
para poder calcular la función de memoria y así cerrar el esquema.
Introducir la teoría de modos acoplados en la forma que acabamos de proporcionar es
puramente esquemática y oculta muchas dificultades y, a la vez, la riqueza que tiene
la teoría [22]. No obstante, para propósitos de introducción es suficiente con asimilar
estos conceptos básicos.
La formulación estrictamente formal de la teoría de modos acoplados la proporcionó por
primera vez Kawasaki [102]. El mismo Kawasaki proporcionó un método de solución
de las ecuaciones de modos acoplados. A su vez Kawasaki basó sus ideas en el trabajo
de Wyld [112] sobre la teoría de la turbulencia, el cual a su vez se basa en técnicas
ordinarias de la teoría cuántica de los campos. A continuación, mencionaremos muy
brevemente los puntos clave del trabajo de Kawasaki.
De acuerdo al esquema anterior, no queda claro porque se debe considerar únicamente
la ecuación de evolución de la variable dinámica. ¿Por qué no considerar también las
ecuaciones de evolución de las variables bilineales, y luego la de las trilineales, etc?.
Pues a final de cuentas todas estas ecuaciones están acopladas. El problema con este
punto de vista es: ¡hay que considerar las variables no lineales hasta el orden infinito!.
Si se trunca el conjunto de ecuaciones hasta la de orden n entonces la de orden n + 1
afectará a todas las de orden < n + 1 [22].
Kawasaki consideró otro punto de vista, el cual se basa en lo siguiente [22]. De acuerdo
a la teoría clásica del movimiento browniano, si con certeza {a(k, t)} contiene a todas
las variables lentas, entonces para cualquier variable f (k, t)
ˆ
(4.86)
M (k, t − t0 )f (k, t0 )dt0 = L(0) f (k, t).
Supongamos que en realidad hemos identificado a todas las variables lentas posibles.
Kawasaki propone entonces que únicamente se debe resolver la ecuación de
hã(k , 0)|ã(k , t)i
d
1
1
hã(k1 , 0)|ã(k1 , t)i = ω(k1 ) − L(0) (k1 )
dt
hã(k1 , 0)|ã(k1 , 0)i
+
kC
X
VkA,B
hB(k1 , k2 , 0)|B(k1 , k2 , t)i
1 ;k1 −k2 ,k2
k2 =0
+
kC
X
VkA,T
hT (k1 , k2 , k3 , 0)|T (k1 , k2 , k3 , t)i
1 ;k1 −k2 −k3 ,k2 ,k3
k2 ,k3 =0
+ ···,
en donde
B(k1 , k2 , t) = A(k1 − k2 , t)A(k2 , t)
T (k1 , k2 , k3 , t) = A(k1 − k2 − k3 , t)A(k2 , t)A(k3 , t)
···
74
Capítulo 4. Estudios previos sobre los efectos de memoria
y
=
VkA,B
1 ;k1 −k2 ,k2
VkA,T
=
1 ;k1 −k2 ,k2
ık hB(k1 , k2 , 0)|f a (k1 , 0)i
,
hB(k1 , k2 , 0)|B(k1 , k2 , 0)i
ık hT (k1 , k2 , k3 , 0)|f a (k1 , 0)i
,
hT (k1 , k2 , k3 , 0)|T (k1 , k2 , k3 , 0)i
···.
La ecuación de memoria y esta última ecuación son equivalentes. La única diferencia es
que en la primera los efectos no lineales se ocultan en la función de memoria y en esta
última son explícitos.
Mediante argumentos de hidrodinámica, se puede mostrar que las variables bilineales emergen de forma natural en el estudio de la dinámica de las fluctuaciones de la
densidad. En efecto, si
gα (r, t)
n(r, t),
nα (r, t)
g(r, t) =
(4.87)
representa la densidad de cantidad de movimiento, entonces con argumentos hidrodinámicos se puede ver que [22, 113]
(4.88)
∂t nα (k, t) = −k 2 D0 nα (k, t) +
kC
ik X
·
nα (k − k0 , t)g(k0 , t) + f n(0) (k, t).
mN k0 =0
Kawasaki propuso un método para resolver la ecuación de Langevin bilineal
(4.89)
kC
X
d
ã(k1 , t)
ã(k1 , t) = ω(k1 ) − L(0) (k1 )
+
VkA,B
ã(k1 − k2 , t)ã(k2 , t) + f a(0) (k, t).
1 ;k1 −k2 ,k2
dt
hã(k1 , 0)|ã(k1 , 0)i
k2 =0
El método consiste en usar la identidad relacionada con
(4.90)
∂t γ(t) = βγ(t) + (t)
y dada una γ 0 conocida tal que
(4.91)
∂t γ 0 (t) = βγ 0 (t), γ 0 (t = 0) = γ(t = 0)
entonces
(4.92)
ˆ
0
γ(t) = γ (t) +
t
0γ
dt
0
(t − t0 ) 0
(t ).
γ 0 (0)
0
De tal forma que se define el propagador de orden cero
(4.93)
G0 (k, t) = exp
h
i
ω(k) − L(0) (k) t Θ(t)
y el propagador
(4.94)
G(k, t − t0 ) =
hã(k, t0 )|ã(−k, t)i
Θ(t − t0 )
hã(k, 0)|ã(−k, 0)i
4.2. Efectos de memoria: Dinámicas disipativas
tales que con
ˆ
ã(k1 , t) = ã(k1 , 0)G (k1 , t) +
0
t
dt0 G0 (k1 , t − t0 )
+
t
dt0 G0 (k1 , t − t0 )f a(0) (k1 , t0 )
0
ˆ
75
0
kC
X
ã(k1 − k2 , t0 )ã(k2 , t0 )
VkA,B
1 ;k1 −k2 ,k2
k2 =0
por iteración podemos obtener una expresión perturbativa para el propagador completo.
La expansión iterativa mencionada es muy familiar en la teoría cuántica de los campos.
La estructura de esta expansión presenta términos en donde una función V siempre está
entre dos propagadores de orden cero. Por ello, la función V se llama función vértice.
Estas expansiones se tratan con técnicas propias de la teoría cuántica de los campos,
las cuales no tiene caso describir aquí [22].
4.2.4.2.
Acoplamiento de modos en dispersiones coloidales
Hess y Klein , y posteriormente Szamel y Löwen en el estudio de la transición vítrea
[41, 114], trasladaron la teoría de modos acoplados a la dinámica coloidal, ignorando
las interacciones hidrodinámicas. Luego, Nägele y colaboradores iniciaron el estudio de
los efectos de las interacciones hidrodinámicas que aún hoy en día se sigue explorando
[108].
De acuerdo a la formulación preliminar sobre la teoría de modos acoplados, en donde
la función de memoria está dada por el termino entre corchetes de la expresión 4.85,
parece natural extenderla a las fluctuaciones de la densidad local, y escribir la relación
de cerradura para la función de memoria M C en términos de dichas fluctuaciones. Otra
ruta sería aplicar la teoría de modos acoplados a la dinámica de Fokker-Planck y luego
tomar el límite de sobreamortiguamiento para describir al sistema en la escala difusiva.
Ahora veremos que si se toman estos puntos de vista los resultados no concuerdan.
La interpretación de la función de memoria como una función de viscocidad generalizada, es uno de los grandes beneficios que se obtienen cuando se conoce la función de
memoria. Esta interpretación proviene del hecho de que [54]
(4.95)
C
M (k, t) =
k
kB T
!2
D
E
˜|| (k, 0)| exp [QOS Qt] Qσ̄
˜|| (k, 0) ,
D0 Qσ̄
en donde, como hemos venido considerando, Q proyecta sobre el espacio ortogonal a
las fluctuaciones de la densidad local y OS es el operador de Smoluchowski (3.65). La
˜|| (k) es la componente longitudinal del tensor de esfuerzos promediado sobre
función σ̄
los momentos
N
X
k · Fsi (0)
˜|| (k) = √1
σ̄
ı
+ kB T exp [ık · Ri (0)] .
k2
N i=1
!
(4.96)
Usando el formalismo de respuesta lineal Hess mostró que
(4.97)
M C (k, t) = k 2
η̃|| (k, t)
nζ 0
76
Capítulo 4. Estudios previos sobre los efectos de memoria
de tal manera que la función de difusión en la dinámica de Smoluchowski es
η̃ˆ|| (k, z)
).
nζ 0
Una función de difusión físicamente aceptable solamente puede ser positiva definida. Sin
embargo, en sistemas fuertemente interactuantes no hay garantía de que esta expresión
cumpla con ese criterio. La dinámica de Fokker-Planck, por su lado, proporciona el
siguiente resultado:
(4.98)
(4.99)
D̂(k, z) = D0 (1 − k 2
D̂(k, z) =
D0
1 + k2
η̃ˆ|| (k,z)
nζ 0
el cual siempre es positivo definido.
En un principio, se pensó que esto era una falla de la dinámica de Smoluchowski.
Posteriormente, Cichocki y Hess [55] mostraron que la discrepancia es por dos razones.
La primera es considerar a M C como la función generalizada de viscocidad longitudinal.
La segunda es que M C no es la función de memoria más elemental. La función de
memoria elemental en la difusión colectiva es la conocida como función irreducible
de memoria [115, 116]. A continuación transcribimos unos fragmentos del trabajo de
Cichocki y Hess. 19
“ Ackerson ... y Dietrich y Peschel ... han derivado una ecuación de memoria para la
función de autocorrelación de la concentración
!
ˆ t
D0 k 2
∂
0
0
0
dt M̃ (k, t − t )S(k, t )
S(k, t) = −
S(k, t) −
∂t
S(k)
0
...
En el lenguaje de la teoría de muchos cuerpos, una función sería llamada una función de
memoria si su operador de evolución temporal es irreducible de una partícula. A primera
vista uno esperaría que el operador exp [QOS Qt] fuera irreducible de una partícula, ya
que Q proyecta sobre el espacio ortogonal a las únicas excitaciones relevantes de una
partícula en la descripción de Smoluchowski, las fluctuaciones de la concentración δn.
Esto sería cierto si OS fuera un operador diferencial de primer orden (como es el caso
del operador de Liouville de un líquido de una componente, por ejemplo) pero como
el operador de Smoluchowski es un operador de segundo orden, se puede realizar una
reducción adicional de una partícula mediante la inserción de un operador de proyección
Qi = 1 − Pi ,
Pi = hexp [ık · Ri ] | · · · i exp [ık · Ri ] ,
detrás del primer operador gradiente en QOS Q. Entonces se encuentra que la función
de memoria M̂ C (k, z), usada hasta ahora, puede expresarse en términos de una nueva
función irreducible de memoria M̂ irr (k, z) como
M̂ C (k, z) =
19
M̂ irr (k, z)
1 + M̂ irr (k, z)
Estos autores usan una notación ligeramente distinta a la que nosotros hemos venido usando en este
trabajo. Respetaremos esa notación únicamente en el texto entre comillas.
4.2. Efectos de memoria: Dinámicas disipativas
77
...”
Entonces la función de memoria elemental es la función irreducible de memoria. En
términos de M̂ irr (k, z)
(4.100)
D̂(k, z) =
D0
1 + M̂ irr (k, z)
De tal forma que
nζ 0
η̃ˆ|| (k, z) = 2 M̂ irr (k, z),
k
(4.101)
es decir, que la función que se relaciona con la viscocidad longitudinal de forma directa es
la función irreducible de memoria. De esta manera, aunque la relación D = D0 (1−M C )
es matemáticamente correcta, siempre debe usarse la expresión de Fokker-Planck (4.99)
para la función de difusión.
Después del trabajo de Cichocki y Hess, ahora se sabe que la aplicación directa de
la MMCA proporcionará mejores resultados si se aplica al cálculo de M irr , o equivalentemente a la componente longitudinal de la función de fricción colectiva, en lugar
de aplicarla directamente a M C como se podría pensar a primera vista. A continuación finalizamos esta sección presentando el esquema autoconsistente para la difusión
colectiva en la MMCA.
En nuestra notación, la función de memoria colectiva y su contraparte irreducible para
un sistema monodisperso y sin interacciones hidrodinámicas, están relacionadas por
ˆ t
C
2
irr
(4.102)
M (k, t) = k M (k, t) −
dt0 M irr (k, t0 )M C (k, t)
0
y la ecuación de memoria recordemos que es
ˆ
(4.103)
2
0
∂t F (k, t) = −k D S
−1
t
dt0 M C (k, t0 )S −1 (k)F (k, t − t0 ).
(k)F (k, t) +
0
La función irreducible de memoria en la aproximación bilineal es
ˆ
nD0
2
irr
d3 k 0 |V (k, k0 )| F (|k − k0 | , t)F (k 0 , t),
(4.104)
Mαβ (k, t) =
3
2(2π)
en donde
(4.105)
V (k, k0 ) =
k · k0
k · (k − k0 )
c̃(k) +
c̃(|k − k0 |) + knc̃(3) (k − k0 , k0 )
k
k
con
(4.106)
c̃(k) =
1
[1 − S(k)]
n
y c̃(3) (k − k0 , k0 ) es la transformada doble de Fourier de la función de correlación directa
de tres cuerpos.
78
Capítulo 4. Estudios previos sobre los efectos de memoria
Lo único que hace falta para cerrar el sistema autoconsistente es una aproximación
para la función de tres puntos. Idealmente, dada una aproximación para c̃(3) (k − k0 , k0 ),
las ecuaciones (4.103 y 7.24) pueden resolverse mediante un método numérico. En la
práctica, se suele aproximar a las F ’s en la expresión M irr mediante sus expresiones
de tiempos cortos. Una derivación del esquema para muchas componentes, incluyendo
interacciones hidrodinámicas, es muy extensa y puede encontrarse explicada en [106]. La
aproximación que se suele usar para la función vértice es la aproximación de convolución.
La aproximación de convolución consiste en considerar que c̃(3) (k − k0 , k0 ) = 0. Se llama
aproximación de convolución porque equivale a usar la aproximación de convolución
para las funciones de correlación de tres puntos que aparecen en la proyección bilineal
de la fuerza estocástica.
El principal uso que ha tenido la MMCA en la dinámica coloidal ha sido en el estudio de
la transición vítrea y ha predicho valores muy precisos de la fracción de llenado. Nägele y
colaboradores, así como trabajos relacionados la han usado para obtener las propiedades
de difusión a tiempos largos pues permite calcular los conocidos como factores de no
exponencialidad de la función intermedia de la dispersión. El esquema correspondiente
a la autodifusión es muy similar. En este trabajo verificaremos la validez de la MMCA
en sistemas bidimensionales de Yukawas, sin interacciones hidrodinámicas, en lo que se
refiere a su poder para predecir el comportamiento de la función de memoria colectiva.
4.2.5.
Otros estudios
Finalizamos este capítulo con esta pequeña sección, cuyo objetivo es comentar rápidamente sobre algunas investigaciones alternativas a los formalismos autoconsistentes
mencionados en este capitulo.
En cuanto a estudios de simulación, podemos mencionar los trabajos de Szymczak y
Cichocki en los cuales emplean simulaciones de dinámica Browniana para obtener el
promedio configuracional, con condiciones de frontera periódicas, del límite de longitud
de onda corta de la función de memoria [117], dada a partir de su expresión microscópica.
Sin embargo, su interés no parece radicar en la estructura misma de la función de
memoria, sino en los valores del coeficiente de difusión de tiempos largos que proporciona
y en los tiempos de relajación que a partir de los resultados numéricos emergen. Sin
embargo, aún la simulación de número de onda pequeño presenta muchas dificultades.
Cabe mencionar que los demás estudios parecen apuntar en la misma dirección: calcular
coeficientes de transporte, de no exponencialidad, tiempos de relajación, etc., los cuales
están dados por integrales en el tiempo de la función de memoria. Por ello, en estos
trabajos, la estructura de la función de memoria parece jugar un papel secundario en
tanto su integral de los valores correctos para estas cantidades.
La mayor parte de los estudios de simulación en donde se obtiene la función de memoria
tienen que ver con alguna forma de invertir la ecuación de memoria. La mayoría están
enfocados al caso de la función de autocorrelación de las velocidades y en dinámica
molecular. Estos métodos, como el de Berne y Harp [77], consisten en transformar la
ecuación de memoria en otra ecuación que numéricamente sea más estable. Sin embargo,
4.2. Efectos de memoria: Dinámicas disipativas
79
siempre se debe calcular alguna derivada. Como sabemos, siempre que se quiere calcular
las derivadas de cantidades fluctuantes se introducen inestabilidades numéricas.
También existen trabajos en donde se menciona que se resuelve para la función de
memoria mediante la transformación de Laplace de la ecuación de memoria. Sin embargo, la transformación inversa de Laplace, la cual es necesaria para regresar al dominio
temporal, es un problema del análisis numérico que actualmente se sigue estudiando,
debido a que presenta muchas dificultades que surgen porque el Kernel de la transformación tiende a cero rápidamente. Eso recala en que grandes variaciones en la cantidad
a transformar se vuelvan variaciones pequeñas en el espacio de Laplace. Debido a ello,
en matemáticas el problema de la transformación inversa de Laplace se dice que es un
“ill-posed problem”.
Por otro lado, la solución algébrica para la función de memoria en el espacio de Fourier
requiere que las entradas, es decir, las F ’s, se calculen con gran precisión, ya que si no,
la fase en el espacio complejo variará abruptamente y eso también introduce dificultades
en la transformación de Fourier temporal inversa. Al final de este trabajo encontramos
un articulo en donde se usa el par de transformaciones Fourier coseno y seno para
evaluar la función de memoria cerca de la transición vítrea [118]. Nosotros previamente
habíamos decidido implementar la inversión de la ecuación de memoria con este par
de transformaciones. Por lo tanto, tenemos la confianza de que nuestros cálculos sobre
funciones de memoria son viables para obtener conclusiones veraces.
Existen otras metodologías para estudiar las fluctuaciones de la densidad local. Ejemplos
son la teoría cinética y, más recientemente, las técnicas de expansiones diagramáticas
que están siendo desarrolladas por Szamel [119]. En [119] Szamel obtiene expansiones
para las funciones de memoria y de memoria irreducible. Estas expansiones son consistentes con la MMCA. Szamel propone que estas técnicas se pueden usar para ir mas
allá de la teoría de modos acoplados actual.
80
Capítulo 4. Estudios previos sobre los efectos de memoria
5 Estructura estática de coloides en
capas planas
Antes de presentar los resultados que obtuvimos para los potenciales efectivos, presentamos un resumen de los resultados representativos de la estructura estática de los
sistemas en capas. Algunos de los resultados aquí mostrados no están contenidos en [1],
pues en este trabajo pudimos explorar parámetros con un mejor punto de vista, dada
la experiencia que obtuvimos en el trabajo anterior.
5.1.
Sistema, simulación, escalas y potencial por pares
Consideremos el sistema de capas planas en la figura 5.1. En esta figura se hace referencia a un sistema general compuesto de q capas y en ella se explican las condiciones
a estudiar en este trabajo.
Figura 5.1: Ilustración de un sistema de q capas bidimensionales abiertas y planas. Todas las capas serán
paralelas al plano xy. Se considerará solamente el caso za+1 − za = `,
siendo za la coordenada z de la capa a. Cada capa estará compuesta
de un solo tipo de coloides, aunque
distintas capas podrían constituirse
de distintos tipos de coloides. A los
“distintos tipos” los llamaremos especies. Todos los coloides serán esféricos y tendrán el mismo diámetro,
aunque podrán tener distinta carga.
Todo el espacio estará caracterizado
por un parámetro de apantallamiento constante. Los coloides no podrán
saltar de una a otra capa. La numeración de las capas será desde el z
menor hasta el z mayor y solamente
consideraremos q = 2 y q = 3.
81
82
Capítulo 5. Estructura estática de coloides en capas planas
Como mencionamos en la sección 3.1.1.1, aquí consideraremos como potencial de interacción entre el par de coloides (i, j) al potencial de Yukawa
u(rij ) = Ai Aj
exp [−κrij ]
.
rij
La amplitud de interacción de los coloides α en la capa a se denotará como Aaα y se
supondrá un valor constante de κ y sobre todo el espacio.
La densidad macroscópica de coloides α en la capa a se denotará como naα . El coeficiente
de fricción sobre un coloide está determinado por la viscocidad longitudinal del solvente
y por el diámetro del coloide. Consideraremos que la viscocidad del medio es constante.
Por lo tanto, dado que ignoraremos las interacciones hidrodinámicas y como todos los
coloides tienen el mismo tamaño, todos tendrán el mismo coeficiente de difusión de alta
frecuencia al cual denotaremos como D0 .
El vector de posición del coloide i de la especie α que se encuentra en la capa a, al
cual en lo sucesivo nos referiremos como el coloide iaα , se denotará como Riαa . Dado que
las
son homogeneas, la energía potencial de interacción entre el par de coloides
capas
a b
iα , iβ se denotará simplemente como uab
αβ (r).
Escalaremos la energía en unidades de kB T , las distancias en unidades de la cantidad
(5.1)
d=
v
−1
u q p
uX X
t
na 
α
a=1 α=1
y los tiempos en unidades de
(5.2)
τ0 =
d2
.
D0
Se harán las redefiniciones
(5.3)
(5.4)
1
r = r,
d
uab
αβ (r) =
1 ab
u (r),
kB T αβ
en donde se entenderá que r es la distancia entre el par de coloides iaα , ibβ ,
(5.5)
Aα = √
1
Aα ,
kB T d
y
(5.6)
b = κd.
De tal manera que al potencial de interacción lo reescribiremos en unidades adimensionales como
(5.7)
uab
αβ (r) = Aα Aβ
exp [−br]
.
r
5.1. Sistema, simulación, escalas y potencial por pares
83
Además, siempre usaremos b = 1 en todos los sistemas que estudiaremos en este trabajo
y los parámetros que variaremos serán la distancia entre las capas `, y las amplitudes
de interacción, en magnitud y en signo.
Los resultados aquí mostrados se obtuvieron con la técnica de simulación de dinámica
browniana (BD, por brownian dynamics) que resulta de integrar en diferencias finitas
la ecuación de Langevin sobreamortiguada [45]. Esta técnica se presentó en [1] y una
referencia sobre esta técnica de simulación es el libro de Tildesley y Allen [120]. Las notas
de Gerhard Nägele [121] proporcionan una revisión de la BD incluyendo los casos para
tratar a las esferas duras y a las interacciones hidrodinámicas (HI, por hydrodynamic
interactions). En este trabajo no hemos considerado las esferas duras ni las HI, que
al menos en la estructura estática son irrelevantes, pero que pueden jugar un papel
importante en la estructura dinámica. La inclusión de las esferas duras es un problema
técnico mayor, a veces, hasta artesanal. Por ello no hemos incluido en este trabajo la
interacción de esfera dura.
El algoritmo de simulación de dinámica browniana empleado en este trabajo es el de
Ermak y MacCammon [45] sin HI. Este consiste en hacer evolucionar la posición del
coloide i en un intervalo de tiempo ∆t de acuerdo a
(5.8)
ri (t + ∆t) = ri (t) + D0 Fsi (t)∆t + δ a ri ,
en donde D0 , Fsi y δ a ri son el coeficiente de difusión de alta frecuencia sin HI, la fuerza
sistemática sobre el coloide que se debe a sus interacciones directas con las demás
partículas y un desplazamiento aleatorio con distribución gaussiana, respectivamente.
El desplazamiento gaussiano está determinado por
(5.9)
D
E
D
E
(δx)2 = (δy)2 = 2D0 ∆t
y se genera con una distribución uniforme de números aleatorios. Hemos empleado
el generador ran2 del numerical recipes [122] y el generador gaussiano contenido ahí
mismo. Empezamos con ran1, pero agotamos su ciclo de 109 ; ran2 fue suficiente para
cubrir las necesidades de este trabajo.
El intervalo de tiempo ∆t debe estar en la escala de tiempo de Smoluchowski τS (sección
3.2.3, τe τS τB ) , es decir τe ∆t τB . Una estimación cruda en este trabajo
para τe será la escala de tiempo de relajación del sistema sin interacciones, esto es,
τe = τ 0 . A posteriori, mediante la robustez de los resultados obtenidos, encontramos
que la elección óptima de es ∆t = 10−4 τ 0 lo cual es consistente con las mediciones de
Pusey [48].
Desde luego, el sistema simulado no corresponde a un sistema en el límite termodinámico, mas bien es una caja rectangular de base cuadrada y altura dada por la distancia
entre capas. La dirección z se encuentra restringida y por lo tanto en esa dirección no
hay problema. El problema es al considerar la superficie de las capas. Para ello se usa un
cuadro de longitud bl, por ejemplo, centrado en el origen, y se aplican las condiciones de
frontera periódicas estándar [120], replicando partes del cuadro cuando se requiera. Si
una partícula se sale del cuadro en (x, y) = (bl/2, bl/2) + (∆x, ∆y), entonces se vuelve
a introducir en (x, y) = (−bl/2, −bl/2) + (∆x, ∆y).
84
Capítulo 5. Estructura estática de coloides en capas planas
Dadas las especificaciones anteriores, el sistema se inicia en una configuración aleatoria y se hace evolucionar de acuerdo a 5.8, hasta que alcanza el estado de equilibrio.
Después de un número máximo de 5 mil (en los sistemas sin interacciones atractivas
estudiados aquí) y hasta de 40 mil pasos (en los sistemas con interacciones atractivas
estudiados aquí) de tiempo el sistema alcanza la configuración líquida de equilibrio.
Una vez que el equilibrio se ha alcanzado, se siguen generando configuraciones para su
uso posterior. Una vez generadas estas configuraciones, cualquier promedio configuracional en el ensemble se puede aproximar aplicando las operaciones apropiadas a estas
configuraciones.
5.2.
Estructura
5.2.1.
Notación
Consideraremos que en el sistema de capas hay N coloides, de entre los cuales Nαa
coloides son de la especie α que está en la capa a. Además, consideremos que hay q
P
P
capas y p especies, de tal manera que N = qa=1 pα=1 Nαa . La cantidad xaα = Nαa /N es
la fracción molar de las partículas α en la capa a. Sea Ω el área de cada capa, entonces
en el límite termodinámico1 y dado que en este trabajo usaremos la escala de longitud
d,
(5.10)
N
Na
Na
n=
→ nd2 = 1, naα = α → naα d2 = α
Ω
Ω
Ω
N
Ω
−1
= xaα .
La densidad superficial local de coloides α en la capa a se denotará como
a
naα (r, t)
(5.11)
=
Nα
X
δ(r − Riaα (t)).
ia
α =1
y sus componentes de Fourier como
a
naα (k, t)
(5.12)
=
Nα
X
h
i
exp ik · Riaα (t) .
ia
α =1
La función de distribución de coloides β en una capa b, vista de desde un coloide α en la
ab
capa a, se escribirá como gαβ
. Dado que la distancia entre las capas ` es un parámetro, se
considerará solamente la distancia en dos dimensiones como el argumento en todas las
funciones de distribución. La distancia en dos dimensiones es el módulo de la proyección
sobre el plano xy del radio-vector que une a la partícula iaα con la partícula jβb . Entonces,
para las funciones de distribución reasignaremos2
r
3D
=
3D
R b
jβ
−
Ri3D
a α
→r
2D
=
2D
R b
jβ
−
Ri2D
a α
xy
.
1
Todos los cálculos y teorías discutidos en este trabajo llevan implícita la marca del límite termodinámico.
2
Desde luego, en el cálculo de las fuerzas y energías que se necesitan para llevar a cabo la simulación,
consideraremos la distancia en tres dimensiones como argumento del potencial por pares.
5.2. Estructura
85
De aquí en adelante, se entenderá que
(5.13)
ab
ab
ab
ab
ab
gαβ
= gαβ
(r3D ) → gαβ
(`, r2D ) = gαβ
(r2D ) = gαβ
(r),
en donde el parámetro ` se omite y se especificará en el transcurso del texto, en los
pies de las figuras, o bien como etiquetas en las figuras. Las funciones de distribución
parciales se calcularon mediante la definición operacional
(5.14)
ab
dNβb = xbβ gαβ
(r)d2 r,
α, β = 1, 2, ..., p, a, b = 1, 2, ..., q.
Las funciones de correlación total asociadas se denotarán como
ab
hab
αβ (r) = gαβ (r) − 1.
(5.15)
También presentaremos a los factores parciales de estructura estática. Dado que el
sistema es inhomogeneo a lo largo del eje perpendicular a los planos, pero es homogéneo
e isotrópico sobre cada capa, en este trabajo solamente consideraremos la componente
sobre el plano xy del número de onda. Los factores de estructura parciales
(5.16)
ab
ab
Sαβ
(k) = δαβ
+
q
xaα xbβ h̃ab
αβ (k),
se calcularán de acuerdo a la autocorrelación de tiempos iguales
*
(5.17)

+
1
1
ab
Sαβ
(k) =  q naα (−k, t)  q nbβ (k, t) .
Nβb
Nαa
No hay problema alguno al considerar que elnúmero de onda
es bidimensional o tridi2D
−
R
mensional, pues lo que importa es la fase k · Rj2D
iα,a la cual extraerá solamente
β,a
las componentes bidimensionales.
A veces también usaremos como escala de longitud al diámetro de los coloides, especialmente para dar los valores ` de la distancia entre las capas. Como se dijo anteriormente,
aquí fijaremos el parámetro reducido de Debye-Hückel a b = κd = 1. Además, fijaremos
σ/d = 0.357, de tal manera que b = 2.8σ. Entonces, en todos lo sistemas la fracción
superficial total de llenado será de
(5.18)
φ=
π 2
nσ = 0.13,
3
lo cual representa una fracción de llenado de intermedia a moderadamente alta, dependiendo de la intensidad de la interacción3 .
El cálculo de la función de distribución de acuerdo a (5.14) y a las condiciones impuestas
sobre d2 r en la sección 3.1.1.2 es como sigue. Considere que el sistema está en equilibrio
3
De hecho, un sistema bidimensional monodisperso con esta fracción de llenado y con A = 80 empieza
a manifestar la transición no ergódica pues su F (k, t) no decae a cero, sino a un valor distinto de
cero. Cuando presentemos el estudio de la dinámica bidimensional tocaremos este punto otra vez.
86
Capítulo 5. Estructura estática de coloides en capas planas
y que la longitud del cuadro de simulación bl es mucho mayor que d. Tome una fotografía
del sistema en el instante ti y súbase al coloide iaα . Luego, haga un histograma dNβb (iaα , s)
que describa cuantas partículas jβb se encuentran dentro de un cascarón circular de grosor
dr y área da = 2πrs dr centrado en iaα y con radio medio rs = sdr. Con este experimento
usted podrá determinar la función de distribución que ve desde la posición del coloide
iaα en el instante ti
1
ab
gαβ
(rs ) a =
dNβb (iα , ti , s).
b
iα ,ti
2πxβ rs dr
Claramente, usted puede aumentar la precisión de este cálculo si se sube a todas las
demás partículas iaα , repite el experimento y luego obtiene el promedio aritmético de la
muestra obtenida. Más aún, lo puede mejorar considerando Nt fotos del sistema, cada
una generada con la aplicación sucesiva de (5.8). De esta manera, usted podrá obtener
la función de distribución con una precisión muy alta
a
ab
gαβ
(rs )
(5.19)
Nα Nt
X
1 1 X
ab
gαβ
(rs ) a .
= a
iα ,ti
Nα Nt iaα =1 i=1
Este cálculo es muy simple y sólo se requiere introducir la idea expresada dentro del
código de simulación.
Ahora mencionaremos cómo se calcula el factor de estructura. Como el seno y el coseno
son ortogonales, mediante un cálculo directo podemos ver que (5.16), puede escribirse
como
*
ab
Sαβ
(k) =
1
q

Nαa
a
Nα
X
ia
α =1
a

 1
sin k · Riaα (t)  q
Nb
β
X
Nβb jβb =1

Nb

sin k · Rjβb (t)


+
Nα
β
1 X
1 X
+ q
cos k · Riaα (t) 
cos k · Rjβb (t)
q

b
a
Nβ jβb =1
Nα iaα =1
El promedio en el ensemble se reemplaza por un promedio sobre distintas direcciones de
dispersión, por ejemplo, si se consideran los distintos k(iθ ∆θ) = k(cos(iθ ∆θ), sin(iθ ∆θ))
como equivalentes. Además, por la propiedad de estacionaridad, también podemos considerar distintos argumentos temporales como equivalentes, de tal manera que
ab
Sαβ
(k)
(5.20)
(5.21)
=
Nθ
Nt X
1 1 X
Nt Nθ i =1 i =1
t
θ



a
Nβb
Nα
X
X
1


 1
×  p
sin k(iθ ∆θ) · Rj b (it ∆t)
sin k(iθ ∆θ) · Riaα (it ∆t)  q
a
β
Nα ia =1
Nβb jβb =1
α




a
Nβb
Nα
1 X
 1 X

+ p
cos k(iθ ∆θ) · Riaα (it ∆t)  q
cos k(iθ ∆θ) · Rj b (it ∆t) .
a
β
b
Nα ia =1
Nβ jβb =1
α
5.2. Estructura
87
ab
Nota técnica: para evaluar los Sαβ
se recomienda lo siguiente. Dado que el cálculo de los
términos entre paréntesis para cada it usa Nθ veces la configuración it , conviene calcular
estos términos para cada instante ti y dirección de observación θi y almacenarlos como
una matriz Nt ×Nθ en el disco duro para su uso posterior4 . Con estos datos almacenados,
ab
ab
’s para lo
’s sino también las Fαβ
posteriormente no solamente podemos calcular los Sαβ
cual sólo habría que formar productos con argumentos temporales distintos.
4
Desde luego, la escritura debe realizarse por bloques cada cierto ∆Nt que no comprometa mucho
uso de memoria RAM y que a la vez sea lo suficientemente grande para no interrumpir la ejecución
de la simulación frecuentemente, de lo contrario el tiempo de ejecución puede multiplicarse.
88
5.2.2.
Capítulo 5. Estructura estática de coloides en capas planas
Dos capas
En cuanto a√sistemas q = 2, solamente mostraremos el caso de una especie p = 1
con A11,2 = 50, en el cual ambas capas son igualmente densas. En particular, nos
interesaremos en los casos ` = 1.2σ y ` = 1.5σ , aunque también presentaremos otros
valores. La elección de estas condiciones y parámetros se basa en el hecho de que ilustran
mejor los efectos característicos de los sistemas en capas.
11
22
(r) = g11
(r). El
La figura 5.2 muestra las funciones de distribución sobre las capas g11
inset muestra el factor de estructura para el caso ` = 1.2σ. Ahora estudiemos sistemáticamente el comportamiento mostrado por esta figura. Primero podemos analizar los
casos límite ` = 0 y ` = 2.9σ > b.
11
22
Figura 5.2: Función de distribución radial
11 (r) de un sistema de dos capas y
√ g11 (r) = g1,2
1,2
una especie con los parámetros A1 = 50, b = 1, x1 = 0.5 y σ = 0.357. Se muestran
los resultados para tres valores distintos de la distancia entre capas `. El inset muestra
al factor de estructura estática para ` = 1.2σ. Los símbolos muestran los resultados
de simulación BD y las lineas los que se obtienen resolviendo numéricamente OZ con
HNC, mediante el método numérico de Ng [123].
En el caso ` = 0, la función de distribución muestra el comportamiento típico de
5.2. Estructura
89
un sistema bidimensional con densidad n = d−2 , presentando su máximo principal
en rmax = d , el cual corresponde a la distancia promedio entre coloides. Por otro
lado, el caso ` = 2.9 que corresponde aproximadamente al límite ` → ∞, describe
a un sistema bidimensional cuyas partículas se encuentran a una distancia promedio
−1/2
√
√
x1,2
d = 2d la cual se manifiesta como el pico principal en rmax = 2d. No hay
1
algo más que decir acerca de estos límites, sólo que reproducen resultados ya conocidos
desde hace unos 15 años [27], en el sentido de que, en sistemas con interacciones de
largo alcance puramente repulsivas, el máximo principal de la función de distribución
se encuentra precisamente en la distancia promedio entre partículas.
12
21
Figura 5.3: Función de distribución radial cruzada g11
(r) = g11
(r) en el sistema de dos
capas introducido en la figura 5.2. El inset muestra la variación de la altura del máximo
principal con la distancia entre las capas `. Note como la correlación cruzada varía no
monotónicamente con `. Inicia aumentando en ` = 0 hasta alcanzar su máximo en ` = σ
y luego disminuye hasta el valor del gas ideal. Como se mostró en [1], este efecto de
aumento de correlación, reduce el coeficiente de autodifusión de tiempos largos.
La función de distribución en el caso intermedio ` = 1.2σ no parece ser una combinación
trivial de los casos límite. Lo primero que podemos
pensar es que esta función podría
√
tener dos picos,√uno en r = d, y el otro en r = 2d, pero eso no sucede, por el contrario,
11
g11
(r) en r = 2d está más cerca de ser un mínimo. Además, entre las posiciones de
90
Capítulo 5. Estructura estática de coloides en capas planas
los máximos principales en los casos límite, no hay un solo máximo sino más bien una
estructura como el perfil de una silla de montar. Los máximos locales de este perfil
√
se mueven acercándose, hasta fusionarse y dar lugar a un solo máximo en r = 2d
a medida que las capas se alejan, o bien, alejándose hasta que el segundo máximo
desaparece para dar lugar a un solo máximo en r = d, cuando las capas se fusionan.
Sin embargo, atendiendo a la forma del factor de estructura, vemos que este presenta
dos picos
√ sobresalientes. Uno de ellos se localiza exactamente en k = 2π/d y el otro en
k = 2π/d. Vemos entonces que el sistema se describe más sencillamente analizando
su factor de estructura. Se sabe que esto se debe a que el factor de estructura desnuda
completamente las escalas de longitud características.
Figura 5.4: Factores de estructura estática parciales del sistema de dos capas y una
11
22
especie introducido en la figura 5.2. Las lineas negras representan a S11
= S11
y las
12
21
grises a S11 = S11 . Se muestran resultados para dos valores distintos de `. Las lineas
segmentadas corresponden a ` = 1.2σ y las líneas sólidas a ` = 1.5σ.
Los trazos en símbolos representan los resultados de simulación de BD. Las lineas
representan los resultados que se obtienen al resolver la ecuación de Ornstein y Zernike,
con la relación de cerradura HNC y usando el método numérico de pivoteo basado en
el criterio de Ng. Estos resultados numéricos se obtuvieron en el trabajo de tesis [36].
5.2. Estructura
91
Observamos que los resultados de OZ+HNC subestiman la estructura en comparación
con la simulación. Esta discrepancia se conoce desde hace mucho tiempo, en relación
al estudio de los sistemas tri- y bidimensionales [27], y apunta al hecho de que la
función puente [24, 25, 26] adquiere relevancia especialmente para distancias r & d.
Para distancias r < d la cantidad dominante es el potencial por pares.
La figura 5.3 muestra a la función de distribución radial entre partículas de capas
distintas. Esta describe la distribución de coloides en una capa, como se ve desde un
coloide en la otra capa. La principal característica de esta cantidad es la variación no
monotónica de la correlación cercana, esto es, la correlación en el máximo más cercano.
Analizemos esto a la par que observamos el inset, el cual muestra la variación de la altura
del máximo principal a medida que ` crece. Cuando ` crece desde ` = 0, la correlación
en el máximo principal aumenta hasta alcanzar un máximo en ` = 1. Luego, cuando
` aumenta desde ` = 1 la correlación en el máximo principal empieza a disminuir y
pasa por el valor que tenia inicialmente en ` = 0 aproximadamente cuando ` = 1.5σ.
Remarcamos esta última sentencia para recordar que el coeficiente de autodifusión
presenta un mínimo justo cuando ` = 1.5σ [1].
La figura 5.4 muestra a los factores de estructura parciales correspondientes a los casos
` = 1.2σ y ` = 1.5σ. La figura ilustra el comportamiento general de estas cantidades.
Cuando ` = 0, únicamente se manifiesta el máximo en√k = 2π/d. Por otro lado,
cuando ` = ∞ solamente se manifiesta la señal en k = 2π/d. Valores intermedios
de `, como los mostrados en la figura 5.4, revelan la presencia de ambas señales. A
medida
√ que ` aumenta desde 0, la señal en k = 2π/d empieza a disminuir y la señal en
k = 2π/d emerge, aumentando con `. Cuando ` = ∞ la señal en k = 2π/d desaparece
completamente, quedando únicamente la otra señal.
92
5.2.3.
Capítulo 5. Estructura estática de coloides en capas planas
Tres capas
Ahora describiremos a los sistemas de tres capas, tomando en cuenta dos casos. En el
primer caso consideraremos una especie distribuida en las tres capas. En el segundo caso,
consideraremos dos especies selectivamente distribuidas en las capas, de tal forma que
las capas 1 y 3, a las cuales llamaremos las capas externas, se constituirán de partículas
positivas con intensidad de interacción de media a alta. Las partículas en la capa 2,
a la cual llamaremos la capa interna, serán negativas y medianamente interactuantes.
Además, en ambos casos la capa interna será dos veces más densa que las capas externas.
5.2.3.1.
Una especie
La figura 5.5 muestra a las distribuciones de partículas sobre las capas. Se muestran
resultados para `/σ = 1, 2, 5, esto es, para distancias entre las capas externas de 2σ, 4σ
y 10σ. Cuando ` = 5 prácticamente han alcanzado la forma límite correspondiente a
` = ∞, en donde la posición del máximo principal de las distribuciones√de las capas
externas corresponde a r = 2d, mientras que el de la capa interna a r = 2d.
Notamos que la estructura de las capas menos densas, esto es, la de las capas externas,
varía mas abruptamente. Se comporta como si fuera controlada por la estructura de la
capa interna. En cambio, la estructura de la capa interna varía muy sistemáticamente.
Esto es una consecuencia del hecho de que la capa interna es más densa. Notemos
22
además que en la distancia menor ` = σ, la posición del pico principal de g11
aún está
11 (ó) 33
en r = d, mientras que la de g11
ya se ha desplazado en dirección hacia r = 2d.
11 (ó) 33
Más aún, notemos que cuando ` = 2σ la posición del máximo principal de g11
se
desplaza ligeramente más allá de r = 2d. Esto es como si la estructura de las capas
externas en distancias intermedias se hiciera ligeramente más compresible por efecto de
la presencia de la capa intermedia.
La figura 5.6 muestra las funciones de distribución que los coloides ven en capas dis12
tintas a la suya. Observamos que las funciones g11
y sus similares muestran el mismo
12
comportamiento que las g11 en la figura 5.3. Como mencionamos respecto a aquel sistema, esto repercute en el hecho de que el coeficiente de autodifusión tiene un mínimo
en ` = 1.5σ. Ahora, en los sistemas de tres capas, esto, además, repercute en que la
autodifusión en una capa más densa que su capa mas cercana pueda ser más rápida que
la propia de dicha capa cercana.
13
Las correlaciones entre capas externas g11
muestran un comportamiento muy distinto
12
13
al que presentan las g11 . En particular, notemos que g11
(r = 0) 6=> 1, esto es que existe
una correlación positiva entre las partículas externas que es inducida por la presencia de
la capa interna. Como veremos más adelante, esto se traduce como un pequeño pozo en
el potencial efectivo. En términos efectivos, esto es como si se presentara una atracción
entre coloides igualmente cargados. Esta atracción efectiva emerge de una condición
energética simple que puede visualizarse interpretando que las configuraciones energéticas mas favorables son romboides con vertices en el par de partículas correlacionadas
en las capas externas y en otro par localizado en la capa interna.
5.2. Estructura
93
Figura 5.5: Funciones de√distribución de un sistema de tres capas y una especie con
los parámetros A1,2,3
= 50, b = 1, x1,3
= 0.25, x21 = 0.5 y σ = 0.357. En (a):
1
1
11
33
22
g11
(r) = g11
(r); en (b): g11
. Se muestran los resultados para tres valores distintos de la
distancia entre capas `: lineas continuas para ` = σ, lineas segmentadas para ` = 2σ y
lineas de puntos para ` = 5σ.
94
Capítulo 5. Estructura estática de coloides en capas planas
12
21
23
32
Figura 5.6: Funciones de distribución radial cruzadas g11
(r) = g11
(r) = g11
(r) = g11
(r)
13
31
en (a) y g11 (r) = g11 (r) en (b), que corresponden al sistema de tres capas y una especie
en la figura 5.5. Se muestran los resultados para lo mismos valores de `: linea continua
para ` = σ, linea segmentada para ` = 2σ y linea de puntos para ` = 5σ. Nótese la
correlación positiva en r = 0 para ` = 2σ lo cual indica que, en términos efectivos,
existe una atracción entre coloides con cargas iguales.
En la figura 5.7 notamos que los factores de estructura de las capas externas parecen
5.2. Estructura
95
alcanzar su forma límite de ` = ∞ mucho más rápido que los factores de estructura de
la capa interna. Lo cual es consistente con los comentarios con respecto a la figura 5.5.
Notemos que a diferencia de los S’s del sistema de dos capas y una especie, en este caso
la posición de los picos no se mantiene constante.
11
33
Figura 5.7: Factores de estructura estática de índices iguales S11
(k) = S11
(k) en (a)
22
y S11 (k) en (b), del sistema de tres capas en la figura 5.5. Se muestran los resultados
para los mismos tres valores de la distancia entre capas `: linea continua para ` = σ,
linea segmentada para ` = 2σ y linea de puntos para ` = 5σ.
La figura 5.8 muestra a los factores de estructura cruzados. En consistencia con lo
96
Capítulo 5. Estructura estática de coloides en capas planas
12
obtenido anteriormente, los factores S11
varían monotónicamente en todos los números
12
de onda. Además, se ilustra el límite de “gas ideal” para el cual S11
= 0. En cambio,
13
los factores S11 muestran un comportamiento no monótono cuando cambia `. Así, por
ejemplo, el máximo principal es positivo para ` = 2σ y se vuelve negativo abrúptamente
para ` = σ.
12
21
Figura 5.8: Factores de estructura estática de índices distintos S11
(k) = S11
(k) =
23
32
13
31
S11 (k) = S11 (k) en (a) y S11 (k) = S11 (k) en (b), del sistema de tres capas en la figura
5.5. Se muestran los resultados para los mismos tres valores de la distancia entre capas
`: linea continua para ` = σ, linea segmentada para ` = 2σ y linea de puntos para
` = 5σ.
5.2. Estructura
5.2.3.2.
97
Dos especies
En este caso estamos particularmente interesados en estudiar la capa intermedia. Nos
interesa cuantificar el efecto de las atracciones inducidas por las partículas de las capas
externas. En particular si estas atracciones pueden llegar a formar configuraciones estables. Por ello, deliberadamente hemos elegido que las partículas de la capa intermedia
sean ligeramente menos interactuantes. En efecto, veremos que en promedio temporal
la atracción inducida puede llegar a formar configuraciones estables.
22
Figura 5.9: Funciones de distribución radial de los coloides en la capa
g√
22 (r)
√ interna
1,3
2
en un sistema de tres capas y dos especies con los parámetros A1 = 50, A2 = − 30,
2
A21,3 = A21 = 0, b = 1, x1,3
1 = 0.25, x1 = 0.5 y σ = 0.357. Se muestran los resultados para
cuatro valores distintos de la distancia entre capas `: linea gris continua para ` = σ,
linea negra continua para ` = 1.5σ, linea gris dash para ` = 2σ y linea negra dash para
` = 5σ. El inset es una fotografía de la capa interna, correspondiente al caso ` = 1.5σ.
A escala, el tamaño de los círculos representa alrededor de 3/4 del tamaño real de los
coloides.
La figura 5.9 describe la estructura de la capa intermedia. El inset ilustra una configuración de esta capa correspondiente a ` = 1.5σ. Cuando ` = 5σ, la estructura ha
alcanzado
su límite de ` = ∞ caracterizado por la distancia promedio entre partículas
√
2d. A medida que las capas se acercan, el máximo asociado a esta distancia promedio
se va desvaneciendo y emerge un pico a su izquierda. El pico se va moviendo a distancias cada vez menores hasta que su posición alcanza el valor de contacto entre las
98
Capítulo 5. Estructura estática de coloides en capas planas
partículas σ. Este pico describe la formación de los dímeros ilustrados en la fotografía.
Más adelante cuantificaremos la energía invertida en la formación del dímero y si esta
función de trabajo es suficiente para lograr que el dímero sea estable.
La figura 5.10 muestra a las funciones de distribución cruzadas. Como era de esperarse, existe una correlación positiva grande en el origen. Notemos que la presencia de
13
, en
las partículas con carga opuesta en la capa intermedia fortalece la correlación g11
comparación con la misma cuando se tienen partículas de carga positiva.
13
Figura 5.10: Funciones de distribución radial de partículas en capas distintas g11
(r) =
31
12
21
23
32
g11 (r) en el recuadro principal y g12 (r) = g21 (r) = g21 (r) = g12 (r) en el inset, del
sistema de tres capas y dos especies en la figura 5.9. Se muestran los resultados para
cuatro valores distintos de la distancia entre capas `: círculos transparentes para ` = σ,
triángulos transparentes ` = 1.5σ, triángulos opacos ` = 2σ y círculos opacos ` = 5σ.
La figura 5.11 muestra a los factores de estructura parciales correspondientes a ` =
22
1.5σ. La característica notable de estas cantidades radica especialmente en S22
, que
presenta oscilaciones no despreciables mas allá del primer máximo. Estas oscilaciones
se encuentran mucho en sistemas con interacciones atractivas de corto alcance y en
particular en sistemas donde se presenta el fenómeno conocido como arresto estructural.
5.2. Estructura
99
Figura 5.11: Factores de estructura estática parciales en el caso ` = 1.5σ correspondientes al sistema de 3 capas y dos especies en la figura 5.9. En línea negra continua
11
33
22
12
21
23
32
S11
= S11
, en linea negra segmentada S22
, en linea gris continua S12
= S21
= S21
= S12
13
31
y en linea gris segmentada S11 = S11 .
100
Capítulo 5. Estructura estática de coloides en capas planas
6 Potenciales efectivos
Los potenciales efectivos entre pares de coloides en capas planas se calcularon sobre
la base de la teoría general proporcionada en la sección 3.1.3. Aquí interpretaremos
aquella teoría general de una forma equivalente, pero que pone de manifiesto la jerarquía
de funciones de correlación y potenciales efectivos que emerge mediante la aplicación
sucesiva de contracciones de la descripción.
6.1.
Introducción
Consideremos la ecuación matricial de OZ en el espacio de Fourier
H̃(k) = C̃(k) + C̃(k)RH̃(k).
(6.1)
en donde las matrices son por bloques H̃ = h̃ab
, C̃ = c̃ab
q×q
c̃ab
αβ p×p
q×q
y R = nab
ab
ab ab
nαβ
=
y nab = δαβ
con cada bloque dado por h̃ab = h̃ab
αβ p×p , c̃
ejemplo, en el caso de dos capas y una especie simplemente tendríamos que


(6.2)
11
12
13

c̃
c̃
c̃


21
22
C̃ = 
c̃
c̃23 
=
 c̃
c̃31 c̃32 c̃33











c̃11
11
c̃11
21
c̃21
11
c̃21
21
c̃31
11
c̃31
21
c̃11
12
c̃11
22
c̃21
12
c̃21
22
c̃31
12
c̃31
22
c̃12
11
c̃12
21
c̃22
11
c̃22
21
c̃32
11
c̃32
21
c̃12
12
c̃12
22
c̃22
12
c̃22
22
c̃32
12
c̃32
22
c̃13
11
c̃13
21
c̃23
11
c̃23
21
c̃33
11
c̃33
21
c̃13
12
c̃13
22
c̃23
12
c̃23
22
c̃33
12
c̃33
22
p×p
q×q
,
. Por






,





y expresiones similares para H̃ y R.
Al proceso de reducir la descripción, eliminando a una de las capas en un sistema de
q capas, de tal manera que las ecuaciones resultantes contengan explícitamente sólo
a las q − 1 capas restantes, lo llamaremos la contracción primera. Supongamos que
eliminamos la capa c y, definamos
(6.3)
X̃ = H̃(k) − C̃(k) − C̃(k)R(k)H̃(k) = 0.
La contracción primera consiste en eliminar las partes rojas de

(6.4)
x̃11 · · · x̃1c
 .
.
 .
· · · ..
 .

c1
X̃ = 
· · · x̃cc
 x̃
 .
.
 .
· · · ..
 .
x̃q1 · · · x̃qc

· · · x̃1q
. 
· · · .. 

· · · x̃cq
.
· · · ..
· · · x̃qq

.




101
102
Capítulo 6. Potenciales efectivos
Después de realizar esta eliminación, la ecuación de OZ en la descripción reducida es
(6.5)
H̃(q−1) (k) = C̃(q−1)eff (k) + C̃(q−1)eff (k)R(q−1) (k)H̃(q−1) (k).
El superíndice (q−1) indica que las matrices poseen (q−1)×(q−1) bloques, a diferencia
de las originales que poseían q × q. Estas nuevas matrices (H̃(q−1) , C̃(q−1) y R(q−1) ) se
obtienen eliminando en las originales (H̃, C̃ y R) a la línea y la columna asociadas a
la capa contraída.
Las matrices de correlación directa efectivas en la contracción primera están dadas por
h
ac
cc cc
c̃ab,eff
= c̃ab
(0) + c̃(0) 1 − n c̃(0)
(1)
i−1
ncc c̃cb
(0) ,
a, b 6= c.
Se agrega el subíndice (i) (en este caso i = 0, 1) para indicar que se trata de las funciones
de correlación directa en la contracción i − esima. Si necesitamos eliminar otra capa
de la descripción, digamos la capa d, aplicamos el mismo procedimiento, pero ahora
partimos de la ecuación
(6.6)
H̃(q−1) (k) − C̃(q−1)eff (k) − C̃(q−1)eff (k)R(q−1) (k)H̃(q−1) (k) = 0,
para arribar a la ecuación
(6.7)
H̃(q−2) (k) = C̃(q−2)eff (k) + C̃(q−2)eff (k)R(q−2) (k)H̃(q−2) (k),
con
h
c̃ab,eff
= c̃ab,eff
+ c̃ad,eff
1 − ndd c̃dd,eff
(2)
(1)
(1)
(1)
i−1
ndd c̃db,eff
(1) ,
a, b 6= c, d.
Este proceso se puede repetir las veces que necesitemos. En la contracción i-ésima, que
elimina a la capa y, llegaríamos a una ecuación de la forma
(6.8)
H̃(q−i) (k) = C̃(q−i)eff (k) + C̃(q−i)eff (k)R(q−i) (k)H̃(q−i) (k)
con
h
ay,eff
yy yy,eff
c̃ab,eff
= c̃ab,eff
(i)
(i−1) + c̃(i−1) 1 − n c̃(i−1)
i−1
nyy c̃yb,eff
(i−1) ,
a, b 6= c, d, · · · , y.
Desde luego, en el sistema de q capas se puede realizar un máximo de q − 1 reducciones
de la descripción. Por otra parte, este mismo proceso se puede aplicar a las especies,
e inclusive, a las partículas. En el nivel más reducido de descripción, en el cual se
eliminan todas las partículas, excepto dos, el potencial obtenido sería el potencial de
fuerza media,
En cada nivel de descripción hemos ido definiendo a las funciones de correlación directa
efectivas. Igualmente, podemos definir los potenciales efectivos correspondientes como
ab,eff
ab,eff
ũ(i)
= ũ(i−1)
+
+
n
ab,eff
c̃ab,eff
(i−1) − c̃(i)
n
o
o
b̃ab,eff
− b̃ab,eff
(i)
(i−1) .
6.1. Introducción
103
Matemáticamente, este proceso iterativo que va definiendo la jerarquía de reducciones
de la descripción no contiene algo nuevo en absoluto si se compara con la discusión
de la sección 3.1.2. Sin embargo, conceptualmente, pone de manifiesto el hecho de que
en el nivel de descripción (i), las cantidades de entrada (las que teníamos previo dicha
contracción), de por sí, son cantidades efectivas.
Como hemos comentado anteriormente, aquí supondremos que las funciones puente son
invariantes ante la reducción de la descripción, esto es, que
(6.9)
n
o
b̃ab,eff
− b̃ab,eff
(i)
(i−1) = 0,
de tal manera que
(6.10)
ab,eff
ab,eff
ab,eff
ũ(i)
= ũ(i−1)
+ ∆ũ(i−1)
con
(6.11)
n
o
ab,eff
ab,eff
∆ũ(i−1)
= − c̃ab,eff
− c̃ab,eff
(i)
(i−1) = −∆c̃(i−1) .
Notemos que esta aproximación se puede interpretar como una MSA generalizada (sección 3.1.1.4).
En la discusión anterior hemos mantenido la generalidad de notación. Sin embargo,
para los sistemas que a continuación se presentan las cosas se simplifican mucho porque
cada capa es monodispersa, esto es, que los bloques de H̃, C̃ y R son escalares.
Para finalizar esta introducción mencionamos una nota técnica importante. Para calcular el potencial efectivo se requiere conocer las funciones de correlación directa parciales.
Hay dos rutas posibles para obtenerlas. La primera podría ser usar las funciones de distribución obtenidas de la simulación junto con la ecuación de OZ no reducida. En esta
ruta se requiere de trasladar las funciones de correlación hab
αβ parciales al espacio de
Fourier. Como es bien sabido, la transformación de Fourier introduce los efectos de
aliasing y una onda en números de onda pequeños que proviene del radio de corte introducido en la transformación. Aunque pequeños, estos efectos pueden provocar que
yy i−1
yy h
C̃(q−m+1)eff
, el cual va como det (S)−1 , se vuelva infinito
1p×p − R(q−m+1)
ya que el determinante se puede anular, especialmente para longitudes de onda mayores que cualquier escala de longitud característica. Esto se reflejaría como potenciales
efectivos que oscilan a distancias grandes, lo cual carece de sentido para este tipo de
sistemas.
Otra ruta es usar los factores de estructura que se obtienen directamente de la simulación. A primera vista parecería que esta ruta sería mas problemática, ya que los
factores de estructura estática parciales obtenidos de esta forma varían terriblemente
en números de onda pequeños. A pesar de ello, los resultados revelan que esta ruta es
mucho más apropiada, aún para radios de corte no muy grandes, aunque desde luego,
los resultados son cada vez mejores con radios de corte cada vez más grandes. En efecto,
aunque no encontramos una explicación rigurosa para ello, resulta que el det (S) siempre es distinto de cero cuando se usan los S’s obtenidos directamente de la simulación.
Los resultados que se muestran a continuación se obtuvieron siguiendo esta ruta.
104
6.2.
Capítulo 6. Potenciales efectivos
Sistemas de dos capas
11eff
11
Figura 6.1: Transformación Fourier-Bessel ∆u11
11 (k) = u11 (k)−u11 (k), correspondiente
al sistema efectivo bidimensional que resulta √
de la primera y única reducción en el
sistema de dos capas y una especie con A1,2
=
50, b = 1, x1,2
1
1 = 0.5 y σ = 0.357. Este
sistema se introdujo en la sección 5.2.2.
La figura 6.1 muestra la transformación de Fourier-Bessel1 ∆ũ11
11 (k) cuando se elimina la
capa 2 en la descripción del sistema de dos capas √
y una especie introducido en la sección
5.2.22 . Las variaciones abruptas en la región k < 2π/d se deben a las correspondientes
ab
de los factores de estructura parciales Sαβ
en esa misma región. Estas “fluctuaciones”
1
Todas las transformaciones de Fourier espaciales de los sistemas en capas son bidimensionales. Las
transformadas de Fourier bidimensionales reciben el nombre de transformaciones de Fourier-Bessel.
2
Nótese que omitimos los subíndices que indican el nivel de reducción, porque en éste caso solo existe
una reducción.
6.2. Sistemas de dos capas
105
son casi irrelevantes porque para obtener su efecto sobre ∆u11
11 (r) se debe aplicar la
transformación de Fourier-Bessel inversa
(6.12)
∆u11
11 (r)
1
=
2π
ˆ
∞
kj0 (kr)∆ũ11
11 (k)dk.
0
Aquí vemos que al aplicar esta operación los efectos de números de onda pequeños se
vuelven despreciables si ∆ũ11
11 (k) es finito puesto que |j0 (kr)| < 1.
11,eff
(r) = u11
La figura 6.2 muestra a ∆u11
11 (r) +
11 (r) y al potencial efectivo resultante u11
11
∆u11 (r). Se comparan los resultados que se obtienen de la solución de OZ+HNC con los
resultados exactos de simulación. Se encuentra que los resultados de la teoría OZ+HNC
son completamente diferentes de los resultados de simulación, los cuales son exactos
11eff
11
dentro de la aproximación B11
− B11
= 0. Esto era de esperarse porque en el esquema
OZ+HNC las contribuciones de las funciones puente se ignoran desde el calculo mismo
de las funciones de correlación, condición que no se impone en el cálculo de las funciones
de correlación que se obtienen directamente de las trayectorias de simulación.
11
Debido a que u11
11 (r) > ∆u11 (r) cerca de la capa de primeros vecinos, esto es, cerca del
11
máximo principal de g11 , el potencial efectivo no es muy conveniente para analizar los
resultados. Por lo tanto, analizaremos los resultados atendiendo a la forma de ∆u11
11 (r).
11
La primer
√ característica que salta a la vista es el máximo que ∆u11 (r) presenta en
en r = 2d. Este máximo es el responsable del desdoblamiento del primer pico de
11
las funciones g11
(r) en la figura 5.2. También notemos que la altura de este máximo
disminuye a medida que la distancia entre las capas aumenta, lo cual es consistente
con el hecho de que cuando ` = ∞ el máximo debe localizarse precisamente en esa
posición. De hecho, cuando ` = ∞, ∆u11
11 (r) = 0 para todo r. Atendiendo al perfil
global de ∆u11
(r)
notamos
que
ambos,
teoría
y simulación, predicen que para todo r
11
11
∆u11 (r) → 0 a medida que ` → ∞.
Como prueba de la validez del potencial efectivo obtenido, introdujimos este potencial
en un código Metrópolis-Monte-Carlo para obtener la estructura del sistema bidimensional efectivo. Luego, la estructura obtenida se compara con la estructura de las capas
en el sistema original. El resultado de esta comparación se ilustra en la figura 6.3.
106
Capítulo 6. Potenciales efectivos
11eff
11
Figura 6.2: (a) Potencial efectivo en la aproximación B11
−B11
= 0 y (b) el correspondiente ∆u11
,
del
sistema
dos
capas
y
una
especie
en
la
figura
6.1.
Las lineas representan
11
los resultados que se obtienen con la solución numérica del esquema OZ+HNC obtenidos por Castañeda Priego. Los símbolos representan los resultados que se obtienen
al usar los factores de estructura que fueron calculados directamente de la simulación,
como se especificó en la sección 5.2.
6.2. Sistemas de dos capas
107
Figura 6.3: Comparación entre las funciones de distribución del sistema de dos capas
y una especie de la figura 6.1 (identificadas como BD, ya que se obtuvieron mediante
dinámica browniana), con las del sistema bidimensional de coloides que interactúan a
través del potencial efectivo en la primera, y única, contracción (identificadas como
MC, ya que se obtuvieron mediante Monte Carlo). Se muestran los resultados para dos
valores de `. Notemos que la región de discrepancia se localiza principalmente alrededor
de máximo principal, precisamente donde los efectos de las funciones puente empiezan
a tomar relevancia.
Los resultados aquí mostrados se obtuvieron después de un estudio sistemático en el
que se consideraron gradualmente radios de corte cada vez más grandes. En particular,
llegamos al límite de un radio de corte bl/2 = 70, es decir hasta considerar un total
de 19600 partículas en el sistema. También se usaron un total de Nt = 2000 configuraciones y Nθ = 178 direcciones de observación. La complejidad3 del cálculo neto va
como N 2 Nt Nθ , por ello hemos usado pocas direcciones de observación y configuraciones, teniendo una muestra de apenas Nt Nθ = 356 × 103 elementos, ya que al aumentar
3
El termino “complejidad” es un término informático que indica cómo escalan el número de operaciones que un algoritmo debe ejecutar para obtener el resultado solicitado.
108
Capítulo 6. Potenciales efectivos
el radio de corte el tiempo de cálculo se incrementa considerablemente. A pesar de ello,
notamos que al ir de bl = 100 a bl = 140 los resultados obtenidos difieren entre sí muy
poco, indicando que los resultados estaban convergiendo al resultado exacto, dentro de
11
11
11eff
= 0.
= ∆B11
− B11
la aproximación BB11
De acuerdo a los comentarios del párrafo anterior, y dado que las funciones de distribución en el sistema bidimensional efectivo deben ser idénticas a las funciones de
distribución originales, llegamos a la conclusión que las discrepancias observadas son
11
= 0 y no de alguna deficiencia en el
consecuencia exclusiva de la aproximación ∆B11
cálculo. Esta aproximación contiene como casos particulares a HNC y a la HNC de
referencia (Secc. 3.1.1.4). Por lo tanto, hemos probado que el uso de estas aproximaciones puede llegar a ser cuantitativamente inadecuado en la primera capa de vecinos
cercanos.
11
En ocasiones ∆B11
= 0 puede llegar a ser mucho más precisa que HNC. Una prueba
de ello es que la estructura del sistema efectivo que se obtiene bajo esta aproximación
difiere de la estructura exacta únicamente en la región de primeros vecinos cercanos y
coincide en el resto de las distancias. Sin embargo, cuando las capas se acercan mucho,
esta aproximación empieza a decepcionar ya que la estructura predicha en la capa de
primeros vecinos puede llegar a diferir de la estructura exacta no sólo cuantitativamente,
sino también cualitativamente, como se muestra en la figura 6.3 en ` = 1.2σ.
6.3.
Sistemas de tres capas
En cuanto a estos sistemas, nos interesa ilustrar la contracción primera que consiste en
eliminar a la capa interna del sistema descrito por la figura 5.5. Este interés emerge
13
mostrada en la figura 6.4. Lo
por el comportamiento de la función de distribución g11
primero que viene a la mente al observar el caso ` = 2.0σ es que hay una atracción
Figura 6.4: Funciones de distri13
31
bución radial g11
(r) = g11
(r) del
sistema de tres capas y una especie
con los parámetros A1,2,3
=
1
√
1,3
2
50, b = 1, x1 = 0.25, x1 = 0.5
y σ = 0.357. El inset muestra la
13
variación con ` de g11
(r = 0) en
un sistema de tres capas y una
especie similar pero con x1,3
=
1
2
3/8, x1 = 2/8. Este segundo sistema se presentó en [1].
6.3. Sistemas de tres capas
109
entre las partículas de las capas externas, aún cuando poseen carga del mismo signo. A
manera de ilustración también incluimos en esa figura un inset que muestra la variación
13
de g11
en uno de los sistemas de tres capas y una especie estudiados en [1].
6.3.1.
Una especie
Figura 6.5: Potenciales efectivos entre las partículas de las capas externas, que se
obtienen por eliminación de la capa interna en la descripción del sistema de tres capas
13
y una especie de la figura 6.4. Las lineas negras muestran los potenciales efectivos ueff
(1) 11
para ` = 1σ en linea continua, ` = 2σ en linea segmentada y ` = 5σ en linea punteada.
Las lineas grises en trazos correspondientes muestran los potenciales por pares u(0) 13
11 .
El inset muestra el término de corrección ∆u(0) 13
.
11
La figura 6.5 muestra el potencial efectivo para tres valores distintos de ` y se compara
con el potencial por pares. En el inset se incluye la variación del término de corrección
al potencial por pares. Notamos que, efectivamente, existe un pozo de potencial cerca
de r = 0 cuando ` = 2σ. Más aún, la barrera que delimita a este pozo tiene una altura
de aproximadamente 3.5kB T . Esto significa que las partículas de las capas externas
se superponen cuando vemos al sistema desde el eje z y que esta configuración puede
ser muy estable. Es como si la capa intermedia provocara que los coloides externos se
movieran en armonía formando una mancuerna orientada paralela al eje z. Desde luego,
110
Capítulo 6. Potenciales efectivos
estas característica se fortalece en las condiciones estudiadas aquí, ya que deliberadamente escojimos que la capa interna fuera densa al doble respecto a las capas externas.
De esta manera, se asegura que siempre habrá un par de partículas internas disponibles
para alinear a dos partículas de las capas externas.
6.3.2.
Dos especies
En cuanto a este sistema presentamos el potencial efectivo entre coloides internos. Para
obtener este potencial efectivo realizamos la contracción de las capas 1 y 3 como se
explicó anteriormente. El resultado para ` = 1.5σ se muestra en la figura 6.6. Se eligió
este valor porque es representativo y porque el estado estacionario de equilibrio desde la
configuración aleatoria inicial lo alcanza mucho más rápido que el sistema con ` = 1.2σ.
Desde luego, el proceso de termalización se puede optimizar disminuyendo por pasos
pequeños la distancia entre capas y en cada paso usando como configuración inicial
la configuración de equilibrio del paso previo, hasta alcanzar la distancia deseada. Sin
embargo, esto no se hizo aquí.
Figura 6.6: Potencial efectivo entre los coloides internos que se obtiene eliminando las
capas 1 y 3 en la descripción del sistema de tres capas y dos especies de la figura 5.9. La
22
linea negra muestra al potencial efectivo ueff
(2) 22 para ` = 1.5σ, mientras que la linea gris
eff 22
22
muestra el potencial por pares correspondiente u(0) 22
22 . El inset muestra a u(2) 22 − u(0) 22 .
Pruebas Metrópolis-Monte-Carlo también se realizaron sobre estos sistemas, y sobre el
sistema anterior, hasta asegurarnos de que las fuentes de error pudieran provenir única-
6.4. Comentarios finales
111
mente de la aproximación de que las funciones puente son invariantes bajo contracciones
la descripción.
El resultado afirma que en verdad existe una atracción efectiva entre los coloides internos. Esta atracción se manifiesta como el pequeño valle de potencial ubicado cerca
de r = σ. Sin embargo, las partículas que caigan dentro de este valle serán fácilmente rescatadas por la agitación térmica ya que es altamente asimétrico y su altura es
de apenas del orden de un kB T . Sin embargo, como se mencionó anteriormente, este
resultado sólo es representativo y puede tomarse como un punto de partida para encontrar sistemas en donde el valle, o tal vez los valles, sean más profundos y se puedan
formar configuraciones estables en equilibrio como las mancuernas efímeras mostradas
en la figura 5.9. Inclusive, esperamos que se puedan formar estados arrestados, tanto
estructural como dinámicamente, o bien, clusterización en equilibrio [124, 125].
6.4.
Comentarios finales
Los sistemas estudiados en este capitulo no parecen tener una aplicación directa inmediata. Sin embargo una posible aplicación podría ser en el estudio de las estructuras en
capas que se forman en la región vecina a un substrato. También podemos considerar
el estudio de la fase esméctica de los cristales líquidos, el del complejo liposoma-ADN
[126, 127], y como auxiliar en diversos modelos dirigidos al estudio de las membranas
biológicas, como el modelo clásico de mosaico.
Hemos cumplido con el objetivo de mostrar que la distancia entre las capas ` es un
parámetro muy simple cuyo control nos garantiza un control muy preciso de las interacciones efectivas y por lo tanto de la estructura estática del sistema. Como se mostró
en [1], este parámetro también permite controlar las propiedades de autodifusión de
una forma muy precisa. Desde luego, esto debería ser cierto para cualquier cantidad
que describa la dinámica, como por ejemplo, las funciones de memoria.
Hemos encontrado que la aproximación de que las funciones puente son invariantes bajo
contracciones de la descripción es una buena premisa solamente cuando se observan
regiones distintas al primer cascarón de vecinos cercanos. En la región de primeros
vecinos se necesita analizar las consecuencias de la aproximación de una forma más
detallada.
Como se mencionó anteriormente, la aproximación incluye como casos particulares a
HNC y a RHNC. Esto significa que el uso de estas relaciones de cerradura para calcular
los potenciales efectivos puede producir resultados erróneos, lo cual se ilustró explícitamente en el caso de dos capas. En los demás casos no se ilustró, pero esperamos que se
llegue a la misma conclusión sin mayores problemas.
112
Capítulo 6. Potenciales efectivos
7 Funciones de memoria en dos
dimensiones.
Lo importante en la ciencia no es obtener hechos nuevos sino descubrir
nuevas formas de pensar acerca de ellos.
Sir William Bragg
Finalizamos este reporte de resultados presentando nuestro estudio sobre las funciones
de memoria. La intención original en este trabajo era realizar un estudio sistemático
similar al que se desarrolló para los potenciales efectivos. Sin embargo, el estudio de la
función de memoria es conceptualmente mucho más complicado que el de los potenciales
efectivos, así como numéricamente más demandante. Prueba de ello es que solamente
conocemos modelos simples para las funciones de memoria, o bien, su formas límite en
números de onda pequeños (capítulo 4). Por ello, solamente presentamos un estudio
sistemático detallado de las funciones de memoria en dos dimensiones. Se consideran
los casos de sistemas bidimensionales (a) de coloides de Yukawa y (b) de coloides paramagnéticos. Estudiar las funciones de memoria en dos dimensiones es un prerequisito
para entender a las funciones de memoria en los sistemas de capas planas.
Los estudios experimentales y de simulación sobre la naturaleza de las funciones de
memoria, es decir, no solamente de los efectos que produce sobre los coeficientes de
transporte hidrodinámicos o en los factores de no exponencialidad, se han producido en
condiciones muy limitadas y son muy escasos. La causa natural por la cual un estudio
completo de las funciones de memoria está ausente es el hecho de que, como todas las
funciones de correlación temporal en la teoría de líquidos, la función de memoria no se
puede evaluar exactamente sobre un intervalo aceptable de condiciones. Sin embargo,
al parecer, otra causa es el hecho de que lo único que interesa a final de cuentas son los
coeficientes de transporte y, como hemos visto, los coeficientes de transporte se expresan
como integrales de las funciones de memoria. Entonces, da la impresión de que si una
aproximación para la función de memoria reproduce los coeficientes de transporte, se
deja de lado el estudio propio de la función de memoria.
Dado lo anterior, resultó imperante que primero estudiaramos ampliamente los efectos
de memoria en los sistemas bidimensionales de partículas de Yukawa. No obstante,
nuestro estudio no llegó al nivel de rigor que se debe de esperar de un estudio completo,
pero ilustra nuevas formas de pensar sobre los efectos de memoria que, hasta nuestro
conocimiento, y mediante la consulta a otras personas lideres en estos ambitos, parece
que no se habían reportado anteriormente.
Una vez que entendamos a plenitud el sistema bidimensional, estaremos en condiciones
de atacar el problema del estudio de las funciones de memoria de los sistemas en capas.
113
114
Capítulo 7. Funciones de memoria en dos dimensiones.
Sin embargo, ese estudio, de forma rigurosa, se dejará como una perspectiva de trabajo.
No obstante, presentaremos una pequeña sección en donde se muestran las funciones
de memoria del sistema de dos capas. En estos resultados la precisión es menor en
comparación con el grado de precisión con el que se hicieron los cálculos correspondientes
a los sistemas bidimensionales. Incluimos esta sección para cerrar parcialmente uno de
los objetivos de éste trabajo: mostrar que las propiedades de transporte también se
pueden controlar en los sistemas de capas, simplemente variando la distancia ` entre
ellas.
7.1.
Introducción
Este estudio se basa en la ecuación de memoria
ˆ t
2 0 −1
(7.1)
∂t F (k, t) = −k D S (k)F (k, t) +
dt0 M C (k, t0 )S −1 (k)F (k, t − t0 ).
0
Como en este trabajo solamente hemos estudiado la función de memoria colectiva, en
lo sucesivo eliminaremos el superíndice C en M C y nos referiremos a esta cantidad
simplemente como la función de memoria.
La función de memoria se puede extraer directamente de (7.1), si se conoce la función intermedia de la dispersión. Existen métodos numéricos para tratar este tipo de
ecuaciones. Entre ellos tenemos las técnicas de transformaciones integrales de Laplace,
de Fourier o el caso general de la transformación de Fourier-Laplace. Otras técnicas
incluyen los métodos de elemento finito, que trabajan directamente en el espacio real.
Nosotros tomamos otra ruta. Esta ruta consiste en emplear el par de transformaciones
de Fourier seno y coseno para convertir a (7.1) en un par de ecuaciones algebraicas en
las transformaciones seno FS , MS y coseno FC y MC definidas por
ˆ ∞
(7.2)
fS (z) =
f (t) sin (zt) dt
0
y
ˆ
(7.3)
∞
f (t) cos (zt) dt.
fC (z) =
0
Conocidas FS y FC , las ecuaciones que resultan de las dos transformaciones,
(7.4)
− zFC (k, z) = −k 2 D0 S −1 (k)FS (k, t) + MC (k, z)S −1 (k)FS (k, z) + MS (k, z)S −1 (k)FC (k, z)
y
(7.5)
− zFS (k, z) − S(k) = −k 2 D0 S −1 (k)FC (k, t) + MC (k, z)S −1 (k)FC (k, z) − MS (k, z)S −1 (k)FS (k, z),
nos permiten obtener la función de memoria.
7.2. Efecto de las interacciones directas y de la concentración
115
Es conveniente escribir estas ecuaciones en las escalas d y τ 0
(7.6)
− zFC (k, z) = −k 2 S −1 (k)FS (k, t) + MC (k, z)S −1 (k)FS (k, z) + MS (k, z)S −1 (k)FC (k, z).
(7.7) − zFS (k, z) − S(k) = −k 2 S −1 (k)FC (k, t) + MC (k, z)S −1 (k)FC (k, z) − MS (k, z)S −1 (k)FS (k, z).
Una eliminación algebraica sencilla nos arroja el resultado
MC (k, z)S −1 (k) = k 2 S −1 (k) −
(7.8)
S(k)
FC (k, z)
(FS (k, z)) + (FC (k, z))2
2
y
MS (k, z)S −1 (k) = −z +
(7.9)
S(k)
FS (k, z)
(FS (k, z)) + (FC (k, z))2
2
Se sabe que la transformación de Fourier seno es mas susceptible a los errores numéricos
cerca de t = 0 y, viceversa, que la transformación de Fourier coseno muestra mayor
estabilidad numérica en t = 0. En tiempos grandes los papeles se invierten, esto es, la
transformación seno es más estable numéricamente. En nuestros cálculos resultó que
MC es más conveniente que MS para obtener las funciones de memoria. La función de
memoria de vuelta en el tiempo se obtiene a partir de la transformación inversa
ˆ
2 ∞
(7.10)
fC (t) =
fC (z) cos (zt) dz.
π 0
7.2.
Efecto de las interacciones directas y de la
concentración
El primer efecto que presentamos es el comportamiento que la función de memoria
manifiesta al variar la amplitud de interacción y la concentración de coloides. Por
completez, primero presentamos resultados concernientes a la función intermedia de
dispersión. Además, en esta sección solamente se discutirán con detalle los resultados
para la posición del máximo principal de S, en donde los efectos de memoria son más
importantes. En la sección que sigue se estudia la forma general k-dependiente de las
funciones de memoria e intermedia de dispersión.
7.2.1.
Función intermedia de dispersión
La función intermedia de dispersión se calculó de acuerdo a la generalización de tiempos
distintos de la definición de promedio estadístico (5.21) correspondiente al factor de
estructura. Esta generalización es
F (k, t)
=
+
Nt
Nθ
1 1 X0 X
Nt0 Nθ i =1 i =1
"
!
!
N
N
1 X
1 X
√
√
sin k(iθ ∆θ) · Ri (it0 ∆t)
sin k(iθ ∆θ) · Ri (it0 ∆t + t)
N i=1
N i=1
t0
θ
!
!#
N
N
1 X
1 X
√
√
cos k(iθ ∆θ) · Ri (it0 ∆t)
cos k(iθ ∆θ) · Ri (it0 ∆t + t)
.
N i=1
N i=1
116
Capítulo 7. Funciones de memoria en dos dimensiones.
Figura 7.1:
Variación de la
función intermedia de dispersión
F (kmax , t)
con
la concentración,
en un sistema de
coloides que interactúan débilmente.
En todos los resultados que a continuación se muestran a lo largo de esta sección se
usaron Nt0 = 138, 888 configuraciones como origen en el tiempo y Nθ = 720 direcciones
de observación. Esto significa que en cada cálculo de la función intermedia de dispersión
se usó una muestra estadística con 1 × 108 elementos.
Para mejorar aún más la precisión del cálculo, para un mismo sistema se obtuvo su
F (k, t) correspondiente a cada una de diez semillas aleatorias en la simulación. De
esta manera se obtuvo una F (k, t) promedio sobre estas semillas y se pudo calcular la
desviación estándar correspondiente. En lo que sigue, cuando se trace un serie de barras
sobre las curvas mostradas, esas barras representarán a la desviación estándar.
La figura (7.1) ilustra la variación de la función intermedia de la dispersión con la
densidad de partículas. Esta figura describe a un sistema de coloides que interactúan
débilmente entre sí. La figura 7.2 muestra el caso de un sistema de coloides que interactúan con una intensidad moderada. Notamos que la función intermedia de dispersión
es altamente sensible a las variaciones en la densidad. Aunque no se muestra aquí, el
caso más diluido con A2 = 7 se puede ajustar perfectamente con una exponencial. Esto
significa que el efecto de memoria debe ser despreciable para A2 = 7, y n = 0.2.
Las barras de error indican que la determinación de estas cantidades es tan precisa,
que si hubiéramos elegido símbolos para graficarlas, las barras se confundirían con los
símbolos. No obstante, es notable que el error mismo es una función complicada del
tiempo. Esto se debe al hecho de que en distintos tiempos se usa una muestra distinta
de puntos del espacio de configuraciones para calcular F . En el límite ideal en que
pudiéramos repetir este cálculo con cientos o tal vez miles de semillas aleatorias el error
7.2. Efecto de las interacciones directas y de la concentración
117
Figura 7.2:
Variación de la
función intermedia de dispersión
F (kmax , t) con la
concentración,
en
un
sistema de coloides
que
interactúan
moderadamente.
Figura 7.3:
Variación de la
función intermedia de dispersión
F (kmax , t)
con
el
alcance
del
potencial, en un
sistema de coloides
moderadamente
interactuantes.
118
Capítulo 7. Funciones de memoria en dos dimensiones.
Figura 7.4:
Variación de la
función intermedia de dispersión
F (kmax , t) con la
intensidad de interacción, a alcance
y
concentración
moderadas.
en la determinación de F debería ser el mismo en todo tiempo.
La figura 7.3 describe la variación de F con el alcance del potencial. Notamos que
el efecto es mayor cuando el alcance del potencial disminuye que cuando aumenta.
Curiosamente, parece que el efecto es simplemente reducir la intensidad de la estructura
dinámica, porque los tiempos de relajación son idénticos.
La figura 7.4 muestra la variación de F con la intensidad de la interacción. El caso de
mayor intensidad se está acercando a la transición de fase líquido-sólido. De hecho, si
graficáramos el caso con A2 = 80 veríamos que la F correspondiente no decae a cero,
sino a un valor ligeramente mayor que cero, indicando que el sistema está próximo a
una transición no ergódica vítrea. No es el propósito de este trabajo estudiar estados
no ergódicos y por ello hemos tomado como límite superior A2 = 70 y diremos que este
es un sistema de coloides fuertemente interactuantes.
Lo que prosigue después de haber obtenido F es aplicarle las transformaciones seno
y coseno para poder determinar la función de memoria. En lo que sigue solamente
comentaremos sobre el resultado final de las funciones de memoria.
7.2.2.
Función de memoria
Las figuras 7.5-7.8 muestran a las transformaciones de Fourier coseno de las funciones
de memoria asociadas a cada una de las funciones intermedias de dispersión presentadas
en la sección 7.2.1.
Aunque parezca descabellado, las barras de error mostradas son las que arrojan los
7.2. Efecto de las interacciones directas y de la concentración
119
Figura 7.5:
Variación
con
la
concentración
en un sistema
débilmente interactuante, de la
transformación
Fourier
coseno
MC (kmax , z)
de
la
función
de
memoria .
cálculos. Como se puede apreciar, las barras de error en algunos casos son comparables
al valor mismo de la función, inclusive, a veces mayores. La razón de ello estriba en
que, especialmente a alta frecuencia, el término
S(k)FC (k, z)
(FS (k, z))2 + (FC (k, z))2
representa la división de dos números muy pequeños que fluctúan muy rápido y, de
hecho, FC puede llegar a fluctuar entre números pequeños positivos y negativos.
Adicionalmente, a alta frecuencia tanto FC como FS tienden a cero, y empiezan a
experimentar el remanente del tiempo de corte introducido en las transformaciones
seno y coseno. Además de que la precisión del cálculo no es la misma en todas las
frecuencias y fluctúa impredeciblemente.
Para obtener las curvas mostradas, lo que hicimos fue un ajuste que consiste en asignar a
cada punto el valor promedio de sus puntos cercanos. El intervalo de puntos considerado
en este ajuste de valor medio se tomó como un múltiplo de la frecuencia de Nyquist
νc = π/tc , en donde tc es el tiempo de corte. La elección de este fit fue guiada por
el hecho de que el promedio de las funciones armónicas sobre un período completo
es cero. De esta manera esperábamos reducir el efecto de las oscilaciones inducidas
artificialmente por el efecto de corte. En todas las figuras aquí mostradas se tomó como
intervalo de promediación a 6νc .
Las figuras 7.9-7.12 muestran a las funciones de memoria M (k = kmax , t) correspondientes a las transformaciones Fourier coseno MC (k = kmax , z) en las figuras 7.5-7.8.
120
Figura 7.6:
Variación
con
la
concentración
en un sistema
moderadamente
interactuante, de
la transformación
Fourier
coseno
MC (kmax , z)
de
la
función
de
memoria.
Figura 7.7:
Variación con el
alcance del potencial, en un sistema
moderadamente
interactuante, de
la transformación
Fourier
coseno
MC (kmax , z).
Capítulo 7. Funciones de memoria en dos dimensiones.
7.2. Efecto de las interacciones directas y de la concentración
121
Figura 7.8:
Variación
con
la intensidad de
interacción de la
transformación
Fourier
coseno
MC (kmax , z), en un
sistema moderadamente denso.
Figura 7.9:
Variación de la
función de memoria M (kmax , t) con
la concentración,
en un sistema de
coloides débilmente interactuantes.
122
Figura 7.10:
Variación de la
función de memoria M (kmax , t)
con la concentración, en un
sistema de coloides
moderadamente
interactuantes.
Figura 7.11:
Variación de la
función de memoria M (kmax , t),
con el alcance
del
potencial,
en un sistema
medianamente
denso de coloides
moderadamente
interactuantes.
Capítulo 7. Funciones de memoria en dos dimensiones.
7.2. Efecto de las interacciones directas y de la concentración
123
Figura 7.12:
Variación de la
función de memoria M (kmax , t), con
la intensidad de
interacción, en una
dispersión coloidal
moderadamente
densa.
En la figura 7.9 vemos que el efecto de memoria disminuye dramáticamente cuando la
densidad del sistema disminuye. De los estudios previos sabemos que en la ausencia de
las interacciones hidrodinámicas las funciones de memoria tienen un término dominante
en la densidad que va como n2 . De esta manera si la densidad disminuye, el efecto de
memoria disminuirá, al menos, cuadráticamente con el decremento de la densidad.
Las oscilaciones que manifiestan las funciones de memoria no son físicas. De hecho, la
dinámica de Smoluchowski predice que todas las funciones de autocorrelación temporal
son monótonas decrecientes [11]. Así que no deberían estar presentes. Su aparición se
debe a la convolución del efecto de la frecuencia de corte con el resultado real. De esta
manera, las funciones de memoria reales deben quedar mas o menos a lo largo de la
bisectriz que ajusta mejor estas gráficas. Sin embargo, de esta forma no queda claro cual
forma funcional usar para empezar un análisis de ajuste no lineal. También podríamos
intentar emplear un ajuste de vecinos cercanos, como se hizo con MC . Sin embargo, en
este caso no es conveniente ya que la M obtenida no oscila tan rápidamente como MC
lo hace.
Ahora atendamos a la figura 7.10. En este caso los coloides son cinco veces mas interactuantes que los del sistema de la figura 7.5. Observamos que el valor en el instante
inicial es altamente sensible a las variaciones de densidad. Sin embargo, el ancho de la
curva parece cambiar poco si varía poco la densidad.
En cuanto a la figura 7.11, excepto en el valor inicial, observamos que la función de
memoria es poco sensible al alcance del potencial, sólo se aprecia que aumenta en
los instantes iniciales. Un factor que puede explicar esta condición es el hecho de que
los coloides se desplazan sólo una fracción pequeña de su tamaño cuando el efecto de
124
Capítulo 7. Funciones de memoria en dos dimensiones.
memoria se ha relajado.
La figura 7.12 muestra que la función de memoria se ensancha ligeramente en condiciones de interacción cada vez menores, aunque disminuye su amplitud. Parece como si al
disminuir la interacción se delocalizara, es decir, como si “se esparciera” y a la vez se
atenuara.
De estos resultados parece que el efecto de incrementar las condiciones de interacción,
esto es, n o A2 , es el de localizar la memoria cada vez más en torno a t = 0 y a la vez
aumentar su importancia en intervalos de tiempo cada vez más grandes. Esto era de
esperarse, pero por el momento no podemos decir nada acerca de una posible forma
funcional. Por simple inspección visual es evidente que la función de memoria no parece
ser exponencial.
En cuanto a estudios de la función de autocorrelación de velocidades de sistemas Hamiltonianos, se ha mostrado que las funciones de memoria deben ser funciones pares del
tiempo. Parece que aquí nosotros tenemos una función que podría poseer esa característica. No obstante, en este caso no tiene sentido hablar de tiempos negativos ya que la
dinámica de Smoluchowski es irreversible y la ecuación de memoria es válida solamente
para tiempos positivos. Sin embargo, es notable que parece ser que esta condición se
sigue cumpliendo aún en la dinámica de Smoluchowski.
Hemos de remarcar que al nivel de los cálculos aquí mostrados, no tenemos la certeza de
si los valores de M (k = kmax , t = 0) son lo suficientemente precisos como para formular
conclusiones basadas únicamente en el comportamiento de estos valores. Esto se debe
al problema con el termino
S(k)FC (k, z)
(FS (k, z))2 + (FC (k, z))2
del que hablamos anteriormente. Por ello, conviene que nuestro estudio lo hagamos
atendiendo a la forma general de la función de memoria y no solamente a su valor inicial. De hecho, mediante la expansión de momentos sería posible determinar con muy
buena precisión a M (k = kmax , t = 0). Pero lo que nos interesa a nosotros es el comportamiento global, que no se puede obtener a partir de una expansión de cumulantes.
Remarcamos el efecto global que hemos venido mencionando en esta sección: al disminuir las condiciones de interacción la memoria se ensancha y su amplitud disminuye.
7.2.3.
Modelo lorentziano
Las figuras 7.13-7.16 muestran la gráficas semi-logarítmicas ln [MC (k = kmax , z)] vs z
asociadas a las figuras 7.5-7.8. En todas ellas se puede apreciar una región lineal bastante
amplia como para asegurar que MC tiene un modo de decaimiento exponencial. El único
caso que parece distinto es el del sistema con interacciones más intensas en donde la
curva se hace cóncava. No obstante, aún este caso presenta una región lineal amplia a
alta frecuencia.
Si la función de memoria en el espacio coseno es exponencial esto significa que en el
tiempo debe ser una lorentziana centrada en el origen y cuya altura y anchura están
7.2. Efecto de las interacciones directas y de la concentración
125
determinadas por ln [MC (kmax , z = 0)] y la pendiente de ln [MC (k = kmax , z)] vs z, respectivamente. En este lenguaje, parece que el caso con A2 = 70 presenta dos modos
de decaimiento lorentzianos, uno más ancho asociado a frecuencias bajas y uno más
angosto asociado a frecuencias altas. Por el momento, no sabemos como interpretar físicamente esta separación de escalas. Sin embargo, mediante un argumento físico simple,
en la sección siguiente veremos que este caso se puede modelar con una función hipergeométrica de Gauss, lo cual resulta conveniente pues, como sabemos, la lorentziana así
como muchísimas otras funciones, es un caso particular de la función hipergeométrica
de Gauss.
Basados en esta observación, podemos realizar un ajuste lineal de las curvas en 7.137.16. Antes de dar los resultados introduciremos la notación que usaremos. Considere
la función de memoria lorenzana
M l (k, t) = M0
(7.11)
2
τ l (k)
(τ l (k))2 + t2
en donde τ l es el tiempo de relajación lorentziano y M0 es el valor inicial. La transformación de Fourier coseno es
h
i
M0 τ l (k)
l
exp
−τ
(k)z
,
2π −1
MCl (k, z) =
(7.12)
de tal manera que
(7.13)
ln
h
MCl (k, z)
i
M0 τ l (k)
− τ l (k)z.
= ln
2π −1
"
#
Entonces el ajuste se realiza con una forma funcional
(7.14)
con y0 = ln
y = mx + y0
h
M0 τ l (k)
2π −1
i
y m = −τ l (k).
La tabla 7.1 muestra los parámetros que se obtienen para el modelo lorentziano usando
el ajuste lineal de mínimos cuadrados. La columna identificada con R2 es el coeficiente
de determinación del ajuste. Esta cantidad representa el porcentaje de los datos mas
cercanos a la línea ajuste. El ajuste perfecto tendría un R2 = 1.000 · · · . La columna
identificada como χ2red es el coeficiente chi reducido que está dado por
(7.15)
χ2red
Npuntos
X (f it(i) − valorreal(i))2
1
=
.
Npuntos − Nparametros i=1
error(i)2
Idealmente, χ2red = 1. Si es menor que uno significa que se han sobreestimado los errores
y si es mayor que se han sub-estimado. Aquí solamente lo reportamos como referencia,
pues en realidad se consideró arbitrariamente que σ(i) = 1, porque no calculamos el
error del ajuste mediante promedio de vecinos cercanos. Sin embargo, la χred mostrada
es útil ya que representa una “desviación estándar” de la función completa.
126
Figura 7.13:
Variación
de
ln [MC (k = kmax , z)]
con la concentración, en un
sistema débilmente
interactuante.
Figura 7.14:
Variación
de
ln [MC (k = kmax , z)]
con la concentración, en un sistema
moderadamente
interactuante.
Capítulo 7. Funciones de memoria en dos dimensiones.
7.2. Efecto de las interacciones directas y de la concentración
127
Figura 7.15:
Variación
de
[M
ln C (k = kmax , z)]
con el alcance del
potencial,
en
un sistema moderadamente
interactuante.
Figura 7.16:
Variación
de
ln [MC (k = kmax , z)]
con la con la
intensidad
de
interacción.
128
Capítulo 7. Funciones de memoria en dos dimensiones.
A=7
z
[50, 90]
[0, 350]
n
0.2
1.0
b
1.0
1.0
y0
1.24293
2.87972
m
−0.02059
−0.00853
M0
107
1329
τL
0.02059
0.00853
χ2red
0.00091
0.00302
R2
0.98359
0.99595
0.8
1.0
1.0
1.0
1.0
2.0
1.0
0.5
3.07163
2.93942
3.03952
3.05878
−0.00539
−0.00442
−0.00397
−0.00364
2548
2722
3350
3725
0.00539
0.00442
0.00397
0.00364
0.00521
0.00435
0.00265
0.00281
0.99407
0.99264
0.99443
0.99296
A = 35
[0, 600]
[0, 600]
[0, 600]
[0, 600]
A = 70
[100, 600]
1.0 1.0 3.00356 −0.00277 4632 0.00277 0.0013 0.99197
Cuadro 7.1: Parámetros del ajuste lineal de ln [MC (k = kmax , z)] y los valores correspondientes que resultan para el modelo lorentziano. También se muestran el coeficiente
de determinación y la chi cuadrada reducida, que en este caso es una especie de desviación estándar del ajuste.
La figura 7.17 muestra a la función de memoria que se obtiene con el ajuste lorentziano
y se compara con la función de memoria de la simulación. Podemos apreciar que el
ajuste es excelente para el sistema menos interactuante. En cambio, no parece ser muy
conveniente para los demás casos, ya que pierde información de tiempos largos, es decir,
decrece más rápido que las funciones de memoria exactas. En la leyenda de esta figura
hemos llamado al ajuste exponencial de MC que resulta del ajuste lineal de ln MC
como un ajuste tipo distribución Boltzmann. Esto se hace así en alusión al factor de
Boltzmann exp [−αω]. En este paralelismo, ω sería z y α = ~/kB T sería τ l . En este
contexto, podríamos decir que el modelo lorentziano para la función de memoria es uno
que sería válido a tiempos de relajación muy cortos (temperaturas altas).
Sería raro que un solo modelo lorentziano pudiera modelar a la función de memoria,
ya que en sistemas cada vez más interactuantes es razonable suponer que el tiempo
de relajación de la función de memoria también aumente. Por el contrario, nosotros
observamos que el modelo lorentziano predice que la función de memoria se relaja
cada vez más rápido en sistemas cada vez más interactuantes. Entonces, o bien, es
necesario usar modelos de varios tiempos de relajación, como se suele hacer en los
modelos exponenciales, o bien buscar algún otro modelo.
7.2. Efecto de las interacciones directas y de la concentración
129
Figura 7.17: Modelo Lorentziano para la función de memoria que resulta del ajuste tipo
distribución Boltzmann de MC . Las lineas en color representan los modelos lorentzianos.
En rosa para A2 = 7, en naranja para A2 = 35 y en rojo para A2 = 70.
7.2.4.
Modelo hipergeométrico gaussiano
Note que el modelo exponencial para MCl que emerge de la discusión anterior puede
escribirse como
(7.16)
MCl (k, t) =
a1 (k)
.
exp [a2 (k)z]
La primer suposición razonable para extender este modelo sería considerar la suma de
dos exponenciales con distintos a’s. Sin embargo, por ejemplo, en el caso A2 = 70 no
queda claro hasta qué frecuencia cortar la linea en frecuencias bajas para calcular el
conjunto de a’s asociado al modo más lento.
Por otra parte, notemos que el efecto de aumentar la intensidad de la interacción es el
de favorecer los modos de frecuencias bajas. Una función que extiende de forma natural
a (7.16) de tal manera que favorezca los modos de decaimiento lentos, es decir, las
130
Capítulo 7. Funciones de memoria en dos dimensiones.
frecuencias bajas es
MChG (k, z) =
(7.17)
a1 (k)
exp [a2 (k)z] − a3 (k)
en donde a3 (k) es un número positivo y a3 (k) < 1. Notemos que esto es como extender
la forma tipo Boltzmann de nuestro espectro coseno de la función de memoria a una
forma tipo Bose. El superíndice hG se ha incluido porque resulta que la transformación
Fourier coseno inversa de MChG es una combinación de dos funciones hipergeométricas
de Gauss1 .
Tenemos que con el modelo tipo Bose para MChG

(7.18)
M hG (k, t) =
a1 
2
2 F1 1, 1 −
ıt
;2
a2
−
ıt
; a3
a2
a2 − ıt
+
2 F1 1, 1 +
ıt
;2
a2
a2 + ıt
+
ıt
; a3
a2

.
En donde 2 F1 (a, b, c; x) es la función hipergeométrica de Gauss2 . Esta función está dada
por la serie infinita, válida solamente para R |x| < 1 y para x = ±1 si c > a + b
(7.19)
2 F1 (a, b; c; x)
=
∞
X
(a)n (b)n xn
,
(c)n n!
n=0
en donde (a)n = a(a + 1)(a + 2) · · · (a + n − 1) se llama símbolo de Pochamer. Se puede
ver entonces que
(7.20)
2 F1 1, 1 ±
∞
X
1 ± aıt2
ıt
ıt
n
; 2 ± ; a3 =
ıt (a3 )
a2
a2
n
+
1
±
n=0
a2
y, por tanto,
(7.21)
M
hG
∞
(n + 1) (a3 )n
a1 X
.
(k, t) =
a2 n=0 (n + 1)2 + (t/a2 )2
En efecto, si a3 = 0 entonces
(7.22)
M hG (k, t) =
a1 a2
= M l (k, t).
(a2 )2 + t2
La tabla (7.2) muestra los parámetros que se obtienen para el ajuste MChG de MC .
Notemos que en el caso A = 7 el parámetro a2 concuerda exactamente con el parámetro
τ l que le corresponde en el ajuste MCl . Sin embargo, los demás parámetros son distintos.
Por una parte, uno esperaría que el parámetro a2 coincida siempre con τ l . Pero por
1
http://mathworld.wolfram.com/HypergeometricFunction.html
2
La función hipergeométrica de Gauss tiene aplicaciones en muchas áreas de la física y las matemáticas. En física emerge en la mecánica cuántica, en la gravitación y en la mecánica estadística. En
matemáticas ocurre en la teoría de probabilidad. También existe un modelo, llamado la regla 184,
para modelar el flujo de tráfico con autómatas celulares.
7.2. Efecto de las interacciones directas y de la concentración
131
otra parte, debido a los errores numéricos, esto no sucede porque una determinación
perfectamente precisa de ambos parámetros requiere que, a alta frecuencia, MC esté
determinada con muy buena precisión. Entonces, de acuerdo a los comentarios expuestos
anteriormente acerca del comportamiento de
S(k)FC (k, z)
,
(FS (k, z))2 + (FC (k, z))2
resulta que estos parámetros no tienen por qué coincidir en nuestros cálculos, si requerimos conocer con alta precisión a MC en alta frecuencia. Nuestra impresión es
que el efecto de aliasing puede estar entrando en juego, pues el muestreo en el tiempo
estuvo separado por 8 × 10−5 τ 0 para el caso A2 = 70 y la frecuencia asociada es de
33.9 × 103 τ 0−1 .
A=7
n
1.0
b
1.0
a1
17.54265
a2
0.00853
a3
0.01617
χ2red
0.03408
R2
0.99822
1.0
1.0
13.34362
0.00326
0.44256
0.02994
0.99904
A = 35
A = 70
1.0 1.0 8.03848 0.00175 0.72804 0.17978 0.99539
Cuadro 7.2: Parámetros del ajuste tipo Bose de MC (kmax , z).
La figura (7.18) muestra el ajuste tipo Bose de MC . Notemos la gran coincidencia y
que, otra vez, el caso A2 = 70 es el de menor precisión, aunque es aceptable. La figura
(7.19) muestra el modelo hipergeométrico correspondiente a la función de memoria.
Con este modelo la predicción a tiempos cortos es muy pobre. Lo cual puede deberse
a la fuente de error de MC en alta frecuencia. Sin embargo, este modelo muestra un
comportamiento cualitativo más coherente que el mostrado por el modelo lorentziano.
Como se puede apreciar inmediatamente, el modelo predice que el tiempo de relajación
de la función de memoria aumenta al aumentar la intensidad de interacción, lo cual
parece tener mucho más sentido.
La impresión que nos dan esto resultados es que el modelo hipergeométrico de Gauss
en la forma reducida a serie de potencias (7.21) podría ser otro buen candidato para
representar los efectos de memoria. Respecto al modelo lorentziano, creemos que aunque
puede ajustar las curvas de memoria de forma perfecta en algunos casos, no puede ser
un buen candidato si se considera solamente un tiempo de relajación. De hecho (7.21)
puede considerarse como un modelo lorentziano con un espectro infinito de tiempos de
relajación.
132
Capítulo 7. Funciones de memoria en dos dimensiones.
Figura 7.18: Ajuste tipo Bose para MC con las distintas amplitudes de interacción
A2 = 7 (trazos negros y rosa) A2 = 35 (trazos grises claros y naranja) y A2 = 70
(trazos grises y rojos).
7.2. Efecto de las interacciones directas y de la concentración
133
Figura 7.19: Modelo hipergeométrico de Gauss de M , que resulta del ajuste tipo Bose
en MC en lineas de colores. En rosa para A2 = 7, en naranja para A2 = 35 y en rojo
para A2 = 70.
134
7.3.
Capítulo 7. Funciones de memoria en dos dimensiones.
Dependencia en el número de onda y en la
frecuencia
Ahora mostraremos la dependencia de la función de memoria en la frecuencia y en el
número de onda. Presentaremos solamente el caso medianamente interactuante A2 = 35.
La figura 7.20 muestra a F (k, t). Notamos que la parte de números de onda grandes
decae casi instantáneamente en comparación con la región cercana al máximo principal
del factor de estructura. La figura 7.21 muestra la gráfica correspondiente al intervalo
de tiempo en el que la parte de números de onda grandes decae. En cambio, en ese
intervalo de tiempo la región cercana al máximo principal apenas varía.
Figura 7.20: Dependencia de la función intermedia de dispersión en el número de onda
y en el tiempo. Los resultados corresponden al sistema bidimensional con los parámetros
A2 = 35, n = 1, b = 1 y σ = 0.357. Se muestra todo el intervalo de tiempo hasta que
la función decae completamente.
La función de memoria correspondiente a este sistema tiene la transformación Fourier
coseno que se presenta en la figura 7.22. Las gráficas mostradas están normalizadas
con F (k, 0). En términos generales, se observa que la función de memoria presenta una
estructura de máximos y de mínimos con periodicidad idéntica a la mostrada por la
función intermedia de dispersión. La figura 7.23 muestra a MC (k, z)/F (k, 0) cerca del
7.3. Dependencia en el número de onda y en la frecuencia
135
Figura 7.21: La figura muestra a F (k, t) durante el intervalo de tiempo en donde la
parte de números de onda más grandes ha decaído completamente.
136
Capítulo 7. Funciones de memoria en dos dimensiones.
Figura 7.22: MC (k, z)/F (k, 0) asociada a la función de memoria del sistema en la figura
7.20.
máximo principal.
De la figura 7.23 notamos que si tomamos distintos cortes, esto es distintos valores
de k, la forma funcional no debe cambiar mucho lo cual quiere decir que los mismas
conclusiones que obtuvimos acerca de k = kmax se pueden aplicar a cualquier número
de onda.
La figura 7.24 muestra que la superficie ln [MC (k, t)/F (k, 0)] se puede construir, con muy
buena aproximación, como una sucesión de infinita de lineas rectas. Esto se confirma
considerando la gráfica correspondiente a distintos números de onda que se muestra en
la figura 7.25. En estas figuras observamos la tendencia de la pendiente a cero cuando
aumenta el número de onda. Esto significa que los efectos de memoria adquieren menor
relevancia cuando el número de onda aumenta, lo cual es consistente con los resultados
conocidos (Secc. 4.2.1).
Los resultados presentados en esta sección muestran, al menos en lo que a sistemas
de coloides de Yukawa concierne, que los modelos funcionales para las funciones de
memoria son más sensibles a las condiciones de interacción (carga, densidad, alcance,
etc.) que al número de onda mismo. Esta afirmación es porque parece que el modelo
Lorentziano bien podría aplicase para estudiar todos los números de onda sin necesidad
de recurrir al modelo hipergeométrico.
7.3. Dependencia en el número de onda y en la frecuencia
137
Figura 7.23: Comportamiento de MC (k, z)/F (k, 0) del sistema en la figura 7.20, en la
región cercana al máximo principal del factor de estructura.
Figura 7.24: Superficie ln [MC (k, t)/F (k, 0)] del sistema en la figura 7.20.
138
Capítulo 7. Funciones de memoria en dos dimensiones.
Figura 7.25: Comportamiento de ln [MC (k, t)/F (k, 0)] en la figura 7.24, en distintos
números de onda.
7.4. Teoría de modos acoplados
7.4.
139
Teoría de modos acoplados
Recordemos el esquema autoconsistente de modos acoplados (MMCA) en la aproximación de convolución presentado en la sección 4.2.4.2. En las escalas que estamos
manejando y para los sistemas bidimensionales3
ˆ t
2 −1
dt0 M (k, t0 )S −1 (k)F (k, t − t0 ),
∂t F (k, t) = −k S (k)F (k, t) +
0
ˆ
2
(7.23)
M (k, t) = k M
irr
t
dt0 M irr (k, t0 )M (k, t),
(k, t) −
0
(7.24)
(7.25)
M
irr
1
(k, t) =
2(2π)2
V (k, k0 ) =
ˆ
2
d2 k 0 |V (k, k0 )| F (|k − k0 | , t)F (k 0 , t),
k · k0
k · (k − k0 )
c̃(k) +
c̃(|k − k0 |),
k
k
"
(7.26)
#
1
c̃(k) = 1 −
.
S(k)
Para hallar la función de memoria colectiva en la aproximación de convolución4 , solamente tenemos que usar las F ’s que hemos calculado con las simulaciones. Sustituir las
F ’s y su invariante5 en (7.24-7.26) y luego usar (7.23) para obtener M .
Podemos elegir que k y k0 sean paralelos e integrar la parte angular para obtener que
ˆ kC
1
2
irr
M (k, t) =
dk 0 |V (k, k 0 )| F (|k − k 0 | , t)F (k 0 , t).
4π 0
Aquí kC denota a un número de onda de corte, después del cual el integrando alcanza
el valor cero.
La figura 7.26 muestra a la función de memoria irreducible que se obtiene para el
sistema bidimensional con A2 = 35, b = 1 y n = 1. Debido al efecto de frontera, la
función vértice fluctúa, no solamente en números de onda pequeños, sino también en
una vecindad extensa de k 0 alrededor de k (Ec. 7.25).
3
´
P
El factor 1/(2π)3 proviene de reemplazar una suma discreta k por una integral V (2π)−3 d3 k,
pero como aquí estamos trabajando en 2D necesitamos el factor 1/(2π)2 .
4
Hemos elegido esta aproximación porque ha probado ser la más apropiada en una gama amplia de
condiciones [106].
5
Así se le llama al valor t = 0 de las funciones de correlación temporal, así como al de las cantidades
fluctuantes.
140
Capítulo 7. Funciones de memoria en dos dimensiones.
Figura 7.26: Función de memoria irreducible de acuerdo a (7.24) para un sistema
bidimensional en k = kmax . Como es usual, kmax indica la posición del máximo principal
de S(k). También se muestran las memorias irreducibles que se obtienen al emplear dos
ajustes RY, y uno HNC, para interpolar el S(k) de la simulación, y después usarlo para
calcular V (kmax , k).
7.4. Teoría de modos acoplados
141
Las figuras 7.27 y 7.28 muestran a la función vértice para dos valores distintos de
su primer argumento. Las líneas a colores muestran los vértices que se obtienen al
emplear distintos ajustes teórico-numéricos de S. Estos ajustes se obtuvieron al resolver
el sistema OZ más la relación de cerradura de HNC o la de RY (Secc. 3.1.1.4), variando
A2 hasta que el S obtenido de esta forma se encimara lo mejor posible con el S obtenido
con la simulación. Las figuras muestran un solo valor de HNC, el que ajustó mejor al
S(k) de la simulación. Para RY se muestran tres valores, el mayor de ellos ajusta mejor
la región vecina a kmax , el intermedio es el valor real, y el menor ajusta mejor la parte
de S que corresponde a los números de onda pequeños (k < kmax ). Observamos que las
fluctuaciones del S(k) simulado se transmiten en V más alla de la parte de números de
onda pequeños. Esto se debe a los términos que contienen k − k0 en la forma funcional
de V (Ec. 7.25).
Se observa que la M irr obtenida con el vértice asociado al S de las simulaciones está
muy lejos de los ajustes. Esto sólo puede significar que los ajustes no son apropiados,
porque aunque el V (k, k 0 ) de la simulación fluctúa mucho, lo hace manteniendo una
forma bien definida, que de hecho se asemeja a la de los ajustes solamente cuando
k 0 > k y difieren mucho en las otras regiones. En lo que sigue usaremos la M irr que se
obtuvo de la simulación (sin ajustes)..
Una vez que tenemos a M irr , usamos los pares de transformación seno y coseno aplicados
a (7.23). Primero obtenemos que
(7.27)
MC (k, z) = k 2 MCirr (k, z) − MCirr (k, z)MC (k, z) + MSirr (k, z)MS (k, z),
(7.28)
MS (k, z) = k 2 MSirr (k, z) − MCirr (k, z)MS (k, z) + MSirr (k, z)MC (k, z),
y luego, mediante eliminación algebraica
(7.29)
MC (k, z) = k
2
1 + MCirr (k, z)
1−
2
2
(1 + MCirr (k, z)) + (MSirr (k, z))
!
y
(7.30)
MS (k, z) = k 2
MSirr (k, z)
2
2.
(1 + MCirr (k, z)) + (MSirr (k, z))
Como se mencionó anteriormente, resulta que la expresión para MC es mucho más
apropiada para hacer los cálculos. Como anteriormente, en lo sucesivo solamente mostraremos a MC y hablaremos solamente de los resultados que de ella se derivan.
La figura 7.29 compara a la transformación Fourier coseno de la función de memoria
colectiva de la teoría de modos acoplados, en la aproximación de convolución, con la
correspondiente a las simulaciones para el sistema con A2 = 35, b = 1 y n = 1.
Se observa que la aproximación de modos acoplados captura más componentes de Fourier de alta frecuencia, esto es, aquellas que contribuyen más a tiempos cortos. De
hecho, la teoría de modos acoplados puede ver hasta frecuencias treinta veces mayores
142
Capítulo 7. Funciones de memoria en dos dimensiones.
Figura 7.27: Función vértice V (q = 6.8, k) de la simulación (en negro). También se
muestran los resultados para cuatro ajustes de S usando las cerraduras HNC y RY. Los
números indican el valor de A2 empleado para hacer el ajuste.
7.4. Teoría de modos acoplados
143
Figura 7.28: Función vértice V (q = 8, k) de la simulación (en negro). También se
muestran para los cuatro ajustes de S empleados en la figura anterior.
144
Capítulo 7. Funciones de memoria en dos dimensiones.
Figura 7.29: Comparación entre la MC (k = kmax , z) que se obtiene de las simulaciones
(lineas grises) con la que se obtiene a partir de la teoría de modos acoplados (lineas
negras). El inset muestra un rompimiento de ejes.
7.4. Teoría de modos acoplados
145
Figura 7.30: Comparación entre el ln [MC (k = kmax , z)] de las simulaciones (linea gris)
y el que se obtiene de la teoría de modos acoplados (linea negra).
que aquellas que las simulación puede. La teoría de modos acoplados no está construida para reproducir las propiedades de tiempos cortos de F (k, t), como lo están otras
aproximaciones, como por ejemplo la SEXP [11]. Sin embargo, no queda claro cómo
es que ésta debilidad de la MMCA se traslada a la escala de tiempo en donde M se
manifiesta, la cual, como hemos venido mostrando, es dos ordenes de magnitud menor
que la escala en donde F decae.
La figura 7.30 muestra los logaritmos naturales de las transformaciones coseno. Notemos la gran diferencia en su comportamiento. Mientras que la curva que corresponde
a las simulaciones casi es una recta, la que corresponde a la teoría de modos acoplados
es convexa. Además, hemos visto que cuando aumentamos la amplitud de interacción
A, los resultados de la simulación predicen que la curva ln [MC (k = kmax , z)] vs z se
vuelve cóncava. Estas diferencias sólo pueden deberse a una falla de la aproximación de
146
Capítulo 7. Funciones de memoria en dos dimensiones.
Figura 7.31: Función de memoria M (k = kmax , t) de la simulación (en gris) comparada
con la función de memoria en la aproximación de convolución de la teoría de modos
acoplados (en lineas negras). El inset muestra al ln [M (k = kmax , t)] de la función correspondiente a la teoría de modos acoplados.
convolución, o bien, a una deficiencia del esquema de modos acoplados para predecir
propiedades detalladas de los líquidos coloidales. Recordemos que la MMCA originalmente está formulada para trabajar en condiciones críticas (alta densidad e interacciones
fuertes). Sin embargo, ha probado ser muy precisa al predecir los factores de no exponencialidad de los líquidos coloidales [103]. Los factores de no exponencialidad están
íntimamente relacionados con la función de memoria reducida, la cual a su vez, es la
integral la función de memoria .
La figura 7.31 compara a las funciones de memoria. Como las transformaciones coseno
nos permitían anticipar, la función de memoria de la MMCA le da mayor peso a los
eventos de tiempos cortos. Como resultado de esto, la función de memoria de la MMCA,
aunque es mucho más grande en tiempos cortos, decae mucho más rápido que la función
de memoria obtenida de las simulaciones.
7.5. Sistemas bidimensionales de coloides paramagnéticos.
147
El inset en la figura 7.31 muestra que la función de memoria de la MMCA, con muy
buena aproximación, podría representarse como una exponencial de un tiempo de relajación. Este último resultado es consistente con los estudios previos, aunque posiblemente
los parámetros de ésta exponencial pueden ser distintos de los parámetros del modelo SEXP. El hecho de que la MMCA reproduzca resultados conocidos, mientras que
nuestros resultados de simulación no, podría significar que hay algún error en nuestros
cálculos. Sin embargo, pensamos que podemos estar desnudando las deficiencias de la
aproximación. Esta afirmación se basa en dos hechos, 1) se usan las mismas funciones
de entrada en ambos cálculos y 2) se emplea el mismo método de cálculo, así que el
mismo error debería manifestarse en los cálculos.
7.5.
Sistemas bidimensionales de coloides
paramagnéticos.
Figura 7.32: F (k = kmax , t) de un sistema bidimensional de coloides paramagnéticos.
148
Capítulo 7. Funciones de memoria en dos dimensiones.
Un sistema experimental modelo en el cual los parámetros del potencial de interacción
por pares se pueden controlar con gran precisión, es el sistema bidimensional de coloides
de poli-estireno paramagnéticos confinados en la interfaz agua-aire [128]. En [128] Zahn,
Méndez y Maret, muestran que éste sistema es muy accesible para separar los efectos
de las interacciones directas de aquellos que corresponden a las interacciones hidrodinámicas. Por ello, dedicamos esta pequeña sección para comentar sobre su función de
memoria colectiva.
La figura 7.32 muestra a la función intermedia de dispersión de un sistema bidimensional
de coloides con momento dipolar magnético. Los coloides paramagnéticos interactúan
a través del potencial
(7.31)
u(r) =
Γ
,
r3
en donde
(7.32)
Γ=
µ0 2
M
4π
con M el momento dipolar magnético.
En las escalas kB T y d y, entre otros valores, en el trabajo [128] muestran los resultados para Γ = 8.2, en donde se aprecia una g(r) muy similar a las estudiadas en este
trabajo. En esta sección mostramos resultados correspondientes a ese valor y para el
número de onda kmax . La función intermedia de dispersión en la figura 7.32 muestra
el comportamiento típico de un líquido coloidal. En esta curva las barras de error se
muestran en gris.
La figura 7.33 muestra la transformación coseno de la función de memoria, junto con su
ajuste tipo distribución Bose y el inset muestra su gráfica semi-logarítmica. Observamos
un comportamiento muy similar al mostrado por el sistema de partículas de Yukawa.
Atendiendo a la figura 7.32, así como a la figura 7.4, notamos que éste sistema posee
una correlación intermedia entre los casos A2 = 35 y A2 = 70. Sin embargo, en éste
sistema de dipolos la región lineal de ln MC (k, z) se presenta a frecuencias más altas que
cualquiera de los dos casos de Yukawas. Esto indica que el sistema de dipolos retiene
más memoria, lo cual se justifica por el hecho de que el alcance de su potencial es mucho
mayor que el de los Yukawas.
En esta sección hemos presentado a otro sistema en el cual el modelo hipergeométrico
de Gauss también parece capturar los resultados de la simulación de una forma razonable. Para concluir el reporte de resultados presentado en esta tesis, en la sección
que sigue presentamos resultados representativos que ilustran un primer acercamiento
a la dinámica colectiva de los sistemas en capas. Con ello habremos mostrado el grado
de control que el parámetro ` tiene sobre la función de memoria colectiva y, al menos
parcialmente, habremos cerrado el ciclo de éste trabajo. Para cerrarlo completamente debemos definir, calcular y entender lo que es una memoria efectiva. Esto último
engloba un trabajo muy extenso que no se pudo concluir aquí y que se dejará como
perspectiva de trabajo.
7.5. Sistemas bidimensionales de coloides paramagnéticos.
149
Figura 7.33: MC (k, z) del sistema en la figura 7.32 La linea gris muestra su ajuste tipo
Bose y el inset al ln MC (k, z).
150
7.6.
Capítulo 7. Funciones de memoria en dos dimensiones.
Dinámica colectiva de sistemas en capas: dos
capas y una especie
Figura 7.34: Funciones intermedias de dispersión parciales del sistema de dos capas y
una especie estudiado en este trabajo (Secc. 5.2.2). Solamente
√ se muestra el resultado
para el número de onda asociado a la escala de longitud 2d, para tres valores de la
distancia entre las capas: 1σ en líneas negras, 1.5σ en lineas grises claras y 5σ en lineas
11
22
grises. Las funciones positivas representan a las correlaciones F11
= F11
y las negativas
12
21
a F11 = F11 .
Consideremos el sistema de dos capas y una especie introducido
y estudiado en las
√
1,2
secciones 5.2.2 y 6.2. Recordemos que en este sistema A1 = 50, b = 1, x11,2 = 0.5 y
σ = 0.357. La √
figura 7.34 muestra a la función intermedia de dispersión para el número
de onda k = 2π, el cual corresponde a la escala de longitud característica de cada
7.6. Dinámica colectiva de sistemas en capas: dos capas y una especie
151
capa. Se muestran resultados para tres valores de la distancia entre las capas.
Se observa que la correlación en tiempos iguales, entre partículas de la misma capa,
aumenta monotónicamente al aumentar la distancia entre las capas. Sin embargo, la taza
global de decaimiento6 en tiempos distintos no varía monotónicamente. Supongamos
11
que en ` = σ la F11
presenta una taza global de decaimiento simbolizada por z1∗ . Se
observa que en ` = 1.5σ la taza global de decaimiento z2∗ es menor que z1∗ (la curva de
` = 1.5σ es más ancha que la de ` = σ). Sin embargo, cuando ` = 5σ la taza global de
decaimiento z3∗ es mayor que en los otros dos casos, esto es, z2∗ < z1∗ < z3 , claramente,
mostrando un comportamiento no monótono.
Por otro lado, las correlaciones entre coloides en capas distintas varían no monotónicamente tanto en tiempos iguales como en tiempos distintos. Esta vez apreciamos que la
correlación de tiempos iguales aumenta hasta alcanzar un máximo y luego disminuye
hasta cero, a diferencia de la correlación entre coloides de la misma capa, para la cual se
aprecia que aumenta con ` hasta alcanzar su valor máximo en el cual permanece para
` incrementándose aún más.
La figura 7.35 muestra la transformación coseno de la memoria colectiva en cada uno
de los tres casos de la distancia entre capas. La tabla 7.3 muestra los parámetros del
ajuste
(7.33)
hG,1b
=
MC,11
aab
11
h
i
ab
exp bab
11 z − c11
.
Los parámetros para las correlaciones cruzadas correspondientes a ` = 5σ no se muestran porque no se pueden calcular a partir de nuestros resultados ya que están cercanos
a a = 0, b > 1 y c = 0. Los coeficientes de determinación R en todos los ajustes, como
los mostrados en la sección 7.2.4, son muy cercanos al valor perfecto R = 1. Por lo
tanto, al menos numéricamente, el modelo lorentziano de muchos tiempos de relajación
también se puede aplicar con confianza en los sistemas de capas.
El análisis de los resultados para el sistema de capas es mucho más complicado que
en los sistemas bidimensionales. Esto se debe a que en este caso debemos considerar
la mezcla de tiempos de relajación que provienen del encajonamiento por los vecinos
cercanos en la misma capa, así como el efecto de encajonamiento de los vecinos más
cercanos en la otra capa.
Dentro del error inherente a nuestros cálculos numéricos, todavía podemos formular
algunos comentarios respecto a estos resultados. Primero, podemos notar que el comportamiento de los parámetros a es monótono decreciente con `. Segundo, los coeficientes b y c muestran un comportamiento no monótono. Esto tiene sentido porque las
correlaciones temporales F muestran ese mismo comportamiento.
Los parámetros b, que indican el patrón de tiempos de relajación en el modelo lorentziano de muchos tiempos de relajación7 , dicen que en los efectos de memoria de las
6
11
Esto es, una estimación global de la velocidad de decaimiento de F11
, o bien, del inverso de la
11
anchura de la curva F11 vs t.
7
Recordemos que cada tiempo de relajación estaría dado por (n + 1)b, (Ec. 7.21).
152
Capítulo 7. Funciones de memoria en dos dimensiones.
√
Figura 7.35: MC (kd = 2π, z) para cada uno de los casos en la figura anterior: 1σ en
líneas negras, 1.5σ en lineas grises claras y 5σ en lineas grises. Las transformaciones
11
22
de las memorias M11
= M11
se muestran en líneas continúas y las de las memorias
12
21
M11 = M11 en líneas cortadas. El inset muestra al√ln [MC (k, z)]. Las líneas en color
naranja muestran los ajustes tipo Bose de MC (k = 2π, z).
7.6. Dinámica colectiva de sistemas en capas: dos capas y una especie
`
1.0σ
11
a11
34.47835
11
b11
0.0064
11
c11
0.26221
12
a11
32.1691
12
b11
0.007
c12
0.20165
11
Cuadro 7.3: Parámetros de los ajustes tipo
1.5σ
23.296
0.00758
0.22237
23.2616
0.00834
0.10054
Bose mostrados en
153
5.0σ
3.63403
0.00806
0.32498
——
——
——
la figura 7.35.
correlaciones cruzadas adquieren mayor importancia en distancias intermedias. Esto
está de acuerdo, aunque no sabemos explícitamente cual es la relación, con el hecho de
que la autodifusión tiene un mínimo en la distancia intermedia.
Los parámetros c, que estiman hasta dónde se puede cortar la serie infinita del modelo
hipergeométrico gaussiano, nos dicen que la serie hipergeométrica de Gauss converge
más rápido cuando ` = 1.5σ. Esto significa que en ese caso los modos de relajación
múltiplos de b, que son más pequeños, se vuelven dominantes.
154
Capítulo 7. Funciones de memoria en dos dimensiones.
8 Conclusiones y perspectiva de este
trabajo
Dum loquimur, furgerit invida aetas: Carpe diem, quam minimu creudula
postero.
Quintus Horatius Flaccus
En este trabajo hemos presentado un estudio de dos cantidades muy importantes en la
descripción de las dispersiones coloidales. Estas son el potencial efectivo y la función de
memoria. También hemos mostrado que el modelo de dispersión coloidal consistente de
capas planas y paralelas es una herramienta, muy simple pero a la vez muy eficiente,
que ilustra una alternativa nueva para inducir control sobre el potencial efectivo, y por
lo tanto, sobre todas las propiedades meso-estructurales de las dispersiones coloidales.
En este trabajo hemos afrontado algunos problemas técnicos y hemos podido obtener
algunas conclusiones importantes.
En cuanto a los puntos técnicos hemos llegado a la conclusión de que el uso de los factores de estructura, obtenidos de la simulación, o bien del experimento, proporcionan
resultados mucho más precisos para calcular los potenciales efectivos que si se usan las
funciones de distribución. Otro punto, que no se ha mencionado en este reporte, es que
hemos optimizado nuestros programas, paralelizando los códigos cuando así se ha requerido, para poder realizar nuestros cálculos de la forma más eficiente posible –muchos
otros cálculos se realizaron, pero no se muestran aquí, para no desviar la atención sobre
los aspectos que en verdad deseábamos transmitir. También encontramos que el método de las transformaciones seno y coseno para invertir la ecuación de memoria es muy
eficiente. Prácticamente, esta herramienta no se ha usado en estos ámbitos, pero es una
técnica estándar en diversas ingenierías. Los métodos estándar en ésta área suelen ser
los métodos de las transformaciones de Laplace o Fourier-Laplace. Esos métodos son
de gran valor para estudiar las propiedades analíticas de las funciones de dispersión y
de memoira y existen varias técnicas estándar para tratar con funciones suaves y que
varían lento. En cambio, tratar con funciones que varían rápido con inversiones de Laplace es un reto del análisis numérico actual. La función de memoria es un objeto que
puede presentar variaciones muy rápidas, más si se determina a partir de cantidades
fluctuantes como aquí hicimos. Por ello, en los inicios de este estudio decidimos dejar
de lado las técnicas de de-convolución con transformaciones de Laplace y optamos por
el par de transformaciones seno y coseno.
En cuanto a los aspectos más propios de la teoría, hemos emitido un juicio sobre la
validez de las aproximaciones HNC y RHNC en cuanto al cálculo de los potenciales
efectivos en sistemas confinados se refiere. Hemos encontrado que aún cuando estas
155
156
Capítulo 8. Conclusiones y perspectiva de este trabajo
aproximaciones suelen proporcionar buenos resultados en el estudio de los sistemas
abiertos, en sistemas bajo confinamiento pueden proporcionar resultados muy imprecisos. Cuando estas aproximaciones se usan para calcular el potencial efectivo desde el
nivel de la teoría, es decir, sin usar funciones obtenidas de la simulación, y en conjunto
con nuestro colaborador Ramón Castañeda, hemos llegado a la conclusión de que los
resultados no solo son imprecisos, sino que son completamente distintos.
Un aspecto interesante de los sistemas en capas planas es la simplicidad con la que se
combinan las escalas de longitud características, esto es, las distancias promedio entre
partículas y la distancia entre las capas, para determinar y modular la intensidad del
perfil del potencial efectivo.
En el nivel mesoscópico de descripción, hemos establecido a los potenciales efectivos y
a las funciones de memoria sobre la base de que son objetos igualmente fundamentales
y necesarios para entender la dinámica de las dispersiones coloidales y, en general, de
la materia blanda.
En cuanto a las funciones de memoria, después de un trabajo numérico arduo, hemos
encontrado dos nuevos modelos funcionales para representar los efectos de memoria.
Estos son el modelo lorentziano y el modelo hipergeométrico de Gauss. Ambos modelos surgieron naturalmente de los cálculos numéricos y de simulación. Encontramos
que el modelo lorentziano de un solo tiempo de relajación no puede ser válido para
describir la evolución de la función de memoria. Posteriormente, encontramos que el
modelo hipergeométrico es equivalente a un modelo lorentziano con un espectro infinito
de tiempos de relajación. En conclusión, nuestros resultados muestran que el modelo
lorentziano de muchos tiempos de relajación debe considerarse como un candidato serio
para representar y estudiar los efectos de memoria.
Hemos mostrado que el modelo hipergeométrico de Gauss se puede aplicar, no solamente
a sistemas de coloides de Yukawa, sino también a sistemas de coloides paramagnéticos
y a los sistemas en capas planas.
El grado de control de la función de memoria con el parámetro ` se ha ilustrado también. Sin embargo, en esta dirección aún queda mucho trabajo por hacer y entender.
No obstante, hemos mostrado que es posible también controlar la memoria colectiva
simplemente variando `.
A continuación listamos algunas posibilidades de trabajo posterior en la dirección del
presente. En cuanto al modelo de capas planas:
Considerar sistemas de capas polidispersas.
Estudiar la posibilidad de formación de clusters en equilibrio.
Inclusión de las interacciones hidrodinámicas como un primer acercamiento a la
interacción hidrodinámica entre partículas y paredes.
Efectos de curvatura
En cuanto a los potenciales efectivos
HNC se caracteriza por una topología bien definida de la expansión diagramática
de las funciones de correlación y RHNC es una versión perturbativa de HNC.
157
La aproximación B ef f − B = 0, que contiene como casos particulares a HNC y
RHNC, resultó ser mucho más precisa que estas dos. Por lo tanto, es necesario
estudiar más de cerca las consecuencias y, principalmente, la naturaleza de esta
aproximación.
En cuanto a las funciones de memoria
Mediante un análisis de momentos determinar los parámetros del modelo lorentziano.
Estudiar las propiedades analíticas de F , en particular su función espectral, dada
una memoria lorentziana y posteriormente su generalización hipergeométrica de
Gauss.
Encontrar bajo qué condiciones, dentro de los esquemas teóricos sobre los efectos
de memoria, se puede encontrar un modelo de función de memoria colectiva que
vaya como t−2 . Esto proporcionaría un sustento sólido para este modelo y nos
daría una visión más clara sobre los efectos de memoria.
Definir las memoria efectivas, con su correspondiente teorema de fluctuación disipación, y estudiar el caso de las memorias efectivas en capas planas.
158
Capítulo 8. Conclusiones y perspectiva de este trabajo
Bibliografía
[1] C. Contreras Aburto,Propiedades estructurales y dinámicas de coloides en capas
planas MSc Thesis, Cinvestav, Mexico D. F. (2004).
[2] P. G. de Gennes, Nature 412 (6845), 385-385 (2001).
[3] Dhont, J. K. G., An Introduction to Dynamics of Colloids. Studies in Interface
Science Vol. 2, Eds. Möbious D. and R. Miller. Amsterdam: Elsevier (1996)
[4] D. F. Evans and H. Wennerström, The colloidal domain: where physics, chemistry,
biology, and technology meet , Wiley-VCH (1999).
[5] P. G. Degennes, Reviews of Modern Physics 64 (3), 645-648 (1992).
[6] I. W. Hamley and V. Castelletto, Angewandte Chemie-International Edition 46
(24), 4442-4455 (2007).
[7] T. C. Lubensky, Solid State Communications 102 (2-3), 187-197 (1997).
[8] T. A. Witten, Reviews of Modern Physics 71 (2), S367-S373 (1999).
[9] Boon, J. P. and Yip S., Molecular Hydrodynamics. New York : McGraw-Hill,
(1980).
[10] Hansen, J. P. and McDonald I. R., Theory of simple liquids. San Diego: Academic
Press. 2nd Ed. (1986).
[11] G. Naegele, Physics Reports 272 (5-6), 215-372 (1996).
[12] McQuarrie, D. A., Statistical Mechanics, Sausalito: University Science Books.
(2000).
[13] G. Nägele, Soft Matter: From Syntetic to Biological Materials, 39th IFF Spring
School 2008, Series: Key Technologies Vol. 31, Forschugszentrum Jülich Publising
(2008).
[14] J. N. Roux, Physica A 188 (4), 526-552 (1992).
[15] L. van Hove, Physical Review 95 (1), 249-262 (1954).
[16] C. N. Likos, Physics Reports 348, 267-439 (2001).
[17] L. Belloni, Journal of Physics-Condensed Matter 14, R549-R587 (2000).
[18] S. A. Adelman, The Journal of Chemical Physics 64, 724-731 (1976).
[19] L. S. Ornstein and F. Zernike, Proc. Akad. Sci. 17 793 (1914). In The Equilibrium
Theory of Classical Fluids, H. L. Frisch and J. L. Lebowitz, W. A. Benjamin Inc.
(1964).
[20] B. J. Ackerson, The Journal of Chemical Physics 69, 684-690 (1978).
159
160
Bibliografía
[21] R. B. Jones and G. S. Burfield, Physica A 111, 562-576 (1982).
[22] Statistical Mechanics, Part B, Modern Theoretical Chemistry, Vol. 6, Ed. B. J.
Berne, New York: Plenum, p. 259 (1977).
[23] E. J. W. Verwey and J. T. G. Overbeek, Theory of the Stability of Lyophobic
Colloids, Amsterdam: Elsevier (1948).
[24] T. Morita, Progress of Theoretical Physics 20, 920 (1958).
[25] J. M. J. van Leeuwen, J. Groeneveld and J. deBoer, Physica 25, 792 (1959).
[26] J. deBoer, J. M. J. van Leeuwen and J. Groeneveld, Physica 30, 2265 (1959).
[27] J. M. Méndez-Alcaraz, M. Chávez-Páez, B. D’Aguanno and R. Klein, Physica A
220, 173 (1995).
[28] J. K. Percus, in The Equilibrium Theory of Classical Fluids, Eds. H. L. Frisch
and J. L. Lebowitz, New York: Benjamin (1964).
[29] J. L. Lebowitz and J. K. Percus, Physical Review 144, 151 (1966).
[30] F. Lado, Physical Review 135, A1013 (1964).
[31] B. Larsen, Journal of Chemical Physics 68, 4511 (1978).
[32] W. G. MacMillan and J. E. Mayer, Journal of Chemical Physics 13, 276 (1945).
[33] M. Medina-Noyola and D. A. McQuarrie, Journal of Chemical Physics 73, 6279
(1980).
[34] P. González-Mozuelos and M. D. Carbajal-Tinoco, Journal of Chemical Physics
109, 11074 (1998).
[35] J. M. Méndez-Alcaraz and R. Klein, Physical Review E 61, 4095-4099 (2000).
[36] R. Castañeda-Priego, A. Rodríguez-López and J. M. Méndez-Alcaraz, Journal of
Physics: Condensed Matter 15, S3393-S3409 (2003).
[37] R. Castañeda-Priego, A. Rodríguez-López and J. M. Méndez-Alcaraz, Physical
Review E 73, 051404 (2006).
[38] M. D. Haw, Journal of Physics: Condensed Matter 14, 7769-7779 (2002).
[39] J. M. Deutch and I. Oppenheim, Faraday Discussions of the Chemical Society
83, 1 (1987).
[40] G. E. Uhlenbeck and L. S. Orstein, Physical Review 36, 823 (1930).
[41] W. Hess and R. Klein, Advances in Physics 32, 173-283 (1983).
[42] J. M. Deutch and I. Oppenheim, Journal of Chemical Physics 54 , 3547 (1971).
[43] M. Medina-Noyola, Faraday Discussions of the Chemical Society 83, 21 (1987).
[44] T. J. Murphy and J. L. Aguirre, Journal of Chemical Physics 57, 2098 (1972).
[45] D. L. Ermak and J. A. McCammon, Journal of Chemical Physics 69, 1352 (1978).
[46] R. Zwanzig, Lectures in Theoretical Physics, Vol. 3, Eds. W. Britten and L. Dunham New York: Willey-Interscience (1961).
Bibliografía
161
[47] H. Mori, Progress of Theoretical Physics 33, 423 (1965).
[48] P. N. Pusey, in Liquids, Freezing and the Glass Transition, Les Houches Session
51, 1989, Eds. D. Lesvesque, J. P. Hansen, and J. Zinn-Justin Amsterdam:NorthHolland (1991).
[49] P. Mazur and I. Oppenheim, Physica 50, 241-258 (1970).
[50] J. L. Lebowitz and E. Rubin, Physical Review 131, 2381 (1963).
[51] N. G. van Kampen and I. Oppenheim, Physica 138A, 231-248 (1986).
[52] K. Kawasaki, Journal of Physics 6, 1289 (1973).
[53] W. Hess, Journal of Physics A: Mathematical and General 14, L145-L150 (1981).
[54] W. Hess, Physica 107A, 190-200 (1981).
[55] B. Cichocki and W. Hess, Physica 141A, 475-488 (1988).
[56] V. M. Kenkre, in Proceedings of the PASI on Modern Challenges in Statistical
Mechanics: Patterns, Noise, and the Interplay of Nonlinearity and Complexity,
Eds. V. M. Kenkre and K. Lindenberg, AIP (2003).
[57] G. Gapinski et al, The Journal of Chemical Physics 126, 104905 (2007).
[58] A. J. Banchio and G. Nägele, The Journal of Chemical Physics 128, 104903
(2008).
[59] A. Robert, J. Wagner, W. Hartl, T. Autenrieth and G. Grubel, European Physical
Journal E 25, 77 (2008).
[60] J. Santana-Solano, A. Ramírez-Saito J. L. Arauz-Lara, Physical Review Letters
95, 198301 (2005).
[61] C. W. J. Beenakker and P. Mazur, Physica A 126, 349 (1984).
[62] A. Z. Akcasu and J. J. Duderstadt, Physical Review 188, 479 (1969).
[63] J. J. Duderstadt and A. Z. Akcasu, Physical Review A 1, 905 (1970).
[64] G. F. Mazenko, Physical Review A 3, 2121 (1971).
[65] H. Mori, Progress of Theoretical Physics 34, 399 (1965).
[66] W. R. Schneider, Zeitschrift für Physik B 24, 135-139 (1976).
[67] G. H. Vineyard, Physical Review 110, 999 (1958).
[68] K. Kim and M. Nelkin, Physical Review A 4, 2065 (1971).
[69] W. Götze and M. Lücke, Physical Review A 11, 2173 (1975).
[70] F. Yoshida and S. Takeno, Progress of Theoretical Physics 53, 293 (1975).
[71] F. Yoshida and S. Takeno, Progress of Theoretical Physics 58, 15 (1977).
[72] F. Yoshida and S. Takeno, Progress of Theoretical Physics 58, 1331 (1977).
[73] F. Lantelme and P. Turq, The Journal of Chemical Physics 71, 2508 (1979).
[74] V. Denner and M. Wagner, The Journal of Chemical Physics 81, 5034 (1984).
[75] G. R. Kneller and K. Hinsen, The Journal of Chemical Physics 115, 11097 (2001).
162
Bibliografía
[76] F. Porcheron and M. Schoen, Physical Review E 66, 041205 (2002).
[77] B. J. Berne and G. D. Harp, Advances in Chemical Physics 17, 63 (1970).
[78] J. Wilkie, Physical Review E 68, 027701 (2003).
[79] J. E. Noah-Vanhoucke and H. C. Andersen, The Journal of Chemical Physics
127, 064502 (2007).
[80] J. C. Brown, P. N. Pusey, J. W. Goodwin and R. H. Ottewill, Journal of Physics
A: Mathematical and General 8, 664 (1975).
[81] P. N. Pusey, Journal of Physics A: Mathematical and General 8, 1433 (1975).
[82] R. B. Jones and G. S. Burfield, Physica 111A, 577-590 (1982).
[83] R. B. Jones, Journal of Physics A: Mathematical and General 17, 2305 (1984).
[84] B. U. Felderhof and R. B. Jones, Physica 122A, 89-104 (1983).
[85] J. Rotne and S. Prager, The Journal of Chemical Physics 50, 4831 (1969).
[86] B. U. Felderhof and J. Vogel, Physica A 183, 54-66 (1992).
[87] B. U. Felderhof, Journal of Physics A: Mathematical and General 11, 929 (1978).
[88] B. U. Felderhof and J. Vogel, The Journal of Chemical Physics 96, 6978 (1992).
[89] B. Cichocki and B. U. Felderhof, Physical Review A 44, 6551 (1991).
[90] J. L. Arauz-Lara and M. Medina-Noyola, Physica A 122, 547 (1983).
[91] L. Yeomans-Reyna and M. Medina-Noyola, Physical Review E 62, 3382 (2000).
[92] M. Medina-Noyola and J. L. del Río-Correa, Physica A 146, 483 (1987).
[93] B. J. Ackerson, The Journal of Chemical Physics , (1975).
[94] L. Yeomans-Reyna, H. Acuña-Campa and M. Medina-Noyola, Physical Review E
62, 3395 (2000).
[95] L. Yeomans-Reyna and M. Medina-Noyola, Physical Review E 64, 066114 (2001).
[96] S. Cuomo, L. D’Amore, A Murli and M. Rizzardi, Journal of Computational and
Applied Mathematics 198, 98-115 (2007).
[97] M. A. Chávez-Rojo and M. Medina-Noyola, Physica A 366, 55 (2006).
[98] L. Onsaguer, Physical Review 37, 405 (1931).
[99] L. Onsaguer, Physical Review 38, 2265 (1931).
[100] M. Fixman, The Journal of Chemical Physics 36, 310 (1968).
[101] L. P. Kadanoff and J. Swift, Physical Review 166, 89 (1968)
[102] K. Kawasaki, Annals of Physics 61, 1 (1970).
[103] G. Nägele and P. Baur, Physica A 245, 297-336 (1997).
[104] G. Nägele and J. K. G. Dhont, The Journal of Chemical Physics 108, 9566 (1998).
[105] G. Nägele and J. Bergenholtz, The Journal of Chemical Physics 108, 9566 (1998).
Bibliografía
163
[106] G. Nägele, J. Bergenholtz and J. K. G. Dhont, The Journal of Chemical Physics
110, 7037-7052 (1999).
[107] A. J. Banchio, G. Nägele and J. Bergenholtz, The Journal of Chemical Physics
113, 3381 (2000).
[108] M. McPhie and G. Nägele, The Journal of Chemical Physics 127, 034906 (2007).
[109] S.-H. Lo and K. Kawasaki, Physical Review A5, 421 (1972).
[110] D. Bedeaux and P. Mazur, Physica 73, 431 (1974).
[111] J. Wu and J. Cao, Physical Review E 67, 061116 (2003).
[112] H. W. Wyld, Annals of Physics 14, 143 (1961).
[113] T. Keyes and I. Oppenheim, Physical Review A8, 937 (1973).
[114] G. Szamel and K. Löwen, Physical Review A 44, 8215 (1991).
[115] K. Kawasaki, Physica A 215, 61-74 (1995).
[116] S. J. Pitts and H. C. Andersen, The Journal of Chemical Physics 113, 3945 (2000).
[117] P. Szymczak and B. Cichocki, The Journal of Chemical Physics 121, 3329 (2004).
[118] H. Teichler, Physical Review E 53, R4287 (1996).
[119] G. Szamel, The Journal of Chemical Physics 127, 084515 (2007).
[120] M. P. Allen and D. J. Tildesley, Computer Simulations of Liquids, Oxford : Clarendon Press, 1987.
[121] G. Nägele, Computational Condensed Matter Physics, 37th IFF Spring School
2006, Series: Matter and Materials Vol. 32, Forschugszentrum Jülich Publising.
[122] W. H. Press, S. A. Teukolsky, W. T. Vetterling and B. P. Flannery, Numerical
Recipes in Fortran 77, Second Ed., Cambrige University Press (1992).
[123] R. Castañeda-Priego, PhD thesis, Cinvestav (2003).
[124] A. Imperio and L. Reatto, Journal of Physics: Condensed Matter 16, S3769
(2004).
[125] H. Tanaka, J. Meunier and D. Bonn, Physical Review E 69, 031404 (2004).
[126] G. Odrizola, F. Jiménez-Angeles and M. Lozada-Casou, Physical Review Letters
97, 018102 (2006).
[127] G. Odrizola, F. Jimenez-Angeles, and M. Lozada-Cassou, Journal of Physics:
Condensed Matter 18, S2335 (2006).
[128] K. Zahn, J. M. Méndez-Alcaraz and G. Maret, Physical Review Letters 79, 175
(1997).
Descargar