ESCUELA POLITECNICA NACIONAL
FACULTAD DE CIENCIAS
FISICA ESTADISTICA DE LOS VIDRIOS DE ESPIN Y
OPTIMIZACION COMBINATORIA
PROYECTO PREVIO A LA OBTENCION DEL TITULO DE FISICO
DIEGO MAURICIO DE LA TORRE PAEZ
[email protected]
DIRECTOR: Dr. Leonardo Basile
[email protected]
Quito, septiembre del 2009
RESUMEN
Los primeros vidrios de espín fueron aleaciones del tipo AuF e o CuM n, que
presentaban el siguiente comportamiento: Los espines (dipolos magnéticos) de las
impurezas (Fe,Mn) producen una polarización magnética en los electrones de conducción del metal (Au,Cu), la cual es ferromagnética para ciertas distancias y antiferromagnética para otras distancias. Esta polarización magnética produce el aparecimiento de campos magnéticos locales. Posteriormente los espines tratan de
alinearse de acuerdo con el campo local. Puesto que las impurezas son colocadas
en el metal de forma aleatoria, algunas interacciones serán ferromagnéticas y otras
anti-ferromagnéticas. De esta manera surgen los ingredientes básicos de los vidrios
de espín que son: la aleatoriedad de las posiciones de los espines (desorden) y la
competencia entre las interacciones (frustración).
Estos conceptos han sido desarrollados en el campo de los vidrios de espín por
más de treinta años. De esta manera se destacan dos teorías que dan cuenta de
sus propiedades de equilibrio: La teoría “replica-symmetry-breaking” (RSB), la cual
es una solución del modelo de campo medio para los vidrios de espín, y la teoría
de los “droplets” creada para ver si las características de modelos con alcance finito
se mantenían en modelos con interacciones de corto alcance. La dicotomía entre
estas dos teorías ha sido un tema de investigación por mucho tiempo, y es aquí
donde las técnicas numéricas sirven para juzgar la validez de ellas.
Esto es una muestra de que las relaciones entre la física y las ciencias de la
computación van creciendo cada día más. Por ejemplo, se hará uso de las simulaciones de Monte Carlo y, en particular, de la simulación de réplicas, para encontrar
los estados base de los vidrios de espín. Mediante otro enfoque se verá también
cómo se puede transformar un problema de física estadística (encontrar el estado base de los vidrios de espín) a un problema de la optimización combinatoria, y
1
2
poder utilizar los algoritmos más aptos para encontrar una solución
Puesto que las simulaciones para los vidrios de espín en dos dimensiones son
más fáciles de realizar que para dimensiones superiores, este trabajo se centrara
solo en simulaciones en 2D, que es donde existen algunos problemas no resueltos,
que ameritan continuar con su estudio. Precisamente en una de esas interrogantes
se ha de centrar la atención, a saber, la determinación de los estados base y la
posibilidad de una transición a una temperatura diferente de cero. También se comprueba algunas consecuencia de la teoría RSB, que son entre otras: la complejidad
en el paisajismo de la energía libre, y la organización ultramétrica de los estados
base.
Este problema se resolverá mediante la implementación de un algoritmo que
halle los estados base del sistema en (2D) con condiciones de frontera periódicas,
interacciones tipo ±J a campo nulo y a primeros vecinos. Posteriormente se calcula
la energía ∆ de las paredes de dominio igual a ∆ = Ep − Ea , donde Ep es la energía
mediante condiciones de frontera periódicas y Ea mediante condiciones antiperió-
dicas. Finalmente se estima el exponente de “stiffness” θs que está estrechamente
relacionado con ∆. En base al valor de θs y siguiendo los criterios de la literatura se
determina si existe la posibilidad de una transición de fase.
PRESENTACION
En este trabajo se estudia el estado base de los vidrios de espín mediante los
métodos tradicionales de la física estadística y mediante la optimización combinatoria. Este último se está expandiendo rápidamente en el estudio de estos sistemas
y hoy por hoy atrae la atención de un número grande de científicos y en particular
la de los físicos, puesto que ha resultado ser un método muy poderoso y eficaz
cuando se combina con otras técnicas de investigación. Para esto se presenta el
siguiente plan a seguir:
El primer capítulo está dedicado a los conceptos básicos de los fenómenos críticos. Se ha introducido varias notas históricas de la forma en que se han desarrollado los acontecimientos, con el fin de entender la problemática que surgía con cada
nuevo descubrimiento.
En el Capítulo 2 se presentan las definiciones principales de los sistemas complejos, como es el caso de los vidrios de espín. También se presenta un nuevo
método para realizar los promedios en los casos que se presenten imposibles de
realizar de la manera tradicional se puede intentar por este método. En el Capítulo
3 se presenta los modelos (EA) y (SK) para los vidrios de espín, se presta mayor
atención a este último por ser de mayor complejidad.
En el Capítulo 4 se comienza con el estudio de la optimización combinatoria, un
campo muy extenso que pertenece a la informática y a la investigación operativa.
Este campo abarca un gran número de problemas, pero aquí nos referiremos sólo a
aquellos en los que es necesario maximizar ó minimizar una función f (Sk ) llamada
función objeto, que depende de un conjunto {S1 , S2 , . . . , Sm } de todas las posibles
soluciones del problema que describe la función objeto. Para esto se utiliza el enfoque de la teoría de los grafos y poliedros. Principalmente se ve como se puede
pasar un problema de la física estadística a un problema combinatorio. En particular
3
4
se estudia el problema de máximo corte sobre un grafo ponderado. En el Capítulo
5 se estudian los algoritmos necesarios para resolver el problema de los vidrios de
espín desde dos puntos de vista diferentes. Mediante los métodos de Monte Carlo y
el que pertenece a la optimización combinatoria, el método de ramificación y corte.
Finalmente en los dos últimos capítulos se presenta los resultados obtenidos y las
conclusiones respectivamente
Índice general
1. Elementos Básicos de la Física Estadística de las Transiciones de Fase
Continuas
7
1.1. Caracterización de las transiciones de fase continuas . . . . . . . . .
8
1.2. Teoría del Campo Medio . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1. Modelo de Ising en aproximación de campo medio . . . . . . . 11
1.3. Modelo de Rango Infinito . . . . . . . . . . . . . . . . . . . . . . . . . 13
2. Conceptos Básicos en Sistemas Desordenados
15
2.1. Desorden y frustración . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2. Cantidades Auto-promediadas . . . . . . . . . . . . . . . . . . . . . . 17
2.3. Promedio “Annealed” y “Quenched” . . . . . . . . . . . . . . . . . . . 18
2.4. Teoría de Réplicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5. Estados Puros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6. “Overlap” y “self-overlap” . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7. Distribución del “overlap” . . . . . . . . . . . . . . . . . . . . . . . . . 22
3. Teoría de campo medio de los vidrios de espín
25
3.1. Introducción a los vidrios de espín . . . . . . . . . . . . . . . . . . . . 26
3.2. Modelo de Edward-Anderson . . . . . . . . . . . . . . . . . . . . . . . 27
3.3. Modelo de Sherrinton-Kirkpatrick . . . . . . . . . . . . . . . . . . . . . 27
3.4. “Replica symmetry breaking” . . . . . . . . . . . . . . . . . . . . . . . 31
3.5. Teoría de “Droplet” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4. Optimización Combinatoria
36
4.1. Complejidad Algorítmica . . . . . . . . . . . . . . . . . . . . . . . . . . 37
5
6
4.2. Optimización Combinatoria y Mecánica Estadística . . . . . . . . . . . 39
4.3. Conceptos Básicos de Teoría de Grafos . . . . . . . . . . . . . . . . . 41
4.4. Conceptos Básicos de la Teoría de Poliedros . . . . . . . . . . . . . . 43
5. Simulaciones Numéricas
46
5.1. Elementos generales en las simulaciones de MC . . . . . . . . . . . . 49
5.2. Algoritmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.2.1. Algoritmo de Réplicas de Monte Carlo . . . . . . . . . . . . . . 53
5.2.2. Algoritmo de ramificación y corte . . . . . . . . . . . . . . . . . 56
6. Análisis de Resultados
60
7. Conclusiones
70
A. Código Fuente algoritmo RMC
72
Capítulo 1
Elementos Básicos de la Física
Estadística de las Transiciones de
Fase Continuas
Las primeras transiciones de fase que se conocían, hasta comienzos del siglo
XX, tienen la característica de que una o más de las derivadas primeras de la energía libre (tal como: la entropía, el volumen, la densidad, magnetización y otros parámetros molares) sufren cambios discontinuos1 . La discontinuidad de la entropía
da lugar al calor latente de transición. Además, discontinuidades de las derivadas
segundas de la energía libre, análogos a los saltos finitos del volumen molar y entropía, se observan muy raramente2 [1, 2].
Esto motivó a P. Ehrenfest a dar una primera clasificación de las transiciones
de fase. De acuerdo con este esquema, una transición de fase es de n-ésimo orden si la n-ésima derivada de la energía libre respecto a uno cualesquiera de sus
argumentos es discontinua. Así, se entendía que una transición de fase de segundo orden o continua, es aquella sin discontinuidad en las derivadas primeras de la
energía libre [3].
Hoy en día, esta clasificación es inadecuada, pues, para la mayoría de las transi1
2
Saltos en las derivadas de la energía libre.
Actualmente se cree que la aparición de superconductividad para campo magnético nulo es la
única transición de fase de segundo orden en la cual las derivadas de la energía libre tienen un salto
finito.
7
8
ciones de fase continuas una o más de las derivadas segundas en realidad diverge,
en lugar de exhibir una discontinuidad
A continuación se expondrá los conceptos básicos de las transiciones de fase
continuas.También se revisa el paradigma de una transición de fase continua que
es la transición para-ferro magnética y finalmente se revisara el modelo de Ising en
la aproximación de campo medio.
1.1. Caracterización de las transiciones de fase continuas
Una de las ideas más importantes para la caracterización de las transiciones de
fase es el parámetro de orden, el cual fue introducido por Landau. La idea general
es que en cualquier transición de fase continua es posible identificar una cantidad
macroscópica (esto es, relacionada de alguna manera con parámetros termodinámicos del sistema), la cual se anula idénticamente en una de las fases (generalmente la fase de altas temperaturas T > Tc , donde Tc es la temperatura crítica a la
cual se da la transición de fase) y es diferente de cero en la otra fase (generalmente
a bajas temperaturas T < Tc ). En una transición de fase continua este parámetro de
orden3 es continuo en Tc , con lo cual tiende a cero continuamente al aproximarnos
a Tc desde temperaturas menores, un ejemplo es la magnetización en un material
ferromagnético. El punto central está en saber escoger correctamente el parámetro
de orden, lamentablemente no existe un procedimiento único para ello. Sin embargo, en base de un análisis de las condiciones y restricciones físicas del problema
la arbitrariedad en la elección se limita. Una de estas restricciones es la existencia
de un parámetro termodinámico conjugado 4 al parámetro de orden, a los cuales los
notaremos genéricamente como B y Φ, respectivamente [4, 5, 6].
3
El parámetro de orden no necesariamente es un escalar, pudiendo ser un vector, con D el
número de componentes del parámetro
4
El parámetro de orden conjugado es simplemente la variable intensiva que resulta de derivar la
energía libre respecto del parámetro de orden
9
Transición para-ferromagnética
La transición de fase para-ferromagnética es el cambio de los sólidos ferromagnéticos (como ejemplo tenemos al hierro) de un estado paramagnético a uno ferromagnético a una temperatura muy precisa llamada temperatura de Curie Tc . El
material es paramagnético a temperaturas T > Tc , es decir, en ausencia de campo
magnético externo presenta magnetización nula o posee una magnetización proporcional al campo externo si este se encuentra presente. La fase ferromagnética se
presenta a temperaturas T < Tc . Esto quiere decir que el material presenta magnetización aún en ausencia de campo magnético externo. Así decimos que el material
presenta magnetización espontánea, Mo (T ) [6]5
A fin de continuar con la descripción, es necesario aplicar las anteriores definiciones. En primer lugar, parece obvio tomar a la magnetización como parámetro de
orden (esto no siempre es tan fácil). Se observa una discontinuidad en Tc de la derivada de la magnetización específica (mo ) y, a primera vista esto estaría de acuerdo
con los criterios de Ehrenfest. Sin embargo, ésta no es una simple discontinuidad,
ya que para T → Tc la derivada primera de mo diverge con una ley de potencias, así:
mo (T ) ∼ (Tc − T )β . Por otra parte, el calor específico a campo nulo diverge en Tc de
la forma C(T ) ∼| T − Tc |−α para |
T −Tc
Tc
|≪ 1. Otra cantidad que diverge con una ley
de potencias es la susceptibilidad magnética a campo nulo: χ(T ) ∼| T − Tc |−γ para
|
T −Tc
Tc
|≪ 1. Finalmente a lo largo de la isoterma crítica T = Tc la magnetización
1
varia con el campo magnético externo con una ley de potencia m(B, Tc ) ∼ B δ . De
esta manera se ilustra el papel que juegan ciertos exponentes (exponentes críticos)
en este tipo de transiciones. Existen más ejemplos de sistemas críticos que presentan este tipo de comportamiento asintótico, algunos de los cuales tienen valores
iguales de los exponentes críticos; se llega al concepto de universalidad [7, 8].
Universalidad
Los sistemas críticos pueden agruparse en categorías, donde los sistemas pertenecientes a una misma categoría presentan todos los mismos exponentes críti5
Para los materiales ferromagnéticos isótropos la magnetización se orienta aleatoriamente, mien-
tras que para los materiales uniaxiales se alinea siguiendo la dirección de alguno de los ejes cristalinos
10
cos. Este fenómeno se conoce como universalidad y las distintas categorías como
clases de universalidad. Las clases de universalidad están determinadas sólo por
las siguientes propiedades [9, 10]:
La dimensión espacial d del sistema.
La dimensión D del parámetro de orden6
El carácter de corto alcance7 de las interacciones
1.2. Teoría del Campo Medio
El primer intento de explicar las propiedades ferromagnéticas de los cuerpos fue
realizado por B. Rozing en 1892 [11], el cual supuso la existencia de campos magnéticos moleculares complementarios en el interior de los cuerpos ferromagnéticos.
Posteriormente, P. Langevin en 1905, presentó una teoría para el paramagnetismo cuyo modelo es el de N partículas idénticas distinguibles, sin interacción entre
ellas, cada una con un momento magnético µ que puede orientarse libremente en
un campo magnético exterior H. Años más tarde (1907) P. Weiss, inspirado por la
hipótesis de Rozing y guiado por la teoría de Langevin, desarrolló una teoría fenomenológica del ferromagnetismo conocida hoy con el nombre de Teoría de Campo
Medio de Weiss, la cual asume que todo espín experimenta la presencia de un
campo molecular efectivo Hef f proporcional al momento magnético de los espines
restantes [12].
W. Lenz en 1920 propuso a su alumno de doctorado E. Ising explicar el ferromagnetismo a partir de los nuevos conceptos que habían surgido con el desarrollo
de la mecánica cuántica, es decir, a partir del concepto de espín. Lenz intuyó que
considerando las interacciones entre los espines de la red cristalina, de modo que
primase el que los espines próximos fuesen paralelos y desfavoreciese si fuesen
antiparalelos, podía esperarse estabilidad de un estado ordenado a temperaturas
suficientemente bajas, cuando las interacciones predominen sobre la agitación térmica. Si esto ocurría por debajo de una temperatura bien definida, se tendría el
6
La dimensión del parámetro de orden esta estrechamente relacionada con las simetrías del
hamiltoniano del sistema
7
Interacciones que decaen rápidamente con la distancia
11
primer modelo microscópico del ferromagnetismo. Si bien Ising demostró8 (1924)
que el modelo unidimensional no presentaba la transición esperada, erróneamente
afirmó que el modelo es inadecuado para explicar el ferromagnetismo a dimensiones mayores. Este error llevó a W. Heisenberg (1928) a proponer interacciones más
complicadas entre los espines, las consideró vectoriales, sin embargo el aporte importante que hizo fue el de dar la interpretación del campo molecular efectivo en
términos de las interacciones de intercambio Jij entre los espines Si y Sj localizados en los puntos (i, j) de la red [7]. En 1936 R. Peierls demostró la existencia de
estados ordenados en el modelo de Ising en dos dimensiones a bajas temperaturas,
esto hizo que muchos investigadores consideraran el modelo de Ising. Así es como
L. Onsager [14] (en 1944 mediante el álgebra de cuaterniones) presentó el primer
cálculo exacto de la función de partición del modelo de Ising en dos dimensiones a
campo nulo [14].
En los años siguientes se retomó la teoría de campo medio propuesta por Weiss
y se aplicó conjuntamente con las ideas expuestas anteriormente dando origen a
diferentes interpretaciones. De esta manera, podemos decir que en nuestros días, el
Término Teorías de Campo Medio tiene una amplia denominación y se refiere a un
conjunto de teorías y aproximaciones fenomenológicas con ciertas características
en común. En las siguientes secciones se vera algunas interpretaciones de teorías
de campo medio necesarias para el estudio de los vidrios de espín.
1.2.1. Modelo de Ising en aproximación de campo medio
El modelo más simple para las transiciones de fase es el modelo de Ising (ver referencias [15], el modelo de Ising mediante procesos de Markov [16]), y aún cuando
está resuelto exactamente para una dimensión y dos dimensiones a campo nulo, es
extremadamente difícil resolverlo en dimensiones mayores, donde se debe ejecutar
una suma de 2N términos que aparecen en la función de partición. Así, se puede
buscar una variación de este modelo que sea más fácil de tratar matemáticamente. Entre las aproximaciones más utilizadas esta el campo molecular de Weiss (un
modelo más elaborado se encuentra en [17].
8
Notas históricas del modelo de Ising se encuentran en la referencia [13]
12
Modelo de ising
Considere una red en dos dimensiones con N sitios, cada uno de los cuales
tiene asociado una variable de espín clásica discreta Si = ±1, donde el índice i
denota un sitio de red i = 1, 2, . . . , N . Estas variables representan las dos posibles
orientaciones de un momento magnético asociado a un espín
1
2
en la dirección del
eje fácil de magnetización. El número total de estados de este sistema es 2N . La
energía total de este sistema esta dado por el siguiente hamiltoniano.
El hamiltoniano de Ising con interacción entre los primeros vecinos en dimensión
arbitraria de N espines.
H = −J
!
<ij>
Si Sj − h
N
!
Si
(1.1)
i=1
donde h es el campo magnético externo y J es la interacción de intercambio entre
los espines. Para un átomo particular i(llamado central), se tiene que la interacción
del i-ésimo átomo vendrá dado por el hamiltoniano
H = −JSi
n
!
j=1,j"=i
Sj − hSi
(1.2)
donde el primer término representa la interacción del espín i con los n vecinos más
cercanos. De esta manera se dice que cada espín interactúa con un campo local
bi = J
!
Sj + h
(1.3)
j
Si se considera a b como un conjunto de magnitudes aleatorias discretas independientes, entonces la desviación en torno a su valor medio es
∆bi = bi − &bi '
(1.4)
Para una red con invariancia traslacional la cantidad &Sj ' es independiente del sitio
j y por lo tanto
&Sj ' = m =
1 !
&Si '
N i
(1.5)
es la magnetización media por espín. La aproximación de campo medio consiste en
despreciar las fluctuaciones ∆hi . Bajo esta aproximación cada espín se encuentra
13
en presencia de un campo efectivo uniforme generado por los restantes espines de
la red.
Hef f = Jzm + h
(1.6)
donde z es el número de coordinación.
La función de partición de un conjunto de espines en presencia de un campo
"
uniforme h es Z = Z1N , donde Z1 = si =±1 exp(βhSi ) = 2 cosh(βh), donde β es el
valor inverso de la temperatura. La magnetización media resultante es:
m =< Si >= tanh(βh)
(1.7)
remplazando la expresión (1.7) en (1.6) se llega a una ecuación autoconsistente
para m
m = tanh[β(Jzm + h)]
(1.8)
La solución a esta ecuación se la puede hallar gráficamente (fig. ). Además la ecuación (1.8) determina el parámetro de orden m. El caso para h = 0 da la magnetización espontánea, que puede ser resuelta gráficamente, obtenemos una solución no
trivial(m (= 0) si y solo si βJz > 1. Para βJz = Jz/T = 1, la temperatura crítica es
Tc = Jz
1.3. Modelo de Rango Infinito
Como se dijo, la teoría de campo medio es una aproximación. Sin embargo, da
una solución exacta en el caso de un modelo con interacciones de rango infinito9 .
El hamiltoniano del modelo de Ising en dos dimensiones es [18]:
H=−
!
J !
Si Sj − h
Si
2N i"=j
i
(1.9)
el primer sumatorio corre para todos los pares de sitios diferentes (i = 1, 2 . . . , N ; j =
1, 2 . . . , N ; i (= j). Aplicando la definición de función de partición Z = Trsi exp(−βE),
se tiene.
Z = Tr exp(
9
!
βJ ! 2 βJ
Si ) −
Si )
(
+ βh
2N i
2
i
Interacciones que se dan entre todos los pares de sitios de la red
(1.10)
14
mediante un cambio de variables en los términos cuadrados introduciendo la identidad de Hubbard-Stratonovitch
λa2
)=
exp(
2
#
λ
2π
$
∞
−∞
dx exp[−
λx2
+ aλx]
2
√
"
con los siguientes cambios a = βJ y x = i Si / N , se encuentra que
#
$
!
!
N Jβm2
βJN ∞
dm exp[−
+ Jmβ
Si + βh
Si ]
Tr
2π −∞
2
i
i
#
$
βJN ∞
N Jβm2
dm exp[−
+ N log (2 cosh β(Jm + h)]
=
2π −∞
2
(1.11)
(1.12)
La integral anterior puede ser evaluada por cualquier método en particular, utilizaremos el método de Laplace puesto que en el límite termodinámico N → ∞ la
integral (1.12) se acerca asintóticamente al valor más grande del integrando, enton-
ces, el valor de la variable de integración m que da el valor máximo del integrando,
está determinado por la condición de punto de silladura [18], así:
∂
βJ
(− m2 + log(2 cosh β(Jm + h))) = 0
∂m
2
(1.13)
m = tanh β(Jm + h)
(1.14)
o
La ecuación anterior está de acuerdo con la solución (1.8) mediante la teoría de
campo medio, con solo remplazar J por J/N y z con N . De esta manera la teoría
de campo medio nos da la solución exacta para el modelo de rango infinito.
Capítulo 2
Conceptos Básicos en Sistemas
Desordenados
En este capítulo se tratara los conceptos y métodos básicos para desarrollar la
teoría de los sistemas desordenados y en particular los vidrios de espín. Para referirnos a los promedios habituales de la física estadística utilizaremos la notación
&. . . ' y los promedios para una distribución P (J) mediante [. . . ], un promedio dife-
rente a los casos anteriores lo aclararemos mediante un sub-índice así &. . . 'promedio .
2.1. Desorden y frustración
El desorden y frustración [18, 19, 20, 21, 22], los dos ingredientes fundamentales
de los vidrios de espín, pueden ser abordados de la siguiente manera.
El desorden denominado congelado “quenched” se manifiesta en los sistemas
que presentan de forma explícita en su hamiltoniano dos tipos de conjuntos de
variables aleatorias: {σ} distribuidas con el peso de Boltzmann y las variables {J}
con una función de distribución P (J).
H = H({σ}, {J})
(2.1)
Este tipo de desorden se caracteriza porque los elementos del sistema descritos
por las variables {σ} tienen tiempos de reacción mucho menores que los elemen-
tos del sistema descritos por las variables {J}; es decir, las variables {J} se las
puede considerar como constantes dentro de la escala de tiempo de fluctución de
15
16
las variables {σ}. Los vidrios de espín son un ejemplo de sistemas que presentan
desorden congelado. La primera dificultad que surge en estos sistemas es como
llevar a cabo los promedios sobre el desorden.
Otro tipo de desorden es el templado “annealed”. En sistemas que presentan
este tipo de desorden los dos conjuntos de variables {σ} y {J} deben ser tratados
en igualdad de condiciones, puesto que los tiempos de reacción son comparables.
Existen algunos sistemas donde el desorden no esta presente en el hamiltoniano, pero está en una forma auto-generada “self-generated”. Este es el caso de
los vidrios, donde el hamiltoniano tiene la forma típica [23].
!
H=
V (ri − rj )
(2.2)
ij
donde las variables {σ} están representadas por las posiciones de las partículas ri ,
y la función V (r) es un potencial específico (por ejemplo: Lennard-Jones).
Para explicar el concepto de frustración [24], consideremos un sistema compuesto por cuatro espines llamado plaqueta, dispuestos como se muestra en la
Figura(2.1), donde las interacciones “quenched” entre los espines son de la forma
Jij = ±1, con la siguiente orientación en los espines ↑ y ↓ [25].
Tomemos el caso de la parte izquierda de la Figura(2.1), en la que J1 ,J3 son
positivas y J2 ,J4 son negativas (o cualquier otra combinación donde el producto
J1 J2 J3 J4 sea positivo), entonces el estado del sistema será único (excepto para un
cambio global del valor de los espines), puesto que todos los espines están acoplados de forma tal que, cualquier par de interacciones entre los espines contribuyen
a una situación energéticamente favorable del sistema. Sin embargo, si el producto
J1 J2 J3 J4 es negativo, como se muestra en la parte derecha de la Figura(2.1), el
estado del sistema es degenerado. Por ejemplo si fijamos el valor del espín de la
esquina superior comprendido entre J1 y J3 y a partir de este recorremos la plaqueta en sentido horario, fijando los restantes espines de manera que contribuyan
favorablemente a la energía del sistema, llegamos a una situación de indeterminación del valor del último espín, pues este debe ser orientado hacia arriba↑ si quiere
satisfacer una relación favorable con su vecino mediante J3 , al mismo tiempo se
debe cumplir con la situación opuesta en el caso de J2 . Esta situación en la que es
imposible hallar una configuración única de los espines que satisfagan los enlaces
impuestos se conoce como frustración [25].
17
↑
J1 =+
J2 =−
↓
J4 =−
J3 =+
↑
↑
↓
J1 =+
↑
J2 =−
J4 =+
?
J3 =+
↑
Figura 2.1: La figura de la izquierda no presenta frustración, mientras que existe frustración en la
figura de la derecha
Se puede demostrar que siempre existe frustración en cualquier circuito cerrado de un número cualesquiera de espines, siempre y cuando el producto de las
interacciones a lo largo de dicho circuito sea negativo. Es importante notar que la
frustración introducida en este ejemplo se debe al desorden (caso que nos interesa), sin embargo no siempre se da, también se puede dar casos de frustración sin
desorden.
2.2. Cantidades Auto-promediadas
La presencia del desorden congelado en el hamiltoniano hace que las cosas se
compliquen un poco más de lo que habitualmente son cuando éste depende solo
de los grados de libertad del sistema en cuestión. Ahora, se debe trabajar con dos
conjuntos de variables aleatorias ({S}{J}). Así pues, las propiedades físicas y en
particular la energía libre depende del desorden, en otras palabras, las propiedades
físicas de los vidrios de espín serán diferentes para cada realización diferente del
desorden; esto contradice el sentido que debe tener una teoría que pretenda explicar un fenómeno objetivamente. Para soslayar este problema es necesario utilizar
cantidades “independientes” del desorden. Estas cantidades son llamadas “selfaveraging” [20] y sucede que sus fluctuaciones generadas por el desorden tienden a
cero dentro del límite termodinámico. Como ejemplo de cantidades “self-averaging”
tenemos a la energía libre [23, 25, 26].
[F 2 ] − [F ]2 = O(
1
)
N
(2.3)
18
Existe un argumento para decir que las cantidades extensivas deben ser “selfaveraging” [20]): Consideremos un sistema macroscópico que puede ser dividido en
un número N1 de sub-sistemas macroscópicos (1 ≪ N1 ≪ N ). Entonces la energía
libre del sistema será igual a la suma de energías libre de cada sub-sistemas, más
la contribución que resulta de la interacción entre los contornos de los sub-sistema,
tomando en cuenta solo interacciones de corto alcance, las interacciones de borde
se pueden despreciar en el límite termodinámico y la cantidad extensiva (energía
libre) es simplemente la suma de contribuciones de cada sub-sistema. Cada una
de estas contribuciones representa una variable aleatoria independiente, entonces
mediante el teorema del límite central aplicado a la suma de estas cantidades se
llega a la ecuación (2.3).
2.3. Promedio “Annealed” y “Quenched”
En la sección anterior hemos intuido los inconvenientes que resultarían si las
cantidades que caracterizan el sistema dependieran del desorden J; así, para determinar sus promedios, éstas primero deben cumplir con el concepto de “selfaveraging”, la energía libre es una cantidad “self-averaging” [26].
Sabemos que la mayoría de los observables termodinámicos se dan a través del
logaritmo de la función de partición, con solo ejecutar la siguiente integral.
$ ∞
1
dJp(J) log[Z({σ}, {J})]
[F ] = −
βN −∞
(2.4)
con Z = Trσ exp[−βH({σ}, {J})]. Dicha integral es muy difícil de calcular, puesto
que existe un logaritmo en J. Podemos estar tentados a definir la siguiente cantidad,
$ ∞
1
&F 'ann = −
log
dJp(J)[Z({σ}, {J})]
(2.5)
βN
−∞
la cual es más fácil de calcular. Sin embargo, esta no es la solución correcta. La
diferencia entre las dos integrales, está en el papel que juega el desorden J. En la
ecuación (2.4) primero se integra sobre los grados de libertad, posteriormente se
toma el logaritmo y finalmente se integra sobre J. De esta forma, las constantes
de acoplamiento son fijadas; es decir, “quenched” para cada integración sobre los
espines. En otras palabras, las constantes de acoplamiento y los espines no fluctuan juntos como ya se dijo antes; para cada realización del desorden calculamos
19
la energía libre y posteriormente promediamos sobre el desorden. Esta clase de
promedio es llamado “quenched” [26].
En la ecuación (2.5), se ve que tanto el desorden J, como los grados de libertad σ son considerados en igualdad de condiciones, y por lo tanto, al desorden se
lo puede considerar como un grado de libertad adicional. Esta segunda clase de
promedio es llamado “annealed”, y aún cuando ésta sea correcta a altas temperaturas, donde las fluctuaciones introducidas por el desorden es irrelevante, ésta no
es correcta a temperaturas bajas [26].
Otra manera de ver esto es que, en el caso “annealed” en realidad estamos
promediando la función de partición Z antes que la energía libre F , pero, como ya
señalamos antes, F es una cantidad extensiva, mientras que Z no lo es, y por lo
tanto, la función de partición no es “self-averaging” [20].
2.4. Teoría de Réplicas
El promedio "quenched"que acabamos de enunciar no es tan fácil de calcular
por la dependencia del log(Z) sobre J, lo que conduce a desarrollar una técnica que
facilite su cálculo, esta es el método de réplicas. Sam Edwards y Philip Anderson
fueron los primeros en aplicar este método al estudio de los vidrios de espín.
La idea fundamental del método de réplicas [27] consiste en cambiar el orden
en el que se realizan los cálculos a la hora de efectuar los promedios tomando
la ecuación (2.4), se dijo que primero se integraría sobre los grados de libertad,
se toma el logaritmo y finalmente se integra sobre el desorden. Ahora, primero se
promedia sobre el desorden, dejando los cálculos adicionales para más tarde, esto
se lleva ha cabo mediante la ayuda de las siguientes identidades matemáticas:
Zn − 1
n→0
n
1
x = lı́m log(1 + nx)
n→0 n
se logra poner fuera de la integral al logaritmo, así.
$ ∞
1
dJp(J)ZJn
[F ] = −T lı́m log
n→0 n
−∞
log Z = lı́m
(2.6)
(2.7)
(2.8)
20
ahora ya se puede ejecutar la integración sobre J. Se puede pensar que el término
ZJn es la función de partición de un nuevo sistema que consiste de un conjunto de n
réplicas idénticas al sistema original. Si se etiqueta cada una de las réplicas por el
sub indice i, donde i corre desde 1 a n, se tiene.
ZJn =
$
∞
n
%
dσi exp(−β
−∞ i=1
n
!
i
H({σi }, {J}))
(2.9)
Para el problema que surge ahora se debe tener cuidado en interpretar los resultados, puesto que, siempre se tiene en mente a n como un entero positivo, hecho que
contradice a la hora de extrapolar n a 0 [27].
2.5. Estados Puros
Una de las ideas más importantes de la física estadística está en pasar de
un problema dinámico a un problema estático, es decir, relacionar los promedios
temporales del sistema con los promedios en un ensamble de tal sistema. Esta
idea originalmente desarrollada por Boltzmann, puede enunciarse de la siguiente
manera[8]: Consideremos una magnitud física A cuyo valor en un instante de tiempo t viene dada por A(t) = A(Q(t), P (t)); donde Q y P representan un conjunto
de coordenadas y momentos generalizados. Si se pudiera observar la evolución
temporal del sistema durante un intervalo de tiempo extremadamente largo se concluiría que, independientemente de las condiciones iniciales, el sistema alcanzará
el equilibrio y se mantendrá en dicho estado rápidamente respecto del tiempo de
observación. En otras palabras, el promedio temporal de la magnitud A es igual a
su valor en el equilibrio [23]. Así:
1
τ →∞ τ
Aequi = lı́m A(t) = lı́m
τ →∞
$
τ
A[P (t), Q(t)]dt
(2.10)
0
Para hallar la solución a la ecuación anterior, es necesario conocer la trayectoria
del sistema en el espacio de fases (Q, P ) tarea que es muy difícil (innecesaria e
imposible) para los sistemas estadísticos. Es en este punto donde la idea de Boltzmann juega un papel trascendental. Resumiendo se afirma que todos los puntos
de la región del espacio de fase definida por el estado macroscópico del sistema
21
son igualmente probables. Si se define una función f de densidad de los puntos representativos del sistema podemos calcular el promedio de A en la región R como
[8]:
&A' =
$
A(P, Q)f (Q, P ; t)dV
(2.11)
R
La hipótesis ergódica [8, 28] supone que los promedios (2.10) y (2.11) son iguales. Uno de los fenómenos que se dan en cualquier transición de fase es el de
rompimiento de la ergodicidad, pues a temperaturas bajas (T < Tc ) y en el límite
termodinámico, el espacio de fase del sistema se divide en varias partes (dos en el
caso del ferromagnetismo), cada una de las cuales está separada por una barrera
infinita, a esto es lo que se conoce como estados puros. Los observables termodinámicos tienen su contribución solo de los estados comprendidos entre las barreras
infinitas. Nuevamente en el caso del ferromagnetismo las dos regiones en que se
ha dividido el espacio de fase se dice que están relacionadas por simetría, la misma
que ha sido espontáneamente rota y se sospecha que es la simetría respecto a un
cambio general de la magnetización [20].
En los vidrios de espín la ruptura espontánea de la simetría también tiene lugar,
pero es mucho más difícil saber cuál es, esto se debe a que dicha simetría esta íntimamente relacionada con el desorden, además ésta no sucede a una temperatura
Tc fija, sino a toda temperatura T < Tc [20].
2.6. “Overlap” y “self-overlap”
Se sabe bien que en los sistemas magnéticos no desordenados el parámetro
"
de orden es la magnetización m = N1 N
i=1 &σi ', la cual es cero en la fase de altas temperaturas y diferente de cero en la fase de bajas temperaturas, donde la
simetría ha sido rota. Ahora bien, de forma análoga en los sistemas desordenados,
en particular los vidrios de espín, se pensaría que un buen parámetro de orden es
"
m = N1 N
i=1 [&σi ']; sin embargo, debido al desorden este parámetro es igual a ce-
ro a toda temperatura [29]. Otro parámetro es el introducido por Edward-Anderson
[29].
qEA
N
1 !
[&σi '2 ]
=
N i=1
(2.12)
22
El parámetro qEA es un caso particular de una cantidad más general llamada overlap. El sentido físico de este parámetro es el de medir la similitud de dos configuraciones o dos estados. Si tenemos dos configuraciones cualesquiera σ y τ , se define
su “overlap” como:
qστ =
N
1 !
σi τi
N i=1
(2.13)
En el caso de espines tipo Ising Si = ±1, qστ puede tomar los valores de (1,-1,0)
segun σ, τ coincidan, exista una anti-correlación ó estén totalmente no correlacionadas respectivamente. El “overlap” de una configuración con si misma, se llama
“self-overlap” y entre dos estados α, β debido al rompimiento ergódico se puede
definir como [30]:
qαβ =
N
1 !
&σi 'α &σi 'β
N i=1
(2.14)
Mientras que su “self-overlap” como [30]:
qαα =
N
1 !
&σi '2α
N i=1
(2.15)
El “self-overlap” mide el tamaño del estado en el espacio de fase; mientras más
grande es qαα , más pequeño es el estado, es decir, el número de configuraciones
que pertenecen al estado es pequeño. Como ejemplo podemos ver el caso del
ferromagnetismo, en la fase (estado) paramagnética (no existe rompimiento de la
ergodicidad) su “self-overlap” es igual a cero.
En el límite T → 0 cada uno de los estados se concentra en sus configuraciones
con la energía más baja, en este caso el “self-overlap” de cada estado es igual a
uno, puesto que es el “self-overlap” de una configuración. Cuando la temperatura
aumenta más configuraciones participan en el estado y el “self-overlap” se hace
más pequeño que uno [30].
2.7. Distribución del “overlap”
Siguiendo las teorías de campo medio para los vidrios de espín se encontrara
una infinidad de estados puros a baja temperatura. En estos casos, es útil introducir
23
P (q)
q
Figura 2.2: En la fase paramagnética
la probabilidad de distribución de todos los posibles valores de los “overlaps” entre
los estados [31].
P (q) =
!
αβ
con el peso estadístico wα =
Zα
,
Z
wα wβ δ(q − qαβ )
(2.16)
donde Zα es la función de partición del estado
α, la suma se extiende a todos los pares de estados. Siguiendo con el ejemplo del
ferromagnetismo, tenemos las siguientes posibilidades. En la fase paramagnética
q = 0, por lo tanto, la función P (q) es una función delta (fig.2.2). En el estado
ferromagnético (T < Tc ) hay dos estados caracterizados por la magnetización ±m,
por lo tanto, la función P (q) es una función delta en los punto q = m2 y q = −m2
(fig.2.3). Un caso más interesante se da en los vidrios de espín; cuando entre los
puntos de la figura anterior hay una curva continua, esto se debe a una sucesión
continua de transiciones de fase que se da en los vidrios de espín (rompimiento de
la ergodicidad se da par toda T < Tc ), (fig.2.4).
24
P (q)
−2m2
−1m2
−0m2
0m2
0m2
1m2
q
2m2
Figura 2.3: En la fase ferromagnética
P(q)
q
-1.5
-1
-0.5
0
0.5
Figura 2.4: En la fase de vidrios de espín
1
1.5
Capítulo 3
Teoría de campo medio de los
vidrios de espín
En el capítulo precedente se estudio los conceptos básicos y artificios necesarios para desarrollar la teoría de los vidrios de espín. Ahora se aplicara todas
esas definiciones a un caso particular de modelo de vidrios de espín, el modelo
de Sherrington-Kirkpatrick (SK), al cual se lo considera como solución exacta en el
caso de rango infinito, esto es una de las interpretaciones que se dan dentro de las
teorías de campo medio [31].
En este capítulo se comenzara con una breve descripción del primer modelo de
los vidrios de espín, basado sobre la interacción RKKY (Ruderman, Kittel, Kasuya y
Yoshida) [32], seguidamente se describirá el modelo de Edward-Anderson (EA), el
cual toma en cuenta solo las interacciones entre los espines más cercanos. Posteriormente nos centraremos en el modelo SK mediante el formalismo de la teoría de
replicas1 , que en una primera aproximación las consideraremos que son un simple
artificio que facilita el cálculo, dando origen a la solución conocida como simetría
de replicas “replica-symmetric solution” (RS). Finalmente, se vera la necesidad de
abandonar la solución RS, por su inestabilidad y principalmente por generar entropía negativa, así llegamos a uno de los conceptos fundamentales de la física de
los vidrios de espín que es el rompimiento de la ergoricidad y a la solución “replica
symmetry breaking” (RSB).
1
Algunas veces, el modelo SK, es resuelto desde el punto de vista académico heurísticamente
(incorrecto) , también puede ser resuelto siguiendo la teoría de perturbaciones a altas temperaturas
25
26
3.1. Introducción a los vidrios de espín
Aunque no es fácil resumir el desarrollo de los vidrios de espín, ni describir las
técnicas teóricas, numéricas, así como sus resultados experimentales, vamos a detallar los rasgos más representativos de estos sistemas y otros que nos ayudarán
en nuestro objetivo. Para un estudio más detallado se puede ver las siguientes referencias [29, 30, 33, 34, 35, 36]. Experimentalmente los primeros vidrios de espín
“spin glasses” fueron aleaciones entre los metales de transición (Au, Ag, Cu, P t) y
materiales magnéticos (F e, M n) en el límite diluido (e.d, donde la concentración
del material magnético tiende a cero). Propiedades características de los primeros vidrios de espín son: a baja temperatura se manifiesta un pico definido en la
susceptibilidad magnética χ(T ) en torno a una temperatura crítica Tc , el calor específico C(T ) presenta un comportamiento suave en torno a Tc . Este comportamiento
es inusual e inesperado dentro del estudio de las transiciones de fase. Además,
cuando se ejecutan experimentos de dispersión de neutrones, se encuentra que
bajo Tc no se muestra un orden espacial de la orientación de los espines [33].
Uno de los primeros modelos fue presentado sobre la base de la interacción
RKKY (Ruderman, Kittel, Kasuya, Yoshida) (ver referencia [34]). Así pues, el modelo afirma que el gas de electrones de conducción resulta en una imanación rápidamente oscilante en la proximidad de un espín localizado en un ion magnético;
posteriormente, un segundo espín situado a una distancia r del primero percibe
la imanación anterior, dando lugar a una interacción de intercambio indirecta entre los dos espines, que resulta aproximadamente en una energía dada por H =
"
F r+ϕo )
J(ri − rj )Si Sk + anisotropias, y su interacción como J(r) = Jo cos(2K
, r → ∞,
(kF r)3
donde Jo y ϕo son constantes, y KF el número de onda de Fermi. Puesto que las
distancias entre los espines son aleatorias, algunas interacciones entre estos será
en algunos casos positivas, favoreciendo la alineación paralela, y otras negativa, favoreciendo la alineación antiparalela, y así se presenta un ingrediente fundamental
que son las frustraciones. Este modelo es muy difícil de estudiar, por consiguiente,
se hace necesario buscar otros modelos más simplificados como veremos en las
secciones siguientes [34].
27
3.2. Modelo de Edward-Anderson
El hamiltoniano dentro del modelo de Edward-Anderson(EA)[37] se expresa como
H=−
!
<i,j>
Jij Si Sj − h
!
(3.1)
Si
i
donde la primera suma se lleva a cabo para los vecinos más próximos, las variables
Si son tipo Ising (Si = ±1) y Jij son las interacciones de intercambio diferentes
para cada par de espines (i, j). Cada Jij se supone distribuida independientemente
mediante una función de distribución P (Jij ), generalmente del tipo Gaussiana.
#
(Jij −Jo )2
1
1
(3.2)
P (Jij ) =
exp− 2J 2
J 2π
(3.3)
P (Jij ) = pδ(Jij − J) + (1 − p)δ(Jij + J)
La ecuación (3.2) es una distribución gaussiana donde Jo es su valor medio y J 2 la
variancia, mientras que en (3.3) Jij puede ser (> 0) ó (< 0), con probabilidad p y
(1 − p) respectivamente [29].
3.3. Modelo de Sherrinton-Kirkpatrick
El modelo propuesto por David Sherrington y Scott Kirkpatrick en 1975 [38] para
el estudio de los vidrios de espín, consiste en que todos los espines están conectados entre si, es decir, es la versión de rango infinito del modelo EA. Aun cuando
este modelo es menos realista que uno de rango corto, su estudio da una buena
idea de la naturaleza de los vidrios de espín.
En el marco de la aproximación de campo medio el modelo (SK) se resuelve
mediante un análisis teórico muy complejo, para lo cual se hace uso del formulismo
de la teoría de las réplicas (sec. 2.4). El modelo de SK tiene el mismo hamiltoniano
que en el modelo EA (ecuación 3.1) y con ayuda de la ecuación (2.6) se realiza el
promedio de la potencia n-ésima de la función de partición [35, 36].
n
[Z ] =
! $
{Siα =±1}
∞
(
%
−∞ <ij>
P (Jij )dJij ) exp(β
!
<ij>
Jij
n
!
α=1
Siα Sj α + hβ
N !
n
!
i=1 α=1
Siα ) (3.4)
28
donde α es el índice de las réplicas, y la integración en Jij se lo hace completando
el cuadrado e independientemente para cada par (i, j), además usando la propiedad (Siα )2 = 1, para todo α, i y haciendo un cambio de varia qαβ para el término
"
"
( Siα Siβ )2 y mα para ( Siα )2 mediante la identidad (1.11).
$ %
$ %
N β 2J 2n
n
[Z ] = exp(
)
dqαβ
dmα
4
α
α<β
. exp(−
con L = β 2 J 2
"
α<β
N βJo ! 2
N (βJ)2 ! 2
qαβ −
mα + N log TreL )
2
2
α
α<β
qαβ S α S β + β
"
α (Jo mα
(3.5)
+ h)S α .
Usando la ecuación (2.6) y tomando en cuenta que el argumento de la exponencial es proporcional a N , en la integral de arriba, y considerando que podemos
tomar el límite N → ∞ antes que el límite n → 0, dicha integral puede resolverse
por el método de Laplace [39]. Así se llega a la expresión de la energía libre por
espín mediante el método de réplicas.
−βf = lı́m {−
n→0
βJ0 ! 2 β 2 J 2 1
β 2J 2 ! 2
qαβ −
mα +
+ log TreL }
4n α"=β
2n α
4
n
(3.6)
siguiendo con el método, es necesario ahora calcular las ecuaciones de punto de
silladura (saddle point), es decir, las condiciones extremales de la energía libre resδf
δqαβ
pecto a las variables qαβ y mα
qαβ =
=
δf
δmα
= 0 con (α (= β).
∂
TrSα Sβ eL
1
L
log
Tre
=
β 2 J 2 ∂qαβ
TreL
(3.7)
TrSα eL
1 ∂
log TreL =
βJ0 ∂mα
TreL
(3.8)
mα =
Con el fin de calcular la energía libre y los parámetros de orden, es necesario
saber como depende qαβ y mα sobre los índices de las réplicas α y β. A simple
vista, se podría pensar que los índices de las réplicas no tienen ningún efecto sobre
la física del sistema, puesto que se han introducido de una manera artificial. Por
lo tanto, se asume que qαβ = q y mα =m, para todo α, β, a esto se le conoce como
“replica-symmetric solution”.
Esta solución del modelo SK establece una diagrama de fase ver Figura (3.1) el
cual presenta diferentes posibilidades cuando se pasa de una fase a otra. A medida
29
kBT
PARAMAGNETICA
FERROMAGNETICA
VIDRIOS DE ESPIN
0
u
Figura 3.1: Diagrama de fase del modelo SK considerando la simetría de las réplicas
que la temperatura desciende existen dos alternativas, podemos pasar de la fase
paramagnética a la fase de vidrio de espín ó pasar primero a la fase ferromagnética
y posteriormente a la fase de vidrio de espín [36].
Siguiendo con los cálculos se podría determinar los observables termodinámicos. Así la expresión para la susceptibilidad muestra un pico muy pronunciado a una
temperatura definida, propiedad característica de los vidrio de espín, esto es coherente con los experimentos (ver Figura 3.2). Sin embargo, la entropía del sistema
se hace negativa en T = 0 con S = −0,17 lo cual no tiene sentido físico. Además,
de Almeida y Thouless mostraron en 1978 que la SK-solución es inestable a tem-
peraturas bajas, tanto en la fase de vidrios de espín como en el ferromagnetismo.
Ellos determinaron una line de estabilidad “AT-line” ver Figura (3.3)
Poco tiempo después Giorgio Parisi 1979 presento una solución conocida como
“Replica symmetry breking” (RSB) donde las réplicas del sistema no se consideran
iguales, más bien se rompe la simetría de las réplicas de una manera muy específica [35].
30
Figura 3.2: Susceptibilidad Magnética χ Vs T para Aux F e1−x . Por Cannella and Mydosh
B
AT−Line
ESTABLE (PARA)
INESTABLE
(FERRO o VE)
0
T
Tc
Figura 3.3: Bajo la línea AT la solución SK es inestable en el plano B-T
31
3.4. “Replica symmetry breaking”
La solución correcta del modelo SK bajo la línea AT sugiere el rompimiento de
las réplicas de una manera muy particular, concretamente se dota al espacio de
los índices de las réplicas de una estructura métrica, ha esto se lo conoce como
solución de Parisi [35].
La solución del modelo SK, mediante la teoría de réplicas, lleva a considerar a
los qαβ como elementos de una matriz simétrica, todos iguales, excepto los elementos de la diagonal que son igual a cero.


0



 0 q
0






0



 q

 0 0



0 


0
Ahora el método de Parisi puede ser considerado como una serie de subdivisiones
de la matriz (nxn). Primero la matriz es subdividida en
n
xn
m1 m1
bloques de tamaño
m1 xm1 , dentro de los bloques de la diagonal principal, los elementos q0 , son reemplazados por q1 . El siguiente es un ejemplo para el caso n = 6, m1 = 3.

0 q1 q1



 q1 0 q1
q0 





 q1 q1 0




0
q
q

1 1



 q0
q
0
q
1
1


q1 q1 0
(3.9)
Este primer paso es conocido como “first-step RSB”. Segundo, se vuelve a subdividir los bloque de la diagonal principal en
m1 m1
x
m2 m2
sub bloques y en cada uno de estos
remplazamos q1 por q2 . Por ejemplo, para el caso n = 12, m1 = 6, m2 = 3.
32


0 q2 q2



 q2 0 q2
q1





 q2 q2 0




0
q
q
q
2
2
0





 q1
q2 0 q2




q2 q2 0






0 q2 q2




q2 0 q2
q1 





q2 q2 0






q
0
q
q
0
2
2



q1
q2 0 q2 


q2 q2 0
Tercero, repetimos este proceso infinitamente, de esta manera se introduce
m1 , m2 , m3 , . . . números enteros, con el siguiente orden
n ≥ m 1 ≥ m2 ≥ m 3 · · · ≥ 1
(3.10)
Sin embargo, como punto final consideramos que n → 0 tiende a cero de una
manera continua y analítica, se invierte el orden de la ecuación (3.10)
n = 0 ≤ m 1 ≤ m 2 ≤ m3 · · · ≤ 1
(3.11)
en el límite, mi es continua: mi → x, donde x se considera un parámetro de para-
metrización de la distancia entre dos índices de las réplicas con 0 ≤ x ≤ 1. Por lo
tanto, la información del conjunto {qi } y {mi }, estará contenida en una función q(x)
continua, definida en un intervalo de longitud igual a uno.
El significado físico de q(x) se tiene relacionando q(x) con la distribución de
probabilidad del solapamiento q (ver sección 2.6 ) entre los estados puros (sección
2.5 ) antes que entre las réplicas. Notando x(q) como la función inversa de q(x),
tenemos que
x(q) =
$
q
dq P (q )
(3.12)
Pα Pβ δ(q − q αβ )
(3.13)
′
′
−∞
con
P (q) =
!
α,β
33
Nuevamente los índices α y β corresponden a estados puros no a replicas, qαβ es
el “overlap” entre dos estados puros α y β, y Pα es la probabilidad de encontrar al
sistema en el estado puro α.
Generalmente no se da una solución a la ecuación (3.6) respecto a q(x) por
ser demasiado complicado. A cambio se busca un desarrollo mediante la teoría de
Landau cuando la temperatura esta cerca al punto crítico entonces q(x) es pequeño.
Las principales interpretaciones físicas que resulta de la solución RSB son las
siguientes:
Paisajismo rugoso de la energía libre A temperaturas bajas el paisajismo
de la energía es muy rugoso y complicado, es decir, el mínimo absoluto esta
rodeado por otros mínimos ligeramente superiores y separados por barreras
de energía grandes [40]. Figura (3.4).
Distribución del “overlap” Existe un número muy grande de soluciones y
por lo tanto se espera que la distribución P (q) posea un comportamiento particular. A campo magnético nulo P (q) será simétrica y el valor medio de q será
cero, por lo tanto se representa como P (|q|). Si existe campo magnético P (q)
deja de ser simétrica. La forma más general de P (q) es [40]:
P (q) = aδ(q − qmin ) + g(q) + bδ(q − qmax )
(3.14)
donde a, b son constantes positivas , g es una función regular y qmin , qmax
son el solapamiento mínimo y máximo. La solución de Parisi proporciona el
siguiente comportamiento de P (q). Fig (3.5).
Estructura Ultramétrica Los diferentes estados puros que aparecen son organizados de una manera jerárquica (ultramétrica). Un espacio es ultramétrico
si la distancia d entre dos puntos cualesquiera del espacio verifica la siguiente
condición [40]:
dα,γ ≥ max(dα,β , dβ,γ )
(3.15)
La ecuación anterior en función de los solapamientos para tres estados arbitrarios es:
q α,γ ≥ mim(q α,β , q β,γ )
(3.16)
34
F
0
Espacio configuracion
Figura 3.4: Paisajismo de la enegía libre
P(q)
0
q
qmax
Figura 3.5: P (q) para el modelo SK
35
Estado base
Estado base
flipped
i
l
Figura 3.6: Droplet
3.5. Teoría de “Droplet”
En la sección anterior se ha descrito un modelo de espín con interacción a todos
los vecinos y se han enumerado diversas propiedades que surgen del análisis del
modelo. Podemos preguntarnos si estas características se mantienen en un modelo
donde las interacciones sean de corto alcance (modelo de EA) [41].
A fin de contestar esta interrogante se desarrollo la teoría de “droplets” (“droplets
scaling” (DS)), la cual es una teoría fenomenológica que tiene su origen en las leyes
de escala y cuya principal finalidad es entender la fase de vidrios de espín cuya fase
se supone totalmente influenciada por el estado base.
Las hipótesis sobre las cuales se sustenta esta teoría son las siguientes: primero, la fase de baja temperatura a campo nulo contiene sólo un estado puro (dos
si tenemos encuenta la simetría) y por tanto P (q) es trivial (consiste en dos deltas de Dirac). Segundo, tiene que ver con la noción de “droplet”: un “droplet” se
define como la energía de excitación más baja que tiene una longitud de escala l
en torno a un espín i dado y una superficie fractal de dimensión ds , mas pequeña
que la dimensión espacial d, ver Figura(3.6). Esta excitación es la que domina la
fase de vidrio de espín, cambiar la orientación de un “droplet” se necesita de una
energía proporcional a lθ , donde θ es el exponente “droplet”. Por analogía respecto
a la energía de excitación mediante las paredes de dominio se espera que θ = θs
(exponencial de “stiffness”)
Capítulo 4
Optimización Combinatoria
La optimización combinatoria es un dominio de la informática y la investigación
operativa, cuyo campo de aplicación está ampliamente difundido. Entre los problemas que resuelve la optimización combinatoria están: ¿cómo se debe buscar el
itinerario más corto para un cartero que atiende un número determinado de poblados? (problema del cartero chino), ¿en cuántas partes dividen un espacio n planos,
si de cuatro cualquiera de ellos ninguno pasa por un mismo punto; de tres, ninguno
pasa por una misma recta y de dos, ninguno es paralelo, mientras que cualesquiera
tres planos tienen un punto común?; la elaboración de un horario de clases para
una escuela. . . [42].
Según el enfoque que se le de, a los distintos problemas combinatorios, estos
pueden ser clasificados así: en unos se resuelve la existencia o no existencia de las
soluciones, en otros es necesario calcular el número de soluciones del problema (a
este tipo de problemas se les conoce como problema de enumeración); por último,
de un conjunto que posee todas las soluciones del problema se elige aquellas que
poseen cierta propiedad en grado máximo o mínimo. Los problemas de este último
tipo se denominan extremales o simplemente problema de optimización.
En lo que sigue nos centraremos en los problemas de optimización. Para su caracterización necesitamos definir dos elementos esenciales: primeramente un conjunto finito de configuraciones del sistema en cuestión y, segundo, una función de
costo relacionada con las configuraciones. El problema de optimización combinatoria consiste en hallar la configuración para la cual la función de costo es mínima
[42]
36
37
En las siguientes dos secciones vamos a dar los principales conceptos en los
que se basa la optimización combinatoria y algunas herramientas para la resolución
y clasificación de los distintos problemas que se presentan.
4.1. Complejidad Algorítmica
Todos tenemos una idea bastante clara de lo que es un algoritmo y alguna noción del grado de dificultad cuando comparamos diferentes algoritmos que cumplen
un determinado propósito. Pues bien, esas ideas pueden ser resumidas como sigue: un algoritmo es un procedimiento o método de cálculo con unas reglas bien
determinadas que conducen a la resolución de un problema específico en un número finito de pasos [43]. Así podemos decir que un problema algorítmico π(I, Q)
consta de un conjunto I de todas las posibles entradas para el problema, llamado el
conjunto de instancias, y de una pregunta Q sobre esas instancias. La complejidad
de un algoritmo (complejidad algorítmica) es una medida de los recursos (tiempo,
memoria) que se requiere para su ejecución en función del tamaño de los datos de
entrada. Ahora bien, vamos a dar la definición formal de complejidad de un algoritmo, mediante el orden de crecimiento de la función c(I), donde c(I) representa
el número de operaciones elementales requeridas, que en el peor de los casos
depende del tamaño I de la entrada [42].
Existen cinco formas de notar los diferentes órdenes de crecimiento de una función que son: o, O, Θ, ∼, Ω; pero explicaremos solo el segundo caso.
Definicion 1 Sean f y g dos funciones definidas sobre el conjunto de los números
naturales, f, g : N → N. El orden de crecimiento de g es menor o igual que el de f , lo
cual se nota por g(x) = O(f (x)), si existe una constante k > 0 tal que g(n) ≤ kf (n)
para todo n ∈ N [43].
La jerarquía de órdenes (en orden de crecimiento) es la siguiente: O(1),O(log n),
O(n), O(n log n), O(n2 ), O(n3 ), O(2n ), O(n!), O(nn ). Diremos que un algoritmo es polinomial cuando el número de operaciones que efectúa está acotado por una función
polinomial en el tamaño de su entrada. Si el tamaño de la entrada es n y la función polinomial es f (n), decimos que el algoritmo tiene complejidad O(f (n)). Un
algoritmo es eficiente si su complejidad es polinómica.
38
Decimos que un problema es de decisión cuando las posibles respuestas a la
pregunta Q son SI ó NO. Un problema de este tipo se clasifica como [43]:
Problema de la clase P: Para los problemas de este tipo hay un algoritmo
determinista de tiempo polinomial que resuelve el problema
Problema de la clase NP (“Nondeterministic Polynomial”): Los problemas de
este tipo se caracterizan por que pueden ser resueltos por algoritmos polinómicos no deterministas, en otras palabras, cuando cualquier instancia que
produce respuesta SI posee una comprobación de correctitud (también llamada certificado) verificable en tiempo polinomial, en el tamaño de la instancia y
la búsqueda de dicha certificación puede que requiera un tiempo exponencial.
Claramente, P⊆NP. Sin embargo, no se sabe si esta inclusión se cumple estrictamente, P=NP se conjetura que no se cumple, es uno de los problemas
que se mantienen abiertos.
Definicion 2 Sean π1 (I1 , Q1 ) y π2 (I2 , Q2 ) dos problemas de decisión. Una transformación polinomial (reducción polinómica) de π1 en π2 , lo cual se denota por π1 ∝ π2 ,
es una función f : I1 → I2 que satisface las siguientes dos condiciones [42]:
1. f puede computarse en tiempo polinomial.
2. Para toda instancia D ∈ I1 , D produce respuesta SI para π1 si y sólo si f (D)
produce respuesta SI para π2
Un problema de decisión π pertenece a la clase NP-completo, cuando se satisfacen
las siguientes condiciones:
π ∈ NP
Para todo problema π de la clase NP se cumple que π ∝ π.
′
′
Un problema de decisión π es de la clase NP-hard si existe un problema π de la
′
clase NP-completo tal que se cumpla la siguiente condición:
′
π ∝ π.
39
La técnica usual para probar que un problema π es NP-completo1 es la siguiente:
elegir en forma apropiada un problema π que ya sabemos que es NP-completo
′
y luego probar que π ∈ NP y que π es transformable polinomialmente en π. Si y
′
sólo si probáramos esta segunda parte habríamos probado que el problema π es
“NP-hard” [43, 42].
4.2. Optimización Combinatoria y Mecánica Estadística
A fin de determinar cuáles son las relaciones entre la optimización combinatoria y la física estadística, se toma como ejemplo el modelo de Ising. Determinar
el estado fundamental de tal sistema2 quiere decir hallar la configuración de espines {S1 , S2 . . . , Sn } que minimice la energía del sistema; este es un problema de
optimización combinatoria. Más generalmente podemos decir que todos los problemas de física estadística con un hamiltoniano a una temperatura específica pueden
ser considerados como un problema de optimización combinatoria, por lo tanto las
configuraciones son los micro-estados y la función de costo, la energía. Recíprocamente todo problema de optimización combinatoria puede ser considerado como
un problema de física estadística, para esto es suficiente considerar la función de
costo como el hamiltoniano del sistema. Más relaciones podemos ver en la tabla
4.1.
1
No se conoce ningún algoritmo polinomial para resolver un problema NP-completo. Surge la
definición de NP-completitud que si se encontrara un algoritmo polinomial para un problema de esta
clase, todo problema en N sería polinomial, entonces P=NP; sin embargo se sospecha que no existe
tal algoritmo
2
Puesto que el modelo de Ising es no desordenado, el cálculo del estado fundamental es un
problema trivial. Este no es el caso en los vidrios de espín, que debido al desorden y frustraciones,
la situación es mucho más compleja. Hallar el estado base de los vidrios de espín es un ejemplo de
problema NP-completo
40
Física estadística
Optimización combinatoria
Estado fundamental
Óptimo
Energía del estado fundamental
Costo de la optimización
Hamiltoniano, energía
Función de costo
Micro-estado
Configuración
Espacio de fase
Ensamble de configuraciones
Primeros estados excitados
Configuraciones cuasi óptimas
Cuadro 4.1: Correspondencia entre la física estadística y optimización combinatoria
Versión estocástica de la optimización combinatoria
En física, son importantes las propiedades genéricas de los sistemas desordenados y raramente en propiedades específicas de una muestra dada. En efecto, se
quieren conocer las propiedades estadísticas (valores medios, desviaciones, etc)
sobre el ensamble de muestras posibles. Para poder utilizar la optimización combinatoria es necesario transponer las nociones de ensamble de la física estadística3
Tipos de algoritmos
Los algoritmos que existen para resolver un problema combinatorio y, en particular, hallar el estado base de un sistema, son susceptibles de clasificarse en dos
grupos: los algoritmos “exactos” o completos y los algoritmos “heurísticos” o incompletos. Los algoritmos del primer grupo determinan y aseguran un mínimo de
la función de costo; desafortunadamente estos son muy lentos. Por otra parte, los
algoritmos heurísticos proporcionan una solución aceptable pero no la solución óptima, un ejemplo de este tipo son los algoritmos elaborados mediante los métodos
de Monte Carlo
3
Esto se verá más adelante en la simulación “annealing”
41
•B DD
z<
DD
zz
D
z
za
z
c DDD
¯ zz
"
•C
A• DD
z O
DD
g zz
DD
z
zz
d DD"
|zz
e
j
7 •EX
f
b
k
p
²
h
w
/ •F
k
3 D• DD
i
z
DD
z
z
DD
z
zz m
n DD
"
|zz
l
•G
Figura 4.1:
4.3. Conceptos Básicos de Teoría de Grafos
Antes de dar las definiciones correctas de los elementos básicos que constituyen
la teoría de los grafos, primero se describe los conceptos más simples. Consideremos un conjunto de puntos, de número finito o no, pero distintos y numerables,
dispuestos como se indica en la fig.4.1. Los puntos de la figura se llaman vértices, y
están unidos por líneas orientadas llamadas arcos. Así A están unida directamente
a B por el arco a, a D por el arco e, etc. La figura descrita representa un grafo.
Una descripción un poco más elaborada es la siguiente: consideremos un conjunto
de seis objetos: {A, B, C, D, E, F, G}. A cada uno de los objetos de este conjunto
hacemos corresponder cero, uno, dos o más objetos del mismo conjunto; mediante
una relación Γ. Por ejemplo.
Γ(A) = {B, D, E}
Γ(B) = {A, C}
Γ(C) = {E}
Γ(D) = {D, E, F, G}, Γ(E) = {D, E}
Γ(F ) = {C, F, G}, Γ(G) = {∅}
(4.1)
Por lo tanto el conjunto {A, B, C, D, E, F, G} y las correspondencias (4.1) constitu-
yen un grafo, representado por la figura (fig.4.1)
Definicion 3 Se denomina grafo orientado una terna G = (X, A, ϕ) compuesta de
42
•2
|= X11aB1BB a
||
|
11 BBB3
||
11 BB
||
a4
1
o
a5 11 •3
5 •1 hQQQQ
11 °
QQQ
QQQ
1°°
a11
Q
a6
QQQ°° 11
²
°Q
a7 °°
•6 BB
°
= •4 i
BB
°° ||||
°
BB
° || a
a10 BB
! §°°|| 8
a2
a1
a9
•5
Figura 4.2: Grafo orientado
un conjunto no vacío X, cuyos elementos se llaman vértices de un conjunto A de
arcos y de una función ϕ : A → XxX, la cual a todo arco a elemento de A se le
hace corresponder un par ordenado (p, q) de vértices denominados finales de dicho
arco.(ver fig.4.2)
Un arco, cuyos finales p, q se encuentran en un mismo vértice se llama lazo.
Definicion 4 Un grafo se dice simple, si para cualquier par de vértices p, q se unen
mediante un arco a lo sumo.
Definicion 5 Dado un grafo orientado simple G con los vértices x1 , x2 ,. . . xn . Se
llama matriza de adyacencia de dicho grafo a una matriz cuadrada de orden n,
donde bij = 1, si en G existe el arco (xi , xj ); y bij = 0, si en G no existe el arco
(xi , xj )
Así, la matriz de adyacencia del grafo expuesto en la figura (4.2), tiene la forma
siguiente.

. x 1 x2 x3 x 4 x5 x 6

 x1


 x2

 x3


 x4

x
 5


1 1 1 1 0 1


0 0 0 0 0 0

0 1 0 0 1 0


0 1 0 1 0 0

0 0 0 1 0 0

x6 0 0 0 0 1 0
43
La matriz de adyacencia define completamente la estructura del grafo. Por ejemplo, la suma de todos los elementos de la fila xi de la matriz B da el número de arcos
que tienen el vértice xi como su vértice original, y la suma de elementos de la columna xi da el número de arcos en los que xi figura como vértice final.
Se debe distinguir entre grafo orientado y grafo no orientado (o, simplemente
grafo), para este último se sustituye los conceptos de arco por arista, y vértices por
nodos. En un grafo el conjunto E de aristas y la función Ω pone a cada arista a ∈ E
le ponen correspondencia un par no ordenado de nodos (p, q) = (q, p), que se denominan extremos de dicha arista. Además, los conceptos introducidos para grafos
orientados, pueden ser extendidos a los grafos no orientados si consideramos que
una arista no orientada (p, q) corresponde a un par de arcos pq
¯ y qp.
¯
Definicion 6 Sean x,y ∈ X, se dice que hay un camino en G de x a y si existe una
sucesión finita no vacía de aristas (x, v1 ), (v1 , v2 ) . . . , (vn , y).
En este caso, x e y se llaman los extremos del camino, el número de aristas del
camino se llama la longitud del camino. Si los vértices no se repiten el camino
se dice propio o simple. Además si hay un camino no simple entre dos vértices,
también habrá un camino simple entre ellos. Cuando los dos extremos de un camino
son iguales, el camino se llama circuito o camino cerrado. Llamaremos ciclo a un
circuito simple, un vértice a se dice accesible desde el vértice b si existe un camino
entre ellos. Todo vértice es accesible respecto a si mismo
Definicion 7 Un camino hamiltoniano es un camino que recorre todos los vértices
de un grafo sin pasar dos veces por el mismo vértice. Si el camino es cerrado se
dice un ciclo hamiltoniano.
Un grafo G se dice hamiltoniano si tiene un ciclo hamiltoniano.
4.4. Conceptos Básicos de la Teoría de Poliedros
Consideremos una ecuación lineal en las m incógnitas x1 , x2 , . . . , xm , escrita de
la siguiente manera: c1 x1 + c2 x2 + · · · + cm xm = b, o en notación matricial cx = b,
donde c = (c1 , c2 , . . . , cm ) y x = (x1 , x2 , . . . , xm ).
44
Definicion 8 Dado un conjunto finito A, denotemos por RA el espacio lineal de los
vectores reales x con una componente xe para todo e ∈ A. El conjunto de todos
los puntos que satisfacen la ecuación cx = b, es decir, el conjunto de todas las
soluciones de su ecuación lineal recibe el nombre de hiperplano
La dimensión del hiperplano es una unidad menor que la dimensión del espacio
total.
Teorema 1 Un subconjunto A ⊆ Rm es un hiperplano si y solamente si existe una
correspondencia uno a uno entre A y Rm−1 tal que las distancias entre puntos correspondientes sean iguales.
Definicion 9 El semiespacio cerrado ó simplemente semiespacio es el conjunto
{x ∈ RA : cx ≤ b} [44].
La envolvente lineal de X subconjunto de Rm es el conjunto de todos los puntos
"
de la forma x∈X λx x, donde λx ∈ R para todo x ∈ X. Sus elementos se llaman
combinaciones lineales de X, y se pueden distinguir tres casos principales:
"
1. Si x∈X λx = 1; el conjunto se llama envolvente afín y sus elementos combinaciones afines
2. Si λx ≥ 0 ∀x ∈ X; el conjunto se llama envolvente cónica (cono generado por
X) y lo representamos por cone(X), a sus elementos se les llama combinacio-
nes cónicas.
3. Si
"
x∈X
λx = 1 y λx ≥ 0 ∀x ∈ X; el conjunto se llama envolvente convexa
y lo representamos por conv(X) y sus elementos se les llama combinaciones
convexas
Un poliedro es la intersección de un número finito de semiespacios en Rm . En
conclusión un poliedro es representable a través de un sistema lineal finito cx ≤ b.
Uno de los resultados principales en la teoría de poliedros es el siguiente teorema
debido a Weyl y Minkowski.
Teorema 2 Para todo poliedro P = {x ∈ Rv : cx ≤ b} existen conjuntos finitos X, Y
subconjuntos de Rv tales que P = conv(X) + cone(Y ). Recíprocamente, para todo
par de conjuntos X,Y subconjuntos de Rv existe un sistema lineal finito cx ≤ b tal
que conv(X) + cone(Y ) = {x ∈ Rv : cx ≤ b} [44].
45
Un polítopo es un poliedro acotado, es decir, un poliedro P para el que existen
l, u ∈ RE tales que P ⊆ {x ≤ RE : l ≤ x ≤ u}. En función del teorema anterior un
polítopo es la envolvente convexa de un conjunto X finito de puntos [44].
Capítulo 5
Simulaciones Numéricas
Una clase particular de sistemas magnéticos son los vidrios de espín, cuyas
propiedades peculiares de frustración y desorden entre los enlaces hacen que el
sistema exhiba una dinámica extremadamente lenta1 , es decir, que el paisajismo
de la energía libre sea muy rugosa haciendo que el sistema quede atrapado en un
estado meta-estable en torno a un mínimo local. Esto es una de las razones por
las cuales las simulaciones de vidrios de espín y en general de sistemas complejos
son difíciles. Para salvar esta dificultad2 , es decir, acelerar la relajación del sistema,
se han desarrollado toda una serie de algoritmos de Monte Carlo (MC), que se les
conoce bajo el término genérico de “Extended Ensemble Monte Carlo” [45] que a
su vez pueden clasificarse así:
“Simulated Tempering” [45, 46, 47, 48, 49, 50] está estrechamente relacionado
con “simulated annealing”3 [31, 48, 51, 52], pero aquí la temperatura se considera
como una variable dinámica mas. Para poder alcanzar el equilibrio estadístico del
sistema (con respecto a la distribución de Bolzmann P ({S}) ∝ exp −βH({S}) ) se
escoge una distribución nueva P̃ ({S}, {Σ}), con un conjunto {Σ} que contiene un
1
Son varias las situaciones en las que existe un relajamiento lento, entre estas se encuentran las
transiciones de fase continuas cerca del punto crítico que da origen al fenómeno de crítical slowing
down, otra situación que se presenta es la nucleation asociada con las transiciones de fase de primer
orden.
2
No es la única motivación por la cual se introducen artificialmente ensambles; por ejemplo: en
la resolución de integrales o sumatorias múltiples, que a su vez tiene aplicación en la forma en que
podemos recorrer un espacio de fase de algún sistema estadístico.
3
Calcula el mínimo de una función
46
47
número grande de variables adicionales.
La idea básica es que P̃ sea una distribución de Boltzmann para cualquier conjunto {Σ} dado, a expensas de escoger un conjunto de {β} adecuado. La dinámi-
ca del sistema ha pasado a un espacio de temperaturas {S} → ({S}, {βα }) con
α = 1, . . . , A = const. La función que se tiene en el equilibrio es Pequi ({S}, {βα }) =
"A
exp(−HEXT ({S},{α}))
gα
donde HEXT = βα H(S) − gα y ZEXT =
α=1 exp Z(βα ). Para
ZEXT
un valor fijo de α la suma Z(βα ) es la función de partición del sistema original con
los tradicionales pesos de Boltzmann. Así, la probabilidad de encontrar al siste"
ma con un valor dado de α es Pequi (α) = {S} Pequi ({S}, {βα }), en otras palabras
βα f (βα ) = − log Z(βα ), con f (βα ) la energía libre. Si escogemos gα = βα f (βα ), todos
los valores de α tienen la misma probabilidad 1/ZEXT , ZEXT = A.
La probabilidad que el sistema pase de un valor de temperatura a otro valor
consecutivo (valores ordenados) será proporcional a la variación del hamiltoniano
extendido para una cierta configuración ∆HEXT = Einst δ − (gm+1 − gm), donde δ =
βm+1 − βm y Einst es la energía instantánea. El valor de gm+1 puede ser determinado
mediante un desarrollo en series de potencia en torno a βα . Se tiene que gm+1 =
E(βα )δ +
C(βα )δ 2
2
&H'2 .
+ O(δ 3 ), donde E(βα ) es la energía media en βα y C(β) = &H 2 ' −
Mediante este procedimiento se evita quedar atrapado por barreras altas de
energía. Mientras el sistema se mueve en el espacio de temperaturas este pasa
continuamente del estado de altas a bajas temperaturas visitando nuevos mínimos
locales. El algoritmo satisface la condición de balance detallado.
La parte mas difícil consiste en determinar los valores de gα para que coincidan
con la energía libre, esto se puede realizar mediante un proceso iterativo dentro
del mismo programa. Los pasos generales para ejecutar este algoritmo son los
siguientes:
Dada una configuración inicial {S} del sistema.
Se ejecuta un primer corrimiento usando cualquier algoritmo por ejemplo Metropolis para obtener un primer valor de la energía libre.
Corremos la rutina de simulated tempering, cambiando en tiempo de ejecución
los valores anteriores de energía libre, con el fin de obtener una probabilidad
constante para los distintos valores de temperatura.
48
Finalmente repetimos el paso anterior hasta alcanzar el equilibrio termodinámico realizamos los promedios de las cantidades de interés.
“Exchange Monte Carlo” a esta familla pertenecen algoritmos como: las cadenas acopladas de Metropolis, Parallel Tempering (PT) [45, 46, 47, 48, 49, 50]. Este
último es una mejora de simulated tempering. La ventaja es que no se necesita
calcular la energía libre.
En el algoritmo de (PT) se consideran M sistemas idénticos al original (pero
cada uno de ellos en diferente estado termodinámico) y M valores de β. Puesto que las replicas no interaccionan entre ellas el espacio de fases está dado
por {S}={S1 }x{S2 }. . . x{SM }. En cada uno de los cuales se puede realizar una
simulación canónica (N V T ) con H(Si ) el hamiltoniano, posteriormente se mezclan las configuraciones vecinas. La función de partición del sistema extendido es
,
"
ZEXT = M
i=1 Z(βi ) con Z(βi ) =
Si exp(−βi H(Si )).
La probabilidad de tomar una configuración {S} para un conjunto de valores
de β es P (S; β1 , . . . , βM ) =
exp(−
PM
i=1 βi H(Si ))
.
ZEXT
Ahora si definimos un proceso tipo
Markov (cadena de Markov 5.1) para el sistema extendido, haciendo que P cumpla
la condición de balance detallado determinamos la relación entre las probabilidades
de transición W (S1 , β1 ; S2 , β2 ) (La probabilidad condicional de alcanzar S2 estando
en S1 sin cambiar los valores de β1 y β2 ) y W (S2 , β1 ; S1 , β2 ), esta es:
W (S1 ,β1 ;S2 ,β2 )
W (S2 ,β1 ;S1 ,β2 )
=
exp(−∆), donde ∆ = (β2 − β1 )(H(S1 ) − H(S2 )).
Nuevamente podemos utilizar el algoritmo de Metropolis para ejecutar (PT): Si
∆ < 0 aceptamos la transición, caso contrario se acepta con probabilidad exp(−∆).
Los pasos generales de (PT) son:
Generamos y realizamos la dinámica de M replicas independientes del sistema.
Ensayamos las transiciones entre todos los pares de replicas (S1 , β1 ) y (S2 , β2 ).
Aceptando el cambio considerando el valor de ∆
Realizamos los pasos anteriores hasta alcanzar el equilibrio termodinámico.
Finalmente realizamos los promedios de los observables.
Multicanónical Monte Carlo [53] esta técnica calcula los valores esperados para un conjunto de m valores β1 < β2 . . . < βm , realizando en cada uno de ellos una
49
simulación canónica, posteriormente por medio de técnicas de re-pesado (“multihistograms reweighting”) extrapola los valores esperados para un rango de temperaturas en torno a cada uno de los elementos de {T }.
Uno de los algoritmos más exitosos para el estudio de los vidrios de espín en 2D
son las Replicas de Monte Carlo (RMC) ideado por Swendsen and Wang [54], este
es equivalente al algoritmo de “Exchange Monte Carlo” en el límite de dimensiones
altas. Este algoritmo lo desarrollaremos en la sección (5.1).
Todos estos algoritmos son utilizados para resolver un gran número de modelos
de sistemas complejos en varios campos de la ciencia y la ingeniería, tales como:
modelos de espín (modelos de Ising, modelos de Plotts, modelos de campos aleatorios, modelos cuánticos de espín, vidrios de espín) [47, 49, 54, 55, 56], modelos de
polímeros, el plegamiento de proteínas, modelos de moléculas en agua y el vacío
[46], modelos de redes gauge, modelos de gravedad cuántica, etc.
También existen los llamados algoritmos completos que a diferencia de los anteriores (algoritmos heurísticos) [57] proporcionan la solución exacta de un problema
extremal (mínimo de una función); desafortunadamente estos son difíciles de implementar, lentos y requieren la mayoría de los recursos computacionales. Sin embargo hemos implementado el algoritmo de ramificación y corte “branch and cut” cuya
variante para los vidrios de espín lleva el nombre de el problema de máximo corte
“Max-cut problem” [58]. Este problema nos señala la relación que se ha establecido
entre una clase de problemas de la optimización combinatoria conocidos como problemas NP-difíciles “NP-hard problems” y los vidrios de espín. En la sección (5.2.2)
retomaremos de nuevo el problema de corte máximo para hallar los estados base
de los vidrios de espín.
5.1. Elementos generales en las simulaciones de MC
Muestreo Simple y Pesado
El crecimiento exponencial en el número de configuraciones con el tamaño del
sistema N es completamente general e independiente del modelo, ya que siendo la
entropía una magnitud extensiva tendremos que, a bajas temperaturas S ∝ N . La
evaluación de la función de partición Z por enumeración de todas las configuracio-
50
nes resulta un método inviable. En principio existen dos procedimientos generales
por los cuales podemos evaluar adecuadamente Z para N grandes [46, 59]
De acuerdo al muestreo simple podemos escoger un subconjunto de M configuraciones del sistema completamente al azar, de tal manera que la probabilidad de tomar una cualesquiera de las configuraciones es igual para todas. De esta manera podemos aproximar los valores medios &A' mediante los estimadores
PM
i exp(−βEαi )Aαi
P
.
M
i exp(−βEαi )
Este método es inadecuado para el estudio de sistemas que or-
denan a bajas temperaturas, pues la mayor parte de las configuraciones poseen
probabilidad casi nula, excepto el estado fundamental y los primeros estados excitados. Este inconveniente puede ser solucionado mediante el muestreo pesado
(“importance sampling”) que permite diferenciar entre las configuraciones que más
aportan a Z a una temperatura dada.
Para esto se supone que se eligen las configuraciones con la distribución 4
pα = exp (−βH{Sα })/Z
(5.1)
la cual nos proporciona la mediada de la contribución a la suma total. Entonces
el valor &A' se transforma en un simple promedio aritmético de Aα sobre las M
configuraciones. Sin embargo seguimos con el problema pues pα depende de Z,
esto se soluciona mediante el uso de los procesos tipo Markov.
Cadenas de Markov
Los métodos de muestreo pesado importantes en la física estadística se basan
en las cadenas de Markov. Un proceso de Markov se define como aquel proceso
que tiene que ver solo con un instante anterior inmediato, es decir, la probabilidad
de evolución de un sistema que habiendo pasado por los estados x1 al tiempo t1 ,
x2 al tiempo t2 , etc se encuentre en el estado xn al tiempo tn dependa solo del
estado anterior a n es P (x1 , t1 ; . . . ; xn−1 , tn−1 || Xn , tn ) = P (Xn−1 , tn−1 || Xn , tn ).
De esta manera, un proceso de Markov puede pensarse como una secuencia de
4
Esta puede ser una distribución cualesquiera ρα no-uniforme que sea compatible con los pro"M
1
medios termodinámicos ξα = ρpαα Aα , e introduciendo nuevos estimadores ξ¯ = M
i=1 ξαi , llegado
"W
¯
finalmente a los siguientes promedios &ξ'ρ = α=1 pα Aα = &A'p . Pero es conveniente una medida
pα tipo Gibbs debido a que maximiza la entropía y estadísticamente tiene propiedades de un proceso
de Markov.
51
transiciones, las cuales son estadísticamente independientes entre si, ademas si
las variables estocásticas X toman valores discretos se habla de una cadena de
Markov [46, 59].
Balance detallado y ergodicidad
Para generar una cadena de Markov de estados {α1 , α2 , . . . }, con distribución de
probabilidad estacionaria P (α, t) = pα los cuales se utiliza para el muestreo pesado,
es decir, dada una configuración inicial α1 se genera una nueva configuración α2 , de
acuerdo a una probabilidad de transición P (α1 → α2 ). P debe satisfacer las siguien-
tes hipótesis con el fin de alcanzar una distribución pα estacionaria ver referencia
[59].
1. Accesibilidad o ergodicidad Dado dos estados cualesquiera, existe una sucesión finita de estados tal que:
P (α → α1 )P (α1 → α2 ) . . . P (αM → α) (= 0
(5.2)
2. Balance detallado o microreversibilidad: Para todas las transiciones P (α →
α1 ) satisface la relación
pα P (α → α1 ) = pα1 P (α1 → α)
(5.3)
Algoritmo de Metropolis
La condición (5.3) puede reescribirse mediante la ecuación (5.1) como
P (αi →αj )
P (αj →αi )
= exp(−β∆E) con ∆E = Ei − Ej 5 , pero de ninguna manera se puede especificar la
probabilidad de transición (P αi → αj ) de forma única, se tiene la libertad de precisar
P de la forma más sencilla posible. Una de las más utilizadas es:
Pαi →αj
5

−1

 τ0 exp(−β∆E) si ∆E > 0
=


τ0−1
si ∆E ≤ 0
(5.4)
Son definidos los valores que puede tomar ∆E en una o dos dimensiones para el modelo de
Ising. En dos dimensiones ∆E es igual a ±8J, ±4J y 0
52
Donde τ0 es una constante de normalización que vale 1 para el caso en que los sitios de red son escogidos secuencialmente, y N −1 en el caso aleatorio. El esquema
general del algoritmo de Metropolis utilizando la probabilidad de transición P es:
1. Se elige una configuración arbitraria αi
2. Se elige una nueva configuración αj por algún método6 , y se calcula ∆E.
3. Si ∆E < 0 se acepta la nueva configuración αj como la siguiente en la cadena.
4. Si ∆E > 0 se genera un número aleatorio r y la nueva configuración se acepta
si r ≤ exp(−β∆E) y se rechaza con probabilidad 1 − exp(−β∆E).
5. Se repiten los pasos 1, 2, 3 y 4 con la nueva configuración (Si o Sj ), hasta
obtener las condiciones necesarias de equilibrio.
5.2. Algoritmos
Los códigos que se desarrollaran a fin de implementar los algoritmos de (RMC)
y Metropolis para los vidrios de espín tienen la desventaja que demandan una alta
velocidad de procesamiento y en la mayoría de los casos la asignación dinámica de
memoria es limitada. Una alternativa para mitigar en algo este inconveniente es el
uso de una técnica de programación llamada código multi-espín.
Esta técnica nos permite disminuir el tiempo de ejecución en un factor considerable respecto a un código tradicional mediante la manipulación de bits a través de
funciones que nos proporciona nuestra CPU. Estas funciones incluyen operadores
lógicos y operadores a nivel de bits como: AN D (∧), OR (∨), OR-exclusivo (⊕), desplazamiento a la izquierda (≪), desplazamiento a la derecha (≫), desplazamiento
a uno N OT (−), etc.
6
La nueva configuración puede elegirse dependiendo de las características del problema. En los
modelos de redes de espines se elige una nueva configuración eligiendo un espín Si e invertirlo
(“spin flip”). En la sección (5.2.1) se verá otra forma de generar configuraciones mediante clusters
53
NOMBRE
SIMBOLO
C/C++
FORTRAN
AND
∧
&
IAND
IOR
⊕
|
0
OR
∨
XOR
NOT
-
shift left
shift right
∼
≪
≪
≫
≫
IEOR
NOT
ISHFT
RSHIFT
Cuadro 5.1: Operadores a nivel de bits en C/C++ y FORTRAN
5.2.1. Algoritmo de Réplicas de Monte Carlo
El algoritmo (RMC) fué desarrollado por Swendsen y Wang, siendo uno de los
algoritmos más exitosos en la simulasión de los vidrios de espín en dos dimensiones. Haciendo uso de una colección de sistemas en diferentes temperaturas Ti se
espera alcanzar el equilibrio rápidamente incluso para valores grandes de temperatura, posteriormente esta información se transmitirá a la zona de bajas temperaturas, la simulación de esta colección debe realizarse simultáneamente. También
se introduce una dinámica de clusters definidos entre dos pares de réplicas vecinas τ = S 1 S 2 , estas son las ideas fundamentales sobre las cuales se desarrolla el
algoritmo (RMC).
Consideremos la configuración de un par de réplicas {S 1 } y {S 2 }, donde su
hamiltoniano es:
Hpar ({S 1 }, {S 2 }) = −
!
<i,j>
{β 1 Jij Si1 Sj1 + β 2 Jij Si2 Sj2 }
(5.5)
Para el modelo de red cuadrada en 2D, la suma < i, j > se extiende a los primeros
vecinos, Jij son las constantes de acoplamiento que toman los valores de +1 y
−1, β 1 y β 2 son los valores inversos de temperatura de las respectivas réplicas con
la constante de Bolzmann kB = 1. La probabilidad de distribución conjunta es el
producto de la distribución de Boltzmann de cada una de las réplicas
p=
exp(−Hpar ({S 1 }, {S 2 }))
Zext
(5.6)
donde Zext es la función de partición extendida, los movimientos de Monte Carlo
que se permiten se deben desarrollar bajo el criterio de balance detallado, es decir,
54
1
2
3
4
1
2
3
4
1
2
3
4
tau−espin= Si*Ci
tau−cluster= −1
tau−cluster= −1
tau−cluster= 1
Figura 5.1: Dinámica de cluster
p debe satisfacer la ecuación (5.3). Continuando con la descripción del algoritmo,
se construye una nueva configuración de espines sobre otra red a través de la
siguiente definición τ -espín, τi = Si1 Si2 , posteriormente se forman los cluster (sitios
vecinos conectados por el mismo τ -espín) sobre dicha red, es decir, dos sitios i y j
están conectados y pertenecen al mismo cluster si τi = τj . Así los τ -clusters pueden
tomar solo valores de ±1 y la dinámica se dá sobre los clusters no sobre un espín
individual S i . Figura (5.1). Se reescribe Hpar como:
Hpar = −
!
Tij Si1 Sj1
(5.7)
<ij>
donde Tij = (β 1 + β 2 τi τj )Jij . También podemos asignar a cada cluster una nueva
variable ηa , entonces se puede pensar en una interacción entre clusters gobernado
55
por un hamiltoniano efectivo Hclus de la forma.
Hclus(η) = −
!
Kab ηa ηb
(5.8)
a,b
Donde la suma se efectúa entre los límites del cluster a y b, con las constantes
"
de acoplamiento entre clusters Ka,b = i∈a,j∈b Si1 Sj1 (β 1 + β 2 τi τj ). Ahora podemos
simular a (5.8) con cualquier método de Monte Carlo valido, como el algoritmo de
Metrópolis.
Código multi-espín de (RMC)
Usando la técnica de multi-espín generaremos el código para la ecuación (5.8),
la parte fundamental para llevar ha cabo la dinámica de clusters bajo cualquier algoritmo se implementara a través de una rutina (función) llamada PRINCIPAL escrita
en los lenguajes de programación C/C++ y FORTRAN. La primera implementación
se hizo en C/C++, pero finalmente se escogió al lenguaje de programación FORTRAN por ser más directo y eficiente a la hora de realizar un número extenso de
operaciones aritméticas. El algoritmo para la generación de los bit aleatorios (números aleatorios) se ha tomado de la referencia [60]. El código completo se encuentra
en el apéndice (A).
Antes de escribir el codigo para RMC, fijemos las ideas de la técnica multi-espín
sobre el algoritmo de metrópolis. El código multi-espín del algoritmo de Metropolis
para el caso más simple esta dado para el modelo de Ising del ferromagnetismo
ecuación (1.1), donde las interacciones de intercambio Jij pueden ser todas positivas ó negativas (J = 1 ó J = −1). Tomemos un arreglo de espines en una
dimensión. Sea Si el bit que representa los dos estados del i-ésimo espín, si ejecu-
tamos el operador ⊕ sobre los bits i y j tenemos que Si ⊕ Sj es igual a 1 solamente
si los dos espines no están alineados. Así la expresión (Si ⊕ Si−1 )∨(Si ⊕ Si+1 ) (que
representa la interacción entre los primeros vecinos) será igual a 1 solamente si uno
o ambos vecinos del espín i son opuestos a este. Por otro lado si generamos un
número aleatorio representado por el bit r el cual es 1 con probabilidad exp(−4βJ),
entonces la expresión (Si ⊕ Si−1 )∨(Si ⊕ Si+1 )∨r es 1 y se debería cambiar la orien-
tación del espín Si . En otras palabras, si escogemos un espín i de la red, se debe
fijar su nuevo valor S̃i mediante la siguiente ecuación (donde se ha permitido la
56
interacción Si ⊕ Sj ).
S̃i = Si ⊕ [(Si ⊕ Si−1 ) ∨ (Si ⊕ Si+1 ) ∨ r]
(5.9)
que es la parte esencial de un paso de Monte Carlo (mcs), con la ventaja que podemos usar cadenas de 32 o 64 bits (espines) simultáneamente. Basta con escribir
el código en un lenguaje de programación apropiado para la ecuación (5.9) y se
tendrá un modelo numérico del ferromagnetismo.
5.2.2. Algoritmo de ramificación y corte
El método de ramificación y corte tiene su origen en el método de ramificación y
acotación, por lo tanto, primero vamos a comenzar explicando este método. Muchos
de los problemas de la clase NP-hard en optimización combinatoria y en particular
el problema de máximo corte se los enfrenta mediante la técnica de ramificación y
acotación7 (Branch and Bound), la cual enumera todas las posibles soluciones sin
tener que considerar a cada una de ellas logrando obtener una solución óptima.
Generándose un ordenamiento en forma de árbol decisional cuyas ramas son las
soluciones del problema [43].
Este método tiene dos ingredientes principales que son la ramificación y la acotación. La ramificación consiste en dividir un conjunto S de todas las posibles soluciones de cierto problema en subconjuntos S1 , S2 , . . . , Ss1 . Cada uno de los cuales
se parte, a continuación, en subconjuntos Si1 , Si2 , . . . , Sis2 (i = 1, 2, . . . , s1 ), etc. La
acotación consiste en que para un subconjunto obtenido mediante la ramificación,
se puede tomar como una cota inferior ó superior al mayor ó menor valor de la
función costo respectivamente en este subconjunto.
El algoritmo general de este método es el siguiente:
Como entrada tenemos una configuración cualesquiera del sistema
1. Fijamos el árbol inicial T como T = ({S}, ∅), donde S es el conjunto de todas
las soluciones viables, y marcamos a una como la solución activa. Fijamos
una cota superior U = ∞ (Un valor grande comparado con cualquier solución
óptima)
7
También se le conoce como método de particiones progresivas y estimaciones, método de ra-
mificaciones y fronteras, método de ramificación y poda
57
2. Escogemos el siguiente vértice activo X del árbol T (si no existe ninguno,
paramos) y marcamos a X como vértice no activo. Encontramos una partición
del conjunto X, es decir, X = X1 ∪ X2 ∪ · · · ∪ Xt (ramificamos)
3. Para cada i = 1 . . . , t hacemos:
Buscamos una cota superior L sobre la función costo de cualquier solución Xi (Acotamos)
Si | Xi | =1 (se afirma que Xi = {S} y el costo(S) < U ) entonces: Fijamos
U = cost(S) y S ∗ = S
Si | Xi |>1 y L < U entonces: Fijamos T = (V (T ) ∪ {Xi }, E(T ) ∪
{{X, Xi }}) y marcamos Xi como activo
4. Regresamos al punto 2 y repetimos el proceso
Como salida tenemos una solución óptima S ∗
Este método siempre encuentra una solución óptima. La implementación y la eficiencia depende de cada problema en particular.
Método de Ramificación y Corte
El método de ramificación y corte [44] a menudo se combina con el método de
corte de planos, en el cual existe un conjunto de restricciones impuestas al problema en forma de desigualdades, es decir, las constricciones poliédricas dadas en la
definición 9 y el teorema 2, las cuales pueden ser resueltas mediante métodos de
programación lineal como el método simplex. Esto lo realizamos para cada nodo
del árbol decisional a este método se le llama método de ramificación y corte.
El algoritmo general es el siguiente (La salida y la entrada son las mismas que
en el algoritmo anterior):
1. Comenzamos con un subconjunto P = {x : Ax ≤ b}
2. Hallamos una cota superior U S, resolviendo U S = cx∗ = max{cx :: x ∈ P }
3. Hallamos una cota inferior U I (mediante cualquier procedimiento heurístico)(Cortamos)
58
4. Si (U S) = (U I) ó x∗ es un corte entonces: paramos
5. Caso contrario: Tomamos otro P (mejor) y regresamos al punto 2
6. Si no se puede halla un P entonces: Ramificamos
Generalmente el problema se presenta en escoger un buen conjunto P
Problema de corte máximo
El problema de máximo corte en un grafo ponderado (max-cut problem) se lo
puede enunciar de la siguiente manera: Dado un grafo G = (V, E) ponderado, en el
que a todo arco e ∈ E le corresponde los pesos cij ∈ R. Sea W ⊂ V (posiblemente
vacío). El corte δ(W ) es definido como el conjunto de arcos que tiene exactamente
un nodo incidente en W y el otro en V W = {i ∈ V : i ∈
/ W }. En fórmulas el corte
δ(W ) es:
δ(W ) = {(i, j) ∈ E : i ∈ W, j ∈ V W }
(5.10)
El peso de un corte está dado por la suma de todos los pesos de sus arcos. El
problema de corte máximo consiste en hallar un corte de G con máximo peso.
Estados base de los vidrios de espín
A continuación vamos a ver la relación que existe entre el problema de corte
máximo y la determinación de los estados base de los vidrios de espín. Para esto
consideremos el modelo de Edwards-Anderson (EA) (ver sección 3.2) con valores
de Jij = ±1. El hamiltoniano del sistema es [58]:
H=−
!
<i,j>
Jij Si Sj − h
n
!
Si
(5.11)
i
Si identificamos a los espines del sistema con el conjunto de vértices V =
{1, 2, . . . , n} de un grafo G = (V, E). Dos nodos i y j están conectados por un
arco e ∈ E si el espín i y j están acoplados por la interacción Jij . Para incluir el
campo magnético externo h, se introduce un nuevo vértice que lo notamos con o
y el espín correspondiente a este vértice con So . El vértice 0 está conectado por
los arcos (o, i) para todo espín i ∈ V y si fijamos Joi = h. Una configuración w del
sistema tiene una energía igual a:
59
H(w) = −
!
(5.12)
Jij Si Sj
(ij)∈E0
donde Eo es el conjunto de arcos del grafo Go = (Vo , Eo ). El conjunto de vértices V
puede ser dividido en dos conjuntos V0+ y V0− , donde Vo+ = {i ∈ Vo : Si = +1} y
Vo− = {i ∈ Vo : Si = −1}. Se reescribe la ecuación (5.12)
H(w) = 2
!
ij∈δ(V + )
Jij −
!
Jij
(5.13)
(ij)∈Eo
Por lo tanto, el hamiltoniano del sistema está en función del corte de un grafo y
ahora puede ser tratado como un problema de corte máximo.
Capítulo 6
Análisis de Resultados
En los capítulos anteriores se ha visto que existen dos enfoques teóricos para
describir los vidrios de espín: La teoría de campo medio en la solución de Parisi
[33] y la teoría de “droplets” [61]. Recientemente, a causa de las evidencias experimentales y extrapolaciones numéricas se ha presentado un nuevo modelo conocido
como TNT “trivial no trivial”, este nuevo enfoque sugiere una imagen intermedia entre (RSB) y los “droples” por compartir resultados de ambas teorías [61].
Uno de los desafíos que presenta el estudio de los vidrios de espín en 2D y que
son objeto de estudio en este trabajo son: Primero, saber si existe una transición de
fase a una temperatura distinta de cero T (= 0. Esta idea se desarrollará a través del
cálculo de los estados base y los primeros estados excitados [43], procedimiento
muy conveniente para determinar si un sistema presenta una transición de un estado ordenado (temperaturas bajas) a un estado desordenado (temperaturas altas) a
una temperatura Tc > 0. El enfoque general (no necesariamente para los vidrios de
espín) que seguimos es el siguiente [44].
(o)
1. Calculamos el estado base {Si } y su energía E (o) .
2. se modifica algunas constantes de acoplamiento Ji de forma que el estado
base cambie.
(m)
3. Calculamos el estado base del sistema modificado {Si
} y su energía E (m)
Las formas mas conocidas de excitar los estados es mediante las paredes de dominio y los “droplets”. Las paredes de dominio (PD) se crean a través de las excitaciones que se producen mediante el cambio de las condiciones de frontera periódicas
60
61
y antiperiódicas, la diferencia de energía producida | ∆E |=| E (m) − E (o) | se conoce
como “stiffness” y está caracterizada por el exponente de “stiffness” θs que mediante
consideraciones teóricas tiene un comportamiento de la forma ∆E(L) ∝ Lθs [43].
Si θs > 0 se espera que el sistema presente una fase ordenada para T > 0,
mientras que si θs < 0 debería existir orden sólo a T = 0 y la longitud de correlación
ξ diverge para T → 0 como ξ ∼ T 1/θ . En la dimensión crítica, se tiene θ = 0 y se
espera una divergencia exponencial en la longitud de correlación [61].
Segundo, se buscará evidencia del paisajismo complejo de los estados base y
la distribución de estos en forma ultramétrica como lo predice la teoría de campo
medio en la solución de Parisi (sección 3.4). Para este propósito se utiliza el concepto de solapamiento (“overlap”) q αβ entre las réplicas {Siα }, {Siβ } y su distribución
P (q) promediada sobre el desorden [33].
q αβ =
1 ! α β
S S
N i i i
(6.1)
Sabemos que una estructura jerárquica ultramétrica está definida por las ecuaciones [51] (3.15) o (3.16). Desde el punto de vista geométrico los puntos de este
espacio forman solamente triángulos equiláteros e isósceles, es decir, al menos dos
“overlaps” deben ser iguales, así una forma equivalente de representar un espacio
ultramétrico en términos de los solapamientos de tres estados α, β, γ es:
q αγ ≤ q αβ ≤ q βγ
(6.2)
q αγ = q αβ
(6.3)
con
Las dos ecuaciones anteriores sirven para estudiar numéricamente la ultrametricidad del espacio [40]. Así tomaremos conjuntos de tres estados base y se
evalúa sus respectivos solapamientos ordenados según la ecuación (6.2), claramente no se puede verificar la relación (6.3), en su lugar calculamos la diferencia
δq = q αγ − q αβ bajo la restricción que el solapamiento más grande q βγ pertenezca
a un cierto intervalo I. Se debe cumplir la condición que q βγ ∈ I para hacer posible
el análisis numérico debido a la infinidad de valores que pueden tomar los respecti-
vos solapamientos, posteriormente determinamos la distribución P (δq) para varios
valores de L su comportamiento revelara si existe un orden ultramétrico [62].
62
El estudio de los vidrios de espín continua a través de cantidades como: la susceptibilidad para los vidrios de espín.
χ = N [&q 2 ']
(6.4)
donde los corchetes denotan el promedio sobre el desorden y los “brackets” el promedio termodinámico. Otra medida importante es el cumulant de Binder considerado como un parámetro de orden importante en el estudio de sistemas magnéticos.
&q 4 '
1
g = [3 − 2 2 ]
2
&q '
(6.5)
El comportamiento de estas dos cantidades para varios valores de L son determinantes a la hora de determinar la existencia de una transición de fase.
Finalmente, La energía de los estados base y todos los observable calculados
para sistemas pequeños serán extrapolados mediante la técnica llamada escalamiento de tamaño finito (“finite size scaling”) puesto que no es posible tratar numéricamente sistemas estadísticos. Las formas más conocidas de escalamiento son
[22]:
1
χ ∼ L2−η χ̃(L ν (T − Tc ))
(6.6)
para la susceptibilidad y
1
g ∼ g̃(L ν (T − Tc ))
(6.7)
para el cumulant de Binder, donde χ̃ y g̃ se llaman universales, η, ν son exponentes
críticos.
Modelo de Simulación
El modelo que se simula es el modelo de Edward-Anderson (EA) ±J, el cual
consiste de N espines cuyas variables toman sólo valores de Si = ±1. El hamil-
toniano que describe este modelo está dado por la ecuación (3.1) a campo nulo
h = 0, donde las variables de espín son colocadas aleatoriamente con probabilidad
(1/2) sobre los N = L ∗ L sitios de una red cuadrada de longitud L y las varibles
Jij = ±1 son “quenched”, al sistema se le impone condiciones de frontera periódi-
cas y antiperiódicas [63]. Figura (6.1).
63
Ferro
Antiferro
espin arriba
espin abajo
Figura 6.1: Red cuadrada de tamaño L = 5
Resultados obtenidos
Para la primera parte de la simulación utilizaremos los siguientes valores de L
L = 5, 10, 15, 20, 24, 30, 35, 40, 45, 50, para cada valor se ensayaron 50 corridas, que
dan un promedio de 10.000 estados base calculados.
Los resultados se presentan en la Figura (6.2). Mientras se incrementa el tamaño del sistema la energía decrece monótonamente, entonces de acuerdo con
la literatura [44] podemos intentar un ajuste de curvas mediante una función de la
forma Eo (L) = Eo (∞) + aL−b . Ahora podemos estimar el valor de la energía cuando L → ∞, que resulta en Eo (∞) = −1,39232 ± 0,00678. También se acostumbra
probar con una función exponencial de la forma Eo (L) = Eoe (∞) + a exp(bL) [58],
mediante esta función obtenemos Eoe (∞) = −1,39079 ± 0,00637. Se ejecutó el al-
goritmo mediante el método de ramificación y corte para los mismos valores de L.
Tenemos valores de Eo (∞) = −1,40112 ± 0,00538 y Eoe (∞) = −1,40351 ± 0,00541.
Estos valores son consistentes mediante otros procedimientos, a saber: método de
cluster Eo (∞) = −1,400 ± 0,005 [63], Eoe (∞) = −1,4015 ± 0,0008 [58].
Posteriormente calculamos la energía ∆ de las paredes de dominio imponien-
do las condiciones de frontera anti-periódicas1 . Estas restricciones a la frontera se
1
No son las únicas condiciones que podemos tomar, pero si las más frecuentes
64
-1.35
-1.36
E_o(por espin)
-1.37
"energia_b.dat"
f(x)
-1.38
-1.39
-1.4
-1.41
0
10
20
30
40
50
L
Figura 6.2: Energía de los estados base Eo en función de L. La curva de ajuste f (x)
es Eo (L) = E∞ + aLb donde Eo (∞) = −1,4015
mantienen únicamente en una dirección, tomemos la dirección x, mientras que condiciones libres o la frontera abierta dejamos en la dirección y.
Siguiendo con el análisis del exponente de “stiffness”, el signo positivo de θs
es interpretado como una señal de que existe una fase (fase de vidrio de espín) a
una temperatura distinta de cero. Los resultados se muestran en la Figura (6.3). La
estimación del exponente θ se logra mediante un ajuste de curvas para los datos
resultando en un valor de θs = −0,0421293 ± 0,002341. Otros resultados se citan en
[62] de θs =−0,056(6) y de θs =−0,25 en [64].
Para la segunda parte de la simulación usamos los valores descritos en la
Tabla(6), los valores de temperatura bajos y valores de N > 20 hacen que se dificulte alcanzar el equilibrio del sistema, para superar este inconveniente al inicio de
cada corrida se descartan varios pasos de Monte Carlo y solo después se guardan
los datos obtenidos para su tratamiento.
Para la existencia de una transición de fase debería existir un valor fijo de g a una
temperatura T para todas las curvas de la Figura (6.4), es decir, todas las curvas
deberían cortarse en un sólo punto [44]. Sin embargo esto no sucede, el punto de
65
3
"dominio.dat" using 1:2
f(x)
Delta_E
2.5
2
1.5
1
10
20
30
40
50
L
Figura 6.3: “Stiffness” ∆E en función de L. La curva de ajuste f (x) es ∆E = aLθs
donde θs = −0,0421293
L
Nensayos
Npmct
Npmcd
12
300
1,5E4
5E4
25
300
1,5E5
5E4
50
200
1,2E4
3E4
100
100
1E4
3E4
Cuadro 6.1: Parámetros de la simulación en 2D. Nensayos es el número de muestra (promedio sobre el desorden), Npmct es el número de pasos de Monte Carlo en total, Npmcd es
el número de pasos de Monte Carlo descartados
66
1
0.8
g
0.6
L = 10
L = 20
L = 50
L = 100
0.4
0.2
0
0
1
2
3
4
5
6
7
8
1/T
Figura 6.4: Cumulant de Binder g en función de β para diferentes tamaños de L
corte toma valores cada vez mayores con el aumento de L. Esto es un indicio de
que no existe una temperatura finita de transición T (= 0. Los resultados para la
susceptibilidad dada por la ecuación (6.4) se presentan en la Figura (6.5).
Las figuras (6.6) y (6.7) son el resultado de aplicar el escalamiento de tamaño
finito a las ecuaciones (6.6) y (6.7) respectivamente, el colapso más óptimo de las
curvas dan los siguientes valores en los exponentes críticos η = 0,28 y ν = 0,735.
con Tc = 0
La distribución del “overlap"se muestra en la figura (6.8). La distribución se
muestra sólo para dos valores de L y promediado sobre el desorden donde los
pesos son independientes del número de estados base.
La figura (6.10) presenta una simulación gráfica del modelo de vidrios de espín
en 2D. Se ilustra como los espines estaría interactuando unos con otros a una
determinada temperatura T .
67
10000
chi
1000
100
L = 10
L = 20
L = 50
L = 100
10
1
0
1
2
3
4
1/T
5
6
7
8
Figura 6.5: La susceptibilidad χ en función de β para diferentes tamaños de L
1
Finite size scaling: g
L = 10
L = 20
L = 50
L = 100
0.8
g
0.6
0.4
0.2
0
0
1
2
3
4
(T-T_c)L^1/nu
Figura 6.6: Ley de escalamiento de g en función de T L0,3604
5
68
10
Finite size scaling: Chi
L = 10
L = 20
L = 50
L = 100
Chi.L^(eta-2)
1
0.1
0.01
0
1
2
3
4
5
(T-T_c)L^1/nu
Figura 6.7: Ley de escalamiento de chi en función de T L0,3604
3
2.5
L = 10
L = 50
P(q)
2
1.5
1
0.5
0
0
0.2
0.4
0.6
0.8
q
Figura 6.8: Distribución de P (q) en función de q
1
69
5
P(dq)
4
L = 10
L = 20
L = 30
3
2
1
0
0
0.1
0.2
0.3
0.4
0.5
dq
Figura 6.9: Distribución P (δq) en función de dq para diferentes tamaños
Figura 6.10: Modelo de vidrios de espín en 2D a una tempertura T = 1,5
Capítulo 7
Conclusiones
En este trabajo se calculó un número grande de estados base para el modelo
de vidrios de espín tipo Ising en 2D sobre una red cuadrada a primeros vecinos y
condiciones de frontera periódicas. Cálculos anteriores y simulaciones más sofisticadas mediante algoritmos exactos coinciden con los resultados obtenidos aquí por
lo que se considera haber encontrado los estados base. La energía de los estados
base para un sistema infinito se estimó en Eo (∞) = −1,401512 ± 0,00531.
La teoría (RSB) predice un comportamiento complejo en el paisajismo de la
energía [61], que resulta en una función de distribución P (q) dotada de una región ancha casi constante para todos los valores de solapamiento entre los estados
base, excepto en q( max) donde P (q) es una delta de Dirac. De la figura (6.8) se encontró un comportamiento complejo de los estados base, pero no existe evidencias
claras que la meseta de P (q) se mantenga significativa para sistema con L grandes
y más aun para L → ∞.
Mediante la gráfica (6.9) se puede observar que las curvas coinciden para los
diferentes tamaños de la red, es decir, la distribución P (dq) es independiente del
tamaño L del sistema. Esto indica que no existe una estructura ultramétrica de los
estados base, pues para que exista dicha estructura P (dq) debería semejarse a una
función delta a medida que L crece como lo dice la teoría (RSB) [61].
Magnitudes como el “stiffness” ∆E y el exponente “stiffness” son dos valores
importantes para determinar la existencia de una transición de fase. Estas dos
cantidades se determinan a través del cálculo de los estados base y los primeros estados excitados estos últimos mediante la generación de paredes de domi70
71
nio imponiendo diferentes condiciones de frontera. Para el sistema infinito se hallo
θs = −0,0421293±0,002341 el valor negativo de θs indica que no existe una transición
de fase a una temperatura T (= 0, y sugiere que sólo existe transición a Tc = 0 quizá
con una dimensión crítica de dc > 2.
Otro enfoque para determinar la existencia de una transición de fase es a través
de la susceptibilidad χ y el “cumulant” de Binder g. De las figuras (6.4) y (6.5) se
puede observar que no existe un punto de corte único de las curvas para los diferentes valores de L, más bien ciertas intersecciones aumentan conforme L crece,
esto es un claro indicio de que no existe una temperatura T (= 0 de transición.
Aplicando la técnica de escalamiento finito a los datos obtenidos y conforme a
las ecuaciones que la rigen, no se tiene un buen colapso (solapamiento) de las
curvas, aun cuando se ha ensayado un número grande de parámetros, esto hace
pensar que las ecuaciones (6.6) y (6.7) no corresponden a la realidad del modelo.
Los mejores valores de los parámetros que se tiene son η = 0,28 y ν = 0,735.
En el futuro se podría implementar una un algoritmo exacto que permita determinar con claridad el equilibrio del sistema antes de proceder a la recopilación de
datos. En el algoritmo principal también sería conveniente ensayar diferentes alternativas al algoritmo de baño caliente o de Metropolis.
Un paso importante sería extender el estudio de los vidrios de espín a tres dimensiones, para esto se debería contar con un conjunto de CPU conectados paralelamente e implementar la programación en paralelo. Los desafíos son grandes
pues fácilmente se extendería el estudio a más dimensiones que resultarían en aplicaciones de uso práctico, a saber : procesamiento de la información, restauración
de imágenes, etc.
Apéndice A
Código Fuente algoritmo RMC
! ===============================================
Program v i d _ e s p i n
! ===============================================
! ∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗
! Escuela P o l i t e c n i c a N a c i o n a l
! Departamento de F i s i c a
! Diego De La T o r r e
! Quito , 2009
!
!−−−− DESCRIPCION −−−−−−−
! S i m u l a c i o n en 2D para v i d r i o s de e s p i n
! con i n t e r a c c i o n e s quenched (+/ − J ) a campo
! magnetico n u l o y v e c i n o s proximos :
! H a m i l t o n i a n o = −suma ( i , j ) ∗ J _ i j ∗ S_i ∗ S_j .
!−−−− ALGORITMO −−−−−−−−−
! A l g o r i t m o de m e t r o p o l i s , e s c r i t o en codigo
! m u l t i −e s p i n para un c o n j u n t o de ocho r e p l i c a s .
!
!−−−− PARAMETROS −−−−−−−−−
! _ Tamanio de l a red ( Lmax<100)
! _ S e m i l l a ( gna )
72
73
! _ Condiciones de i n i c i o de l o s espines
!
(0= rden /?= a l e a t )
! _ Ocho v a l o r e s de t e m p e r a t u r a : ( Temp )
! _ Pasos monte c a r l o ( e q u i l i b r i o )
! _ Pasos monte c a r l o ( promedio )
! _ Pasos c l u s t e r
! _ I n t e r v a l o datos
!
!−−−− RESULTADOS −−−−−−−−
! _ Energia estados base
! _ S u s c e p t i b i l i d a d magnetica
! _ Cumulant de B i n d e r
! _ Overlap
! _ Estadistica ( Distribuciones )
!
! ∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗
use mis_datos
use a l g o r i t m o s
use e s t a d i s t i c a
use gna
use s a l i d a
i m p l i c i t none
integer
:: i , j
call inicio
c a l l a c t _ d a t o s ( N1 , N2 )
do i =1 , pmc_equi
c a l l RMC( N1 )
c a l l RMC( N2 )
end do
74
do i =1 ,pmc_prom
do j =1 , pmc_clus
c a l l RMC( N1 )
c a l l RMC( N2 )
end do
c a l l e n e r g i a _ t o t a l ( N1 , E1 )
c a l l e n e r g i a _ t o t a l ( N2 , E2 )
c a l l m a g n e t i _ t o t a l ( N1 , N2 , OP1, OP2,OPN)
c a l l c o r r e l a _ t o t a l (OPN, E1 , E2 , OP1, OP2)
end do
call estadistica
call salida
end Program v i d _ e s p i n
! ===============================================
! 12345678912345678912345678912345678912345678912
! ===============================================
!−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
MODULE mis_datos
!−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
! −−−− CONTENIDO −−−−−
! ( 1 ) D e f i n i c i o n de c o n s t a n t e s .
! ( 2 ) D e f i n i c i o n de v a r i a b l e s Globales .
! ( 3 ) Subroutine i n i c i o :
!
Acepta l o s v a l o r e s d e f i n i d o s por e l
!
u s u a r i o : Tamanio ( L ) , Temperatura ( Temp ) , e t c .
! ( 4 ) S u b r o u t i n e a c t _ d a t o s ( N1 , N2 ) :
!
I n i c i a l i z a l a s v a r i a b l e : espin , c o n s t a n t e s
!
de acoplamiento , p r o b a b i l i d a d e s de
!
transicion , etc .
!−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
IMPLICIT NONE
75
!−−−−−−−−−−−−−−− Parameter ( c o n s t a n t e s )
INTEGER , PARAMETER : : Lmax=100 ! Tamanio max red
INTEGER , PARAMETER : : r e p l i c a s =8 !
Num de r e p l
INTEGER , PARAMETER : : tiempo =16
INTEGER , PARAMETER : : numero=8
INTEGER , PARAMETER : : t o t a l _ r = r e p l i c a s ∗(1+64)
INTEGER , PARAMETER : : t o t a l _ n = r e p l i c a s ∗numero
INTEGER , PARAMETER : : t o t a l _ t = t o t a l _ n ∗ tiempo
!−−−−−−−−−−−−−−− V a r a i a b l e s Globales
REAL( KIND=8) : : Periodo ( r e p l i c a s , 0 : 6 4 )
REAL( KIND=8) : : Orden ( r e p l i c a s , numero )
REAL( KIND=8) : : F u l l ( r e p l i c a s , tiempo : numero )
REAL( KIND=8) : : B u f f e r ( r e p l i c a s , tiempo : numero )
REAL( KIND=8) : : Temp ( r e p l i c a s )
REAL( KIND=8) : : probab ( r e p l i c a s , 0 : 4 )
INTEGER ( KIND=4) : : c o n v e r s i o n ( −1:1)
INTEGER ( KIND=4) : : rango ( 0 : 1 ) ! red de v a l o r e s
INTEGER ( KIND=4) : : N1 ( Lmax , Lmax ) ! red de e s p i
INTEGER ( KIND=4) : : N2 ( Lmax , Lmax ) ! red de e s p i
INTEGER ( KIND=4) : : Jx ( Lmax , Lmax ) ! Cons acopla x
INTEGER ( KIND=4) : : Jy ( Lmax , Lmax ) ! Cons acopla y
INTEGER ( KIND=4) : : L , Dimen , s e m i l l a , s e m i l l a _ i
INTEGER ( KIND=4) : : i n i c i o _ e s , pmc_equi
INTEGER ( KIND=4) : : pmc_prom , pmc_clus , i n t v _ p r o m
!−−−−−−−−−−−−−−−
DATA
Data
Buffer / t o t a l _ t ∗0.0/
76
DATA
DATA
DATA
DATA
DATA
Full / t o t a l _ t ∗0.0/
Orden / t o t a l _ n ∗ 0 . 0 /
Periodo / t o t a l _ r ∗ 0 . 0 /
convversion / 1 , 0 , 0 /
rango /+1 , −1/
CONTAINS
! ===============================================
SUBROUTINE i n i c i o
! ===============================================
IMPLICIT NONE
INTEGER : : unidad =5
INTEGER : :
i
WRITE ( ∗ , ∗ )
’INGRESE TAMANIO DE RED Lmax=100 ’
WRITE ( ∗ , ∗ )
’INGRESE SEMILLA (GNA) ’
READ( unidad , ∗ ) L
READ( unidad , ∗ ) s e m i l l a _ i
semilla = semilla_i
WRITE ( ∗ , ∗ )
’INGRESE : 0= ORDEN u ? = ALEATO ’
WRITE ( ∗ , ∗ )
’INGRESE : 8 VALORES TEMPERATURA’
WRITE ( ∗ , ∗ )
’INGRESE PASOS MC ( e q u i l ) ’
WRITE ( ∗ , ∗ )
’INGRESE PASOS MC ( promedio ) ’
WRITE ( ∗ , ∗ )
’INGRESE PASOS DINAMICA CLUSTER’
WRITE ( ∗ , ∗ )
’INGRESE NUM. DATOS ( promedio ) ’
READ( unidad , ∗ ) i n i c i o _ e s
READ( unidad , ∗ ) ( Temp ( i ) , i =1 , r e p l i c a s )
READ ( unidad , ∗ ) pmc_equi
READ ( unidad , ∗ ) pmc_prom
READ ( unidad , ∗ ) pmc_clus
READ ( unidad , ∗ ) i n t v _ p r o m
END SUBROUTINE i n i c i o
77
! ===============================================
SUBROUTINE a c t _ d a t o s ( N1 , N2 )
! ===============================================
IMPLICIT NONE
INTEGER : : i r e p l , i , j
dimen =L∗L
Lmin=L−1
MASK ( 1 ) = 7
JBITS ( 1 ) = 1
I1HEX
=1
DO i r e p l =2 , r e p l i c a s
MASK ( i r e p l )= ISHFT (MASK ( i r e p l −1) ,4)
JBITS ( i r e p l )= ISHFT ( JBITS ( i r e p l −1) ,4)
I1HEX=I1HEX+JBITS ( i r e p l )
END DO
! Constantes de acoplamiento
MODEL1=I1HEX
BONDPR=0.0
PROBJ =0.5
DO j =1 ,L
DO i =1 ,L
I F ( ran1 ( ) . LT . PROBJ) THEN
Jx ( i , j )=0
ELSE
Jx ( i , j )=MODEL1
ENDIF
I F ( Jx ( i , j ) . EQ. 0 ) BONDPR=BONDPR+1.0
I F ( ran1 ( ) . LT . PROBJ) THEN
Jy ( i , j )=0
78
ELSE
Jy ( i , j )=MODEL1
ENDIF
I F ( Jy ( i , j ) . EQ. 0 ) BONDPR=BONDPR+1.0
END DO
END DO
BONDPR=0.5∗BONDPR/ dimen
! F i j a espines en l a red y te m p e r a t u r a
semilla=semilla+inicio_es
DO j =1 ,L
DO i =1 ,L
N1 ( i , j )=0
N2 ( i , j )=0
I F ( i n i c i o _ e s . eq . 0 ) GOTO 20
DO i r e p l =1 , r e p l i c a s
I F ( ran1 ( ) . l t . 0 . 5 ) N1 ( i , j )=N1 ( i , j )+ &
& JBITS ( i r e p l )
I F ( ran1 ( ) . l t . 0 . 5 ) N2 ( i , j )=N2 ( i , j )+ &
& JBITS ( i r e p l )
END DO
END DO
END DO
! Magnitud c o n s t a n t e s de acoplam ( K=1/T ) Y
! P r o b a b i l i d a d de f l i p ( e s p i n up y down )
20 DO i r e p l =1 , r e p l i c a s
BETA( i r e p l ) = 1 . 0 / T ( i r e p l )
DO j =0 ,4
EXPDEL=EXP( (4.0 −2.0∗ j ) ∗BETA( i r e p l ) )
PROB( i r e p l , j ) = 1 . 0 / ( 1 . 0 +EXPDEL∗EXPDEL)
79
END DO
END DO
DO i r e p l =2 , r e p l i c a s
DELTK( i r e p l )=BETA( i r e p l )−BETA( i r e p l −1)
END DO
END SUBROUTINE a c t _ d a t o s
END MODULE mis_datos
! ===============================================
! 12345678912345678912345678912345678912345678912
! ===============================================
!−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
MODULE a l g o r i t m o
!−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
! −−−− CONTENIDO −−−−−
! A l g o r i t m o de r e p l i c a s de MC (RMC)
!−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
IMPLICIT NONE
CONTAINS
! ===============================================
SUBROUTINE RMC(N)
! ===============================================
INTEGER ( KIND=4) i , j , k , l ,m, n
INTEGER espin , e s p i n b i t
i =Lmin
j =L
DO k =1 ,L
l =minimoL
m=L
DO n=1 ,L
i n d i c e =IEOR ( N( n , j ) , Jx (m, j ) ) + &
&
IEOR ( N(m, k ) , Jy (m, j ) ) + &
&
IEOR ( N( l , j ) , Jx ( l , j ) ) + &
80
&
IEOR ( N(m, i ) , Jy (m, i ) )
espin
= 0
bitespin= 0
DO o=1 , r e p l i c a s
d i g i t o = IAND ( INDEX , mask ( o ) )
d i g i t o = ISHFT ( d i g i t o , b i t e s p i n )
I F ( ran1 ( ) . LT .PROB( IREP , IDIGIT ) ) &
& I F L I P = I F L I P +JBITS ( IREP )
e s p i n b i t = e s p i n b i t −4
END DO
N(m, j ) = e s p i n
l =m
m=n
END DO
i=j
j =k
END DO
END SUBROUTINE RMC
END MODULE a l g o r i t m o
! ===============================================
! 12345678912345678912345678912345678912345678912
! ===============================================
!−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
MODULE e s t a d i s t i c a
!−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
IMPLICIT NONE
CONTAINS
! ===============================================
SUBROUTINE e n e r g i a _ t o t a l (N, E )
! ===============================================
DO i r e p l =1 , r e p l i c a s
IE ( i r e p l )=0
81
END DO
J=L
DO JP=1 ,L
I =L
DO IP =1 ,L
N0=N( I , J )
NNI=IEOR ( N0
, N
( IP , J ) )
NNJ=IEOR ( N0
, N
( I , JP ) )
IEN=IEOR ( NNI , Jx ( I , J
&
+IEOR ( NNJ , JY ( I , J
) )
) )
ISHBIT=0
DO i r e p l =1 , r e p l i c a s
IBITS=IAND ( IEN , MASK( i r e p l ) )
IE ( i r e p l )= IE ( i r e p l )+ ISHFT ( IBITS , ISHBIT )
ISHBIT=ISHBIT−4
END DO
I =IP
END DO
J=JP
END DO
DO i r e p l =1 , r e p l i c a s
E ( i r e p l )= IE ( i r e p l )
END DO
END SUBROUTINE e n e r g i a _ t o t a l
! ===============================================
SUBROUTINE m a g n e t i _ t o t a l ( N1 , N2 ,ORD1,ORD2,ORD)
! ===============================================
82
DO i r e p l =1 , r e p l i c a s
LORDR1( i r e p l )=0
LORDR2( i r e p l )=0
NORDER( i r e p l )=0
END DO
DO J =1 ,L
DO I =1 ,L
N10=N1 ( I , J )
N20=N2 ( I , J )
ISHBIT=0
DO 30 i r e p l =1 , r e p l i c a s
N1PICK = IAND ( N10 , MASK( i r e p l ) )
N2PICK = IAND ( N20 , MASK( i r e p l ) )
N1PICK = ISHFT ( N1PICK , ISHBIT )
N2PICK = ISHFT ( N2PICK , ISHBIT )
ITPICK = IEOR ( N1PICK , M2PICK )
LORDR1( i r e p l ) = LORDR1( i r e p l )+N1PICK
LORDR2( i r e p l ) = LORDR2( i r e p l )+N2PICK
NORDER( i r e p l ) = NORDER( i r e p l )+ ITPICK
ISHBIT=ISHBIT−4
END DO
END DO
DO 40 i r e p l =1 , r e p l i c a s
ORDRL1( i r e p l ) = ABS(LORDR1( i r e p l )+ &
& LORDR1( i r e p l )−dimen )
ORDRL2( i r e p l ) = ABS(LORDR2( i r e p l )+ &
& LORDR2( i r e p l )−dimen )
IQ = IABS (NORDER( i r e p l )+NORDER( i r e p l )− &
& dimen )
83
I I Q =64∗IQ / FLOAT( dimen )
P( i r e p l , IIQ ) = P( i r e p l , IIQ )+1.0
ORDERN( i r e p l ) = IQ
END DO
END SUBROUTINE m a g n e t i _ t o t a l
END MODULE e s t a d i s t i c a
! ===============================================
! 12345678912345678912345678912345678912345678912
! ===============================================
MODULE s a l i d a
IMPLICIT NONE
! ===============================================
SUBROUTINE s a l _ d a t o s
! ===============================================
INTEGER , PARAMETER : : unidad =6
CHARACTER∗23 DATE
CHARACTER∗20 NFCHAR(NUMF)
REAL
SUSC( r e p l i c a s )
REAL
X1 ( r e p l i c a s ) ,
X2 ( r e p l i c a s )
NFCHAR( 1 ) = ’Q=S1∗S2 ’
NFCHAR( 2 ) = ’ ENERGIA 1 ’
NFCHAR( 3 ) = ’ ENERGIA 2 ’
NFCHAR( 4 ) = ’ MAGNETIZACION 1 ’
NFCHAR( 5 ) = ’ MAGNETIZACION 2 ’
NFCHAR( 6 ) = ’MOMENT CON. PART’
NFCHAR( 7 ) = ’NUMERO CLUSTER’
NFCHAR( 8 ) = ’PROMEDIO PMC’
84
OPEN( 1 0 , FILE= " datos . d " ,FORM= "FORMATTED" ,&
& STATUS= "UNKNOWN" )
WRITE( 1 0 , ∗ ) ’ SIMULATION DE MONTE CARLO VIDRIOS &
& DE ESPIN EN 2D ’
WRITE( 1 0 , ∗ ) ’ALGORITMO DE RMC’
WRITE( 1 0 , 1 0 0 ) L , pmc_equi , pmc_prom , i n i c i o _ e s
100 FORMAT( 1X , ’
L = ’ , I4 , ’
& pmc_prom = ’ , I8 , ’
pmc_prom = ’ , I8 , ’ &
inicio_es = ’ , I4 )
WRITE( 1 0 , 1 1 0 )BONDPR
110 FORMAT( 1X , ’
+ ENLACES ACTU. = ’ , F7 . 5 )
WRITE( 1 0 , 1 2 0 ) ISEED0 , INITEMP
120 FORMAT( 1X , ’ SEMILLA NUN. ALE= ’ , I10 , ’
&
& TEMPERATURA INICIAL = ’ , I 4 )
WRITE( 1 0 , 1 3 0 )INTERV
130 FORMAT( 1X , ’ ITERVALO DE DATOS= ’ , I 4 )
WRITE( 1 0 , ∗ )
OPEN( 1 0 , FILE= " datos . d " ,FORM= "FORMATTED" ,&
& STATUS= "UNKNOWN" )
WRITE ( 1 0 , ∗ ) ’ REPLICA
&
T
’
N2
TAU
E1 ’ ,
N1
N2 ’
DO i r e p l =1 , r e p l i c a s
WRITE( 1 0 , 1 5 0 ) i r e p l , T ( i r e p l ) , (O( i r e p l , NF) , &
& NF=1 ,5)
WRITE ( 1 0 , ∗ ) ’ REPLICA
&
’
T∗T∗C2
T
T∗XN
T∗<M∗M>N
T∗T∗C1 ’ ,
T∗X2 ’
END DO
DO i r e p l =1 , r e p l i c a s
WRITE( 1 0 , 1 4 0 ) i r e p l , T ( i r e p l ) , ( F ( i r e p l , 1 ,NF ) ,
&
NF= 1 , 3 ) , X1 ( i r e p l ) , X2 ( i r e p l )
85
140 FORMAT( 1X , I4 , 6 F12 . 5 )
WRITE ( 1 0 , ∗ ) ’ REPLICA
&
’
&
’
K
N<Q2>
N∗T<DM∗DM> ’ ,
(3−<Q4>/ <Q2> ∗ ∗ 2 ) / 2 ’ ,
<NC>
AC. RATE’
DO IREP=1 , r e p l i c a s
WRITE( 1 0 , 1 4 0 ) IREP , BETA( IREP ) ,
&
SUSC( IREP ) , F ( IREP , 1 , 4 ) , (O( IREP , NF ) , NF=6 ,8)
WRITE ( 1 0 , ∗ ) ’ FUNC TIEMPO DE CORRELACION F ( T ) ’
DO NF=1 ,5
WRITE( 1 0 , ∗ )NF , ’
ES ’ ,NFCHAR(NF)
END DO
WRITE( 1 0 , 1 6 0 ) ( T ( IREP ) , IREP=1 , r e p l i c a s )
DO I T =1 , ITIME
WRITE( 1 0 , 1 7 0 ) ( IT −1)∗INTERV,&
&
( F ( IREP , IT , NF ) , IREP=1 , r e p l i c a s )
WRITE( 1 0 , ∗ )
150 FORMAT( 1X , ’ T / T ’ , 8 F9 . 5 )
160 FORMAT( 1X , I3 , 8 F9 . 5 )
END DO
WRITE( 1 0 , ∗ )
WRITE ( 1 0 , ∗ ) ’ DISTRIBUCION DEL PARAMETRO TAU ’
WRITE ( 1 0 , ∗ ) ’ Q
&
’
1
2
3
6
4
7
DO 61 J =0 ,64
WRITE( 1 0 , 1 7 0 ) J / 6 4 . 0 , ( P ( IREP , J ) , &
&
i r e p l =1 , r e p l i c a s )
END DO
170 FORMAT( 1X , F7 . 5 , 8 F8 . 5 )
CLOSE( 1 0 )
END SUBROUTINE s a l i d a
5’,
8’
86
END MODULE s a l i d a
! ===============================================
! 12345678912345678912345678912345678912345678912
! ===============================================
!−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
MODULE gna
!−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
! −−−− AUTOR −−−−−
! W i l l i a m H . Press
! Numerical Recipes i n F o r t r a n 77
! R u t i n a para l a generacion de numeros
! a l e a t o r i o s ( gna ) [ 0 , 1 ] .
! .
!−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−
! ===============================================
FUNCTION ran1 ( idum )
! ===============================================
!−−−−−−− d e g l a r a c i o n de v a r i a b l e s
INTEGER idum , IA , IM , IQ , IR , NTAB, NDIV
REAL ran1 ,AM, EPS,RNMX
PARAMETER ( IA =16807 ,IM=2147483647 , &
& AM= 1 . / IM , IQ =127773 , IR =2836 ,
NTAB=32 ,NDIV=1+(IM −1)/NTAB, &
& EPS=1.2e−7,RNMX=1.−EPS)
INTEGER j , k , i v (NTAB) , i y
SAVE i v , i y
DATA i v / NTAB∗ 0 / , i y / 0 /
i f ( idum . l e . 0 . o r . i y . eq . 0 ) then I n i t i a l i z e .
87
idum=max(−idum , 1 )
do 11 j =NTAB+8 ,1 , −1
k=idum / IQ
idum=IA ∗ ( idum−k ∗IQ)−IR ∗ k
i f ( idum . l t . 0 ) idum=idum+IM
i f ( j . l e . NTAB) i v ( j )= idum
enddo 11
iy=iv (1)
endif
k=idum / IQ
idum=IA ∗ ( idum−k ∗IQ)−IR ∗ k
i f ( idum . l t . 0 ) idum=idum+IM
j =1+ i y / NDIV
iy=iv ( j )
i v ( j )= idum
ran1=min (AM∗ i y ,RNMX)
return
END FUNCTION ran1 ( idum )
END MODULE gna
Bibliografía
[1] J. Guemez. Aplicaciones de Termodinámica Transiciones de fase. Departamento de Física Aplicada, Universidad de Cantabria, 2003.
[2] Julio Gratton. Termodinámica Introducción a la Mecánica Estadística. Departamento de Física, Buenos Aires, 2003.
[3] Igor Herbut. A Modern Approach to Critical Phenomena. Cambridge University
Press, New York, 2007.
[4] H. E. Stanley. Introduction to Phase Transitions and Critical Phenomena. Clarendon Press, Oxford, 1971.
[5] Pfeuty P. and Toulouse G. Introduction to the renormalization group and critical
phenomen. John Wiley and Sons, 1977.
[6] Shang keng Ma. Modern Theory of Critical Phenomena. Westview Press,
2000.
[7] Teunis C Dorlas. Statistical Mechanics Fundamentals and Model Solutions .
Institute of Physics Publishing, Bristol, 1999.
[8] R. K. Pathria. Statistical Mechanics. Butterworth Heinemann, New York, second edition, 1996.
[9] N. Goldenfeld. Lectures on Phase Transitions and The Renormalization Group.
Perseus Books, Illinois, 1992.
[10] Daniel C. Mattis. Statistical Mechanics Made Simple a Guide for Students and
Researchers. World Scientific Publishing Co. Pte. Ltd., 2003.
88
89
[11] A. Timoreva S. Frish. Curso de Fisica General II. Mir, Moscu, 1968.
[12] Shang keng Ma. Statistical Mechanics. World Scientific Publishing Co. Pte.
Ltd., Singapore, 1993.
[13] Stephen G. Brush. History of the Lenz-Ising Model. Reviews of Modern Physics, 39:883–893, 1967.
[14] L. Onsager. Crystal Statistics. I. A Two-Dimensional Model with an OrderDisorder Transition. Physical Review, 65:117–149, 1944.
[15] Walter Greiner and Ludwing Neise Horst Stocker. Thermodynamics and Statistical Mechanics. Springer-Verlag, Heidelberg, 1997.
[16] Ross. Kindermann and J. Laurie Snell. Markov Random Fields and Their Applications. American Mathematical Society, Rhode Island, 1980.
[17] P.R. Weiss. The Aplication of the Bethe-Peierls Method to Ferromagnetism.
Physical Review, 74:1493–1504, 1948.
[18] Anton Bovier. Statistical Mechanics of Disordered Systems, A Mathematical
Perspective. Cambridge University Press, New York, 2006.
[19] Kurt Binder and Walter Kob. Glassy materials and disordered solids. World
Scientific Publishing Co. Pte. Ltd., Singapore, 2005.
[20] Dotsenko V. Introduction to the Replica Theory of Disordered Statistical Systems. Cambridge University Press, New York, 2001.
[21] Anderson Philip W. Introduction Basic notions of condensed matter physics.
The Benjamin-Cummings Publishing, 1983.
[22] Anderson Philip W. A career in theoretical physics. Cambridge University
Press, 2004.
[23] Tommaso Castellani and Andrea Cavagna. Spin Glass Theory for Pedestrians.
cond-mat/0505032v1, 2005.
[24] G. Toulouse. Theory of the frustration effect in spin glasses: I. Communications
on Physics, 2:115–119, 1977.
90
[25] David Sherrington. Spin Glasses. Department of Physics, University of Oxford,
2000.
[26] J. J. Ruiz-Lorenzo. Vidrios de spin: Paradigma de los sistemas complejos.
Revista Española de Fisica, 11(1):22–26, 1997.
[27] Jonathan S. Yedidia. Quenched Disorder Understanding Glasses using Variational Principle and the Replica. Lectures delivered at the Santa Fe Summer
School, 15-19:1–74, 1992.
[28] E. Ugalde. De la mecánica estadística a la teoría ergódica. Revista Mexicana
de Física, 53:191–194, 2007.
[29] M. Mézard G. Parisi and A. Virasoro. Spin-Glass Theory and Beyond. World
Scientific, Singapore, 1987.
[30] V. Dotsenko. An Introduction to the Theory of Spin Glasses and Neural Networks. World Scientific, 1994.
[31] Hidetoshi Nishimori. Statistical Physics of Spin glasses and Information Processing An Introduction. Clarendon Press, Oxford, 2001.
[32] P. Bruno and C. Chappert. Ruderman-Kittel theory of oscillatory interlayer exchange coupling. Physical Review B, 46:261–270, 1992.
[33] K. Binder and A.P. Young. Spin glasses: experimental facts, theoretical concepts, and open questions. Reviews of Modern Physics, 58:801–976, 1986.
[34] K. H Fischer and J.A. Hertz. Spin Glasses. Cambridge University Press, Cambridge, 1991.
[35] Peter J. Ford. Spin Glass. Contemp Phys, 23:141–168, 1982.
[36] A.C.D. van Enter J.L. van Hemmen and J. Canisius. On a Classical Spin Glass
Model. Z. Phys. B- Condensed Matter, 50:311–336, 1983.
[37] S.F. Edwards and P.W. Anderson. Theory of spin glasses. Journal of Physics
F, 5:965–974, 1975.
91
[38] D. Sherrington and S. Kirkpatrick. Solvable Model of a Spin-Glass. Physical
Review Letters, 35:1792–1796, 1975.
[39] C.M. Bender and S.A. Orszag. Advanced Mathematical Methods for Scientist
and Engineers. McGraw-Hill International Editions, Singapore, 1978.
[40] G. Toulouse R. Rammal and M.A. Virasoro. Ultrametricity for physicist. Rev.
Mod. Phys, 58:765, 1986.
[41] G. M. Grinstein Daniel S. Fisher and A. Khurana. Theory of random magnets.
Physics Today, December:56–67, 1988.
[42] K. Ribnikov. Analisis Combinatorio. Mir, Moscu, 1988.
[43] A.K. Hartmann and H. Rieger. Optimization Algorithms in Physics. Wiley-Vch,
Berlin, 2002.
[44] A.K. Hartmann and H. Rieger. New Optimization Algorithms in Physics. WileyVch, Berlin, 2004.
[45] Yukito Iba. Extended Ensemble Monte Carlo. cond-mat/0012323v2, 2001.
[46] Frenkel Daan. Understanding Molecular Simulation. Cambridge University
Press, Cambridge, 1996.
[47] G. Parisi E. Marinari and J.J. Ruiz-Lorenzo. Numerical Simulations of Spin
Glass Systems. cond-mat/9701016v1, 1997.
[48] David J. Earl and Michael W. Deem. Parallel tempering: Theory, applications,
and new perspectives. J. Chem. Phys., 7:3910–3916, 2005.
[49] K. Hukushima and K.Ñemoto. Exchange Monte Carlo Method and Application
to Spin Glass Simulations. J. Phys. Soc Japan, 65:1604, 1996.
[50] Enzo Marinari. Optimized Monte Carlo Methods. cond-mat/9612010v1, 1996.
[51] Paul Coddington. A Comparison of Annealing Techniques for Academic Course
Scheduling. Northeast Parallel Architectures Center, DHPC-045, 1998.
92
[52] Jyh Shing. Neuro fuzzy and soft computing a computational approach. Cambridge University Press, Cambridge, 1996.
[53] Bernd A. Berg. Multicanonical Simulations Step by Step. cond-mat/0206333v2,
2002.
[54] Jian-Sheng Wang and Robert H. Swendsen. Replica Monte Carlo Simulations
(Revisited). cond-mat/0407273v1, 2004.
[55] T. Berg B. A., Celik. New Approach to Spin Glass Simulations. Phys. Rev. Lett,
69:2292, 1992.
[56] Rehberg P. Keler, W. Simulated Tempering Approach to Spin Glass Simulations. cond-mat/9402049, 1994.
[57] Oliver C. Martin. Probing Spin Glass with Heuristic Optimization Algoritms.
cond-mat/0408556v1, 2004.
[58] et al C. de Simone. Exact Ground States of Two-Dimensional +-J Ising Spin
Glasses. Journal of Statistical Physics, 84:1363–1371, 1996.
[59] Dieter W. Heermann. Computer Simulation Methods in Theoretical Physics.
Springer-Verlag, Heidelberg, 1990.
[60] William H. Press. Numerical Recipes in Fortran 77. Cambridge University
Press, Cambridge, 1996.
[61] N. Kawashima and H. Rieger. Recent Progress in Spin Glassses. arXiv:, condmat/0312432v2:1–106, 2004.
[62] N. Kawashima and H. Rieger. FiniteSize Scaling Analysis of Exact Ground
States for J Spin Glass Models in 2D. Europhy lett, 39:85–90, 1997.
[63] Alexander K. Hartmann. Cluster-Exact Approximation of Spin Glass Groundstates. Physica A, 224:480, 1996.
[64] M. Cieplak and J.R. Banavar. Spin Glasses. Journal Physics A, 23:4385, 1990.
Espintrónica y Nanotecnología

Espintrónica y Nanotecnología

Memoria RacetrackColaboración en la industriaMiniaturizaciónVelocidad y MemoriaFuncionamiento de disposistivosAplicacionesMecánica cuánticaMagneto-electrónica

Espintrónica

Espintrónica

ElectrónicaTipos de materialesEspín del electrónMagnetoelectrónicaMagnetorresistencia giganteAlmacenamiento

Spintrónica

Spintrónica

InformáticaMagnitudElectrónicaSpinMagnetismoArthur EpsteinDisco duroElectrones polarizados