ESCUELA POLITECNICA NACIONAL FACULTAD DE CIENCIAS FISICA ESTADISTICA DE LOS VIDRIOS DE ESPIN Y OPTIMIZACION COMBINATORIA PROYECTO PREVIO A LA OBTENCION DEL TITULO DE FISICO DIEGO MAURICIO DE LA TORRE PAEZ [email protected] DIRECTOR: Dr. Leonardo Basile [email protected] Quito, septiembre del 2009 RESUMEN Los primeros vidrios de espín fueron aleaciones del tipo AuF e o CuM n, que presentaban el siguiente comportamiento: Los espines (dipolos magnéticos) de las impurezas (Fe,Mn) producen una polarización magnética en los electrones de conducción del metal (Au,Cu), la cual es ferromagnética para ciertas distancias y antiferromagnética para otras distancias. Esta polarización magnética produce el aparecimiento de campos magnéticos locales. Posteriormente los espines tratan de alinearse de acuerdo con el campo local. Puesto que las impurezas son colocadas en el metal de forma aleatoria, algunas interacciones serán ferromagnéticas y otras anti-ferromagnéticas. De esta manera surgen los ingredientes básicos de los vidrios de espín que son: la aleatoriedad de las posiciones de los espines (desorden) y la competencia entre las interacciones (frustración). Estos conceptos han sido desarrollados en el campo de los vidrios de espín por más de treinta años. De esta manera se destacan dos teorías que dan cuenta de sus propiedades de equilibrio: La teoría “replica-symmetry-breaking” (RSB), la cual es una solución del modelo de campo medio para los vidrios de espín, y la teoría de los “droplets” creada para ver si las características de modelos con alcance finito se mantenían en modelos con interacciones de corto alcance. La dicotomía entre estas dos teorías ha sido un tema de investigación por mucho tiempo, y es aquí donde las técnicas numéricas sirven para juzgar la validez de ellas. Esto es una muestra de que las relaciones entre la física y las ciencias de la computación van creciendo cada día más. Por ejemplo, se hará uso de las simulaciones de Monte Carlo y, en particular, de la simulación de réplicas, para encontrar los estados base de los vidrios de espín. Mediante otro enfoque se verá también cómo se puede transformar un problema de física estadística (encontrar el estado base de los vidrios de espín) a un problema de la optimización combinatoria, y 1 2 poder utilizar los algoritmos más aptos para encontrar una solución Puesto que las simulaciones para los vidrios de espín en dos dimensiones son más fáciles de realizar que para dimensiones superiores, este trabajo se centrara solo en simulaciones en 2D, que es donde existen algunos problemas no resueltos, que ameritan continuar con su estudio. Precisamente en una de esas interrogantes se ha de centrar la atención, a saber, la determinación de los estados base y la posibilidad de una transición a una temperatura diferente de cero. También se comprueba algunas consecuencia de la teoría RSB, que son entre otras: la complejidad en el paisajismo de la energía libre, y la organización ultramétrica de los estados base. Este problema se resolverá mediante la implementación de un algoritmo que halle los estados base del sistema en (2D) con condiciones de frontera periódicas, interacciones tipo ±J a campo nulo y a primeros vecinos. Posteriormente se calcula la energía ∆ de las paredes de dominio igual a ∆ = Ep − Ea , donde Ep es la energía mediante condiciones de frontera periódicas y Ea mediante condiciones antiperió- dicas. Finalmente se estima el exponente de “stiffness” θs que está estrechamente relacionado con ∆. En base al valor de θs y siguiendo los criterios de la literatura se determina si existe la posibilidad de una transición de fase. PRESENTACION En este trabajo se estudia el estado base de los vidrios de espín mediante los métodos tradicionales de la física estadística y mediante la optimización combinatoria. Este último se está expandiendo rápidamente en el estudio de estos sistemas y hoy por hoy atrae la atención de un número grande de científicos y en particular la de los físicos, puesto que ha resultado ser un método muy poderoso y eficaz cuando se combina con otras técnicas de investigación. Para esto se presenta el siguiente plan a seguir: El primer capítulo está dedicado a los conceptos básicos de los fenómenos críticos. Se ha introducido varias notas históricas de la forma en que se han desarrollado los acontecimientos, con el fin de entender la problemática que surgía con cada nuevo descubrimiento. En el Capítulo 2 se presentan las definiciones principales de los sistemas complejos, como es el caso de los vidrios de espín. También se presenta un nuevo método para realizar los promedios en los casos que se presenten imposibles de realizar de la manera tradicional se puede intentar por este método. En el Capítulo 3 se presenta los modelos (EA) y (SK) para los vidrios de espín, se presta mayor atención a este último por ser de mayor complejidad. En el Capítulo 4 se comienza con el estudio de la optimización combinatoria, un campo muy extenso que pertenece a la informática y a la investigación operativa. Este campo abarca un gran número de problemas, pero aquí nos referiremos sólo a aquellos en los que es necesario maximizar ó minimizar una función f (Sk ) llamada función objeto, que depende de un conjunto {S1 , S2 , . . . , Sm } de todas las posibles soluciones del problema que describe la función objeto. Para esto se utiliza el enfoque de la teoría de los grafos y poliedros. Principalmente se ve como se puede pasar un problema de la física estadística a un problema combinatorio. En particular 3 4 se estudia el problema de máximo corte sobre un grafo ponderado. En el Capítulo 5 se estudian los algoritmos necesarios para resolver el problema de los vidrios de espín desde dos puntos de vista diferentes. Mediante los métodos de Monte Carlo y el que pertenece a la optimización combinatoria, el método de ramificación y corte. Finalmente en los dos últimos capítulos se presenta los resultados obtenidos y las conclusiones respectivamente Índice general 1. Elementos Básicos de la Física Estadística de las Transiciones de Fase Continuas 7 1.1. Caracterización de las transiciones de fase continuas . . . . . . . . . 8 1.2. Teoría del Campo Medio . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.2.1. Modelo de Ising en aproximación de campo medio . . . . . . . 11 1.3. Modelo de Rango Infinito . . . . . . . . . . . . . . . . . . . . . . . . . 13 2. Conceptos Básicos en Sistemas Desordenados 15 2.1. Desorden y frustración . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2. Cantidades Auto-promediadas . . . . . . . . . . . . . . . . . . . . . . 17 2.3. Promedio “Annealed” y “Quenched” . . . . . . . . . . . . . . . . . . . 18 2.4. Teoría de Réplicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 2.5. Estados Puros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.6. “Overlap” y “self-overlap” . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.7. Distribución del “overlap” . . . . . . . . . . . . . . . . . . . . . . . . . 22 3. Teoría de campo medio de los vidrios de espín 25 3.1. Introducción a los vidrios de espín . . . . . . . . . . . . . . . . . . . . 26 3.2. Modelo de Edward-Anderson . . . . . . . . . . . . . . . . . . . . . . . 27 3.3. Modelo de Sherrinton-Kirkpatrick . . . . . . . . . . . . . . . . . . . . . 27 3.4. “Replica symmetry breaking” . . . . . . . . . . . . . . . . . . . . . . . 31 3.5. Teoría de “Droplet” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 4. Optimización Combinatoria 36 4.1. Complejidad Algorítmica . . . . . . . . . . . . . . . . . . . . . . . . . . 37 5 6 4.2. Optimización Combinatoria y Mecánica Estadística . . . . . . . . . . . 39 4.3. Conceptos Básicos de Teoría de Grafos . . . . . . . . . . . . . . . . . 41 4.4. Conceptos Básicos de la Teoría de Poliedros . . . . . . . . . . . . . . 43 5. Simulaciones Numéricas 46 5.1. Elementos generales en las simulaciones de MC . . . . . . . . . . . . 49 5.2. Algoritmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 5.2.1. Algoritmo de Réplicas de Monte Carlo . . . . . . . . . . . . . . 53 5.2.2. Algoritmo de ramificación y corte . . . . . . . . . . . . . . . . . 56 6. Análisis de Resultados 60 7. Conclusiones 70 A. Código Fuente algoritmo RMC 72 Capítulo 1 Elementos Básicos de la Física Estadística de las Transiciones de Fase Continuas Las primeras transiciones de fase que se conocían, hasta comienzos del siglo XX, tienen la característica de que una o más de las derivadas primeras de la energía libre (tal como: la entropía, el volumen, la densidad, magnetización y otros parámetros molares) sufren cambios discontinuos1 . La discontinuidad de la entropía da lugar al calor latente de transición. Además, discontinuidades de las derivadas segundas de la energía libre, análogos a los saltos finitos del volumen molar y entropía, se observan muy raramente2 [1, 2]. Esto motivó a P. Ehrenfest a dar una primera clasificación de las transiciones de fase. De acuerdo con este esquema, una transición de fase es de n-ésimo orden si la n-ésima derivada de la energía libre respecto a uno cualesquiera de sus argumentos es discontinua. Así, se entendía que una transición de fase de segundo orden o continua, es aquella sin discontinuidad en las derivadas primeras de la energía libre [3]. Hoy en día, esta clasificación es inadecuada, pues, para la mayoría de las transi1 2 Saltos en las derivadas de la energía libre. Actualmente se cree que la aparición de superconductividad para campo magnético nulo es la única transición de fase de segundo orden en la cual las derivadas de la energía libre tienen un salto finito. 7 8 ciones de fase continuas una o más de las derivadas segundas en realidad diverge, en lugar de exhibir una discontinuidad A continuación se expondrá los conceptos básicos de las transiciones de fase continuas.También se revisa el paradigma de una transición de fase continua que es la transición para-ferro magnética y finalmente se revisara el modelo de Ising en la aproximación de campo medio. 1.1. Caracterización de las transiciones de fase continuas Una de las ideas más importantes para la caracterización de las transiciones de fase es el parámetro de orden, el cual fue introducido por Landau. La idea general es que en cualquier transición de fase continua es posible identificar una cantidad macroscópica (esto es, relacionada de alguna manera con parámetros termodinámicos del sistema), la cual se anula idénticamente en una de las fases (generalmente la fase de altas temperaturas T > Tc , donde Tc es la temperatura crítica a la cual se da la transición de fase) y es diferente de cero en la otra fase (generalmente a bajas temperaturas T < Tc ). En una transición de fase continua este parámetro de orden3 es continuo en Tc , con lo cual tiende a cero continuamente al aproximarnos a Tc desde temperaturas menores, un ejemplo es la magnetización en un material ferromagnético. El punto central está en saber escoger correctamente el parámetro de orden, lamentablemente no existe un procedimiento único para ello. Sin embargo, en base de un análisis de las condiciones y restricciones físicas del problema la arbitrariedad en la elección se limita. Una de estas restricciones es la existencia de un parámetro termodinámico conjugado 4 al parámetro de orden, a los cuales los notaremos genéricamente como B y Φ, respectivamente [4, 5, 6]. 3 El parámetro de orden no necesariamente es un escalar, pudiendo ser un vector, con D el número de componentes del parámetro 4 El parámetro de orden conjugado es simplemente la variable intensiva que resulta de derivar la energía libre respecto del parámetro de orden 9 Transición para-ferromagnética La transición de fase para-ferromagnética es el cambio de los sólidos ferromagnéticos (como ejemplo tenemos al hierro) de un estado paramagnético a uno ferromagnético a una temperatura muy precisa llamada temperatura de Curie Tc . El material es paramagnético a temperaturas T > Tc , es decir, en ausencia de campo magnético externo presenta magnetización nula o posee una magnetización proporcional al campo externo si este se encuentra presente. La fase ferromagnética se presenta a temperaturas T < Tc . Esto quiere decir que el material presenta magnetización aún en ausencia de campo magnético externo. Así decimos que el material presenta magnetización espontánea, Mo (T ) [6]5 A fin de continuar con la descripción, es necesario aplicar las anteriores definiciones. En primer lugar, parece obvio tomar a la magnetización como parámetro de orden (esto no siempre es tan fácil). Se observa una discontinuidad en Tc de la derivada de la magnetización específica (mo ) y, a primera vista esto estaría de acuerdo con los criterios de Ehrenfest. Sin embargo, ésta no es una simple discontinuidad, ya que para T → Tc la derivada primera de mo diverge con una ley de potencias, así: mo (T ) ∼ (Tc − T )β . Por otra parte, el calor específico a campo nulo diverge en Tc de la forma C(T ) ∼| T − Tc |−α para | T −Tc Tc |≪ 1. Otra cantidad que diverge con una ley de potencias es la susceptibilidad magnética a campo nulo: χ(T ) ∼| T − Tc |−γ para | T −Tc Tc |≪ 1. Finalmente a lo largo de la isoterma crítica T = Tc la magnetización 1 varia con el campo magnético externo con una ley de potencia m(B, Tc ) ∼ B δ . De esta manera se ilustra el papel que juegan ciertos exponentes (exponentes críticos) en este tipo de transiciones. Existen más ejemplos de sistemas críticos que presentan este tipo de comportamiento asintótico, algunos de los cuales tienen valores iguales de los exponentes críticos; se llega al concepto de universalidad [7, 8]. Universalidad Los sistemas críticos pueden agruparse en categorías, donde los sistemas pertenecientes a una misma categoría presentan todos los mismos exponentes críti5 Para los materiales ferromagnéticos isótropos la magnetización se orienta aleatoriamente, mien- tras que para los materiales uniaxiales se alinea siguiendo la dirección de alguno de los ejes cristalinos 10 cos. Este fenómeno se conoce como universalidad y las distintas categorías como clases de universalidad. Las clases de universalidad están determinadas sólo por las siguientes propiedades [9, 10]: La dimensión espacial d del sistema. La dimensión D del parámetro de orden6 El carácter de corto alcance7 de las interacciones 1.2. Teoría del Campo Medio El primer intento de explicar las propiedades ferromagnéticas de los cuerpos fue realizado por B. Rozing en 1892 [11], el cual supuso la existencia de campos magnéticos moleculares complementarios en el interior de los cuerpos ferromagnéticos. Posteriormente, P. Langevin en 1905, presentó una teoría para el paramagnetismo cuyo modelo es el de N partículas idénticas distinguibles, sin interacción entre ellas, cada una con un momento magnético µ que puede orientarse libremente en un campo magnético exterior H. Años más tarde (1907) P. Weiss, inspirado por la hipótesis de Rozing y guiado por la teoría de Langevin, desarrolló una teoría fenomenológica del ferromagnetismo conocida hoy con el nombre de Teoría de Campo Medio de Weiss, la cual asume que todo espín experimenta la presencia de un campo molecular efectivo Hef f proporcional al momento magnético de los espines restantes [12]. W. Lenz en 1920 propuso a su alumno de doctorado E. Ising explicar el ferromagnetismo a partir de los nuevos conceptos que habían surgido con el desarrollo de la mecánica cuántica, es decir, a partir del concepto de espín. Lenz intuyó que considerando las interacciones entre los espines de la red cristalina, de modo que primase el que los espines próximos fuesen paralelos y desfavoreciese si fuesen antiparalelos, podía esperarse estabilidad de un estado ordenado a temperaturas suficientemente bajas, cuando las interacciones predominen sobre la agitación térmica. Si esto ocurría por debajo de una temperatura bien definida, se tendría el 6 La dimensión del parámetro de orden esta estrechamente relacionada con las simetrías del hamiltoniano del sistema 7 Interacciones que decaen rápidamente con la distancia 11 primer modelo microscópico del ferromagnetismo. Si bien Ising demostró8 (1924) que el modelo unidimensional no presentaba la transición esperada, erróneamente afirmó que el modelo es inadecuado para explicar el ferromagnetismo a dimensiones mayores. Este error llevó a W. Heisenberg (1928) a proponer interacciones más complicadas entre los espines, las consideró vectoriales, sin embargo el aporte importante que hizo fue el de dar la interpretación del campo molecular efectivo en términos de las interacciones de intercambio Jij entre los espines Si y Sj localizados en los puntos (i, j) de la red [7]. En 1936 R. Peierls demostró la existencia de estados ordenados en el modelo de Ising en dos dimensiones a bajas temperaturas, esto hizo que muchos investigadores consideraran el modelo de Ising. Así es como L. Onsager [14] (en 1944 mediante el álgebra de cuaterniones) presentó el primer cálculo exacto de la función de partición del modelo de Ising en dos dimensiones a campo nulo [14]. En los años siguientes se retomó la teoría de campo medio propuesta por Weiss y se aplicó conjuntamente con las ideas expuestas anteriormente dando origen a diferentes interpretaciones. De esta manera, podemos decir que en nuestros días, el Término Teorías de Campo Medio tiene una amplia denominación y se refiere a un conjunto de teorías y aproximaciones fenomenológicas con ciertas características en común. En las siguientes secciones se vera algunas interpretaciones de teorías de campo medio necesarias para el estudio de los vidrios de espín. 1.2.1. Modelo de Ising en aproximación de campo medio El modelo más simple para las transiciones de fase es el modelo de Ising (ver referencias [15], el modelo de Ising mediante procesos de Markov [16]), y aún cuando está resuelto exactamente para una dimensión y dos dimensiones a campo nulo, es extremadamente difícil resolverlo en dimensiones mayores, donde se debe ejecutar una suma de 2N términos que aparecen en la función de partición. Así, se puede buscar una variación de este modelo que sea más fácil de tratar matemáticamente. Entre las aproximaciones más utilizadas esta el campo molecular de Weiss (un modelo más elaborado se encuentra en [17]. 8 Notas históricas del modelo de Ising se encuentran en la referencia [13] 12 Modelo de ising Considere una red en dos dimensiones con N sitios, cada uno de los cuales tiene asociado una variable de espín clásica discreta Si = ±1, donde el índice i denota un sitio de red i = 1, 2, . . . , N . Estas variables representan las dos posibles orientaciones de un momento magnético asociado a un espín 1 2 en la dirección del eje fácil de magnetización. El número total de estados de este sistema es 2N . La energía total de este sistema esta dado por el siguiente hamiltoniano. El hamiltoniano de Ising con interacción entre los primeros vecinos en dimensión arbitraria de N espines. H = −J ! <ij> Si Sj − h N ! Si (1.1) i=1 donde h es el campo magnético externo y J es la interacción de intercambio entre los espines. Para un átomo particular i(llamado central), se tiene que la interacción del i-ésimo átomo vendrá dado por el hamiltoniano H = −JSi n ! j=1,j"=i Sj − hSi (1.2) donde el primer término representa la interacción del espín i con los n vecinos más cercanos. De esta manera se dice que cada espín interactúa con un campo local bi = J ! Sj + h (1.3) j Si se considera a b como un conjunto de magnitudes aleatorias discretas independientes, entonces la desviación en torno a su valor medio es ∆bi = bi − &bi ' (1.4) Para una red con invariancia traslacional la cantidad &Sj ' es independiente del sitio j y por lo tanto &Sj ' = m = 1 ! &Si ' N i (1.5) es la magnetización media por espín. La aproximación de campo medio consiste en despreciar las fluctuaciones ∆hi . Bajo esta aproximación cada espín se encuentra 13 en presencia de un campo efectivo uniforme generado por los restantes espines de la red. Hef f = Jzm + h (1.6) donde z es el número de coordinación. La función de partición de un conjunto de espines en presencia de un campo " uniforme h es Z = Z1N , donde Z1 = si =±1 exp(βhSi ) = 2 cosh(βh), donde β es el valor inverso de la temperatura. La magnetización media resultante es: m =< Si >= tanh(βh) (1.7) remplazando la expresión (1.7) en (1.6) se llega a una ecuación autoconsistente para m m = tanh[β(Jzm + h)] (1.8) La solución a esta ecuación se la puede hallar gráficamente (fig. ). Además la ecuación (1.8) determina el parámetro de orden m. El caso para h = 0 da la magnetización espontánea, que puede ser resuelta gráficamente, obtenemos una solución no trivial(m (= 0) si y solo si βJz > 1. Para βJz = Jz/T = 1, la temperatura crítica es Tc = Jz 1.3. Modelo de Rango Infinito Como se dijo, la teoría de campo medio es una aproximación. Sin embargo, da una solución exacta en el caso de un modelo con interacciones de rango infinito9 . El hamiltoniano del modelo de Ising en dos dimensiones es [18]: H=− ! J ! Si Sj − h Si 2N i"=j i (1.9) el primer sumatorio corre para todos los pares de sitios diferentes (i = 1, 2 . . . , N ; j = 1, 2 . . . , N ; i (= j). Aplicando la definición de función de partición Z = Trsi exp(−βE), se tiene. Z = Tr exp( 9 ! βJ ! 2 βJ Si ) − Si ) ( + βh 2N i 2 i Interacciones que se dan entre todos los pares de sitios de la red (1.10) 14 mediante un cambio de variables en los términos cuadrados introduciendo la identidad de Hubbard-Stratonovitch λa2 )= exp( 2 # λ 2π $ ∞ −∞ dx exp[− λx2 + aλx] 2 √ " con los siguientes cambios a = βJ y x = i Si / N , se encuentra que # $ ! ! N Jβm2 βJN ∞ dm exp[− + Jmβ Si + βh Si ] Tr 2π −∞ 2 i i # $ βJN ∞ N Jβm2 dm exp[− + N log (2 cosh β(Jm + h)] = 2π −∞ 2 (1.11) (1.12) La integral anterior puede ser evaluada por cualquier método en particular, utilizaremos el método de Laplace puesto que en el límite termodinámico N → ∞ la integral (1.12) se acerca asintóticamente al valor más grande del integrando, enton- ces, el valor de la variable de integración m que da el valor máximo del integrando, está determinado por la condición de punto de silladura [18], así: ∂ βJ (− m2 + log(2 cosh β(Jm + h))) = 0 ∂m 2 (1.13) m = tanh β(Jm + h) (1.14) o La ecuación anterior está de acuerdo con la solución (1.8) mediante la teoría de campo medio, con solo remplazar J por J/N y z con N . De esta manera la teoría de campo medio nos da la solución exacta para el modelo de rango infinito. Capítulo 2 Conceptos Básicos en Sistemas Desordenados En este capítulo se tratara los conceptos y métodos básicos para desarrollar la teoría de los sistemas desordenados y en particular los vidrios de espín. Para referirnos a los promedios habituales de la física estadística utilizaremos la notación &. . . ' y los promedios para una distribución P (J) mediante [. . . ], un promedio dife- rente a los casos anteriores lo aclararemos mediante un sub-índice así &. . . 'promedio . 2.1. Desorden y frustración El desorden y frustración [18, 19, 20, 21, 22], los dos ingredientes fundamentales de los vidrios de espín, pueden ser abordados de la siguiente manera. El desorden denominado congelado “quenched” se manifiesta en los sistemas que presentan de forma explícita en su hamiltoniano dos tipos de conjuntos de variables aleatorias: {σ} distribuidas con el peso de Boltzmann y las variables {J} con una función de distribución P (J). H = H({σ}, {J}) (2.1) Este tipo de desorden se caracteriza porque los elementos del sistema descritos por las variables {σ} tienen tiempos de reacción mucho menores que los elemen- tos del sistema descritos por las variables {J}; es decir, las variables {J} se las puede considerar como constantes dentro de la escala de tiempo de fluctución de 15 16 las variables {σ}. Los vidrios de espín son un ejemplo de sistemas que presentan desorden congelado. La primera dificultad que surge en estos sistemas es como llevar a cabo los promedios sobre el desorden. Otro tipo de desorden es el templado “annealed”. En sistemas que presentan este tipo de desorden los dos conjuntos de variables {σ} y {J} deben ser tratados en igualdad de condiciones, puesto que los tiempos de reacción son comparables. Existen algunos sistemas donde el desorden no esta presente en el hamiltoniano, pero está en una forma auto-generada “self-generated”. Este es el caso de los vidrios, donde el hamiltoniano tiene la forma típica [23]. ! H= V (ri − rj ) (2.2) ij donde las variables {σ} están representadas por las posiciones de las partículas ri , y la función V (r) es un potencial específico (por ejemplo: Lennard-Jones). Para explicar el concepto de frustración [24], consideremos un sistema compuesto por cuatro espines llamado plaqueta, dispuestos como se muestra en la Figura(2.1), donde las interacciones “quenched” entre los espines son de la forma Jij = ±1, con la siguiente orientación en los espines ↑ y ↓ [25]. Tomemos el caso de la parte izquierda de la Figura(2.1), en la que J1 ,J3 son positivas y J2 ,J4 son negativas (o cualquier otra combinación donde el producto J1 J2 J3 J4 sea positivo), entonces el estado del sistema será único (excepto para un cambio global del valor de los espines), puesto que todos los espines están acoplados de forma tal que, cualquier par de interacciones entre los espines contribuyen a una situación energéticamente favorable del sistema. Sin embargo, si el producto J1 J2 J3 J4 es negativo, como se muestra en la parte derecha de la Figura(2.1), el estado del sistema es degenerado. Por ejemplo si fijamos el valor del espín de la esquina superior comprendido entre J1 y J3 y a partir de este recorremos la plaqueta en sentido horario, fijando los restantes espines de manera que contribuyan favorablemente a la energía del sistema, llegamos a una situación de indeterminación del valor del último espín, pues este debe ser orientado hacia arriba↑ si quiere satisfacer una relación favorable con su vecino mediante J3 , al mismo tiempo se debe cumplir con la situación opuesta en el caso de J2 . Esta situación en la que es imposible hallar una configuración única de los espines que satisfagan los enlaces impuestos se conoce como frustración [25]. 17 ↑ J1 =+ J2 =− ↓ J4 =− J3 =+ ↑ ↑ ↓ J1 =+ ↑ J2 =− J4 =+ ? J3 =+ ↑ Figura 2.1: La figura de la izquierda no presenta frustración, mientras que existe frustración en la figura de la derecha Se puede demostrar que siempre existe frustración en cualquier circuito cerrado de un número cualesquiera de espines, siempre y cuando el producto de las interacciones a lo largo de dicho circuito sea negativo. Es importante notar que la frustración introducida en este ejemplo se debe al desorden (caso que nos interesa), sin embargo no siempre se da, también se puede dar casos de frustración sin desorden. 2.2. Cantidades Auto-promediadas La presencia del desorden congelado en el hamiltoniano hace que las cosas se compliquen un poco más de lo que habitualmente son cuando éste depende solo de los grados de libertad del sistema en cuestión. Ahora, se debe trabajar con dos conjuntos de variables aleatorias ({S}{J}). Así pues, las propiedades físicas y en particular la energía libre depende del desorden, en otras palabras, las propiedades físicas de los vidrios de espín serán diferentes para cada realización diferente del desorden; esto contradice el sentido que debe tener una teoría que pretenda explicar un fenómeno objetivamente. Para soslayar este problema es necesario utilizar cantidades “independientes” del desorden. Estas cantidades son llamadas “selfaveraging” [20] y sucede que sus fluctuaciones generadas por el desorden tienden a cero dentro del límite termodinámico. Como ejemplo de cantidades “self-averaging” tenemos a la energía libre [23, 25, 26]. [F 2 ] − [F ]2 = O( 1 ) N (2.3) 18 Existe un argumento para decir que las cantidades extensivas deben ser “selfaveraging” [20]): Consideremos un sistema macroscópico que puede ser dividido en un número N1 de sub-sistemas macroscópicos (1 ≪ N1 ≪ N ). Entonces la energía libre del sistema será igual a la suma de energías libre de cada sub-sistemas, más la contribución que resulta de la interacción entre los contornos de los sub-sistema, tomando en cuenta solo interacciones de corto alcance, las interacciones de borde se pueden despreciar en el límite termodinámico y la cantidad extensiva (energía libre) es simplemente la suma de contribuciones de cada sub-sistema. Cada una de estas contribuciones representa una variable aleatoria independiente, entonces mediante el teorema del límite central aplicado a la suma de estas cantidades se llega a la ecuación (2.3). 2.3. Promedio “Annealed” y “Quenched” En la sección anterior hemos intuido los inconvenientes que resultarían si las cantidades que caracterizan el sistema dependieran del desorden J; así, para determinar sus promedios, éstas primero deben cumplir con el concepto de “selfaveraging”, la energía libre es una cantidad “self-averaging” [26]. Sabemos que la mayoría de los observables termodinámicos se dan a través del logaritmo de la función de partición, con solo ejecutar la siguiente integral. $ ∞ 1 dJp(J) log[Z({σ}, {J})] [F ] = − βN −∞ (2.4) con Z = Trσ exp[−βH({σ}, {J})]. Dicha integral es muy difícil de calcular, puesto que existe un logaritmo en J. Podemos estar tentados a definir la siguiente cantidad, $ ∞ 1 &F 'ann = − log dJp(J)[Z({σ}, {J})] (2.5) βN −∞ la cual es más fácil de calcular. Sin embargo, esta no es la solución correcta. La diferencia entre las dos integrales, está en el papel que juega el desorden J. En la ecuación (2.4) primero se integra sobre los grados de libertad, posteriormente se toma el logaritmo y finalmente se integra sobre J. De esta forma, las constantes de acoplamiento son fijadas; es decir, “quenched” para cada integración sobre los espines. En otras palabras, las constantes de acoplamiento y los espines no fluctuan juntos como ya se dijo antes; para cada realización del desorden calculamos 19 la energía libre y posteriormente promediamos sobre el desorden. Esta clase de promedio es llamado “quenched” [26]. En la ecuación (2.5), se ve que tanto el desorden J, como los grados de libertad σ son considerados en igualdad de condiciones, y por lo tanto, al desorden se lo puede considerar como un grado de libertad adicional. Esta segunda clase de promedio es llamado “annealed”, y aún cuando ésta sea correcta a altas temperaturas, donde las fluctuaciones introducidas por el desorden es irrelevante, ésta no es correcta a temperaturas bajas [26]. Otra manera de ver esto es que, en el caso “annealed” en realidad estamos promediando la función de partición Z antes que la energía libre F , pero, como ya señalamos antes, F es una cantidad extensiva, mientras que Z no lo es, y por lo tanto, la función de partición no es “self-averaging” [20]. 2.4. Teoría de Réplicas El promedio "quenched"que acabamos de enunciar no es tan fácil de calcular por la dependencia del log(Z) sobre J, lo que conduce a desarrollar una técnica que facilite su cálculo, esta es el método de réplicas. Sam Edwards y Philip Anderson fueron los primeros en aplicar este método al estudio de los vidrios de espín. La idea fundamental del método de réplicas [27] consiste en cambiar el orden en el que se realizan los cálculos a la hora de efectuar los promedios tomando la ecuación (2.4), se dijo que primero se integraría sobre los grados de libertad, se toma el logaritmo y finalmente se integra sobre el desorden. Ahora, primero se promedia sobre el desorden, dejando los cálculos adicionales para más tarde, esto se lleva ha cabo mediante la ayuda de las siguientes identidades matemáticas: Zn − 1 n→0 n 1 x = lı́m log(1 + nx) n→0 n se logra poner fuera de la integral al logaritmo, así. $ ∞ 1 dJp(J)ZJn [F ] = −T lı́m log n→0 n −∞ log Z = lı́m (2.6) (2.7) (2.8) 20 ahora ya se puede ejecutar la integración sobre J. Se puede pensar que el término ZJn es la función de partición de un nuevo sistema que consiste de un conjunto de n réplicas idénticas al sistema original. Si se etiqueta cada una de las réplicas por el sub indice i, donde i corre desde 1 a n, se tiene. ZJn = $ ∞ n % dσi exp(−β −∞ i=1 n ! i H({σi }, {J})) (2.9) Para el problema que surge ahora se debe tener cuidado en interpretar los resultados, puesto que, siempre se tiene en mente a n como un entero positivo, hecho que contradice a la hora de extrapolar n a 0 [27]. 2.5. Estados Puros Una de las ideas más importantes de la física estadística está en pasar de un problema dinámico a un problema estático, es decir, relacionar los promedios temporales del sistema con los promedios en un ensamble de tal sistema. Esta idea originalmente desarrollada por Boltzmann, puede enunciarse de la siguiente manera[8]: Consideremos una magnitud física A cuyo valor en un instante de tiempo t viene dada por A(t) = A(Q(t), P (t)); donde Q y P representan un conjunto de coordenadas y momentos generalizados. Si se pudiera observar la evolución temporal del sistema durante un intervalo de tiempo extremadamente largo se concluiría que, independientemente de las condiciones iniciales, el sistema alcanzará el equilibrio y se mantendrá en dicho estado rápidamente respecto del tiempo de observación. En otras palabras, el promedio temporal de la magnitud A es igual a su valor en el equilibrio [23]. Así: 1 τ →∞ τ Aequi = lı́m A(t) = lı́m τ →∞ $ τ A[P (t), Q(t)]dt (2.10) 0 Para hallar la solución a la ecuación anterior, es necesario conocer la trayectoria del sistema en el espacio de fases (Q, P ) tarea que es muy difícil (innecesaria e imposible) para los sistemas estadísticos. Es en este punto donde la idea de Boltzmann juega un papel trascendental. Resumiendo se afirma que todos los puntos de la región del espacio de fase definida por el estado macroscópico del sistema 21 son igualmente probables. Si se define una función f de densidad de los puntos representativos del sistema podemos calcular el promedio de A en la región R como [8]: &A' = $ A(P, Q)f (Q, P ; t)dV (2.11) R La hipótesis ergódica [8, 28] supone que los promedios (2.10) y (2.11) son iguales. Uno de los fenómenos que se dan en cualquier transición de fase es el de rompimiento de la ergodicidad, pues a temperaturas bajas (T < Tc ) y en el límite termodinámico, el espacio de fase del sistema se divide en varias partes (dos en el caso del ferromagnetismo), cada una de las cuales está separada por una barrera infinita, a esto es lo que se conoce como estados puros. Los observables termodinámicos tienen su contribución solo de los estados comprendidos entre las barreras infinitas. Nuevamente en el caso del ferromagnetismo las dos regiones en que se ha dividido el espacio de fase se dice que están relacionadas por simetría, la misma que ha sido espontáneamente rota y se sospecha que es la simetría respecto a un cambio general de la magnetización [20]. En los vidrios de espín la ruptura espontánea de la simetría también tiene lugar, pero es mucho más difícil saber cuál es, esto se debe a que dicha simetría esta íntimamente relacionada con el desorden, además ésta no sucede a una temperatura Tc fija, sino a toda temperatura T < Tc [20]. 2.6. “Overlap” y “self-overlap” Se sabe bien que en los sistemas magnéticos no desordenados el parámetro " de orden es la magnetización m = N1 N i=1 &σi ', la cual es cero en la fase de altas temperaturas y diferente de cero en la fase de bajas temperaturas, donde la simetría ha sido rota. Ahora bien, de forma análoga en los sistemas desordenados, en particular los vidrios de espín, se pensaría que un buen parámetro de orden es " m = N1 N i=1 [&σi ']; sin embargo, debido al desorden este parámetro es igual a ce- ro a toda temperatura [29]. Otro parámetro es el introducido por Edward-Anderson [29]. qEA N 1 ! [&σi '2 ] = N i=1 (2.12) 22 El parámetro qEA es un caso particular de una cantidad más general llamada overlap. El sentido físico de este parámetro es el de medir la similitud de dos configuraciones o dos estados. Si tenemos dos configuraciones cualesquiera σ y τ , se define su “overlap” como: qστ = N 1 ! σi τi N i=1 (2.13) En el caso de espines tipo Ising Si = ±1, qστ puede tomar los valores de (1,-1,0) segun σ, τ coincidan, exista una anti-correlación ó estén totalmente no correlacionadas respectivamente. El “overlap” de una configuración con si misma, se llama “self-overlap” y entre dos estados α, β debido al rompimiento ergódico se puede definir como [30]: qαβ = N 1 ! &σi 'α &σi 'β N i=1 (2.14) Mientras que su “self-overlap” como [30]: qαα = N 1 ! &σi '2α N i=1 (2.15) El “self-overlap” mide el tamaño del estado en el espacio de fase; mientras más grande es qαα , más pequeño es el estado, es decir, el número de configuraciones que pertenecen al estado es pequeño. Como ejemplo podemos ver el caso del ferromagnetismo, en la fase (estado) paramagnética (no existe rompimiento de la ergodicidad) su “self-overlap” es igual a cero. En el límite T → 0 cada uno de los estados se concentra en sus configuraciones con la energía más baja, en este caso el “self-overlap” de cada estado es igual a uno, puesto que es el “self-overlap” de una configuración. Cuando la temperatura aumenta más configuraciones participan en el estado y el “self-overlap” se hace más pequeño que uno [30]. 2.7. Distribución del “overlap” Siguiendo las teorías de campo medio para los vidrios de espín se encontrara una infinidad de estados puros a baja temperatura. En estos casos, es útil introducir 23 P (q) q Figura 2.2: En la fase paramagnética la probabilidad de distribución de todos los posibles valores de los “overlaps” entre los estados [31]. P (q) = ! αβ con el peso estadístico wα = Zα , Z wα wβ δ(q − qαβ ) (2.16) donde Zα es la función de partición del estado α, la suma se extiende a todos los pares de estados. Siguiendo con el ejemplo del ferromagnetismo, tenemos las siguientes posibilidades. En la fase paramagnética q = 0, por lo tanto, la función P (q) es una función delta (fig.2.2). En el estado ferromagnético (T < Tc ) hay dos estados caracterizados por la magnetización ±m, por lo tanto, la función P (q) es una función delta en los punto q = m2 y q = −m2 (fig.2.3). Un caso más interesante se da en los vidrios de espín; cuando entre los puntos de la figura anterior hay una curva continua, esto se debe a una sucesión continua de transiciones de fase que se da en los vidrios de espín (rompimiento de la ergodicidad se da par toda T < Tc ), (fig.2.4). 24 P (q) −2m2 −1m2 −0m2 0m2 0m2 1m2 q 2m2 Figura 2.3: En la fase ferromagnética P(q) q -1.5 -1 -0.5 0 0.5 Figura 2.4: En la fase de vidrios de espín 1 1.5 Capítulo 3 Teoría de campo medio de los vidrios de espín En el capítulo precedente se estudio los conceptos básicos y artificios necesarios para desarrollar la teoría de los vidrios de espín. Ahora se aplicara todas esas definiciones a un caso particular de modelo de vidrios de espín, el modelo de Sherrington-Kirkpatrick (SK), al cual se lo considera como solución exacta en el caso de rango infinito, esto es una de las interpretaciones que se dan dentro de las teorías de campo medio [31]. En este capítulo se comenzara con una breve descripción del primer modelo de los vidrios de espín, basado sobre la interacción RKKY (Ruderman, Kittel, Kasuya y Yoshida) [32], seguidamente se describirá el modelo de Edward-Anderson (EA), el cual toma en cuenta solo las interacciones entre los espines más cercanos. Posteriormente nos centraremos en el modelo SK mediante el formalismo de la teoría de replicas1 , que en una primera aproximación las consideraremos que son un simple artificio que facilita el cálculo, dando origen a la solución conocida como simetría de replicas “replica-symmetric solution” (RS). Finalmente, se vera la necesidad de abandonar la solución RS, por su inestabilidad y principalmente por generar entropía negativa, así llegamos a uno de los conceptos fundamentales de la física de los vidrios de espín que es el rompimiento de la ergoricidad y a la solución “replica symmetry breaking” (RSB). 1 Algunas veces, el modelo SK, es resuelto desde el punto de vista académico heurísticamente (incorrecto) , también puede ser resuelto siguiendo la teoría de perturbaciones a altas temperaturas 25 26 3.1. Introducción a los vidrios de espín Aunque no es fácil resumir el desarrollo de los vidrios de espín, ni describir las técnicas teóricas, numéricas, así como sus resultados experimentales, vamos a detallar los rasgos más representativos de estos sistemas y otros que nos ayudarán en nuestro objetivo. Para un estudio más detallado se puede ver las siguientes referencias [29, 30, 33, 34, 35, 36]. Experimentalmente los primeros vidrios de espín “spin glasses” fueron aleaciones entre los metales de transición (Au, Ag, Cu, P t) y materiales magnéticos (F e, M n) en el límite diluido (e.d, donde la concentración del material magnético tiende a cero). Propiedades características de los primeros vidrios de espín son: a baja temperatura se manifiesta un pico definido en la susceptibilidad magnética χ(T ) en torno a una temperatura crítica Tc , el calor específico C(T ) presenta un comportamiento suave en torno a Tc . Este comportamiento es inusual e inesperado dentro del estudio de las transiciones de fase. Además, cuando se ejecutan experimentos de dispersión de neutrones, se encuentra que bajo Tc no se muestra un orden espacial de la orientación de los espines [33]. Uno de los primeros modelos fue presentado sobre la base de la interacción RKKY (Ruderman, Kittel, Kasuya, Yoshida) (ver referencia [34]). Así pues, el modelo afirma que el gas de electrones de conducción resulta en una imanación rápidamente oscilante en la proximidad de un espín localizado en un ion magnético; posteriormente, un segundo espín situado a una distancia r del primero percibe la imanación anterior, dando lugar a una interacción de intercambio indirecta entre los dos espines, que resulta aproximadamente en una energía dada por H = " F r+ϕo ) J(ri − rj )Si Sk + anisotropias, y su interacción como J(r) = Jo cos(2K , r → ∞, (kF r)3 donde Jo y ϕo son constantes, y KF el número de onda de Fermi. Puesto que las distancias entre los espines son aleatorias, algunas interacciones entre estos será en algunos casos positivas, favoreciendo la alineación paralela, y otras negativa, favoreciendo la alineación antiparalela, y así se presenta un ingrediente fundamental que son las frustraciones. Este modelo es muy difícil de estudiar, por consiguiente, se hace necesario buscar otros modelos más simplificados como veremos en las secciones siguientes [34]. 27 3.2. Modelo de Edward-Anderson El hamiltoniano dentro del modelo de Edward-Anderson(EA)[37] se expresa como H=− ! <i,j> Jij Si Sj − h ! (3.1) Si i donde la primera suma se lleva a cabo para los vecinos más próximos, las variables Si son tipo Ising (Si = ±1) y Jij son las interacciones de intercambio diferentes para cada par de espines (i, j). Cada Jij se supone distribuida independientemente mediante una función de distribución P (Jij ), generalmente del tipo Gaussiana. # (Jij −Jo )2 1 1 (3.2) P (Jij ) = exp− 2J 2 J 2π (3.3) P (Jij ) = pδ(Jij − J) + (1 − p)δ(Jij + J) La ecuación (3.2) es una distribución gaussiana donde Jo es su valor medio y J 2 la variancia, mientras que en (3.3) Jij puede ser (> 0) ó (< 0), con probabilidad p y (1 − p) respectivamente [29]. 3.3. Modelo de Sherrinton-Kirkpatrick El modelo propuesto por David Sherrington y Scott Kirkpatrick en 1975 [38] para el estudio de los vidrios de espín, consiste en que todos los espines están conectados entre si, es decir, es la versión de rango infinito del modelo EA. Aun cuando este modelo es menos realista que uno de rango corto, su estudio da una buena idea de la naturaleza de los vidrios de espín. En el marco de la aproximación de campo medio el modelo (SK) se resuelve mediante un análisis teórico muy complejo, para lo cual se hace uso del formulismo de la teoría de las réplicas (sec. 2.4). El modelo de SK tiene el mismo hamiltoniano que en el modelo EA (ecuación 3.1) y con ayuda de la ecuación (2.6) se realiza el promedio de la potencia n-ésima de la función de partición [35, 36]. n [Z ] = ! $ {Siα =±1} ∞ ( % −∞ <ij> P (Jij )dJij ) exp(β ! <ij> Jij n ! α=1 Siα Sj α + hβ N ! n ! i=1 α=1 Siα ) (3.4) 28 donde α es el índice de las réplicas, y la integración en Jij se lo hace completando el cuadrado e independientemente para cada par (i, j), además usando la propiedad (Siα )2 = 1, para todo α, i y haciendo un cambio de varia qαβ para el término " " ( Siα Siβ )2 y mα para ( Siα )2 mediante la identidad (1.11). $ % $ % N β 2J 2n n [Z ] = exp( ) dqαβ dmα 4 α α<β . exp(− con L = β 2 J 2 " α<β N βJo ! 2 N (βJ)2 ! 2 qαβ − mα + N log TreL ) 2 2 α α<β qαβ S α S β + β " α (Jo mα (3.5) + h)S α . Usando la ecuación (2.6) y tomando en cuenta que el argumento de la exponencial es proporcional a N , en la integral de arriba, y considerando que podemos tomar el límite N → ∞ antes que el límite n → 0, dicha integral puede resolverse por el método de Laplace [39]. Así se llega a la expresión de la energía libre por espín mediante el método de réplicas. −βf = lı́m {− n→0 βJ0 ! 2 β 2 J 2 1 β 2J 2 ! 2 qαβ − mα + + log TreL } 4n α"=β 2n α 4 n (3.6) siguiendo con el método, es necesario ahora calcular las ecuaciones de punto de silladura (saddle point), es decir, las condiciones extremales de la energía libre resδf δqαβ pecto a las variables qαβ y mα qαβ = = δf δmα = 0 con (α (= β). ∂ TrSα Sβ eL 1 L log Tre = β 2 J 2 ∂qαβ TreL (3.7) TrSα eL 1 ∂ log TreL = βJ0 ∂mα TreL (3.8) mα = Con el fin de calcular la energía libre y los parámetros de orden, es necesario saber como depende qαβ y mα sobre los índices de las réplicas α y β. A simple vista, se podría pensar que los índices de las réplicas no tienen ningún efecto sobre la física del sistema, puesto que se han introducido de una manera artificial. Por lo tanto, se asume que qαβ = q y mα =m, para todo α, β, a esto se le conoce como “replica-symmetric solution”. Esta solución del modelo SK establece una diagrama de fase ver Figura (3.1) el cual presenta diferentes posibilidades cuando se pasa de una fase a otra. A medida 29 kBT PARAMAGNETICA FERROMAGNETICA VIDRIOS DE ESPIN 0 u Figura 3.1: Diagrama de fase del modelo SK considerando la simetría de las réplicas que la temperatura desciende existen dos alternativas, podemos pasar de la fase paramagnética a la fase de vidrio de espín ó pasar primero a la fase ferromagnética y posteriormente a la fase de vidrio de espín [36]. Siguiendo con los cálculos se podría determinar los observables termodinámicos. Así la expresión para la susceptibilidad muestra un pico muy pronunciado a una temperatura definida, propiedad característica de los vidrio de espín, esto es coherente con los experimentos (ver Figura 3.2). Sin embargo, la entropía del sistema se hace negativa en T = 0 con S = −0,17 lo cual no tiene sentido físico. Además, de Almeida y Thouless mostraron en 1978 que la SK-solución es inestable a tem- peraturas bajas, tanto en la fase de vidrios de espín como en el ferromagnetismo. Ellos determinaron una line de estabilidad “AT-line” ver Figura (3.3) Poco tiempo después Giorgio Parisi 1979 presento una solución conocida como “Replica symmetry breking” (RSB) donde las réplicas del sistema no se consideran iguales, más bien se rompe la simetría de las réplicas de una manera muy específica [35]. 30 Figura 3.2: Susceptibilidad Magnética χ Vs T para Aux F e1−x . Por Cannella and Mydosh B AT−Line ESTABLE (PARA) INESTABLE (FERRO o VE) 0 T Tc Figura 3.3: Bajo la línea AT la solución SK es inestable en el plano B-T 31 3.4. “Replica symmetry breaking” La solución correcta del modelo SK bajo la línea AT sugiere el rompimiento de las réplicas de una manera muy particular, concretamente se dota al espacio de los índices de las réplicas de una estructura métrica, ha esto se lo conoce como solución de Parisi [35]. La solución del modelo SK, mediante la teoría de réplicas, lleva a considerar a los qαβ como elementos de una matriz simétrica, todos iguales, excepto los elementos de la diagonal que son igual a cero. 0 0 q 0 0 q 0 0 0 0 Ahora el método de Parisi puede ser considerado como una serie de subdivisiones de la matriz (nxn). Primero la matriz es subdividida en n xn m1 m1 bloques de tamaño m1 xm1 , dentro de los bloques de la diagonal principal, los elementos q0 , son reemplazados por q1 . El siguiente es un ejemplo para el caso n = 6, m1 = 3. 0 q1 q1 q1 0 q1 q0 q1 q1 0 0 q q 1 1 q0 q 0 q 1 1 q1 q1 0 (3.9) Este primer paso es conocido como “first-step RSB”. Segundo, se vuelve a subdividir los bloque de la diagonal principal en m1 m1 x m2 m2 sub bloques y en cada uno de estos remplazamos q1 por q2 . Por ejemplo, para el caso n = 12, m1 = 6, m2 = 3. 32 0 q2 q2 q2 0 q2 q1 q2 q2 0 0 q q q 2 2 0 q1 q2 0 q2 q2 q2 0 0 q2 q2 q2 0 q2 q1 q2 q2 0 q 0 q q 0 2 2 q1 q2 0 q2 q2 q2 0 Tercero, repetimos este proceso infinitamente, de esta manera se introduce m1 , m2 , m3 , . . . números enteros, con el siguiente orden n ≥ m 1 ≥ m2 ≥ m 3 · · · ≥ 1 (3.10) Sin embargo, como punto final consideramos que n → 0 tiende a cero de una manera continua y analítica, se invierte el orden de la ecuación (3.10) n = 0 ≤ m 1 ≤ m 2 ≤ m3 · · · ≤ 1 (3.11) en el límite, mi es continua: mi → x, donde x se considera un parámetro de para- metrización de la distancia entre dos índices de las réplicas con 0 ≤ x ≤ 1. Por lo tanto, la información del conjunto {qi } y {mi }, estará contenida en una función q(x) continua, definida en un intervalo de longitud igual a uno. El significado físico de q(x) se tiene relacionando q(x) con la distribución de probabilidad del solapamiento q (ver sección 2.6 ) entre los estados puros (sección 2.5 ) antes que entre las réplicas. Notando x(q) como la función inversa de q(x), tenemos que x(q) = $ q dq P (q ) (3.12) Pα Pβ δ(q − q αβ ) (3.13) ′ ′ −∞ con P (q) = ! α,β 33 Nuevamente los índices α y β corresponden a estados puros no a replicas, qαβ es el “overlap” entre dos estados puros α y β, y Pα es la probabilidad de encontrar al sistema en el estado puro α. Generalmente no se da una solución a la ecuación (3.6) respecto a q(x) por ser demasiado complicado. A cambio se busca un desarrollo mediante la teoría de Landau cuando la temperatura esta cerca al punto crítico entonces q(x) es pequeño. Las principales interpretaciones físicas que resulta de la solución RSB son las siguientes: Paisajismo rugoso de la energía libre A temperaturas bajas el paisajismo de la energía es muy rugoso y complicado, es decir, el mínimo absoluto esta rodeado por otros mínimos ligeramente superiores y separados por barreras de energía grandes [40]. Figura (3.4). Distribución del “overlap” Existe un número muy grande de soluciones y por lo tanto se espera que la distribución P (q) posea un comportamiento particular. A campo magnético nulo P (q) será simétrica y el valor medio de q será cero, por lo tanto se representa como P (|q|). Si existe campo magnético P (q) deja de ser simétrica. La forma más general de P (q) es [40]: P (q) = aδ(q − qmin ) + g(q) + bδ(q − qmax ) (3.14) donde a, b son constantes positivas , g es una función regular y qmin , qmax son el solapamiento mínimo y máximo. La solución de Parisi proporciona el siguiente comportamiento de P (q). Fig (3.5). Estructura Ultramétrica Los diferentes estados puros que aparecen son organizados de una manera jerárquica (ultramétrica). Un espacio es ultramétrico si la distancia d entre dos puntos cualesquiera del espacio verifica la siguiente condición [40]: dα,γ ≥ max(dα,β , dβ,γ ) (3.15) La ecuación anterior en función de los solapamientos para tres estados arbitrarios es: q α,γ ≥ mim(q α,β , q β,γ ) (3.16) 34 F 0 Espacio configuracion Figura 3.4: Paisajismo de la enegía libre P(q) 0 q qmax Figura 3.5: P (q) para el modelo SK 35 Estado base Estado base flipped i l Figura 3.6: Droplet 3.5. Teoría de “Droplet” En la sección anterior se ha descrito un modelo de espín con interacción a todos los vecinos y se han enumerado diversas propiedades que surgen del análisis del modelo. Podemos preguntarnos si estas características se mantienen en un modelo donde las interacciones sean de corto alcance (modelo de EA) [41]. A fin de contestar esta interrogante se desarrollo la teoría de “droplets” (“droplets scaling” (DS)), la cual es una teoría fenomenológica que tiene su origen en las leyes de escala y cuya principal finalidad es entender la fase de vidrios de espín cuya fase se supone totalmente influenciada por el estado base. Las hipótesis sobre las cuales se sustenta esta teoría son las siguientes: primero, la fase de baja temperatura a campo nulo contiene sólo un estado puro (dos si tenemos encuenta la simetría) y por tanto P (q) es trivial (consiste en dos deltas de Dirac). Segundo, tiene que ver con la noción de “droplet”: un “droplet” se define como la energía de excitación más baja que tiene una longitud de escala l en torno a un espín i dado y una superficie fractal de dimensión ds , mas pequeña que la dimensión espacial d, ver Figura(3.6). Esta excitación es la que domina la fase de vidrio de espín, cambiar la orientación de un “droplet” se necesita de una energía proporcional a lθ , donde θ es el exponente “droplet”. Por analogía respecto a la energía de excitación mediante las paredes de dominio se espera que θ = θs (exponencial de “stiffness”) Capítulo 4 Optimización Combinatoria La optimización combinatoria es un dominio de la informática y la investigación operativa, cuyo campo de aplicación está ampliamente difundido. Entre los problemas que resuelve la optimización combinatoria están: ¿cómo se debe buscar el itinerario más corto para un cartero que atiende un número determinado de poblados? (problema del cartero chino), ¿en cuántas partes dividen un espacio n planos, si de cuatro cualquiera de ellos ninguno pasa por un mismo punto; de tres, ninguno pasa por una misma recta y de dos, ninguno es paralelo, mientras que cualesquiera tres planos tienen un punto común?; la elaboración de un horario de clases para una escuela. . . [42]. Según el enfoque que se le de, a los distintos problemas combinatorios, estos pueden ser clasificados así: en unos se resuelve la existencia o no existencia de las soluciones, en otros es necesario calcular el número de soluciones del problema (a este tipo de problemas se les conoce como problema de enumeración); por último, de un conjunto que posee todas las soluciones del problema se elige aquellas que poseen cierta propiedad en grado máximo o mínimo. Los problemas de este último tipo se denominan extremales o simplemente problema de optimización. En lo que sigue nos centraremos en los problemas de optimización. Para su caracterización necesitamos definir dos elementos esenciales: primeramente un conjunto finito de configuraciones del sistema en cuestión y, segundo, una función de costo relacionada con las configuraciones. El problema de optimización combinatoria consiste en hallar la configuración para la cual la función de costo es mínima [42] 36 37 En las siguientes dos secciones vamos a dar los principales conceptos en los que se basa la optimización combinatoria y algunas herramientas para la resolución y clasificación de los distintos problemas que se presentan. 4.1. Complejidad Algorítmica Todos tenemos una idea bastante clara de lo que es un algoritmo y alguna noción del grado de dificultad cuando comparamos diferentes algoritmos que cumplen un determinado propósito. Pues bien, esas ideas pueden ser resumidas como sigue: un algoritmo es un procedimiento o método de cálculo con unas reglas bien determinadas que conducen a la resolución de un problema específico en un número finito de pasos [43]. Así podemos decir que un problema algorítmico π(I, Q) consta de un conjunto I de todas las posibles entradas para el problema, llamado el conjunto de instancias, y de una pregunta Q sobre esas instancias. La complejidad de un algoritmo (complejidad algorítmica) es una medida de los recursos (tiempo, memoria) que se requiere para su ejecución en función del tamaño de los datos de entrada. Ahora bien, vamos a dar la definición formal de complejidad de un algoritmo, mediante el orden de crecimiento de la función c(I), donde c(I) representa el número de operaciones elementales requeridas, que en el peor de los casos depende del tamaño I de la entrada [42]. Existen cinco formas de notar los diferentes órdenes de crecimiento de una función que son: o, O, Θ, ∼, Ω; pero explicaremos solo el segundo caso. Definicion 1 Sean f y g dos funciones definidas sobre el conjunto de los números naturales, f, g : N → N. El orden de crecimiento de g es menor o igual que el de f , lo cual se nota por g(x) = O(f (x)), si existe una constante k > 0 tal que g(n) ≤ kf (n) para todo n ∈ N [43]. La jerarquía de órdenes (en orden de crecimiento) es la siguiente: O(1),O(log n), O(n), O(n log n), O(n2 ), O(n3 ), O(2n ), O(n!), O(nn ). Diremos que un algoritmo es polinomial cuando el número de operaciones que efectúa está acotado por una función polinomial en el tamaño de su entrada. Si el tamaño de la entrada es n y la función polinomial es f (n), decimos que el algoritmo tiene complejidad O(f (n)). Un algoritmo es eficiente si su complejidad es polinómica. 38 Decimos que un problema es de decisión cuando las posibles respuestas a la pregunta Q son SI ó NO. Un problema de este tipo se clasifica como [43]: Problema de la clase P: Para los problemas de este tipo hay un algoritmo determinista de tiempo polinomial que resuelve el problema Problema de la clase NP (“Nondeterministic Polynomial”): Los problemas de este tipo se caracterizan por que pueden ser resueltos por algoritmos polinómicos no deterministas, en otras palabras, cuando cualquier instancia que produce respuesta SI posee una comprobación de correctitud (también llamada certificado) verificable en tiempo polinomial, en el tamaño de la instancia y la búsqueda de dicha certificación puede que requiera un tiempo exponencial. Claramente, P⊆NP. Sin embargo, no se sabe si esta inclusión se cumple estrictamente, P=NP se conjetura que no se cumple, es uno de los problemas que se mantienen abiertos. Definicion 2 Sean π1 (I1 , Q1 ) y π2 (I2 , Q2 ) dos problemas de decisión. Una transformación polinomial (reducción polinómica) de π1 en π2 , lo cual se denota por π1 ∝ π2 , es una función f : I1 → I2 que satisface las siguientes dos condiciones [42]: 1. f puede computarse en tiempo polinomial. 2. Para toda instancia D ∈ I1 , D produce respuesta SI para π1 si y sólo si f (D) produce respuesta SI para π2 Un problema de decisión π pertenece a la clase NP-completo, cuando se satisfacen las siguientes condiciones: π ∈ NP Para todo problema π de la clase NP se cumple que π ∝ π. ′ ′ Un problema de decisión π es de la clase NP-hard si existe un problema π de la ′ clase NP-completo tal que se cumpla la siguiente condición: ′ π ∝ π. 39 La técnica usual para probar que un problema π es NP-completo1 es la siguiente: elegir en forma apropiada un problema π que ya sabemos que es NP-completo ′ y luego probar que π ∈ NP y que π es transformable polinomialmente en π. Si y ′ sólo si probáramos esta segunda parte habríamos probado que el problema π es “NP-hard” [43, 42]. 4.2. Optimización Combinatoria y Mecánica Estadística A fin de determinar cuáles son las relaciones entre la optimización combinatoria y la física estadística, se toma como ejemplo el modelo de Ising. Determinar el estado fundamental de tal sistema2 quiere decir hallar la configuración de espines {S1 , S2 . . . , Sn } que minimice la energía del sistema; este es un problema de optimización combinatoria. Más generalmente podemos decir que todos los problemas de física estadística con un hamiltoniano a una temperatura específica pueden ser considerados como un problema de optimización combinatoria, por lo tanto las configuraciones son los micro-estados y la función de costo, la energía. Recíprocamente todo problema de optimización combinatoria puede ser considerado como un problema de física estadística, para esto es suficiente considerar la función de costo como el hamiltoniano del sistema. Más relaciones podemos ver en la tabla 4.1. 1 No se conoce ningún algoritmo polinomial para resolver un problema NP-completo. Surge la definición de NP-completitud que si se encontrara un algoritmo polinomial para un problema de esta clase, todo problema en N sería polinomial, entonces P=NP; sin embargo se sospecha que no existe tal algoritmo 2 Puesto que el modelo de Ising es no desordenado, el cálculo del estado fundamental es un problema trivial. Este no es el caso en los vidrios de espín, que debido al desorden y frustraciones, la situación es mucho más compleja. Hallar el estado base de los vidrios de espín es un ejemplo de problema NP-completo 40 Física estadística Optimización combinatoria Estado fundamental Óptimo Energía del estado fundamental Costo de la optimización Hamiltoniano, energía Función de costo Micro-estado Configuración Espacio de fase Ensamble de configuraciones Primeros estados excitados Configuraciones cuasi óptimas Cuadro 4.1: Correspondencia entre la física estadística y optimización combinatoria Versión estocástica de la optimización combinatoria En física, son importantes las propiedades genéricas de los sistemas desordenados y raramente en propiedades específicas de una muestra dada. En efecto, se quieren conocer las propiedades estadísticas (valores medios, desviaciones, etc) sobre el ensamble de muestras posibles. Para poder utilizar la optimización combinatoria es necesario transponer las nociones de ensamble de la física estadística3 Tipos de algoritmos Los algoritmos que existen para resolver un problema combinatorio y, en particular, hallar el estado base de un sistema, son susceptibles de clasificarse en dos grupos: los algoritmos “exactos” o completos y los algoritmos “heurísticos” o incompletos. Los algoritmos del primer grupo determinan y aseguran un mínimo de la función de costo; desafortunadamente estos son muy lentos. Por otra parte, los algoritmos heurísticos proporcionan una solución aceptable pero no la solución óptima, un ejemplo de este tipo son los algoritmos elaborados mediante los métodos de Monte Carlo 3 Esto se verá más adelante en la simulación “annealing” 41 •B DD z< DD zz D z za z c DDD ¯ zz " •C A• DD z O DD g zz DD z zz d DD" |zz e j 7 •EX f b k p ² h w / •F k 3 D• DD i z DD z z DD z zz m n DD " |zz l •G Figura 4.1: 4.3. Conceptos Básicos de Teoría de Grafos Antes de dar las definiciones correctas de los elementos básicos que constituyen la teoría de los grafos, primero se describe los conceptos más simples. Consideremos un conjunto de puntos, de número finito o no, pero distintos y numerables, dispuestos como se indica en la fig.4.1. Los puntos de la figura se llaman vértices, y están unidos por líneas orientadas llamadas arcos. Así A están unida directamente a B por el arco a, a D por el arco e, etc. La figura descrita representa un grafo. Una descripción un poco más elaborada es la siguiente: consideremos un conjunto de seis objetos: {A, B, C, D, E, F, G}. A cada uno de los objetos de este conjunto hacemos corresponder cero, uno, dos o más objetos del mismo conjunto; mediante una relación Γ. Por ejemplo. Γ(A) = {B, D, E} Γ(B) = {A, C} Γ(C) = {E} Γ(D) = {D, E, F, G}, Γ(E) = {D, E} Γ(F ) = {C, F, G}, Γ(G) = {∅} (4.1) Por lo tanto el conjunto {A, B, C, D, E, F, G} y las correspondencias (4.1) constitu- yen un grafo, representado por la figura (fig.4.1) Definicion 3 Se denomina grafo orientado una terna G = (X, A, ϕ) compuesta de 42 •2 |= X11aB1BB a || | 11 BBB3 || 11 BB || a4 1 o a5 11 •3 5 •1 hQQQQ 11 ° QQQ QQQ 1°° a11 Q a6 QQQ°° 11 ² °Q a7 °° •6 BB ° = •4 i BB °° |||| ° BB ° || a a10 BB ! §°°|| 8 a2 a1 a9 •5 Figura 4.2: Grafo orientado un conjunto no vacío X, cuyos elementos se llaman vértices de un conjunto A de arcos y de una función ϕ : A → XxX, la cual a todo arco a elemento de A se le hace corresponder un par ordenado (p, q) de vértices denominados finales de dicho arco.(ver fig.4.2) Un arco, cuyos finales p, q se encuentran en un mismo vértice se llama lazo. Definicion 4 Un grafo se dice simple, si para cualquier par de vértices p, q se unen mediante un arco a lo sumo. Definicion 5 Dado un grafo orientado simple G con los vértices x1 , x2 ,. . . xn . Se llama matriza de adyacencia de dicho grafo a una matriz cuadrada de orden n, donde bij = 1, si en G existe el arco (xi , xj ); y bij = 0, si en G no existe el arco (xi , xj ) Así, la matriz de adyacencia del grafo expuesto en la figura (4.2), tiene la forma siguiente. . x 1 x2 x3 x 4 x5 x 6 x1 x2 x3 x4 x 5 1 1 1 1 0 1 0 0 0 0 0 0 0 1 0 0 1 0 0 1 0 1 0 0 0 0 0 1 0 0 x6 0 0 0 0 1 0 43 La matriz de adyacencia define completamente la estructura del grafo. Por ejemplo, la suma de todos los elementos de la fila xi de la matriz B da el número de arcos que tienen el vértice xi como su vértice original, y la suma de elementos de la columna xi da el número de arcos en los que xi figura como vértice final. Se debe distinguir entre grafo orientado y grafo no orientado (o, simplemente grafo), para este último se sustituye los conceptos de arco por arista, y vértices por nodos. En un grafo el conjunto E de aristas y la función Ω pone a cada arista a ∈ E le ponen correspondencia un par no ordenado de nodos (p, q) = (q, p), que se denominan extremos de dicha arista. Además, los conceptos introducidos para grafos orientados, pueden ser extendidos a los grafos no orientados si consideramos que una arista no orientada (p, q) corresponde a un par de arcos pq ¯ y qp. ¯ Definicion 6 Sean x,y ∈ X, se dice que hay un camino en G de x a y si existe una sucesión finita no vacía de aristas (x, v1 ), (v1 , v2 ) . . . , (vn , y). En este caso, x e y se llaman los extremos del camino, el número de aristas del camino se llama la longitud del camino. Si los vértices no se repiten el camino se dice propio o simple. Además si hay un camino no simple entre dos vértices, también habrá un camino simple entre ellos. Cuando los dos extremos de un camino son iguales, el camino se llama circuito o camino cerrado. Llamaremos ciclo a un circuito simple, un vértice a se dice accesible desde el vértice b si existe un camino entre ellos. Todo vértice es accesible respecto a si mismo Definicion 7 Un camino hamiltoniano es un camino que recorre todos los vértices de un grafo sin pasar dos veces por el mismo vértice. Si el camino es cerrado se dice un ciclo hamiltoniano. Un grafo G se dice hamiltoniano si tiene un ciclo hamiltoniano. 4.4. Conceptos Básicos de la Teoría de Poliedros Consideremos una ecuación lineal en las m incógnitas x1 , x2 , . . . , xm , escrita de la siguiente manera: c1 x1 + c2 x2 + · · · + cm xm = b, o en notación matricial cx = b, donde c = (c1 , c2 , . . . , cm ) y x = (x1 , x2 , . . . , xm ). 44 Definicion 8 Dado un conjunto finito A, denotemos por RA el espacio lineal de los vectores reales x con una componente xe para todo e ∈ A. El conjunto de todos los puntos que satisfacen la ecuación cx = b, es decir, el conjunto de todas las soluciones de su ecuación lineal recibe el nombre de hiperplano La dimensión del hiperplano es una unidad menor que la dimensión del espacio total. Teorema 1 Un subconjunto A ⊆ Rm es un hiperplano si y solamente si existe una correspondencia uno a uno entre A y Rm−1 tal que las distancias entre puntos correspondientes sean iguales. Definicion 9 El semiespacio cerrado ó simplemente semiespacio es el conjunto {x ∈ RA : cx ≤ b} [44]. La envolvente lineal de X subconjunto de Rm es el conjunto de todos los puntos " de la forma x∈X λx x, donde λx ∈ R para todo x ∈ X. Sus elementos se llaman combinaciones lineales de X, y se pueden distinguir tres casos principales: " 1. Si x∈X λx = 1; el conjunto se llama envolvente afín y sus elementos combinaciones afines 2. Si λx ≥ 0 ∀x ∈ X; el conjunto se llama envolvente cónica (cono generado por X) y lo representamos por cone(X), a sus elementos se les llama combinacio- nes cónicas. 3. Si " x∈X λx = 1 y λx ≥ 0 ∀x ∈ X; el conjunto se llama envolvente convexa y lo representamos por conv(X) y sus elementos se les llama combinaciones convexas Un poliedro es la intersección de un número finito de semiespacios en Rm . En conclusión un poliedro es representable a través de un sistema lineal finito cx ≤ b. Uno de los resultados principales en la teoría de poliedros es el siguiente teorema debido a Weyl y Minkowski. Teorema 2 Para todo poliedro P = {x ∈ Rv : cx ≤ b} existen conjuntos finitos X, Y subconjuntos de Rv tales que P = conv(X) + cone(Y ). Recíprocamente, para todo par de conjuntos X,Y subconjuntos de Rv existe un sistema lineal finito cx ≤ b tal que conv(X) + cone(Y ) = {x ∈ Rv : cx ≤ b} [44]. 45 Un polítopo es un poliedro acotado, es decir, un poliedro P para el que existen l, u ∈ RE tales que P ⊆ {x ≤ RE : l ≤ x ≤ u}. En función del teorema anterior un polítopo es la envolvente convexa de un conjunto X finito de puntos [44]. Capítulo 5 Simulaciones Numéricas Una clase particular de sistemas magnéticos son los vidrios de espín, cuyas propiedades peculiares de frustración y desorden entre los enlaces hacen que el sistema exhiba una dinámica extremadamente lenta1 , es decir, que el paisajismo de la energía libre sea muy rugosa haciendo que el sistema quede atrapado en un estado meta-estable en torno a un mínimo local. Esto es una de las razones por las cuales las simulaciones de vidrios de espín y en general de sistemas complejos son difíciles. Para salvar esta dificultad2 , es decir, acelerar la relajación del sistema, se han desarrollado toda una serie de algoritmos de Monte Carlo (MC), que se les conoce bajo el término genérico de “Extended Ensemble Monte Carlo” [45] que a su vez pueden clasificarse así: “Simulated Tempering” [45, 46, 47, 48, 49, 50] está estrechamente relacionado con “simulated annealing”3 [31, 48, 51, 52], pero aquí la temperatura se considera como una variable dinámica mas. Para poder alcanzar el equilibrio estadístico del sistema (con respecto a la distribución de Bolzmann P ({S}) ∝ exp −βH({S}) ) se escoge una distribución nueva P̃ ({S}, {Σ}), con un conjunto {Σ} que contiene un 1 Son varias las situaciones en las que existe un relajamiento lento, entre estas se encuentran las transiciones de fase continuas cerca del punto crítico que da origen al fenómeno de crítical slowing down, otra situación que se presenta es la nucleation asociada con las transiciones de fase de primer orden. 2 No es la única motivación por la cual se introducen artificialmente ensambles; por ejemplo: en la resolución de integrales o sumatorias múltiples, que a su vez tiene aplicación en la forma en que podemos recorrer un espacio de fase de algún sistema estadístico. 3 Calcula el mínimo de una función 46 47 número grande de variables adicionales. La idea básica es que P̃ sea una distribución de Boltzmann para cualquier conjunto {Σ} dado, a expensas de escoger un conjunto de {β} adecuado. La dinámi- ca del sistema ha pasado a un espacio de temperaturas {S} → ({S}, {βα }) con α = 1, . . . , A = const. La función que se tiene en el equilibrio es Pequi ({S}, {βα }) = "A exp(−HEXT ({S},{α})) gα donde HEXT = βα H(S) − gα y ZEXT = α=1 exp Z(βα ). Para ZEXT un valor fijo de α la suma Z(βα ) es la función de partición del sistema original con los tradicionales pesos de Boltzmann. Así, la probabilidad de encontrar al siste" ma con un valor dado de α es Pequi (α) = {S} Pequi ({S}, {βα }), en otras palabras βα f (βα ) = − log Z(βα ), con f (βα ) la energía libre. Si escogemos gα = βα f (βα ), todos los valores de α tienen la misma probabilidad 1/ZEXT , ZEXT = A. La probabilidad que el sistema pase de un valor de temperatura a otro valor consecutivo (valores ordenados) será proporcional a la variación del hamiltoniano extendido para una cierta configuración ∆HEXT = Einst δ − (gm+1 − gm), donde δ = βm+1 − βm y Einst es la energía instantánea. El valor de gm+1 puede ser determinado mediante un desarrollo en series de potencia en torno a βα . Se tiene que gm+1 = E(βα )δ + C(βα )δ 2 2 &H'2 . + O(δ 3 ), donde E(βα ) es la energía media en βα y C(β) = &H 2 ' − Mediante este procedimiento se evita quedar atrapado por barreras altas de energía. Mientras el sistema se mueve en el espacio de temperaturas este pasa continuamente del estado de altas a bajas temperaturas visitando nuevos mínimos locales. El algoritmo satisface la condición de balance detallado. La parte mas difícil consiste en determinar los valores de gα para que coincidan con la energía libre, esto se puede realizar mediante un proceso iterativo dentro del mismo programa. Los pasos generales para ejecutar este algoritmo son los siguientes: Dada una configuración inicial {S} del sistema. Se ejecuta un primer corrimiento usando cualquier algoritmo por ejemplo Metropolis para obtener un primer valor de la energía libre. Corremos la rutina de simulated tempering, cambiando en tiempo de ejecución los valores anteriores de energía libre, con el fin de obtener una probabilidad constante para los distintos valores de temperatura. 48 Finalmente repetimos el paso anterior hasta alcanzar el equilibrio termodinámico realizamos los promedios de las cantidades de interés. “Exchange Monte Carlo” a esta familla pertenecen algoritmos como: las cadenas acopladas de Metropolis, Parallel Tempering (PT) [45, 46, 47, 48, 49, 50]. Este último es una mejora de simulated tempering. La ventaja es que no se necesita calcular la energía libre. En el algoritmo de (PT) se consideran M sistemas idénticos al original (pero cada uno de ellos en diferente estado termodinámico) y M valores de β. Puesto que las replicas no interaccionan entre ellas el espacio de fases está dado por {S}={S1 }x{S2 }. . . x{SM }. En cada uno de los cuales se puede realizar una simulación canónica (N V T ) con H(Si ) el hamiltoniano, posteriormente se mezclan las configuraciones vecinas. La función de partición del sistema extendido es , " ZEXT = M i=1 Z(βi ) con Z(βi ) = Si exp(−βi H(Si )). La probabilidad de tomar una configuración {S} para un conjunto de valores de β es P (S; β1 , . . . , βM ) = exp(− PM i=1 βi H(Si )) . ZEXT Ahora si definimos un proceso tipo Markov (cadena de Markov 5.1) para el sistema extendido, haciendo que P cumpla la condición de balance detallado determinamos la relación entre las probabilidades de transición W (S1 , β1 ; S2 , β2 ) (La probabilidad condicional de alcanzar S2 estando en S1 sin cambiar los valores de β1 y β2 ) y W (S2 , β1 ; S1 , β2 ), esta es: W (S1 ,β1 ;S2 ,β2 ) W (S2 ,β1 ;S1 ,β2 ) = exp(−∆), donde ∆ = (β2 − β1 )(H(S1 ) − H(S2 )). Nuevamente podemos utilizar el algoritmo de Metropolis para ejecutar (PT): Si ∆ < 0 aceptamos la transición, caso contrario se acepta con probabilidad exp(−∆). Los pasos generales de (PT) son: Generamos y realizamos la dinámica de M replicas independientes del sistema. Ensayamos las transiciones entre todos los pares de replicas (S1 , β1 ) y (S2 , β2 ). Aceptando el cambio considerando el valor de ∆ Realizamos los pasos anteriores hasta alcanzar el equilibrio termodinámico. Finalmente realizamos los promedios de los observables. Multicanónical Monte Carlo [53] esta técnica calcula los valores esperados para un conjunto de m valores β1 < β2 . . . < βm , realizando en cada uno de ellos una 49 simulación canónica, posteriormente por medio de técnicas de re-pesado (“multihistograms reweighting”) extrapola los valores esperados para un rango de temperaturas en torno a cada uno de los elementos de {T }. Uno de los algoritmos más exitosos para el estudio de los vidrios de espín en 2D son las Replicas de Monte Carlo (RMC) ideado por Swendsen and Wang [54], este es equivalente al algoritmo de “Exchange Monte Carlo” en el límite de dimensiones altas. Este algoritmo lo desarrollaremos en la sección (5.1). Todos estos algoritmos son utilizados para resolver un gran número de modelos de sistemas complejos en varios campos de la ciencia y la ingeniería, tales como: modelos de espín (modelos de Ising, modelos de Plotts, modelos de campos aleatorios, modelos cuánticos de espín, vidrios de espín) [47, 49, 54, 55, 56], modelos de polímeros, el plegamiento de proteínas, modelos de moléculas en agua y el vacío [46], modelos de redes gauge, modelos de gravedad cuántica, etc. También existen los llamados algoritmos completos que a diferencia de los anteriores (algoritmos heurísticos) [57] proporcionan la solución exacta de un problema extremal (mínimo de una función); desafortunadamente estos son difíciles de implementar, lentos y requieren la mayoría de los recursos computacionales. Sin embargo hemos implementado el algoritmo de ramificación y corte “branch and cut” cuya variante para los vidrios de espín lleva el nombre de el problema de máximo corte “Max-cut problem” [58]. Este problema nos señala la relación que se ha establecido entre una clase de problemas de la optimización combinatoria conocidos como problemas NP-difíciles “NP-hard problems” y los vidrios de espín. En la sección (5.2.2) retomaremos de nuevo el problema de corte máximo para hallar los estados base de los vidrios de espín. 5.1. Elementos generales en las simulaciones de MC Muestreo Simple y Pesado El crecimiento exponencial en el número de configuraciones con el tamaño del sistema N es completamente general e independiente del modelo, ya que siendo la entropía una magnitud extensiva tendremos que, a bajas temperaturas S ∝ N . La evaluación de la función de partición Z por enumeración de todas las configuracio- 50 nes resulta un método inviable. En principio existen dos procedimientos generales por los cuales podemos evaluar adecuadamente Z para N grandes [46, 59] De acuerdo al muestreo simple podemos escoger un subconjunto de M configuraciones del sistema completamente al azar, de tal manera que la probabilidad de tomar una cualesquiera de las configuraciones es igual para todas. De esta manera podemos aproximar los valores medios &A' mediante los estimadores PM i exp(−βEαi )Aαi P . M i exp(−βEαi ) Este método es inadecuado para el estudio de sistemas que or- denan a bajas temperaturas, pues la mayor parte de las configuraciones poseen probabilidad casi nula, excepto el estado fundamental y los primeros estados excitados. Este inconveniente puede ser solucionado mediante el muestreo pesado (“importance sampling”) que permite diferenciar entre las configuraciones que más aportan a Z a una temperatura dada. Para esto se supone que se eligen las configuraciones con la distribución 4 pα = exp (−βH{Sα })/Z (5.1) la cual nos proporciona la mediada de la contribución a la suma total. Entonces el valor &A' se transforma en un simple promedio aritmético de Aα sobre las M configuraciones. Sin embargo seguimos con el problema pues pα depende de Z, esto se soluciona mediante el uso de los procesos tipo Markov. Cadenas de Markov Los métodos de muestreo pesado importantes en la física estadística se basan en las cadenas de Markov. Un proceso de Markov se define como aquel proceso que tiene que ver solo con un instante anterior inmediato, es decir, la probabilidad de evolución de un sistema que habiendo pasado por los estados x1 al tiempo t1 , x2 al tiempo t2 , etc se encuentre en el estado xn al tiempo tn dependa solo del estado anterior a n es P (x1 , t1 ; . . . ; xn−1 , tn−1 || Xn , tn ) = P (Xn−1 , tn−1 || Xn , tn ). De esta manera, un proceso de Markov puede pensarse como una secuencia de 4 Esta puede ser una distribución cualesquiera ρα no-uniforme que sea compatible con los pro"M 1 medios termodinámicos ξα = ρpαα Aα , e introduciendo nuevos estimadores ξ¯ = M i=1 ξαi , llegado "W ¯ finalmente a los siguientes promedios &ξ'ρ = α=1 pα Aα = &A'p . Pero es conveniente una medida pα tipo Gibbs debido a que maximiza la entropía y estadísticamente tiene propiedades de un proceso de Markov. 51 transiciones, las cuales son estadísticamente independientes entre si, ademas si las variables estocásticas X toman valores discretos se habla de una cadena de Markov [46, 59]. Balance detallado y ergodicidad Para generar una cadena de Markov de estados {α1 , α2 , . . . }, con distribución de probabilidad estacionaria P (α, t) = pα los cuales se utiliza para el muestreo pesado, es decir, dada una configuración inicial α1 se genera una nueva configuración α2 , de acuerdo a una probabilidad de transición P (α1 → α2 ). P debe satisfacer las siguien- tes hipótesis con el fin de alcanzar una distribución pα estacionaria ver referencia [59]. 1. Accesibilidad o ergodicidad Dado dos estados cualesquiera, existe una sucesión finita de estados tal que: P (α → α1 )P (α1 → α2 ) . . . P (αM → α) (= 0 (5.2) 2. Balance detallado o microreversibilidad: Para todas las transiciones P (α → α1 ) satisface la relación pα P (α → α1 ) = pα1 P (α1 → α) (5.3) Algoritmo de Metropolis La condición (5.3) puede reescribirse mediante la ecuación (5.1) como P (αi →αj ) P (αj →αi ) = exp(−β∆E) con ∆E = Ei − Ej 5 , pero de ninguna manera se puede especificar la probabilidad de transición (P αi → αj ) de forma única, se tiene la libertad de precisar P de la forma más sencilla posible. Una de las más utilizadas es: Pαi →αj 5 −1 τ0 exp(−β∆E) si ∆E > 0 = τ0−1 si ∆E ≤ 0 (5.4) Son definidos los valores que puede tomar ∆E en una o dos dimensiones para el modelo de Ising. En dos dimensiones ∆E es igual a ±8J, ±4J y 0 52 Donde τ0 es una constante de normalización que vale 1 para el caso en que los sitios de red son escogidos secuencialmente, y N −1 en el caso aleatorio. El esquema general del algoritmo de Metropolis utilizando la probabilidad de transición P es: 1. Se elige una configuración arbitraria αi 2. Se elige una nueva configuración αj por algún método6 , y se calcula ∆E. 3. Si ∆E < 0 se acepta la nueva configuración αj como la siguiente en la cadena. 4. Si ∆E > 0 se genera un número aleatorio r y la nueva configuración se acepta si r ≤ exp(−β∆E) y se rechaza con probabilidad 1 − exp(−β∆E). 5. Se repiten los pasos 1, 2, 3 y 4 con la nueva configuración (Si o Sj ), hasta obtener las condiciones necesarias de equilibrio. 5.2. Algoritmos Los códigos que se desarrollaran a fin de implementar los algoritmos de (RMC) y Metropolis para los vidrios de espín tienen la desventaja que demandan una alta velocidad de procesamiento y en la mayoría de los casos la asignación dinámica de memoria es limitada. Una alternativa para mitigar en algo este inconveniente es el uso de una técnica de programación llamada código multi-espín. Esta técnica nos permite disminuir el tiempo de ejecución en un factor considerable respecto a un código tradicional mediante la manipulación de bits a través de funciones que nos proporciona nuestra CPU. Estas funciones incluyen operadores lógicos y operadores a nivel de bits como: AN D (∧), OR (∨), OR-exclusivo (⊕), desplazamiento a la izquierda (≪), desplazamiento a la derecha (≫), desplazamiento a uno N OT (−), etc. 6 La nueva configuración puede elegirse dependiendo de las características del problema. En los modelos de redes de espines se elige una nueva configuración eligiendo un espín Si e invertirlo (“spin flip”). En la sección (5.2.1) se verá otra forma de generar configuraciones mediante clusters 53 NOMBRE SIMBOLO C/C++ FORTRAN AND ∧ & IAND IOR ⊕ | 0 OR ∨ XOR NOT - shift left shift right ∼ ≪ ≪ ≫ ≫ IEOR NOT ISHFT RSHIFT Cuadro 5.1: Operadores a nivel de bits en C/C++ y FORTRAN 5.2.1. Algoritmo de Réplicas de Monte Carlo El algoritmo (RMC) fué desarrollado por Swendsen y Wang, siendo uno de los algoritmos más exitosos en la simulasión de los vidrios de espín en dos dimensiones. Haciendo uso de una colección de sistemas en diferentes temperaturas Ti se espera alcanzar el equilibrio rápidamente incluso para valores grandes de temperatura, posteriormente esta información se transmitirá a la zona de bajas temperaturas, la simulación de esta colección debe realizarse simultáneamente. También se introduce una dinámica de clusters definidos entre dos pares de réplicas vecinas τ = S 1 S 2 , estas son las ideas fundamentales sobre las cuales se desarrolla el algoritmo (RMC). Consideremos la configuración de un par de réplicas {S 1 } y {S 2 }, donde su hamiltoniano es: Hpar ({S 1 }, {S 2 }) = − ! <i,j> {β 1 Jij Si1 Sj1 + β 2 Jij Si2 Sj2 } (5.5) Para el modelo de red cuadrada en 2D, la suma < i, j > se extiende a los primeros vecinos, Jij son las constantes de acoplamiento que toman los valores de +1 y −1, β 1 y β 2 son los valores inversos de temperatura de las respectivas réplicas con la constante de Bolzmann kB = 1. La probabilidad de distribución conjunta es el producto de la distribución de Boltzmann de cada una de las réplicas p= exp(−Hpar ({S 1 }, {S 2 })) Zext (5.6) donde Zext es la función de partición extendida, los movimientos de Monte Carlo que se permiten se deben desarrollar bajo el criterio de balance detallado, es decir, 54 1 2 3 4 1 2 3 4 1 2 3 4 tau−espin= Si*Ci tau−cluster= −1 tau−cluster= −1 tau−cluster= 1 Figura 5.1: Dinámica de cluster p debe satisfacer la ecuación (5.3). Continuando con la descripción del algoritmo, se construye una nueva configuración de espines sobre otra red a través de la siguiente definición τ -espín, τi = Si1 Si2 , posteriormente se forman los cluster (sitios vecinos conectados por el mismo τ -espín) sobre dicha red, es decir, dos sitios i y j están conectados y pertenecen al mismo cluster si τi = τj . Así los τ -clusters pueden tomar solo valores de ±1 y la dinámica se dá sobre los clusters no sobre un espín individual S i . Figura (5.1). Se reescribe Hpar como: Hpar = − ! Tij Si1 Sj1 (5.7) <ij> donde Tij = (β 1 + β 2 τi τj )Jij . También podemos asignar a cada cluster una nueva variable ηa , entonces se puede pensar en una interacción entre clusters gobernado 55 por un hamiltoniano efectivo Hclus de la forma. Hclus(η) = − ! Kab ηa ηb (5.8) a,b Donde la suma se efectúa entre los límites del cluster a y b, con las constantes " de acoplamiento entre clusters Ka,b = i∈a,j∈b Si1 Sj1 (β 1 + β 2 τi τj ). Ahora podemos simular a (5.8) con cualquier método de Monte Carlo valido, como el algoritmo de Metrópolis. Código multi-espín de (RMC) Usando la técnica de multi-espín generaremos el código para la ecuación (5.8), la parte fundamental para llevar ha cabo la dinámica de clusters bajo cualquier algoritmo se implementara a través de una rutina (función) llamada PRINCIPAL escrita en los lenguajes de programación C/C++ y FORTRAN. La primera implementación se hizo en C/C++, pero finalmente se escogió al lenguaje de programación FORTRAN por ser más directo y eficiente a la hora de realizar un número extenso de operaciones aritméticas. El algoritmo para la generación de los bit aleatorios (números aleatorios) se ha tomado de la referencia [60]. El código completo se encuentra en el apéndice (A). Antes de escribir el codigo para RMC, fijemos las ideas de la técnica multi-espín sobre el algoritmo de metrópolis. El código multi-espín del algoritmo de Metropolis para el caso más simple esta dado para el modelo de Ising del ferromagnetismo ecuación (1.1), donde las interacciones de intercambio Jij pueden ser todas positivas ó negativas (J = 1 ó J = −1). Tomemos un arreglo de espines en una dimensión. Sea Si el bit que representa los dos estados del i-ésimo espín, si ejecu- tamos el operador ⊕ sobre los bits i y j tenemos que Si ⊕ Sj es igual a 1 solamente si los dos espines no están alineados. Así la expresión (Si ⊕ Si−1 )∨(Si ⊕ Si+1 ) (que representa la interacción entre los primeros vecinos) será igual a 1 solamente si uno o ambos vecinos del espín i son opuestos a este. Por otro lado si generamos un número aleatorio representado por el bit r el cual es 1 con probabilidad exp(−4βJ), entonces la expresión (Si ⊕ Si−1 )∨(Si ⊕ Si+1 )∨r es 1 y se debería cambiar la orien- tación del espín Si . En otras palabras, si escogemos un espín i de la red, se debe fijar su nuevo valor S̃i mediante la siguiente ecuación (donde se ha permitido la 56 interacción Si ⊕ Sj ). S̃i = Si ⊕ [(Si ⊕ Si−1 ) ∨ (Si ⊕ Si+1 ) ∨ r] (5.9) que es la parte esencial de un paso de Monte Carlo (mcs), con la ventaja que podemos usar cadenas de 32 o 64 bits (espines) simultáneamente. Basta con escribir el código en un lenguaje de programación apropiado para la ecuación (5.9) y se tendrá un modelo numérico del ferromagnetismo. 5.2.2. Algoritmo de ramificación y corte El método de ramificación y corte tiene su origen en el método de ramificación y acotación, por lo tanto, primero vamos a comenzar explicando este método. Muchos de los problemas de la clase NP-hard en optimización combinatoria y en particular el problema de máximo corte se los enfrenta mediante la técnica de ramificación y acotación7 (Branch and Bound), la cual enumera todas las posibles soluciones sin tener que considerar a cada una de ellas logrando obtener una solución óptima. Generándose un ordenamiento en forma de árbol decisional cuyas ramas son las soluciones del problema [43]. Este método tiene dos ingredientes principales que son la ramificación y la acotación. La ramificación consiste en dividir un conjunto S de todas las posibles soluciones de cierto problema en subconjuntos S1 , S2 , . . . , Ss1 . Cada uno de los cuales se parte, a continuación, en subconjuntos Si1 , Si2 , . . . , Sis2 (i = 1, 2, . . . , s1 ), etc. La acotación consiste en que para un subconjunto obtenido mediante la ramificación, se puede tomar como una cota inferior ó superior al mayor ó menor valor de la función costo respectivamente en este subconjunto. El algoritmo general de este método es el siguiente: Como entrada tenemos una configuración cualesquiera del sistema 1. Fijamos el árbol inicial T como T = ({S}, ∅), donde S es el conjunto de todas las soluciones viables, y marcamos a una como la solución activa. Fijamos una cota superior U = ∞ (Un valor grande comparado con cualquier solución óptima) 7 También se le conoce como método de particiones progresivas y estimaciones, método de ra- mificaciones y fronteras, método de ramificación y poda 57 2. Escogemos el siguiente vértice activo X del árbol T (si no existe ninguno, paramos) y marcamos a X como vértice no activo. Encontramos una partición del conjunto X, es decir, X = X1 ∪ X2 ∪ · · · ∪ Xt (ramificamos) 3. Para cada i = 1 . . . , t hacemos: Buscamos una cota superior L sobre la función costo de cualquier solución Xi (Acotamos) Si | Xi | =1 (se afirma que Xi = {S} y el costo(S) < U ) entonces: Fijamos U = cost(S) y S ∗ = S Si | Xi |>1 y L < U entonces: Fijamos T = (V (T ) ∪ {Xi }, E(T ) ∪ {{X, Xi }}) y marcamos Xi como activo 4. Regresamos al punto 2 y repetimos el proceso Como salida tenemos una solución óptima S ∗ Este método siempre encuentra una solución óptima. La implementación y la eficiencia depende de cada problema en particular. Método de Ramificación y Corte El método de ramificación y corte [44] a menudo se combina con el método de corte de planos, en el cual existe un conjunto de restricciones impuestas al problema en forma de desigualdades, es decir, las constricciones poliédricas dadas en la definición 9 y el teorema 2, las cuales pueden ser resueltas mediante métodos de programación lineal como el método simplex. Esto lo realizamos para cada nodo del árbol decisional a este método se le llama método de ramificación y corte. El algoritmo general es el siguiente (La salida y la entrada son las mismas que en el algoritmo anterior): 1. Comenzamos con un subconjunto P = {x : Ax ≤ b} 2. Hallamos una cota superior U S, resolviendo U S = cx∗ = max{cx :: x ∈ P } 3. Hallamos una cota inferior U I (mediante cualquier procedimiento heurístico)(Cortamos) 58 4. Si (U S) = (U I) ó x∗ es un corte entonces: paramos 5. Caso contrario: Tomamos otro P (mejor) y regresamos al punto 2 6. Si no se puede halla un P entonces: Ramificamos Generalmente el problema se presenta en escoger un buen conjunto P Problema de corte máximo El problema de máximo corte en un grafo ponderado (max-cut problem) se lo puede enunciar de la siguiente manera: Dado un grafo G = (V, E) ponderado, en el que a todo arco e ∈ E le corresponde los pesos cij ∈ R. Sea W ⊂ V (posiblemente vacío). El corte δ(W ) es definido como el conjunto de arcos que tiene exactamente un nodo incidente en W y el otro en V W = {i ∈ V : i ∈ / W }. En fórmulas el corte δ(W ) es: δ(W ) = {(i, j) ∈ E : i ∈ W, j ∈ V W } (5.10) El peso de un corte está dado por la suma de todos los pesos de sus arcos. El problema de corte máximo consiste en hallar un corte de G con máximo peso. Estados base de los vidrios de espín A continuación vamos a ver la relación que existe entre el problema de corte máximo y la determinación de los estados base de los vidrios de espín. Para esto consideremos el modelo de Edwards-Anderson (EA) (ver sección 3.2) con valores de Jij = ±1. El hamiltoniano del sistema es [58]: H=− ! <i,j> Jij Si Sj − h n ! Si (5.11) i Si identificamos a los espines del sistema con el conjunto de vértices V = {1, 2, . . . , n} de un grafo G = (V, E). Dos nodos i y j están conectados por un arco e ∈ E si el espín i y j están acoplados por la interacción Jij . Para incluir el campo magnético externo h, se introduce un nuevo vértice que lo notamos con o y el espín correspondiente a este vértice con So . El vértice 0 está conectado por los arcos (o, i) para todo espín i ∈ V y si fijamos Joi = h. Una configuración w del sistema tiene una energía igual a: 59 H(w) = − ! (5.12) Jij Si Sj (ij)∈E0 donde Eo es el conjunto de arcos del grafo Go = (Vo , Eo ). El conjunto de vértices V puede ser dividido en dos conjuntos V0+ y V0− , donde Vo+ = {i ∈ Vo : Si = +1} y Vo− = {i ∈ Vo : Si = −1}. Se reescribe la ecuación (5.12) H(w) = 2 ! ij∈δ(V + ) Jij − ! Jij (5.13) (ij)∈Eo Por lo tanto, el hamiltoniano del sistema está en función del corte de un grafo y ahora puede ser tratado como un problema de corte máximo. Capítulo 6 Análisis de Resultados En los capítulos anteriores se ha visto que existen dos enfoques teóricos para describir los vidrios de espín: La teoría de campo medio en la solución de Parisi [33] y la teoría de “droplets” [61]. Recientemente, a causa de las evidencias experimentales y extrapolaciones numéricas se ha presentado un nuevo modelo conocido como TNT “trivial no trivial”, este nuevo enfoque sugiere una imagen intermedia entre (RSB) y los “droples” por compartir resultados de ambas teorías [61]. Uno de los desafíos que presenta el estudio de los vidrios de espín en 2D y que son objeto de estudio en este trabajo son: Primero, saber si existe una transición de fase a una temperatura distinta de cero T (= 0. Esta idea se desarrollará a través del cálculo de los estados base y los primeros estados excitados [43], procedimiento muy conveniente para determinar si un sistema presenta una transición de un estado ordenado (temperaturas bajas) a un estado desordenado (temperaturas altas) a una temperatura Tc > 0. El enfoque general (no necesariamente para los vidrios de espín) que seguimos es el siguiente [44]. (o) 1. Calculamos el estado base {Si } y su energía E (o) . 2. se modifica algunas constantes de acoplamiento Ji de forma que el estado base cambie. (m) 3. Calculamos el estado base del sistema modificado {Si } y su energía E (m) Las formas mas conocidas de excitar los estados es mediante las paredes de dominio y los “droplets”. Las paredes de dominio (PD) se crean a través de las excitaciones que se producen mediante el cambio de las condiciones de frontera periódicas 60 61 y antiperiódicas, la diferencia de energía producida | ∆E |=| E (m) − E (o) | se conoce como “stiffness” y está caracterizada por el exponente de “stiffness” θs que mediante consideraciones teóricas tiene un comportamiento de la forma ∆E(L) ∝ Lθs [43]. Si θs > 0 se espera que el sistema presente una fase ordenada para T > 0, mientras que si θs < 0 debería existir orden sólo a T = 0 y la longitud de correlación ξ diverge para T → 0 como ξ ∼ T 1/θ . En la dimensión crítica, se tiene θ = 0 y se espera una divergencia exponencial en la longitud de correlación [61]. Segundo, se buscará evidencia del paisajismo complejo de los estados base y la distribución de estos en forma ultramétrica como lo predice la teoría de campo medio en la solución de Parisi (sección 3.4). Para este propósito se utiliza el concepto de solapamiento (“overlap”) q αβ entre las réplicas {Siα }, {Siβ } y su distribución P (q) promediada sobre el desorden [33]. q αβ = 1 ! α β S S N i i i (6.1) Sabemos que una estructura jerárquica ultramétrica está definida por las ecuaciones [51] (3.15) o (3.16). Desde el punto de vista geométrico los puntos de este espacio forman solamente triángulos equiláteros e isósceles, es decir, al menos dos “overlaps” deben ser iguales, así una forma equivalente de representar un espacio ultramétrico en términos de los solapamientos de tres estados α, β, γ es: q αγ ≤ q αβ ≤ q βγ (6.2) q αγ = q αβ (6.3) con Las dos ecuaciones anteriores sirven para estudiar numéricamente la ultrametricidad del espacio [40]. Así tomaremos conjuntos de tres estados base y se evalúa sus respectivos solapamientos ordenados según la ecuación (6.2), claramente no se puede verificar la relación (6.3), en su lugar calculamos la diferencia δq = q αγ − q αβ bajo la restricción que el solapamiento más grande q βγ pertenezca a un cierto intervalo I. Se debe cumplir la condición que q βγ ∈ I para hacer posible el análisis numérico debido a la infinidad de valores que pueden tomar los respecti- vos solapamientos, posteriormente determinamos la distribución P (δq) para varios valores de L su comportamiento revelara si existe un orden ultramétrico [62]. 62 El estudio de los vidrios de espín continua a través de cantidades como: la susceptibilidad para los vidrios de espín. χ = N [&q 2 '] (6.4) donde los corchetes denotan el promedio sobre el desorden y los “brackets” el promedio termodinámico. Otra medida importante es el cumulant de Binder considerado como un parámetro de orden importante en el estudio de sistemas magnéticos. &q 4 ' 1 g = [3 − 2 2 ] 2 &q ' (6.5) El comportamiento de estas dos cantidades para varios valores de L son determinantes a la hora de determinar la existencia de una transición de fase. Finalmente, La energía de los estados base y todos los observable calculados para sistemas pequeños serán extrapolados mediante la técnica llamada escalamiento de tamaño finito (“finite size scaling”) puesto que no es posible tratar numéricamente sistemas estadísticos. Las formas más conocidas de escalamiento son [22]: 1 χ ∼ L2−η χ̃(L ν (T − Tc )) (6.6) para la susceptibilidad y 1 g ∼ g̃(L ν (T − Tc )) (6.7) para el cumulant de Binder, donde χ̃ y g̃ se llaman universales, η, ν son exponentes críticos. Modelo de Simulación El modelo que se simula es el modelo de Edward-Anderson (EA) ±J, el cual consiste de N espines cuyas variables toman sólo valores de Si = ±1. El hamil- toniano que describe este modelo está dado por la ecuación (3.1) a campo nulo h = 0, donde las variables de espín son colocadas aleatoriamente con probabilidad (1/2) sobre los N = L ∗ L sitios de una red cuadrada de longitud L y las varibles Jij = ±1 son “quenched”, al sistema se le impone condiciones de frontera periódi- cas y antiperiódicas [63]. Figura (6.1). 63 Ferro Antiferro espin arriba espin abajo Figura 6.1: Red cuadrada de tamaño L = 5 Resultados obtenidos Para la primera parte de la simulación utilizaremos los siguientes valores de L L = 5, 10, 15, 20, 24, 30, 35, 40, 45, 50, para cada valor se ensayaron 50 corridas, que dan un promedio de 10.000 estados base calculados. Los resultados se presentan en la Figura (6.2). Mientras se incrementa el tamaño del sistema la energía decrece monótonamente, entonces de acuerdo con la literatura [44] podemos intentar un ajuste de curvas mediante una función de la forma Eo (L) = Eo (∞) + aL−b . Ahora podemos estimar el valor de la energía cuando L → ∞, que resulta en Eo (∞) = −1,39232 ± 0,00678. También se acostumbra probar con una función exponencial de la forma Eo (L) = Eoe (∞) + a exp(bL) [58], mediante esta función obtenemos Eoe (∞) = −1,39079 ± 0,00637. Se ejecutó el al- goritmo mediante el método de ramificación y corte para los mismos valores de L. Tenemos valores de Eo (∞) = −1,40112 ± 0,00538 y Eoe (∞) = −1,40351 ± 0,00541. Estos valores son consistentes mediante otros procedimientos, a saber: método de cluster Eo (∞) = −1,400 ± 0,005 [63], Eoe (∞) = −1,4015 ± 0,0008 [58]. Posteriormente calculamos la energía ∆ de las paredes de dominio imponien- do las condiciones de frontera anti-periódicas1 . Estas restricciones a la frontera se 1 No son las únicas condiciones que podemos tomar, pero si las más frecuentes 64 -1.35 -1.36 E_o(por espin) -1.37 "energia_b.dat" f(x) -1.38 -1.39 -1.4 -1.41 0 10 20 30 40 50 L Figura 6.2: Energía de los estados base Eo en función de L. La curva de ajuste f (x) es Eo (L) = E∞ + aLb donde Eo (∞) = −1,4015 mantienen únicamente en una dirección, tomemos la dirección x, mientras que condiciones libres o la frontera abierta dejamos en la dirección y. Siguiendo con el análisis del exponente de “stiffness”, el signo positivo de θs es interpretado como una señal de que existe una fase (fase de vidrio de espín) a una temperatura distinta de cero. Los resultados se muestran en la Figura (6.3). La estimación del exponente θ se logra mediante un ajuste de curvas para los datos resultando en un valor de θs = −0,0421293 ± 0,002341. Otros resultados se citan en [62] de θs =−0,056(6) y de θs =−0,25 en [64]. Para la segunda parte de la simulación usamos los valores descritos en la Tabla(6), los valores de temperatura bajos y valores de N > 20 hacen que se dificulte alcanzar el equilibrio del sistema, para superar este inconveniente al inicio de cada corrida se descartan varios pasos de Monte Carlo y solo después se guardan los datos obtenidos para su tratamiento. Para la existencia de una transición de fase debería existir un valor fijo de g a una temperatura T para todas las curvas de la Figura (6.4), es decir, todas las curvas deberían cortarse en un sólo punto [44]. Sin embargo esto no sucede, el punto de 65 3 "dominio.dat" using 1:2 f(x) Delta_E 2.5 2 1.5 1 10 20 30 40 50 L Figura 6.3: “Stiffness” ∆E en función de L. La curva de ajuste f (x) es ∆E = aLθs donde θs = −0,0421293 L Nensayos Npmct Npmcd 12 300 1,5E4 5E4 25 300 1,5E5 5E4 50 200 1,2E4 3E4 100 100 1E4 3E4 Cuadro 6.1: Parámetros de la simulación en 2D. Nensayos es el número de muestra (promedio sobre el desorden), Npmct es el número de pasos de Monte Carlo en total, Npmcd es el número de pasos de Monte Carlo descartados 66 1 0.8 g 0.6 L = 10 L = 20 L = 50 L = 100 0.4 0.2 0 0 1 2 3 4 5 6 7 8 1/T Figura 6.4: Cumulant de Binder g en función de β para diferentes tamaños de L corte toma valores cada vez mayores con el aumento de L. Esto es un indicio de que no existe una temperatura finita de transición T (= 0. Los resultados para la susceptibilidad dada por la ecuación (6.4) se presentan en la Figura (6.5). Las figuras (6.6) y (6.7) son el resultado de aplicar el escalamiento de tamaño finito a las ecuaciones (6.6) y (6.7) respectivamente, el colapso más óptimo de las curvas dan los siguientes valores en los exponentes críticos η = 0,28 y ν = 0,735. con Tc = 0 La distribución del “overlap"se muestra en la figura (6.8). La distribución se muestra sólo para dos valores de L y promediado sobre el desorden donde los pesos son independientes del número de estados base. La figura (6.10) presenta una simulación gráfica del modelo de vidrios de espín en 2D. Se ilustra como los espines estaría interactuando unos con otros a una determinada temperatura T . 67 10000 chi 1000 100 L = 10 L = 20 L = 50 L = 100 10 1 0 1 2 3 4 1/T 5 6 7 8 Figura 6.5: La susceptibilidad χ en función de β para diferentes tamaños de L 1 Finite size scaling: g L = 10 L = 20 L = 50 L = 100 0.8 g 0.6 0.4 0.2 0 0 1 2 3 4 (T-T_c)L^1/nu Figura 6.6: Ley de escalamiento de g en función de T L0,3604 5 68 10 Finite size scaling: Chi L = 10 L = 20 L = 50 L = 100 Chi.L^(eta-2) 1 0.1 0.01 0 1 2 3 4 5 (T-T_c)L^1/nu Figura 6.7: Ley de escalamiento de chi en función de T L0,3604 3 2.5 L = 10 L = 50 P(q) 2 1.5 1 0.5 0 0 0.2 0.4 0.6 0.8 q Figura 6.8: Distribución de P (q) en función de q 1 69 5 P(dq) 4 L = 10 L = 20 L = 30 3 2 1 0 0 0.1 0.2 0.3 0.4 0.5 dq Figura 6.9: Distribución P (δq) en función de dq para diferentes tamaños Figura 6.10: Modelo de vidrios de espín en 2D a una tempertura T = 1,5 Capítulo 7 Conclusiones En este trabajo se calculó un número grande de estados base para el modelo de vidrios de espín tipo Ising en 2D sobre una red cuadrada a primeros vecinos y condiciones de frontera periódicas. Cálculos anteriores y simulaciones más sofisticadas mediante algoritmos exactos coinciden con los resultados obtenidos aquí por lo que se considera haber encontrado los estados base. La energía de los estados base para un sistema infinito se estimó en Eo (∞) = −1,401512 ± 0,00531. La teoría (RSB) predice un comportamiento complejo en el paisajismo de la energía [61], que resulta en una función de distribución P (q) dotada de una región ancha casi constante para todos los valores de solapamiento entre los estados base, excepto en q( max) donde P (q) es una delta de Dirac. De la figura (6.8) se encontró un comportamiento complejo de los estados base, pero no existe evidencias claras que la meseta de P (q) se mantenga significativa para sistema con L grandes y más aun para L → ∞. Mediante la gráfica (6.9) se puede observar que las curvas coinciden para los diferentes tamaños de la red, es decir, la distribución P (dq) es independiente del tamaño L del sistema. Esto indica que no existe una estructura ultramétrica de los estados base, pues para que exista dicha estructura P (dq) debería semejarse a una función delta a medida que L crece como lo dice la teoría (RSB) [61]. Magnitudes como el “stiffness” ∆E y el exponente “stiffness” son dos valores importantes para determinar la existencia de una transición de fase. Estas dos cantidades se determinan a través del cálculo de los estados base y los primeros estados excitados estos últimos mediante la generación de paredes de domi70 71 nio imponiendo diferentes condiciones de frontera. Para el sistema infinito se hallo θs = −0,0421293±0,002341 el valor negativo de θs indica que no existe una transición de fase a una temperatura T (= 0, y sugiere que sólo existe transición a Tc = 0 quizá con una dimensión crítica de dc > 2. Otro enfoque para determinar la existencia de una transición de fase es a través de la susceptibilidad χ y el “cumulant” de Binder g. De las figuras (6.4) y (6.5) se puede observar que no existe un punto de corte único de las curvas para los diferentes valores de L, más bien ciertas intersecciones aumentan conforme L crece, esto es un claro indicio de que no existe una temperatura T (= 0 de transición. Aplicando la técnica de escalamiento finito a los datos obtenidos y conforme a las ecuaciones que la rigen, no se tiene un buen colapso (solapamiento) de las curvas, aun cuando se ha ensayado un número grande de parámetros, esto hace pensar que las ecuaciones (6.6) y (6.7) no corresponden a la realidad del modelo. Los mejores valores de los parámetros que se tiene son η = 0,28 y ν = 0,735. En el futuro se podría implementar una un algoritmo exacto que permita determinar con claridad el equilibrio del sistema antes de proceder a la recopilación de datos. En el algoritmo principal también sería conveniente ensayar diferentes alternativas al algoritmo de baño caliente o de Metropolis. Un paso importante sería extender el estudio de los vidrios de espín a tres dimensiones, para esto se debería contar con un conjunto de CPU conectados paralelamente e implementar la programación en paralelo. Los desafíos son grandes pues fácilmente se extendería el estudio a más dimensiones que resultarían en aplicaciones de uso práctico, a saber : procesamiento de la información, restauración de imágenes, etc. Apéndice A Código Fuente algoritmo RMC ! =============================================== Program v i d _ e s p i n ! =============================================== ! ∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗ ! Escuela P o l i t e c n i c a N a c i o n a l ! Departamento de F i s i c a ! Diego De La T o r r e ! Quito , 2009 ! !−−−− DESCRIPCION −−−−−−− ! S i m u l a c i o n en 2D para v i d r i o s de e s p i n ! con i n t e r a c c i o n e s quenched (+/ − J ) a campo ! magnetico n u l o y v e c i n o s proximos : ! H a m i l t o n i a n o = −suma ( i , j ) ∗ J _ i j ∗ S_i ∗ S_j . !−−−− ALGORITMO −−−−−−−−− ! A l g o r i t m o de m e t r o p o l i s , e s c r i t o en codigo ! m u l t i −e s p i n para un c o n j u n t o de ocho r e p l i c a s . ! !−−−− PARAMETROS −−−−−−−−− ! _ Tamanio de l a red ( Lmax<100) ! _ S e m i l l a ( gna ) 72 73 ! _ Condiciones de i n i c i o de l o s espines ! (0= rden /?= a l e a t ) ! _ Ocho v a l o r e s de t e m p e r a t u r a : ( Temp ) ! _ Pasos monte c a r l o ( e q u i l i b r i o ) ! _ Pasos monte c a r l o ( promedio ) ! _ Pasos c l u s t e r ! _ I n t e r v a l o datos ! !−−−− RESULTADOS −−−−−−−− ! _ Energia estados base ! _ S u s c e p t i b i l i d a d magnetica ! _ Cumulant de B i n d e r ! _ Overlap ! _ Estadistica ( Distribuciones ) ! ! ∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗ use mis_datos use a l g o r i t m o s use e s t a d i s t i c a use gna use s a l i d a i m p l i c i t none integer :: i , j call inicio c a l l a c t _ d a t o s ( N1 , N2 ) do i =1 , pmc_equi c a l l RMC( N1 ) c a l l RMC( N2 ) end do 74 do i =1 ,pmc_prom do j =1 , pmc_clus c a l l RMC( N1 ) c a l l RMC( N2 ) end do c a l l e n e r g i a _ t o t a l ( N1 , E1 ) c a l l e n e r g i a _ t o t a l ( N2 , E2 ) c a l l m a g n e t i _ t o t a l ( N1 , N2 , OP1, OP2,OPN) c a l l c o r r e l a _ t o t a l (OPN, E1 , E2 , OP1, OP2) end do call estadistica call salida end Program v i d _ e s p i n ! =============================================== ! 12345678912345678912345678912345678912345678912 ! =============================================== !−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−− MODULE mis_datos !−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−− ! −−−− CONTENIDO −−−−− ! ( 1 ) D e f i n i c i o n de c o n s t a n t e s . ! ( 2 ) D e f i n i c i o n de v a r i a b l e s Globales . ! ( 3 ) Subroutine i n i c i o : ! Acepta l o s v a l o r e s d e f i n i d o s por e l ! u s u a r i o : Tamanio ( L ) , Temperatura ( Temp ) , e t c . ! ( 4 ) S u b r o u t i n e a c t _ d a t o s ( N1 , N2 ) : ! I n i c i a l i z a l a s v a r i a b l e : espin , c o n s t a n t e s ! de acoplamiento , p r o b a b i l i d a d e s de ! transicion , etc . !−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−− IMPLICIT NONE 75 !−−−−−−−−−−−−−−− Parameter ( c o n s t a n t e s ) INTEGER , PARAMETER : : Lmax=100 ! Tamanio max red INTEGER , PARAMETER : : r e p l i c a s =8 ! Num de r e p l INTEGER , PARAMETER : : tiempo =16 INTEGER , PARAMETER : : numero=8 INTEGER , PARAMETER : : t o t a l _ r = r e p l i c a s ∗(1+64) INTEGER , PARAMETER : : t o t a l _ n = r e p l i c a s ∗numero INTEGER , PARAMETER : : t o t a l _ t = t o t a l _ n ∗ tiempo !−−−−−−−−−−−−−−− V a r a i a b l e s Globales REAL( KIND=8) : : Periodo ( r e p l i c a s , 0 : 6 4 ) REAL( KIND=8) : : Orden ( r e p l i c a s , numero ) REAL( KIND=8) : : F u l l ( r e p l i c a s , tiempo : numero ) REAL( KIND=8) : : B u f f e r ( r e p l i c a s , tiempo : numero ) REAL( KIND=8) : : Temp ( r e p l i c a s ) REAL( KIND=8) : : probab ( r e p l i c a s , 0 : 4 ) INTEGER ( KIND=4) : : c o n v e r s i o n ( −1:1) INTEGER ( KIND=4) : : rango ( 0 : 1 ) ! red de v a l o r e s INTEGER ( KIND=4) : : N1 ( Lmax , Lmax ) ! red de e s p i INTEGER ( KIND=4) : : N2 ( Lmax , Lmax ) ! red de e s p i INTEGER ( KIND=4) : : Jx ( Lmax , Lmax ) ! Cons acopla x INTEGER ( KIND=4) : : Jy ( Lmax , Lmax ) ! Cons acopla y INTEGER ( KIND=4) : : L , Dimen , s e m i l l a , s e m i l l a _ i INTEGER ( KIND=4) : : i n i c i o _ e s , pmc_equi INTEGER ( KIND=4) : : pmc_prom , pmc_clus , i n t v _ p r o m !−−−−−−−−−−−−−−− DATA Data Buffer / t o t a l _ t ∗0.0/ 76 DATA DATA DATA DATA DATA Full / t o t a l _ t ∗0.0/ Orden / t o t a l _ n ∗ 0 . 0 / Periodo / t o t a l _ r ∗ 0 . 0 / convversion / 1 , 0 , 0 / rango /+1 , −1/ CONTAINS ! =============================================== SUBROUTINE i n i c i o ! =============================================== IMPLICIT NONE INTEGER : : unidad =5 INTEGER : : i WRITE ( ∗ , ∗ ) ’INGRESE TAMANIO DE RED Lmax=100 ’ WRITE ( ∗ , ∗ ) ’INGRESE SEMILLA (GNA) ’ READ( unidad , ∗ ) L READ( unidad , ∗ ) s e m i l l a _ i semilla = semilla_i WRITE ( ∗ , ∗ ) ’INGRESE : 0= ORDEN u ? = ALEATO ’ WRITE ( ∗ , ∗ ) ’INGRESE : 8 VALORES TEMPERATURA’ WRITE ( ∗ , ∗ ) ’INGRESE PASOS MC ( e q u i l ) ’ WRITE ( ∗ , ∗ ) ’INGRESE PASOS MC ( promedio ) ’ WRITE ( ∗ , ∗ ) ’INGRESE PASOS DINAMICA CLUSTER’ WRITE ( ∗ , ∗ ) ’INGRESE NUM. DATOS ( promedio ) ’ READ( unidad , ∗ ) i n i c i o _ e s READ( unidad , ∗ ) ( Temp ( i ) , i =1 , r e p l i c a s ) READ ( unidad , ∗ ) pmc_equi READ ( unidad , ∗ ) pmc_prom READ ( unidad , ∗ ) pmc_clus READ ( unidad , ∗ ) i n t v _ p r o m END SUBROUTINE i n i c i o 77 ! =============================================== SUBROUTINE a c t _ d a t o s ( N1 , N2 ) ! =============================================== IMPLICIT NONE INTEGER : : i r e p l , i , j dimen =L∗L Lmin=L−1 MASK ( 1 ) = 7 JBITS ( 1 ) = 1 I1HEX =1 DO i r e p l =2 , r e p l i c a s MASK ( i r e p l )= ISHFT (MASK ( i r e p l −1) ,4) JBITS ( i r e p l )= ISHFT ( JBITS ( i r e p l −1) ,4) I1HEX=I1HEX+JBITS ( i r e p l ) END DO ! Constantes de acoplamiento MODEL1=I1HEX BONDPR=0.0 PROBJ =0.5 DO j =1 ,L DO i =1 ,L I F ( ran1 ( ) . LT . PROBJ) THEN Jx ( i , j )=0 ELSE Jx ( i , j )=MODEL1 ENDIF I F ( Jx ( i , j ) . EQ. 0 ) BONDPR=BONDPR+1.0 I F ( ran1 ( ) . LT . PROBJ) THEN Jy ( i , j )=0 78 ELSE Jy ( i , j )=MODEL1 ENDIF I F ( Jy ( i , j ) . EQ. 0 ) BONDPR=BONDPR+1.0 END DO END DO BONDPR=0.5∗BONDPR/ dimen ! F i j a espines en l a red y te m p e r a t u r a semilla=semilla+inicio_es DO j =1 ,L DO i =1 ,L N1 ( i , j )=0 N2 ( i , j )=0 I F ( i n i c i o _ e s . eq . 0 ) GOTO 20 DO i r e p l =1 , r e p l i c a s I F ( ran1 ( ) . l t . 0 . 5 ) N1 ( i , j )=N1 ( i , j )+ & & JBITS ( i r e p l ) I F ( ran1 ( ) . l t . 0 . 5 ) N2 ( i , j )=N2 ( i , j )+ & & JBITS ( i r e p l ) END DO END DO END DO ! Magnitud c o n s t a n t e s de acoplam ( K=1/T ) Y ! P r o b a b i l i d a d de f l i p ( e s p i n up y down ) 20 DO i r e p l =1 , r e p l i c a s BETA( i r e p l ) = 1 . 0 / T ( i r e p l ) DO j =0 ,4 EXPDEL=EXP( (4.0 −2.0∗ j ) ∗BETA( i r e p l ) ) PROB( i r e p l , j ) = 1 . 0 / ( 1 . 0 +EXPDEL∗EXPDEL) 79 END DO END DO DO i r e p l =2 , r e p l i c a s DELTK( i r e p l )=BETA( i r e p l )−BETA( i r e p l −1) END DO END SUBROUTINE a c t _ d a t o s END MODULE mis_datos ! =============================================== ! 12345678912345678912345678912345678912345678912 ! =============================================== !−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−− MODULE a l g o r i t m o !−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−− ! −−−− CONTENIDO −−−−− ! A l g o r i t m o de r e p l i c a s de MC (RMC) !−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−− IMPLICIT NONE CONTAINS ! =============================================== SUBROUTINE RMC(N) ! =============================================== INTEGER ( KIND=4) i , j , k , l ,m, n INTEGER espin , e s p i n b i t i =Lmin j =L DO k =1 ,L l =minimoL m=L DO n=1 ,L i n d i c e =IEOR ( N( n , j ) , Jx (m, j ) ) + & & IEOR ( N(m, k ) , Jy (m, j ) ) + & & IEOR ( N( l , j ) , Jx ( l , j ) ) + & 80 & IEOR ( N(m, i ) , Jy (m, i ) ) espin = 0 bitespin= 0 DO o=1 , r e p l i c a s d i g i t o = IAND ( INDEX , mask ( o ) ) d i g i t o = ISHFT ( d i g i t o , b i t e s p i n ) I F ( ran1 ( ) . LT .PROB( IREP , IDIGIT ) ) & & I F L I P = I F L I P +JBITS ( IREP ) e s p i n b i t = e s p i n b i t −4 END DO N(m, j ) = e s p i n l =m m=n END DO i=j j =k END DO END SUBROUTINE RMC END MODULE a l g o r i t m o ! =============================================== ! 12345678912345678912345678912345678912345678912 ! =============================================== !−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−− MODULE e s t a d i s t i c a !−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−− IMPLICIT NONE CONTAINS ! =============================================== SUBROUTINE e n e r g i a _ t o t a l (N, E ) ! =============================================== DO i r e p l =1 , r e p l i c a s IE ( i r e p l )=0 81 END DO J=L DO JP=1 ,L I =L DO IP =1 ,L N0=N( I , J ) NNI=IEOR ( N0 , N ( IP , J ) ) NNJ=IEOR ( N0 , N ( I , JP ) ) IEN=IEOR ( NNI , Jx ( I , J & +IEOR ( NNJ , JY ( I , J ) ) ) ) ISHBIT=0 DO i r e p l =1 , r e p l i c a s IBITS=IAND ( IEN , MASK( i r e p l ) ) IE ( i r e p l )= IE ( i r e p l )+ ISHFT ( IBITS , ISHBIT ) ISHBIT=ISHBIT−4 END DO I =IP END DO J=JP END DO DO i r e p l =1 , r e p l i c a s E ( i r e p l )= IE ( i r e p l ) END DO END SUBROUTINE e n e r g i a _ t o t a l ! =============================================== SUBROUTINE m a g n e t i _ t o t a l ( N1 , N2 ,ORD1,ORD2,ORD) ! =============================================== 82 DO i r e p l =1 , r e p l i c a s LORDR1( i r e p l )=0 LORDR2( i r e p l )=0 NORDER( i r e p l )=0 END DO DO J =1 ,L DO I =1 ,L N10=N1 ( I , J ) N20=N2 ( I , J ) ISHBIT=0 DO 30 i r e p l =1 , r e p l i c a s N1PICK = IAND ( N10 , MASK( i r e p l ) ) N2PICK = IAND ( N20 , MASK( i r e p l ) ) N1PICK = ISHFT ( N1PICK , ISHBIT ) N2PICK = ISHFT ( N2PICK , ISHBIT ) ITPICK = IEOR ( N1PICK , M2PICK ) LORDR1( i r e p l ) = LORDR1( i r e p l )+N1PICK LORDR2( i r e p l ) = LORDR2( i r e p l )+N2PICK NORDER( i r e p l ) = NORDER( i r e p l )+ ITPICK ISHBIT=ISHBIT−4 END DO END DO DO 40 i r e p l =1 , r e p l i c a s ORDRL1( i r e p l ) = ABS(LORDR1( i r e p l )+ & & LORDR1( i r e p l )−dimen ) ORDRL2( i r e p l ) = ABS(LORDR2( i r e p l )+ & & LORDR2( i r e p l )−dimen ) IQ = IABS (NORDER( i r e p l )+NORDER( i r e p l )− & & dimen ) 83 I I Q =64∗IQ / FLOAT( dimen ) P( i r e p l , IIQ ) = P( i r e p l , IIQ )+1.0 ORDERN( i r e p l ) = IQ END DO END SUBROUTINE m a g n e t i _ t o t a l END MODULE e s t a d i s t i c a ! =============================================== ! 12345678912345678912345678912345678912345678912 ! =============================================== MODULE s a l i d a IMPLICIT NONE ! =============================================== SUBROUTINE s a l _ d a t o s ! =============================================== INTEGER , PARAMETER : : unidad =6 CHARACTER∗23 DATE CHARACTER∗20 NFCHAR(NUMF) REAL SUSC( r e p l i c a s ) REAL X1 ( r e p l i c a s ) , X2 ( r e p l i c a s ) NFCHAR( 1 ) = ’Q=S1∗S2 ’ NFCHAR( 2 ) = ’ ENERGIA 1 ’ NFCHAR( 3 ) = ’ ENERGIA 2 ’ NFCHAR( 4 ) = ’ MAGNETIZACION 1 ’ NFCHAR( 5 ) = ’ MAGNETIZACION 2 ’ NFCHAR( 6 ) = ’MOMENT CON. PART’ NFCHAR( 7 ) = ’NUMERO CLUSTER’ NFCHAR( 8 ) = ’PROMEDIO PMC’ 84 OPEN( 1 0 , FILE= " datos . d " ,FORM= "FORMATTED" ,& & STATUS= "UNKNOWN" ) WRITE( 1 0 , ∗ ) ’ SIMULATION DE MONTE CARLO VIDRIOS & & DE ESPIN EN 2D ’ WRITE( 1 0 , ∗ ) ’ALGORITMO DE RMC’ WRITE( 1 0 , 1 0 0 ) L , pmc_equi , pmc_prom , i n i c i o _ e s 100 FORMAT( 1X , ’ L = ’ , I4 , ’ & pmc_prom = ’ , I8 , ’ pmc_prom = ’ , I8 , ’ & inicio_es = ’ , I4 ) WRITE( 1 0 , 1 1 0 )BONDPR 110 FORMAT( 1X , ’ + ENLACES ACTU. = ’ , F7 . 5 ) WRITE( 1 0 , 1 2 0 ) ISEED0 , INITEMP 120 FORMAT( 1X , ’ SEMILLA NUN. ALE= ’ , I10 , ’ & & TEMPERATURA INICIAL = ’ , I 4 ) WRITE( 1 0 , 1 3 0 )INTERV 130 FORMAT( 1X , ’ ITERVALO DE DATOS= ’ , I 4 ) WRITE( 1 0 , ∗ ) OPEN( 1 0 , FILE= " datos . d " ,FORM= "FORMATTED" ,& & STATUS= "UNKNOWN" ) WRITE ( 1 0 , ∗ ) ’ REPLICA & T ’ N2 TAU E1 ’ , N1 N2 ’ DO i r e p l =1 , r e p l i c a s WRITE( 1 0 , 1 5 0 ) i r e p l , T ( i r e p l ) , (O( i r e p l , NF) , & & NF=1 ,5) WRITE ( 1 0 , ∗ ) ’ REPLICA & ’ T∗T∗C2 T T∗XN T∗<M∗M>N T∗T∗C1 ’ , T∗X2 ’ END DO DO i r e p l =1 , r e p l i c a s WRITE( 1 0 , 1 4 0 ) i r e p l , T ( i r e p l ) , ( F ( i r e p l , 1 ,NF ) , & NF= 1 , 3 ) , X1 ( i r e p l ) , X2 ( i r e p l ) 85 140 FORMAT( 1X , I4 , 6 F12 . 5 ) WRITE ( 1 0 , ∗ ) ’ REPLICA & ’ & ’ K N<Q2> N∗T<DM∗DM> ’ , (3−<Q4>/ <Q2> ∗ ∗ 2 ) / 2 ’ , <NC> AC. RATE’ DO IREP=1 , r e p l i c a s WRITE( 1 0 , 1 4 0 ) IREP , BETA( IREP ) , & SUSC( IREP ) , F ( IREP , 1 , 4 ) , (O( IREP , NF ) , NF=6 ,8) WRITE ( 1 0 , ∗ ) ’ FUNC TIEMPO DE CORRELACION F ( T ) ’ DO NF=1 ,5 WRITE( 1 0 , ∗ )NF , ’ ES ’ ,NFCHAR(NF) END DO WRITE( 1 0 , 1 6 0 ) ( T ( IREP ) , IREP=1 , r e p l i c a s ) DO I T =1 , ITIME WRITE( 1 0 , 1 7 0 ) ( IT −1)∗INTERV,& & ( F ( IREP , IT , NF ) , IREP=1 , r e p l i c a s ) WRITE( 1 0 , ∗ ) 150 FORMAT( 1X , ’ T / T ’ , 8 F9 . 5 ) 160 FORMAT( 1X , I3 , 8 F9 . 5 ) END DO WRITE( 1 0 , ∗ ) WRITE ( 1 0 , ∗ ) ’ DISTRIBUCION DEL PARAMETRO TAU ’ WRITE ( 1 0 , ∗ ) ’ Q & ’ 1 2 3 6 4 7 DO 61 J =0 ,64 WRITE( 1 0 , 1 7 0 ) J / 6 4 . 0 , ( P ( IREP , J ) , & & i r e p l =1 , r e p l i c a s ) END DO 170 FORMAT( 1X , F7 . 5 , 8 F8 . 5 ) CLOSE( 1 0 ) END SUBROUTINE s a l i d a 5’, 8’ 86 END MODULE s a l i d a ! =============================================== ! 12345678912345678912345678912345678912345678912 ! =============================================== !−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−− MODULE gna !−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−− ! −−−− AUTOR −−−−− ! W i l l i a m H . Press ! Numerical Recipes i n F o r t r a n 77 ! R u t i n a para l a generacion de numeros ! a l e a t o r i o s ( gna ) [ 0 , 1 ] . ! . !−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−− ! =============================================== FUNCTION ran1 ( idum ) ! =============================================== !−−−−−−− d e g l a r a c i o n de v a r i a b l e s INTEGER idum , IA , IM , IQ , IR , NTAB, NDIV REAL ran1 ,AM, EPS,RNMX PARAMETER ( IA =16807 ,IM=2147483647 , & & AM= 1 . / IM , IQ =127773 , IR =2836 , NTAB=32 ,NDIV=1+(IM −1)/NTAB, & & EPS=1.2e−7,RNMX=1.−EPS) INTEGER j , k , i v (NTAB) , i y SAVE i v , i y DATA i v / NTAB∗ 0 / , i y / 0 / i f ( idum . l e . 0 . o r . i y . eq . 0 ) then I n i t i a l i z e . 87 idum=max(−idum , 1 ) do 11 j =NTAB+8 ,1 , −1 k=idum / IQ idum=IA ∗ ( idum−k ∗IQ)−IR ∗ k i f ( idum . l t . 0 ) idum=idum+IM i f ( j . l e . NTAB) i v ( j )= idum enddo 11 iy=iv (1) endif k=idum / IQ idum=IA ∗ ( idum−k ∗IQ)−IR ∗ k i f ( idum . l t . 0 ) idum=idum+IM j =1+ i y / NDIV iy=iv ( j ) i v ( j )= idum ran1=min (AM∗ i y ,RNMX) return END FUNCTION ran1 ( idum ) END MODULE gna Bibliografía [1] J. Guemez. Aplicaciones de Termodinámica Transiciones de fase. Departamento de Física Aplicada, Universidad de Cantabria, 2003. [2] Julio Gratton. Termodinámica Introducción a la Mecánica Estadística. Departamento de Física, Buenos Aires, 2003. [3] Igor Herbut. A Modern Approach to Critical Phenomena. Cambridge University Press, New York, 2007. [4] H. E. Stanley. Introduction to Phase Transitions and Critical Phenomena. Clarendon Press, Oxford, 1971. [5] Pfeuty P. and Toulouse G. Introduction to the renormalization group and critical phenomen. John Wiley and Sons, 1977. [6] Shang keng Ma. Modern Theory of Critical Phenomena. Westview Press, 2000. [7] Teunis C Dorlas. Statistical Mechanics Fundamentals and Model Solutions . Institute of Physics Publishing, Bristol, 1999. [8] R. K. Pathria. Statistical Mechanics. Butterworth Heinemann, New York, second edition, 1996. [9] N. Goldenfeld. Lectures on Phase Transitions and The Renormalization Group. Perseus Books, Illinois, 1992. [10] Daniel C. Mattis. Statistical Mechanics Made Simple a Guide for Students and Researchers. World Scientific Publishing Co. Pte. Ltd., 2003. 88 89 [11] A. Timoreva S. Frish. Curso de Fisica General II. Mir, Moscu, 1968. [12] Shang keng Ma. Statistical Mechanics. World Scientific Publishing Co. Pte. Ltd., Singapore, 1993. [13] Stephen G. Brush. History of the Lenz-Ising Model. Reviews of Modern Physics, 39:883–893, 1967. [14] L. Onsager. Crystal Statistics. I. A Two-Dimensional Model with an OrderDisorder Transition. Physical Review, 65:117–149, 1944. [15] Walter Greiner and Ludwing Neise Horst Stocker. Thermodynamics and Statistical Mechanics. Springer-Verlag, Heidelberg, 1997. [16] Ross. Kindermann and J. Laurie Snell. Markov Random Fields and Their Applications. American Mathematical Society, Rhode Island, 1980. [17] P.R. Weiss. The Aplication of the Bethe-Peierls Method to Ferromagnetism. Physical Review, 74:1493–1504, 1948. [18] Anton Bovier. Statistical Mechanics of Disordered Systems, A Mathematical Perspective. Cambridge University Press, New York, 2006. [19] Kurt Binder and Walter Kob. Glassy materials and disordered solids. World Scientific Publishing Co. Pte. Ltd., Singapore, 2005. [20] Dotsenko V. Introduction to the Replica Theory of Disordered Statistical Systems. Cambridge University Press, New York, 2001. [21] Anderson Philip W. Introduction Basic notions of condensed matter physics. The Benjamin-Cummings Publishing, 1983. [22] Anderson Philip W. A career in theoretical physics. Cambridge University Press, 2004. [23] Tommaso Castellani and Andrea Cavagna. Spin Glass Theory for Pedestrians. cond-mat/0505032v1, 2005. [24] G. Toulouse. Theory of the frustration effect in spin glasses: I. Communications on Physics, 2:115–119, 1977. 90 [25] David Sherrington. Spin Glasses. Department of Physics, University of Oxford, 2000. [26] J. J. Ruiz-Lorenzo. Vidrios de spin: Paradigma de los sistemas complejos. Revista Española de Fisica, 11(1):22–26, 1997. [27] Jonathan S. Yedidia. Quenched Disorder Understanding Glasses using Variational Principle and the Replica. Lectures delivered at the Santa Fe Summer School, 15-19:1–74, 1992. [28] E. Ugalde. De la mecánica estadística a la teoría ergódica. Revista Mexicana de Física, 53:191–194, 2007. [29] M. Mézard G. Parisi and A. Virasoro. Spin-Glass Theory and Beyond. World Scientific, Singapore, 1987. [30] V. Dotsenko. An Introduction to the Theory of Spin Glasses and Neural Networks. World Scientific, 1994. [31] Hidetoshi Nishimori. Statistical Physics of Spin glasses and Information Processing An Introduction. Clarendon Press, Oxford, 2001. [32] P. Bruno and C. Chappert. Ruderman-Kittel theory of oscillatory interlayer exchange coupling. Physical Review B, 46:261–270, 1992. [33] K. Binder and A.P. Young. Spin glasses: experimental facts, theoretical concepts, and open questions. Reviews of Modern Physics, 58:801–976, 1986. [34] K. H Fischer and J.A. Hertz. Spin Glasses. Cambridge University Press, Cambridge, 1991. [35] Peter J. Ford. Spin Glass. Contemp Phys, 23:141–168, 1982. [36] A.C.D. van Enter J.L. van Hemmen and J. Canisius. On a Classical Spin Glass Model. Z. Phys. B- Condensed Matter, 50:311–336, 1983. [37] S.F. Edwards and P.W. Anderson. Theory of spin glasses. Journal of Physics F, 5:965–974, 1975. 91 [38] D. Sherrington and S. Kirkpatrick. Solvable Model of a Spin-Glass. Physical Review Letters, 35:1792–1796, 1975. [39] C.M. Bender and S.A. Orszag. Advanced Mathematical Methods for Scientist and Engineers. McGraw-Hill International Editions, Singapore, 1978. [40] G. Toulouse R. Rammal and M.A. Virasoro. Ultrametricity for physicist. Rev. Mod. Phys, 58:765, 1986. [41] G. M. Grinstein Daniel S. Fisher and A. Khurana. Theory of random magnets. Physics Today, December:56–67, 1988. [42] K. Ribnikov. Analisis Combinatorio. Mir, Moscu, 1988. [43] A.K. Hartmann and H. Rieger. Optimization Algorithms in Physics. Wiley-Vch, Berlin, 2002. [44] A.K. Hartmann and H. Rieger. New Optimization Algorithms in Physics. WileyVch, Berlin, 2004. [45] Yukito Iba. Extended Ensemble Monte Carlo. cond-mat/0012323v2, 2001. [46] Frenkel Daan. Understanding Molecular Simulation. Cambridge University Press, Cambridge, 1996. [47] G. Parisi E. Marinari and J.J. Ruiz-Lorenzo. Numerical Simulations of Spin Glass Systems. cond-mat/9701016v1, 1997. [48] David J. Earl and Michael W. Deem. Parallel tempering: Theory, applications, and new perspectives. J. Chem. Phys., 7:3910–3916, 2005. [49] K. Hukushima and K.Ñemoto. Exchange Monte Carlo Method and Application to Spin Glass Simulations. J. Phys. Soc Japan, 65:1604, 1996. [50] Enzo Marinari. Optimized Monte Carlo Methods. cond-mat/9612010v1, 1996. [51] Paul Coddington. A Comparison of Annealing Techniques for Academic Course Scheduling. Northeast Parallel Architectures Center, DHPC-045, 1998. 92 [52] Jyh Shing. Neuro fuzzy and soft computing a computational approach. Cambridge University Press, Cambridge, 1996. [53] Bernd A. Berg. Multicanonical Simulations Step by Step. cond-mat/0206333v2, 2002. [54] Jian-Sheng Wang and Robert H. Swendsen. Replica Monte Carlo Simulations (Revisited). cond-mat/0407273v1, 2004. [55] T. Berg B. A., Celik. New Approach to Spin Glass Simulations. Phys. Rev. Lett, 69:2292, 1992. [56] Rehberg P. Keler, W. Simulated Tempering Approach to Spin Glass Simulations. cond-mat/9402049, 1994. [57] Oliver C. Martin. Probing Spin Glass with Heuristic Optimization Algoritms. cond-mat/0408556v1, 2004. [58] et al C. de Simone. Exact Ground States of Two-Dimensional +-J Ising Spin Glasses. Journal of Statistical Physics, 84:1363–1371, 1996. [59] Dieter W. Heermann. Computer Simulation Methods in Theoretical Physics. Springer-Verlag, Heidelberg, 1990. [60] William H. Press. Numerical Recipes in Fortran 77. Cambridge University Press, Cambridge, 1996. [61] N. Kawashima and H. Rieger. Recent Progress in Spin Glassses. arXiv:, condmat/0312432v2:1–106, 2004. [62] N. Kawashima and H. Rieger. FiniteSize Scaling Analysis of Exact Ground States for J Spin Glass Models in 2D. Europhy lett, 39:85–90, 1997. [63] Alexander K. Hartmann. Cluster-Exact Approximation of Spin Glass Groundstates. Physica A, 224:480, 1996. [64] M. Cieplak and J.R. Banavar. Spin Glasses. Journal Physics A, 23:4385, 1990.