introducción al movimiento aleatorio: distribuciones.

Anuncio
1 INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROCESOS ALEATORIOS
INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROCESOS
ALEATORIOS
(Estas notas están inspiradas en el primer capítulo del libro de F. Reif
“Fundamentos de Física Estadística y Térmica”; esta introducción no
sustituye al excelente libro del Prof. Reif, pero dada la dificultad de
encontrar un ejemplar del mismo, ha dejado de editarse, he decidido a
escribir estas notas)
1 CAMINO ALEATORIO EN UNA DIMENSIÓN.
1.1 CAMINO ALEATORIO
1.2 DISTRIBUCIÓN BINÓMICA
1.3 CONSECUENCIAS DE SER N GRANDE
1.4 DISTRIBUCIÓN GAUSSIANA
1.5 DISTRIBUCIÓN DE POISSON
1.6 DENSIDAD DE PROBABILIDAD
2 CAMINO ALEATORIO PROBLEMA GENERAL
3. TEOREMA DEL LÍMITE CENTRAL
G. NAVASCUÉS
15 de Septiembre de 2005
1
1 INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROCESOS ALEATORIOS
1 CAMINO ALEATORIO EN UNA DIMENSIÓN
1.1 CAMINO ALEATORIO
Considere un suceso cuyo resultado sólo puede ser uno de dos posibles. Ejemplo: al dejar caer una
moneda sólo es posible que al llagar al suelo muestre una de las dos caras. Otro posible ejemplo podría
ser el movimiento idealizado de un borracho: el suceso consistiría en dar un paso y que este sólo lo
pudiera ser dado a la derecha o a la izquierda y con un alcance fijo. Otro ejemplo: al introducir una
molécula en una caja sólo es posible colocarla en una parte de la caja o en el resto. Otro: al observar en
un cierto instante el átomo de nitrógeno en una molécula de amoniaco podremos ver el átomo en una de
las dos posibles posiciones de equilibrio, a uno u otro lado de la triada de átomos de hidrógeno. Otro
ejemplo más: cuando se observa el momento magnético (espín) de un electrón sólo puede estar en
cualquiera de los dos sentidos, con igualdad de probabilidad si no hay presencia de un campo magnético.
Llamo p a la probabilidad de que el suceso acabe en uno de sus dos posibles resultados y q=1p a la probabilidad de que acabe en el otro. Tal como las defino estas probabilidades están
normalizadas a la unidad, es decir la suma de probabilidades es uno. En el caso de la posición del átomo
de nitrógeno en la molécula del amoniaco las probabilidades p y q son iguales por simetría, por tanto
p=q=1/2. Lo mismo pasaría básicamente con la moneda salvo que estuviese trucada. En el caso del
borracho las probabilidades dependen de las circunstancias: si hay un bar a la derecha o a la izquierda, si
la calle está en cuesta, ... En ejemplo de la molécula y la caja las probabilidades dependerán del volumen
de cada una de las partes de la caja. Si el espín del electrón está en un campo magnético su orientación
en el sentido del campo estará primada y por tanto p será mayor que q (o viceversa).
Vamos a continuación a estudiar los resultados de una sucesión de sucesos de este tipo. La condición
fundamental en esta cadena de sucesos es que son estadísticamente independientes, con esto se
quiere decir que cada suceso ocurre independientemente de los demás. Es decir p y q tendrán el mismo
valor en cada suceso; por ejemplo en el caso del amoniaco siempre que observemos al átomo de
nitrógeno tendremos la misma probabilidad de encontrarlo a uno u otro lado de la triada de hidrógenos:
q=p=1/2; el borracho tendrá siempre la misma probabilidad de dar el paso a la derecha, etc. La sucesión
de sucesos estadísticamente independientes se conocen como caminos aleatorios y si, como en los
ejemplos dados, sólo hay dos resultados posibles en cada suceso el problema se llama camino aleatorio
en una dimensión (este nombre proviene de casos como el del borracho o el del espín en donde sólo es
importante una dirección). El problema general puede ser mucho más complicado pero las ideas son las
mismas, por ejemplo el borracho podría dar pasos en varias direcciones e incluso dar pasos de distinta
longitud, su movimiento podría ser similar al de una partícula en un fluido en el que asimilamos los
posibles pasos del borracho a las distancias recorridas por la partícula entre choques con las restantes
partículas del fluido. El caso de la moneda se puede complicar un poco si tiramos un dado en vez, en el
que el resultado es uno de seis posibles en vez de los dos posibles de la moneda, si se usa alguno de los
dados del juego de rol el problema se complica aún más. El conjunto de resultados podría ser un continuo
en vez de un número finito. Volveré al caso general más adelante.
1.2 DISTRIBUCIÓN BINÓMICA
La notación que seguiré de momento es utilizar p y q para las probabilidades de los dos posibles
resultados de un suceso que es la más cómoda, sin embargo más adelante generalizaré los resultados al
camino aleatorio general donde es más apropiada otra notación: p1 que hace el papel de p y p2=1-p1 que
hace el papel de q. La normalización exige entonces que:
p + q =1 o
i=M
∑p
i =1
i
=1
donde M=2. Observe que la segunda expresión, excesivamente alambicada para el presente caso, es sin
embargo más apropiada para el caso más general donde M>2, como por ejemplo tirar un dado en cuyo
suceso M=6, hay 6 resultados posibles.
G. NAVASCUÉS
15 de Septiembre de 2005
2
1 INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROCESOS ALEATORIOS
Considere ahora la repetición del mismo suceso hasta N veces, por ejemplo nuestro borracho da N pasos
(o se observa el espín del electrón N veces consecutivas o se ven N electrones en las mismas
condiciones). Si p es la probabilidad de que al dar un paso este sea dirigido a la derecha, que tomo como
sentido positivo del eje X y q a la izquierda (o p es la probabilidad de ver al espín en sentido del campo y
q en sentido opuesto al campo), la probabilidad total de que los n primeros pasos sean todos hacia la
derecha y los restantes, N-n, a la izquierda debe ser:
prob. de dar n pasos seguidos a la derecha y luego dar N-n a la izquierda =
(=prob. de ver n espines paralelos al campo y el resto antiparalelos) =
= p p p . . . p q q q . . . . q = pnqN-n
n
N-n
La probabilidad total, debido a la independencia estadística, es producto de probabilidades. En cada caso
se pueden responder a cuestiones diferentes, por ejemplo si la longitud del paso es L, después de estos N
pasos (sucesos) el borracho se ha alejado una distancia:
x = nL − ( N − n) L = ( 2n − N ) L
o la magnetización total de N espines en donde los N primeros están en la dirección positiva y el resto e la
negativa es (observe que ordeno los electrones por estar en cajas diferentes, lo que les hace
distinguibles):
M = nµ − ( N − n ) µ = ( 2 n − N ) µ
µ es el momento magnético del espín electrónico. Para llegar a la misma posición nuestro borracho podría
haber dado el mismo número de pasos a la derecha y a la izquierda pero en cualquier otro orden (o
equivalentemente: para tener el mismo momento total de los espines da lo mismo cuales son los n
electrones que están en una dirección, hacia arriba, y cuales los que están en la otra, hacia abajo). ¿De
cuantas formas distintas se pueden dar n pasos a la derecha y N-n pasos a la izquierda? (¿o de cuantas
maneras puedo poner n espines hacia arriba y el resto hacia abajo?). La respuesta es equivalente a
buscar todas las posibles ordenaciones de la n “pes” y las N-n “cues” de la expresión de más arriba, es
decir todas las permutaciones entre “pes” y “cues”, N!, eliminando las permutaciones entre sólo “pes” y
las permutaciones entre sólo “cues” es decir: N!/[n!(N-n)!]. Así que finalmente el número de posibilidades
distintas para que el borracho llegue a la posición x (o el momento magnético total sea M), o lo que lo
mismo que de n pasos a la derecha y N-n pasos a la izquierda (n espines hacia arriba y N-n hacia abajo),
no importando el orden, es el número combinatorio:
⎛N⎞
N!
≡ ⎜⎜ ⎟⎟ .
n!( N − n )! ⎝ n ⎠
Como cualquiera de estas posibilidades tiene el mismo número de pasos a la derecha (n) y a la izquierda
n
N −n
, entonces la probabilidad total de que
(N-n), cualquiera de ellas tiene la misma probabilidad total: p q
nuestro borracho llegue a x, o lo que es lo mismo de que dé n pasos a la derecha (o que los espines
tengan momento magnético total M o que es lo mismo haya n espines orientados hacia arriba) es1:
Prob[x]=Prob[(2n-N)L]=Prob’[n]=Probabilidad de una de las posibilidades x Número posibilidades=
= pnq N −n
1
⎛N⎞
N!
= p n q N − n ⎜⎜ ⎟⎟ ≡ PN (n)
n! ( N − n)!
⎝n⎠
Observe que en la notación que usaremos luego esta expresión, se rescribe como: PN ( n1 , n 2 )
= p1 1 p 2
n
n2
N!
; aparentemente
n1!n2 !
la las variables pes y enes parecen independientes pero no: p1+p2 =1 y n1+n2 =N.
G. NAVASCUÉS
15 de Septiembre de 2005
3
1 INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROCESOS ALEATORIOS
De los N pasos (sucesos) puede ser que ninguno fuera a la derecha (n=0) o por el contrario, en el otro
extremo de posibilidades, todos fueran a la derecha (n=N) (o, de forma similar, la orientación de los
espines puede ir desde estar todos hacia abajo (n=0) a estar todos hacia arriba (n=N)). Así la expresión
anterior es válida para n=0,1,2,3,...,N. La PN está normalizada ya que:
n= N
∑ PN (n) =
n =0
n= N
∑p
n
q N −n
n =0
N!
= (q + p) N = 1N = 1.
n!( N − n)!
Observe que PN(n) son los distintos términos del binomio de Newton, por eso a esta distribución de
probabilidades PN se le llama distribución binómica, también es conocida como distribución normal.
A continuación presento un ejemplo numérico en donde N=20 y la probabilidad de cada uno de los dos
resultados del suceso es la misma, es decir p=q=1/2. Este ejemplo corresponde al caso de la molécula de
amoniaco mencionada, o al de la moneda perfecta, o al de la molécula introducida en una caja con dos
partes iguales. También al caso del borracho suponiendo que la probabilidad de dar el paso a la derecha
es la misma que la probabilidad de que lo dé a la izquierda o al de los espines sin campo magnético donde
es igual de probable ver a cada espín en cada uno de los dos sentidos. Supongo que estoy en este último
caso y analizaré los resultados que presento en el diagrama siguiente:
PN = 20 (n); PN' = 20 ( x)
0.18
0.16
0.14
0.12
0.10
0.08
0.06
0.04
0.02
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
(n)
-20
-18
-16
-14
-12
-10
-8
-6
-4
-2
0
2
4
6
8
10
12
14
16
18
20
(x/L)
Se observa los siguientes comportamientos de la probabilidad P como función de n. Primero crece para
luego decrecer con n. En otras palabras la probabilidad de que de los 20 pasos todos en un mismo sentido
tiene que ser muy pequeña: P20(0)=P20(20)=(1/2)20 que es despreciable frente a otras posibilidades por lo
que debe haber un máximo (no siempre esto es así pero es el caso usual). La distribución de
probabilidades es simétrica como corresponde al hecho de que por simetría (la simetría la impone el que p
sea igual a q) la probabilidad de dar n pasos a la derecha y el resto a la izquierda es la misma que dar los
n pasos a la izquierda y el resto a la derecha: P20(n)=P20(20-n). El máximo ocurre para n=10, es decir la
mitad de pasos en cada sentido, en este caso hay más combinaciones para dar los 20 pasos totales y por
lo tanto la probabilidad total es máxima. ¡Cuidado! si N fuese impar el máximo correspondería a dos
valores de n, por ejemplo en el caso N=21 las mayores posibilidades corresponden a 10 pasos a la
derecha y 11 a la izquierda o viceversa 10 pasos a la derecha y 11 a la izquierda.
El caso del borracho nos permite estudiar el problema con otra variable y como con todo cambio de
variable podemos volver a describir la misma situación con otras palabras que pueden ser más
convenientes por cualquier razón. En vez de hablar de pasos a la derecha podemos hablar de distancia
alcanzada al final de los 20 pasos: dar todos los pasos en uno u otro sentido es equivalente a decir que el
G. NAVASCUÉS
15 de Septiembre de 2005
4
1 INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROCESOS ALEATORIOS
borracho a llegado a x=20L o x=-20L. El máximo de probabilidad corresponde a haber dado los mismos
pasos en cada sentido y por lo tanto acaba en el mismo sitio x=0, etc. En el diagrama anterior presento
las probabilidades en función de las variables. Observe que dada la naturaleza del problema la variable x
toma valores discontinuos: -20L, -18L, .... y que los saltos de x van de 2L en 2L.
Es útil expresar la probabilidad en una y otra variable. De las relaciones elementales
x = nL − ( N − n) L, N = n + ( N − n), n =
se llega inmediatamente a
PN (n) = p n q N − n
1
1
( N + x / L), N − n = ( N − x / L) ,
2
2
N!
N!
= p ( N + x / L) / 2 q ( N − x / L) / 2
= P ' ( x)
[( N + x / L) / 2]![( N − x / L) / 2]! N
n!( N − n)!
En el caso de que las probabilidades de los dos
resultados posibles de suceso no sean iguales la
distribución binómica deja de ser simétrica. En la
figura de la derecha se muestran esquemáticamente
cómo se desvía la distribución de la simétrica cuando
p y q son diferentes.
Ahora supongo que el proceso de los N pasos del
borracho se repite N veces (con el mismo borracho
si es capaz o con N borrachos idénticos), o en el caso
de los espines observamos N veces a los N
electrones. Cada una de estas veces constituirá un
experimento. En cada uno de los N experimentos
tendremos un posible resultado final como
consecuencia de los resultados de los N sucesos del
experimento: la distancia recorrida final x en el caso
del borracho es la suma de capa paso o la
magnetización total de los espines es la suma de la
de cada espín. Si N es suficientemente grande el
valor medio de los resultados es el valor medio
esperado de cada experimento, es decir de la
distribución PN se obtiene el número medio de n
< n >=
p<q
p>q
n= N
∑ nP
n =0
N
(n).
y de este, según sea el problema, la distancia media recorrida por el borracho:
< x >=< n > L − ( N − < n >) L = (2 < n > − N ) L = ( 2 pN − N ) L = ( p − q ) NL
o el momento magnético medio de los espines:
< M >=< n > µ − ( N − < n >) µ = ( 2 < n > − N ) µ = ( 2 pN − N ) µ = ( p − q ) Nµ
Estrictamente N debería ser infinito. Observe que el <n> debe coincidir con el máximo si la distribución es
simétrica. Una información importante de las distribuciones es la desviación media ∆n del valor medio.
Este dato es muy importante ya que nos da idea de lo que podemos esperar de un experimento. Lo más
probable es que el resultado este comprendido en el intervalo definido por <n>±∆n. Si la desviación media
es muy pequeña tenemos una posibilidad muy grande de que el resultado del experimento sea el valor
medio o próximo a él, en caso contrario el resultado de un experimento probablemente sea cualquiera de
los posibles. La desviación media da también idea de la anchura de la distribución, o lo que es lo mismo
del rango de valores de n donde la probabilidad es suficientemente grande.
G. NAVASCUÉS
15 de Septiembre de 2005
5
1 INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROCESOS ALEATORIOS
No hay una manera objetiva de determinar ∆n pero hay muchas razonables. En el curso usaremos la más
empleada en todos los ámbitos donde se utiliza la estadística matemática, es la llamada desviación
estándar definida como la raíz cuadrada del valor medio de la desviación cuadrática:
(∆n) 2 ≡< (n − < n >) 2 >=< n 2 > − < n > 2
Observe que ingenuamente se podría definir la desviación como <(n-<n>)>, es decir sin el cuadrado pero
desviaciones positiva y negativas se anularían entre sí dando engañosamente una desviación nula. El
cuadrado se podría evitar utilizando el valor absoluto, <|n-<n>|>, pero es más incómodo de manejar.
Por todo eso se utiliza usualmente la desviación cuadrática media y luego se extrae la raíz. La mayoría de
las veces la distribuciones no son simétricas (ver figura más arriba) y por tanto, por definición, la
desviación cuadrática media da una idea de como se desvía la distribución a un lado y otro del valor
medio, aunque en un lado se desvíe un poco más y otro un poco menos de lo indicado por la desviación
estándar. Si se está interesado en distinguir la desviación a cada lado del valor medio no hay más que
aplicar la definición independientemente a cada lado. Todas estas consideraciones sobre la desviación son
generales, ahora las aplicaré a la distribución binómica. Primero evalúo los valores medios de n y n2:
N
N
⎛N⎞ N
⎛N⎞
∂ n N −n ⎛ N ⎞
∂ N
< n >= ∑ nPN (n) = ∑ np n q N − n ⎜⎜ ⎟⎟ = ∑ p
p q ⎜⎜ ⎟⎟ = p ∑ p n q N − n ⎜⎜ ⎟⎟ =
∂p
∂p 0
0
0
0
⎝n⎠
⎝n⎠
⎝n⎠
=p
∂
( p + q) N = pN ( p + q) N −1 = pN ,
∂p
Este resultado era previsible. Si la probabilidad de que el borracho de un paso a la derecha es p, el
número de pasos medio a la derecha será pN. Observe lo útil que es el truco de considerar p
p
n
como
∂ n
p . Ahora calculo el valor medio de n2 utilizando el truco dos veces:
∂p
N
N
⎛ N ⎞ N ⎡ ∂ ⎤⎡ ∂ ⎤
⎛ N ⎞ ⎡ ∂ ⎤⎡ ∂ ⎤ N
⎛N⎞
< n 2 >= ∑ n 2 PN (n) = ∑ n 2 p n q N − n ⎜⎜ ⎟⎟ = ∑ ⎢ p ⎥ ⎢ p ⎥ p n q N − n ⎜⎜ ⎟⎟ = ⎢ p ⎥ ⎢ p ⎥ ∑ p n q N − n ⎜⎜ ⎟⎟ =
0
0
0 ⎣ ∂p ⎦ ⎣ ∂p ⎦
⎝n⎠
⎝ n ⎠ ⎣ ∂p ⎦ ⎣ ∂p ⎦ 0
⎝n⎠
⎡ ∂⎤
⎡ ∂ ⎤⎡ ∂ ⎤
= ⎢ p ⎥ ⎢ p ⎥ ( p + q ) N = ⎢ p ⎥ pN ( p + q) N −1 = pN ( p + q) N −1 + p 2 N ( N − 1)( p + q) N − 2 =
⎣ ∂p ⎦
⎣ ∂p ⎦ ⎣ ∂p ⎦
= pN + p 2 N ( N − 1) = pN (1 + pN − p) = ( pN ) 2 + pqN =< n > 2 + pqN
de donde se llega a
(∆n) 2 ≡ pqN (∆n) 2 ≡ pqN
que en el caso del borracho se transforma en:
(∆x) 2 ≡ 4 L2 (∆n) 2 ≡ 4 L2 pqN
y en el de los espines en:
G. NAVASCUÉS
15 de Septiembre de 2005
6
1 INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROCESOS ALEATORIOS
(∆M ) 2 ≡ 4µ 2 (∆n) 2 ≡ 4µ 2 pqN
que se obtienen inmediatamente debido a la linearidad de n con x (o µ) (¡compruébelo!). Que la
desviación media sea pequeña, algo que usualmente se desea, no es útil si el valor medio no es mucho
más pequeño aún, por tanto más importante que la propia desviación es la relación ∆n / < n > que para la
distribución binómica resulta ser:
∆n
=
<n>
p 1
→0
q N
N →∞
y por tanto para los dos ejemplos que estoy discutiendo:
∆x
<x>
o
2 pq 1
∆µ
=
→0
< µ > ( p − q) N
N →∞
La linealidad entre n y x (o µ) vuelve a dar esencialmente el mismo resultado.
1.3 CONSECUENCIAS DE SER N GRANDE
Este resultado es muy importante y tiene consecuencias cruciales en física como veremos durante el
curso. ¿Qué significa este resultado? Consideremos el caso del borracho con p=q=1/2 hay la misma
probabilidad de que de el paso a la derecha como lo de a la izquierda o en el caso de los espines cada
espín puede estar dirigido en los dos sentidos con igual probabilidad. Hagamos N (N muy grande)
experimentos en el que en cada uno de ellos el borracho da 2 pasos (N=2) o en el que cada uno de ellos
observamos a dos espines. En cada experimento puede ser que le borracho de 2 pasos a la derecha (haya
dos espines hacia arriba), un paso a la derecha con dos posibilidades: que el paso a la derecha sea el
primero o el segundo (un espín hacia arriba y otro hacia abajo, lógicamente son dos posibilidades) o cero
pasos a la derecha (los dos espines hacia abajo). El valor medio de pasos a la derecha (de espines hacia
arriba) es lógicamente 1, tal como predice la expresión <n>=pN=1/2x2=1. La desviación estándar da
∆n=√(pqN)=1/√2 que es un valor del mismo orden del valor medio, en otras palabras los resultados más
lejanos al valor medio 1 (en este caso los únicos: 2 y 0) pueden ser tan casi tan probables como el propio
valor medio, la capacidad de predicción se pierde. La relación entre la desviación estándar y el valor
medio es ∆n/<n>=1/√2≈0.707 que evidentemente no es muy pequeña indicando lo que acabo de discutir.
Volvamos a realizar N experimentos pero ahora en cada uno de ellos el número de pasos N que tiene que
dar el borracho es muy grande (o el número de espines), por ejemplo 1024 (del orden del número de
Avogadro de cualquier sistema macroscópico que se precie, así serán los sistemas de espines que
estudiemos más adelante). Formalmente todo es igual pero numéricamente la situación cambia
drásticamente con consecuencias enormemente prácticas: ahora el valor medio de n es N/2=.5x1024
(como es lógico si se dan N pasos y tiene la misma probabilidad de darlos en un sentido u otro el valor
medio es N/2, como antes salvo que ahora N es muy grande), la desviación estándar es
∆n=√(N/4)=.5x1012. Ambos valores son grandes por serlo N pero siendo el valor medio proporcional a N y
la desviación a √N, si N es grande, la desviación es despreciable frente al valor medio. Esto es lo que
describe el cociente ∆n/<n> que en este caso sería 10-12<<<1 Las consecuencia es que si hacemos un
sólo experimento podemos predecir el resultado: el número de pasos a la derecha serán del orden de
N/2: N/2± ∆n =.5x1024 ± .5x1012 ≈.5x1024. No es imposible que sean en un número diferente pero
extremadamente improbable. Tan improbable como tan seguros estamos de ir al aula sin pensar por un
momento que existe la posibilidad no nula de que las moléculas del aire se agrupen en una esquina de sus
esquinas impidiéndonos respirar por algunos momentos. Observe que variaciones del orden de la unidad
(e incluso mucho más grandes) no juegan ningún papel sobre valores del orden de N.
G. NAVASCUÉS
15 de Septiembre de 2005
7
1 INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROCESOS ALEATORIOS
En las siguientes figuras se muestra la desviación estándar en una posible distribución donde esta es del
orden del valor medio y otra en la que es mucho más pequeña (en este caso los valores de PN para
valores distintos del valor medio son tan pequeños que no se aprecian en la figura):
aunque en esta
escala
PN (n )
2∆n → ∞
2∆n
<n>
<n>
1.4 DISTRIBUCIÓN GAUSSIANA
En todo este estudio hay un problema práctico. Para que sea útil N debe ser grande y si lo es nos
encontramos con la necesidad de evaluar factoriales de números gigantescos. En la práctica es imposible
incluso con los ordenadores más potentes que pudiéramos imaginar. Sin embargo, como veremos con
frecuencia, el origen de la dificultad es también la clave de la solución: si n es grande, del orden del
número de Avogadro en nuestros problemas, los saltos de una unidad en la variable entera n son
insignificantes, imposibles de discernir tampoco ni con el más potente de los ordenadores, por lo que
podemos considerar esta variable como continua, aunque sólo los valores de n entero tienen sentido en el
problema que se estudia. Al ser N grande la distribución es muy picuda (ver figura anterior) y por tanto el
máximo y el valor medio son prácticamente los mismos. Como función continua de n podemos desarrollar
PN(n) en serie de Taylor alrededor del máximo, pero en vez de hacerlo con PN lo hacemos con su
logaritmo que es una función muchísimo más suave en sus variaciones (recuerde que la función que más
varía es la potencial y sin embargo su logaritmo es una constante) y podremos truncar el desarrollo con
menos términos. Así tendremos:
⎞
⎛ d2
( n − < n >) 2
⎛ d
⎞
Ln[PN (n)] = Ln[PN (< n >)] + ⎜ Ln[PN (n)]⎟
(n − < n >) + ⎜⎜ 2 Ln[PN (n)]⎟⎟
+ ....
2!
⎝ dn
⎠ n =< n >
⎠ n =< n >
⎝d n
El término lineal desaparece al ser PN (y LnPN) máximo en n=<n>. Suprimiendo el logaritmo se llega a:
⎫⎪
⎧⎪⎛ d 2
⎞
( n − < n >) 2
⎟
⎜
PN (n) = PN (< n >) exp⎨⎜ 2 Ln[PN (n)]⎟
+ ....⎬
2!
⎪⎭
⎪⎩⎝ d n
⎠ n =< n >
si n-<n> es suficientemente pequeño podemos suprimir los términos no escritos que son al menos del
orden de (n-<n>)3 y por tanto despreciables frente al primer término que es cuadrático y quedando:
⎧⎪⎛ d 2
⎞
(n− < n >) 2 ⎫⎪
⎟
⎜
PN (n) = PN (< n >) exp⎨⎜ 2 Ln[PN (n)]⎟
⎬
2!
⎪⎭
⎪⎩⎝ d n
⎠ n =< n >
Para hacer más clara la simplificación a la que hemos llegado observe que la distribución depende de tres
constantes A, B y <n>:
G. NAVASCUÉS
15 de Septiembre de 2005
8
1 INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROCESOS ALEATORIOS
⎧ ( n − < n >) 2 ⎫
PN (n) = A exp⎨ B
⎬
2
⎭
⎩
A es un factor que se puede fijar fácilmente exigiendo la normalización de la distribución, <n> es otra
constante que sabemos lo que representa y finalmente B que se determina con poco de álgebra de su
propia definición, usando la distribución binómica para PN y teniendo en cuenta que n es grande. Con todo
esto se llega a cualquiera de estas dos expresiones (ver libro de Rief para los detalles algebraicos):
PN (n) =
⎧ (n − pN ) 2 ⎫
exp⎨−
⎬=
2 Npq ⎭
2πNpq
⎩
1
⎧ ( n − < n >) 2 ⎫
1
exp⎨−
⎬
2(∆n) 2 ⎭
2π ∆n
⎩
1
Lo importante del resultado es que para conocer la probabilidad para un valor de n basta evaluar una
simple exponencial ¡¡¡ compare esta evaluación con el cálculo de un número combinatorio !!!
Naturalmente es una aproximación que está basada en que n-<n> es pequeño pero se puede demostrar
(ver libro de Reif) que para los valores en que la aproximación no es buena el valor de PN es tan
insignificante que ya da igual que la aproximación sea incluso muy mala. Una exposición más rigurosa
(ver Reif) exige que Npq sea >>1, es decir no hay ningún problema si N es grande salvo que p o q sean
demasiado pequeños. En este caso veremos que hay otra aproximación que vuelve a evitar calcular
factoriales de números grandes.
Esta distribución exponencial se llama distribución gaussiana y usualmente se utilizan las letras griegas
µ (¡no confundir con el momento magnético) y σ para representar el valor medio y la desviación estándar:
PN (n) =
con
µ ≡< n >= pN y σ ≡ ∆n =
⎧ (n − µ ) 2 ⎫
exp⎨−
⎬
2σ 2 ⎭
2π σ
⎩
1
1
pqN .
1.5 DISTRIBUCIÓN DE POISSON
Hemos visto que la distribución gaussiana es una buena aproximación cuando qpN>>1. Siendo los casos
interesantes los que tienen N grande la distribución de gauss será muy útil la mayoría de las veces. Pero
puede ocurrir que p (o q) fuera tan pequeño que frustrase la condición anterior. En este caso vamos a ver
que existe otra aproximación que evita otra vez tener que usar la distribución exacta y por tanto evita la
evaluación de factoriales de grandes números.
Observe que si p<<<1 y q=1-p≈1 la distribución es
extremadamente asimétrica, tanto que el máximo está
cerca o en el valor n=0 (ver figura) de tal modo que sólo
las probabilidades de n pequeño tienen un valor
significativo: tan pequeño es p que es altamente
improbable que salga el resultado desfavorable más de
unas pocas veces. Así que lo importante es tener una
buena aproximación de PN(n) para valores pequeños de n.
Primero voy a obtener dos resultados basados en que
p<<<1 y n<<N (problema 1.9 del libro de Reif):
[
a) Ln (1 − p )
b)
N −n
] = ( N − n) Ln(1 − p) ≈ ( N − n)(− p)
N!
= N ( N − 1)( N − 2)...( N − n + 1) ≈ N n
( N − n)!
G. NAVASCUÉS
y para n << N
[
]
Ln (1 − p) N − n ≈ − pN = − < n >)
para n << N
15 de Septiembre de 2005
9
1 INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROCESOS ALEATORIOS
Entonces:
PN (n) = p q
n
N −n
n
( pN ) n
N!
N!
n
N −n
n N
= p (1 − p )
≈p
exp{− pN }
exp{− pN } =
n!
n!
n!( N − n)!
n!( N − n)!
al producto pN, que es el valor medio <n>, se suele rescribirlo en este límite con la letra griega λ:
PN (n) =
λn
n!
exp{− λ }
que es conocida como distribución de Poisson. Observe que la expresión vuelve a ser muy fácil de
evaluar ya que el factorial que aparece es el de n y n debe ser pequeño; para valores grandes de n la
distribución no es una buena aproximación pero para esos valores la probabilidades ya son prácticamente
nulas. A partir de la distribución de Poisson se puede evaluar el promedio de cualquier variable de interés
en cualquier sistema.
1.6 DENSIDAD DE PROBABILIDAD
Aprovechando el ejemplo del borracho (o el de los espines) podemos introducir el concepto de densidad
de probabilidad, mucho más práctico que el de la probabilidad en la mayoría de los problemas físicos
que estudiaremos. Si n la hemos considerado continua para manejarla con más facilidad y poder obtener
aproximaciones prácticas lo mismo podemos hacer con la variable x que es la distancia a la que llega el
borracho. Aunque la consideremos continua está claro que, como la variable n, sólo tiene sentido como
múltiplos del L (recuerde que L es el alcance de cada paso). Con el cambio de variables x=nL-(N-n)L
podemos obtener la aproximación gaussiana para PN(x):
⎧ ( x − < x >) 2 ⎫
2L
exp⎨−
⎬
2(∆x) 2 ⎭
2π ∆x
⎩
1
PN ( x) =
para los espines tendríamos:
PN ( M ) =
⎧ ( µ − < µ >) 2 ⎫
2µ
exp⎨−
⎬
2(∆µ ) 2 ⎭
2π ∆µ
⎩
1
Pero lo que busco es otra cosa ligeramente diferente: la probabilidad P(x,x+dx) de que el borracho en el
experimento (es decir después de dar N pasos) se encuentre en un intervalo (x,x+dx) de distancias en
vez de a una determinada distancia x (o la probabilidad P(M,M+dM) de que el sistema de espines en el
experimento (es decir en una observación de los N espines) se tenga una magnetización cuyo valor se
encuentre en el intervalo M,M+dM. Ese intervalo es infinitesimal pero en el que caben varias posibles
posiciones finales del borracho o posibles valores de M (ver figura) . Esto tiene sentido ya que N es
enorme y los valores de interés de x (M), los cercanos al valor medio que son los que tienen una
probabilidad significativa de que ocurran, son gigantescos en
comparación con 2L (2µ) y desde este punto de vista en un
intervalo dx (dM) puede haber varios saltos de 2L (2µ). Entonces
es evidente que
ΡN ( x, x + dx) = PN ( x) + PN ( x + 2 L) + ... + PN ( x + dx) = PN ( x)
x
x+dx
2L
dx
= p N ( x)dx
2L
Donde la última igualdad se obtiene teniendo en cuenta que como
el intervalo es pequeño las probabilidades en el intervalo (x, x+dx)
difieren poco entre si: PN ( x) ≈ PN ( x + 2 L) ≈ ... ≈ PN ( x + dx ) , de
manera que se toma una de ellas y se multiplica por su número.
En el resultado al factor, PN ( x )
1
= p N ( x) , que multiplica a dx se le llama densidad de probabilidad
2L
(¡¡¡no es una probabilidad!!!) es una función de la variable x que multiplicada por el diferencial
G. NAVASCUÉS
15 de Septiembre de 2005
10
1 INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROCESOS ALEATORIOS
de x da, ahora si, la probabilidad de encontrar el sistema (el borracho) en el intervalo (x,x+dx)
después del experimento. Observe que necesariamente la densidad de probabilidad pN tiene
dimensiones de inversa de x. Podemos ahora usar la aproximación gaussiana de la probabilidad para
obtener una aproximación gaussiana para la densidad de probabilidad:
p N ( x) =
⎧ ( x − < x >) 2 ⎫
1
exp⎨−
⎬
2(∆x) 2 ⎭
2π ∆x
⎩
1
(Observe atentamente que efectivamente pN(x) tiene dimensiones de inversa de x mientras que PN(x) o
PN(n) son adimensionales como corresponde a una probabilidad). Para el caso de los espines el resultado
se obtiene sustituyendo x por µ en todas las expresiones anteriores. Observe la potencia del método que
permite, una vez resuelto el problema, aplicarlo a una variedad de problemas ilimitada. Todo lo que hay
que hacer es reinterpretar las expresiones.
Fíjese que para obtener valores medios usando la densidad de probabilidad hay que integrar:
< x >= ∫ xp N ( x ) dx
que usualmente es mucho más fácil de evaluar que una suma. Observe que los límites de la integral
pueden ser ± infinito, lo cuál no tiene sentido si estamos en el caso del borracho (y también en otros
sistemas) ya que con N pasos sólo se puede llegar a x=±NL. Sin embargo para esos valores (e incluso
mucho antes) la exponencial es totalmente despreciable así que contribuye de forma insignificante a la
integral, a cambio la integración puede ser bastante más fácil.
Puede ocurrir que la p(x) densidad de probabilidad tenga un valor infinito, esto no debe alarmar ya que es
la probabilidad p(x)dx es la que tiene que ser finita (menor que uno si está normalizada a la unidad). De
hecho la integral de la probabilidad debe ser finita (uno si esta normalizada a la unidad). En ocasiones
conviene hacer un cambio de variable, por ejemplo usar un variable y que esta relacionada con x por la
función y=y(x). Si esta función es monótona creciente o decreciente la densidad de probabilidad en
función de la nueva variable se obtiene trivialmente. Si no lo es hay que tener cuidado: la probabilidad
p(y)dy de encontrar el sistema en un intervalo y,y+dy es la suma de probabilidades p(x1)dx+p(x2)dx+...,
siendo y(x1)= y(x2)=...=y. Las dos figuras adjuntas muestran claramente el porqué.
y
y
y
y+dy
y
y+dy
x
x
x
x+dx
x1 x1+dx
x2 x2+dx
x3 x3+dx
(¡¡¡ EN EL RESTO DE ESTA INTRODUCCIÓN NO DEBE PERDERSE
EN EL ÁLGEBRA: FÍJESE MÁS EN LAS IDEAS!!!)
G. NAVASCUÉS
15 de Septiembre de 2005
11
1 INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROCESOS ALEATORIOS
2 CAMINO ALEATORIO PROBLEMA GENERAL
Ahora vamos a ver cómo se pueden generalizar las ideas anteriores a otros casos más complicados.
Aunque el álgebra es más engorrosa las ideas son las mismas. La generalización más inmediata, ya
insinuada anteriormente, es aquella en que los posibles resultados del suceso sean más de dos, por
ejemplo tirar un dado, en vez de una moneda, supone esperar que salga una de las seis puntuaciones
posibles del dado. Si el dado no está cargado cada cara tiene la misma probabilidad 1/6 de salir, en caso
en que no fuera así, en general, la cara con 1 punto tendría la probabilidad p1, la cara con 2 puntos
probabilidad p2, y así sucesivamente, y además, si queremos que las probabilidades estén normalizadas
debe verificarse que:
i =6
∑p
i =1
i
=1
Observe que estoy usando la notación más práctica para cuando hay más de dos resultados en un suceso.
En una sucesión de N sucesos (N tiradas del dado) la probabilidad de que salga, no importa el orden, n1
veces 1 punto, n2 veces 2 puntos, etc es la generalización de la distribución binómica:
PN (n1 , n2 , n3 , n4 , n5 , n6 ) = p1 1 p2 2 p3 3 p4 4 p5 5 p6
n
i =6
que con las condiciones
∑ pi = 1 y
i =1
i =6
∑n
i =1
i
n
n
n
n
n6
N!
n1!n2 !n3!n4 !n5!n6 !
= N . Observe que esta probabilidad es el término general del
polinomio ( p1 + p 2 + p 3 + p 4 + p 5 + p 6 ) . Observe que este caso se reduce al binómico haciendo p1=p y
N
p2=q (p3=p4=p5=p6=0) y n1=n, n2=N-n (n3=n4=n5=n6=0):
PN (n1 , n2 ) = PN (n1 , N − n1 ) = PN (n1 ) = p1 1 p2
n
n2
N!
N!
n
= p1 1 (1 − p1 ) n2
n1!( N − n1 )!
n1!n2 !
En general con N sucesos en donde hay M posibles resultados:
i=M
PN ({ni }) = ∏ p
i =1
i=M
i=M
N!
ni
i i=M
∏n !
i
siendo
∑p
i =1
i
=1
y
∑n
i =1
i
=N
i =1
La generalización puede ser de otro tipo: cada suceso puede generar dos o más resultados. Por ejemplo
en vez de tirar un dado se tiran dos dados, o un dado y una moneda o tres dados, o se observan las
posiciones de los átomos de nitrógeno de cinco moléculas de amoniaco o las orientaciones en una red de
espines, etc, etc. Aquí supondremos que los resultados observados en cada suceso son independientes
entre sí, es decir al tirar los dados lo que pase a cada uno de ellos no interfiere en lo que lo pase al otro:
son estadísticamente independientes. Lo mismo supondremos en cualquiera de los otros ejemplos. Así la
independencia estadística es doble en una cadena de sucesos (tirar los dados varias veces),
estos sucesos son independientes unos de otros (cada vez que se tiran los dados no importa
que es lo que haya ocurrido en las tiradas anteriores) pero también lo son los resultadas de
cada suceso (en cada tirada cada dado no es afectado por los otros). En general supongamos un
experimento de N sucesos, cada suceso tiene S resultados. El resultado i tiene Mi posibilidades La
expresión formal de estos casos se escribe:
{ }{ } { }
{ }
{ }
{ }
ΡN ( n (1) i , n ( 2 ) i ,..., n ( S ) i ) = P (1) N ( n (1) i ) × P ( 2 ) N ( n ( 2 ) i ) × ... × P ( S ) N ( n ( S ) i )
G. NAVASCUÉS
15 de Septiembre de 2005
12
1 INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROCESOS ALEATORIOS
donde he aprovechado la independencia estadística para factorizar la probabilidad. Cada factor es de la
forma:
i = Mk
P
(k )
N
{ }) = ∏ ( p
(n
(k )
N!
( k ) ni
i
i = Mk
i
i =1
)
∏n
(k )
i
!
i =1
i = Mk
con
∑p
(k )
i =1
i
=1
i = Mk
y
∑n
(k )
i =1
i
=N.
ΡN({ni},{mi},...) es la probabilidad de que en el experimento de los N sucesos, las posibilidades 1,2,... M1
del primer suceso ha salido n(1)1, n(1)2, ... veces respectivamente, las posibilidades 1,2,... M2 del segundo
suceso ha salido n(2)1, n(2)2, ... veces respectivamente, etc, etc. Por ejemplo si considero el experimento
de tirar tres veces un moneda y un dado (se tira tres veces: N=3; hay dos resultados cada vez: una
puntuación del dado y una de las caras de la moneda, por lo tanto S=2) que no están trucados (es decir
p(dado)i =1/6 y p(moneda)i =1/2) la probabilidad de que salga el uno del dado una vez, el dos una vez, el
cuatro una vez (por tanto ninguna vez el resto de las puntuaciones), la cara de la moneda dos veces (y
por tanto la cruz una vez), es
Ρ3 (n ( dado )1 = 1, n ( dado ) 2 = 1, n ( dado ) 3 = 0, n ( dado ) 4 = 1, n ( dado ) 5 = 0, n ( dado ) 6 = 0;
m ( moneda ) cara = 2, m ( moneda ) cruz = 1) =
= Ρ3 (n ( dado )1 = 1, n ( dado ) 2 = 1, n ( dado ) 3 = 0, n ( dado ) 4 = 1, n ( dado ) 5 = 0, n ( dado ) 6 = 0) ×
× P3 (m ( moneda ) cara = 2, m ( moneda ) cruz = 1) =
3!
×
1!1!0!1!0!0!
3!
× (1 / 2) n1 (1 / 2) n2
=
2!1!
= (1 / 6) n1 (1 / 6) n2 (1 / 6) n3 (1 / 6) n4 (1 / 6) n5 (1 / 6) n6
= (1 / 6) 3
3!
3!
× (1 / 2) 3 = ...
2
1
Observe como se simplifica el cálculo numérico si todas las pi son iguales.
La propiedad de independencia estadística tiene como consecuencia que el valor medio de una suma (o un
producto) es la suma de valores medios (o producto) de valores medios:
< a + b + ... >=< a > + < b > +...
< ab... >=< a >< b > .... .
Ver demostración en el libro de Reif. Este resultado es muy familiar ¿cual es el valor medio de la
puntuación de un dado? ¡3.5!. ¿Y si tiramos dos dados? pues la suma del valor medio de uno más el valor
medio del otro: ¡7!. No hace falta hacer ningún curso de estadística para predecir estos resultados. Bien
G. NAVASCUÉS
15 de Septiembre de 2005
13
1 INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROCESOS ALEATORIOS
pues la misma idea es la subyace en todo lo que he expuesto; simplemente he usado una descripción
matemática y he generalizado el problema.
3. TEOREMA DEL LÍMITE CENTRAL
(VER LIBRO DE REIF PARA MÁS DETALLES)
W(s)
W(s)
s
-d
s
d
w(si)dsi=probabilidad de desplazamiento en el rango si si+dsi
desplazamiento total después de N pasos: x=s1+s2+...+sN=∑si ⇒ <x>=N<s>, <s>=∫w(s)sds
................................................................................ ⇒ <∆x>=√N< ∆ s>, <s2>=∫w(s)s2 ds
P(x)dx=probabilidad de un desplazamiento x después de N pasos
+∞
⇒
P( x)dx =
+∞
∫ w(s )ds ∫ w(s
1
−∞
⇒
1
−∞
+∞
2
N
x < ∑ si < x + dx
)ds 2 .... ∫ w( s N )ds N
1
−∞
+∞+∞
+∞
+∞ +∞
+∞
N
− ∞− ∞
−∞
− ∞− ∞
−∞
1
P( x)dx =
∫
∫ ... ∫ w(s1 )w(s 2 )....w(s N )ds1ds 2 ...ds N =
∫
∫ ... ∫ w(s1 )w(s 2 )....w(s N )δ ( x − ∑ si )dxds1ds 2 ...ds N
N
x < ∑ si < x + dx
1
⇒
P( x)dx =
N
δ ( x − ∑ si ) =
1
+∞ +∞
+∞
N
− ∞− ∞
−∞
1
∫
1
2π
G. NAVASCUÉS
∫ ... ∫ w(s1 )w(s 2 )....w(s N )δ ( x − ∑ si )dxds1ds 2 ...ds N
+∞
N
⎧
⎫
dk
ik
x
si )⎬
exp
−
(
−
⎨
∑
∫−∞
1
⎩
⎭
15 de Septiembre de 2005
14
1 INTRODUCCIÓN A LAS DISTRIBUCIONES DE PROCESOS ALEATORIOS
⇒
P ( x) =
1
2π
+∞
N
∫ dk exp{− ikx}Q (k )
−∞
+∞
Q(k ) ≡ ∫ ds exp{iks}w( s )
W(s)
−∞
s
+∞
Q(k ) ≡
∫ ds exp{iks}[ pδ ( s − L) + qδ ( s + L)] = p exp{ikL} + q exp{− ikL}
−∞
N
Q N (k ) = ( p exp{ikL} + q exp{− ikL}) N = ∑
0
⇒
P ( x) =
1
2π
N
P( x) = ∑
0
+∞
N
−∞
0
∫ dk exp{− ikx}∑
N!
p n q N − n exp{ikL(2n − N )}
n!( N − n)!
N!
1
p n q N −n
n!( N − n)!
2π
G. NAVASCUÉS
N!
p n q N − n exp{ikL(2n − N )}
n!( N − n)!
+∞
N
−∞
0
∫ dk exp{ik ( L(2n − N ) − x)} = ∑
N!
p n q N − n δ ( L( 2n − N ) − x)
n!( N − n)!
15 de Septiembre de 2005
15
Descargar