FÍSICA MATEMÁTICA. 2015-2016 Relación 4: Monte Carlo 14

Anuncio
FÍSICA MATEMÁTICA. 2015-2016
Relación 4: Monte Carlo
14. Obtener el valor esperado y la varianza de una variable aleatoria n = 0, 1, 2, 3, . . . que obedece
µn e−µ
una función de distribución de probabilidad de Poisson, pn =
.
n!
15. Sean X e Y dos variable aleatorias independientes uniformemente distribuidas en [0, 1]. Se pide
calcular la densidad de probabilidad de Z = X/Y , y calcular hZ α i para |α| < 1.
1 1
, x ∈ R. Sean {Xi }N
i=1 N variables
π x2 + 1
aleatorias independientes con distribución p(x) y sea X̄ su media aritmética. Probar que X̄ también
obedece a una distribución de Cauchy normalizada.
16. La distribución de Cauchy normalizada es p(x) =
R1
17. (Variables de control.) Se quiere estimar el valor de la integral I = 0 dx ex mediante Monte
Carlo generando puntos independientes uniformemente distribuidos
R 1en [0, 1]. Para reducir el error
se considera aplicar el método Monte Carlo a la integral Ia = 0 dx (ex − ax) donde a es un
parámetro a elegir de modo que la varianza
del integrando sea mı́nima. La integral pedida se
R1
recupera con I = Ia + a/2 (la integral 0 dx x = 12 se supone conocida en forma exacta). Se pide
calcular la varianza en función de a y hallar el valor óptimo de este parámetro, ası́ como estimar
cuál es la reducción en el número de puntos requerido por usar a óptimo frente a a = 0. (Lo
que se quiere es ver la eficiencia del método; para ese estudio deben usarse los valores exactos de
todas las integrales requeridas.)
18. Sean X, Y dos variables aleatorias reales con densidad de probabilidad pX,Y (x, y) proporcional
a 1/(1 + x2 + y 2 )2 . Se pide especificar sendas funciones f1 y f2 tales que X = f1 (u1 , . . .) e
Y = f2 (u1 , . . .) sigan la distribución pedida (siendo las ui uniformemente distribuidas en (0, 1) e
independientes). Calcular la covarianza de X e Y . ¿Son estas variables independientes?
19. Para hacer un muestreo
mediante aceptación-rechazo de la distribución d-dimensional (no normaQ
lizada) w(x) = di=1 cos(πxi /(2L)) se quiere usar la densidad de probabilidad q(x) proporcional
Q
a di=1 (L2 − x2i ) (ambas con soporte en [−L, L]d ). Buscar un valor adecuado del parámetro K
y obtener la correspondiente probabilidad de aceptación.
20. Cierto sistema puede hallarse en dos estados 0 y 1, con probabilidades p0 y p1 (p0 + p1 = 1).
Queremos simularlo usando Metropolis y para hacer las propuestas se usa una probabilidad auxiliar
Q(0 → 1) = Q(1 → 0) = q y Q(0 → 0) = Q(1 → 1) = 1 − q siendo q un parámetro entre 0 y
1. Se pide obtener la probabilidad W (i → j) asociada y verificar que satisface balance detallado
(para concretar supóngase que p0 ≥ p1 ). Probar que la vida media para llegar al equilibrio es
τ = −1/ log |1 − q/p0 |.
21. Si el valor del lado de un cuadrado, l, tiene densidad de probabilidad pl (x) uniforme en [0, L], se
pide calcular la densidad de probabilidad pA (x) correspondiente al área A = l2 . Verifı́quese que
hAi calculado con pl o con pA da el mismo resultado.
22. Sean τi , i = 1, 2, . . ., variables P
aleatorias independientes y positivas con la misma densidad de
probabilidad e−x , y sean tn = ni=1 τi . Probar que la distribución de cada una de las variables
tn es e−tn tnn−1 /(n − 1)! Usando este resultado probar que, dado un µ positivo, Prob(tn ≤ µ <
tn+1 ) = e−µ µn /n!, es decir, n considerada como una variable aleatoria definida por la condición
tn ≤ µ < tn+1 obedece una distribución de Poisson.
√
−1
23. Aplicar el desarrollo de Stirling, log(x!) = x(log(x) − 1) + log(
2πx) + O(x ), para mostrar
N
pn (1 − p)N −n , se aproxima a
que en el lı́mite de N grande la distribución binomial pn =
n
√
una gaussiana centrada √
en n = pN cuya anchura crece como N . (Sugerencia, hacer el cambio
de variable n = pN + x N , con x fijo cuando N → ∞.)
24. De acuerdo con el teorema del lı́mite central, si Xi ∼ p(x) son N variables
PN independientes y
p es bien comportada (admite media y varianza finitas) la media X̄ = i=1 Xi /N sigue una
distribución normal en el lı́mite de N grande. Demostrarlo. (Sugerencia trabajar con variables
reescaladas y con las transformadas de Fourier de las distribuciones.)
25. Probar que el método de Metropolis-Hastings (Q(x, y) no simétrica) satisface balance detallado.
Descargar