Lección 2: Procesos estocásticos Definición Dada una variable estocástica X, existen multitud de otras variables estocásticas que se obtienen a partir de ella, es decir magnitudes Y que son función de X a través de un mapa f que también puede depender de una variable adicional t, YX (t) = f (X, t). (74) Estas funciones Y (t) se llaman funciones aleatorias o procesos estocásticos pues la variable t suele ser el tiempo. Una función muestra o realización de dicho proceso estocástico consiste en sustituir en f una de los posibles valores de X esto es Yx (t) = f (x, t) (75) Los promedios son fáciles de calcular a partir de la distribución de probabilidad para X : Z hY (t)i = Yx (t)PX (x) dx (76) o de forma más general hY (t1 ) . . . Y (tn )i = Z Yx (t1 ) . . . Yx (tn )PX (x) dx (77) Un interés especial como veremos a lo largo del curso tiene la función de autocorrelación: κ(t1 , t2 ) ≡ hhY (t1 )Y (t2 )ii = h[Y (t1 ) − hY (t1 )i][Y (t2 ) − hY (t2 )i]i = hY (t1 )Y (t2 )i − hY (t1 )ihY (t2 )i. (78) Un proceso estocástico se dice estacionario cuando los momentos no se ven afectados por un cambio en el tiempo hY (t1 + τ ) . . . Y (tn + τ )i = hY (t1 ) . . . Y (tn )i ∀n, τ, y todo t1 , . . . , tn . (79) 15 en particular hY i es independiente del tiempo, es constante para un proceso estacionario. En este caso es conveniente trabajar con la variable reescalada Ỹ (t) = Y (t) − hY i. La autocorrelación κ(t1 , t2 ) de un proceso estacionario depende solo de |t1 − t2 | y no se ve afectada por la sustracción de una constante. A veces existe un tiempo τc (tiempo de autocorrelación) tal que para |t1 − t2 | > τc se tiene κ(t1 , t2 ) ≈ 0. Un proceso estacionario es una idealización, no existe en la naturaleza. Sin embargo, en el laboratorio, un proceso puede considerarse estacionario si el decaimiento del proceso ocurre en un tiempo mayor que el fenómeno que se desea estudiar. Una condición para esto es que la duración en la que el proceso es estacionario, sea mayor que el tiempo de autocorrelación. Procesos con τc no finito nunca olvidan que comenzaron en el pasado y no pueden ser tratados como estacionarios. Si la cantidad Y (t) tiene varias componentes Yj (t) (j = 1, . . . , r), esto es, si tenemos un vector Y (t), la autocorrelación se sustituye por la matriz de correlación: Kij ≡ hhYi (t1 )Yj (t2 )ii. (80) cuyos elementos diagonales se llaman autocorrelaciones y los de fuera de la diagonal correlaciones cruzadas. Para un proceso estacionario con media nula se tiene Kij (τ ) = hYi (t)Yj (t + τ )i = hYi (0)Yj (τ )i (81) Kij (τ ) = Kij (−τ ) Cuando Y (t) es complejo (amplitud de una oscilación) podemos definir la función de autocorrelación compleja κ(τ ) ≡ hhY (0)∗ Y (τ )ii = κ(−τ )∗ (82) aunque tiene menos información que si hubiesemos considerado Y (t) como una variable de dos componentes reales y hubiesemos construido una matriz 2 × 2. Procesos estocásticos en Fı́sica El estudio de los procesos estocásticos es muy importante en el campo de la fı́sica pues hay multitud de fenómenos que dependen del tiempo de forma muy compleja y que a veces su observación es muy compleja. 16 Esto impide un estudio preciso y sistemático de los mismos. Sin embargo algunas caracterı́sticas promedio pueden ser observadas y a veces obedecen leyes sencillas. Por ejemplo el valor instantáneo de la fuerza que ejerce las moléculas de un gas sobre un pistón varı́a de forma rápida e impredecible (fluctuaciones). Sin embargo el promedio de dicha fuerza sobre pequeños intervalos de tiempo es una función suave que obedece la ley de Boyle. Se argumenta que el uso de probabilidades en fı́sica se debe a nuestro desconocimiento del estado microscópico. Sin embargo, esto no explica porque ciertas variables pueden ser promediadas y otras no. Lo que sı́ es verdad es que en el estado macroscópico podemos detectar regularidades que obedecen leyes generales. Parece entonces que en estos casos los valores precisos de las variables microscópicas no son importantes y podemos promediar sobre ellos (variables microscópicas que varı́an rápidamente). Para ver como los procesos estocásticos aparecen en fı́sica consideremos un gas monoatómico de N moléculas en una caja con paredes reflectantes. El microestado está determinado por 6N coordenadas y momentos. Fijamos un tiempo inicial y llamamos x al microestado inicial (formado por los 6N valores de coordenadas y momentos en el instante inicial), que determina unı́vocamente el microestado en cualquier otro tiempo a través de las ecuaciones del movimiento. Un magnitud fı́sica Y definida en este sistema será función de las 6N coordenadas generalizadas: por ejemplo el número de partı́culas en un elemento de volumen, la fuerza sobre un pistón, etc. En un instante de tiempo t Yx (t) será función de x y t. El estudio de estos sistemas mediante la mecánica estadı́stica se basa en la idea de que el sistema se puede sustituir por un colectividad adecuada de sistemas (todos con el mismo macroestado definiendo la colectividad) cada uno de los cuales tiene las mismas ecuaciones del movimiento pero diferentes microestados iniciales x. La colectividad viene especificada por una función densidad ρ(x) tal que ρ(x)dx es el número de elementos de la colectividad cuyo microestado está dentro del volumen elemental dx. Esto nos permite introducir una variable estocástica X cuyo rango son todos los posibles microestados y cuya probabilidad es PX (x) = R 17 ρ(x) ρ(x0 ) dx0 (83) que permite calcular promedios e interpretarlos como valores observados de las magnitudes fı́sicas. La sustitución de un sistema por una colectividad tiene el efecto que cada magnitud fı́sica Y (t) se puede ver como un proceso estocástico cuyo promedio y momentos están relacionados con las observaciones: la presión sobre un pistón se identifica con el promedio sobre la colectividad de la fuerza ejercida por las moléculas, más que un promedio temporal. La cuestión de si ambos tipos de promedio son lo mismo es el problema fundamental de la mecánica estadı́stica. Además de promediar sobre el estado inicial x es necesario resolver las ecuaciones del movimiento a la hora de encontrar Yx (t). Uno puede utilizar la aproximación (llamada aproximación de la fase aleatoria) mediante el promedio repetido sobre las variables irrelevantes en diferentes instantes de tiempo. Esta aproximación da lugar a ecuaciones diferenciales para la evolución del resto de variables lentas, como por ejemplo las ecuación que da la velocidad de una reacción quı́mica entre dos componentes que es función de la concentración de los componentes, independientemente de la posición y velocidad precisas de las moléculas. Estas ecuaciones son las ecuaciones macroscópicas, como por ejemplo la ecuaciones para las reacciones quı́micas, la ecuación de difusión, la ecuación de Malthus para el crecimiento de poblaciones. Son ecuaciones aproximadas de la realidad, cuyas pequeñas desviaciones se muestran como fluctuaciones. Las fluctuaciones no pueden encontrarse de forma exacta (habrı́a que resolver las ecuaciones microscópicas). Sus propiedades estocásticas sin embargo obedecen leyes sencillas. Además para establecer estas leyes se requieren las mismas consideraciones de promedios aleatorios que para obtener las leyes macroscópicas. Esta descripción basada en la teorı́a de las fluctuaciones se llama descripción mesoscópica y es más detallada que la macroscópica pues introduce fluctuaciones pero menos que la microscópica dada la repetido promedio aleatorio de las variables rápidas que conlleva. La drástica naturaleza del promedio aleatorio considerado hace que tanto las ecuaciones macroscópicas como mesoscópicas son irreversibles, mientras que las microscópicas son reversibles en el tiempo. Ha habido muchos intentos de prescindir de esta aproximación y derivar las ecuaciones mesoscópicas y macroscópicas sin hacer uso de esta aproximación. Sin embargo la matemática utilizada es excesivamente oscura 18 y formal para los resultados obtenidos. Necesitamos entender porque en la naturaleza nos encontramos solamente con procesos en los que la entropı́a se incrementa, mientras que los procesos en sentido contrario son igualmente consistentes con las leyes microscópicas del movimiento. Uno se encuentra con una aleatoriedad adicional cuando estudia sistemas cuánticos, que es inherente a la propia teorı́a y no a la complejidad del sistema. Por ejemplo la estocasticidad del decaimiento radioactivo tiene un origen puramente cuántico. Sin embargo es claro que no hay que recurrir a la impredecibilidad cuántica para explicar por qué los procesos estocásticos aparecen en fı́sica. El promediado clásico sobre todos los microestados en una región del espacio de las fases es equivalente en mecánica cuántica a promediar sobre todos los vectores de módulo unidad en un subespacio lineal del espacio de Hilbert del sistema. Esto es un promedio sobre un conjunto ortonormal de vectores unidad en dicho subespacio. Transformada de Fourier de procesos estacionarios: Teorema de Wiener-Khinchin Consideremos un proceso estocástico real con una sóla componente Y (t) en el intervalo 0 < t < T. Cada realización es una función del tiempo Yx (t) y se le puede calcular la TF. Para no tener coeficientes complejos consideremos la transformada del seno Yx (t) = ∞ X An,x sin n=1 donde An,x 2 = T Z T sin 0 y obedecen la identidad de Parseval ∞ 1 1X 2 An,x = 2 n=1 T nπ t T nπ t Yx (t) T Z (84) (85) T Yx (t)2 dt. (86) 0 Dado los posibles valores de X y su densidad de probabilidad PX (x) entonces los An,x son variables estocásticas An , con promedio 2 hAn i = T Z T sin 0 19 nπ t hY (t)i T (87) y ∞ 1 1X 2 hAn i = 2 n=1 T Z T 0 hY (t)2 i dt. (88) Si Y (t) es estacionario, con promedio nulo y tiempo de autocorrelación τc finito, entonces hY 2 i es independiente del tiempo y se tiene ∞ X n=1 1 hA2n i 2 = hY 2 i (89) es decir el cuadrado promedio de las fluctuaciones es una suma de términos, cada uno relacionado con un única frecuencia πn/T. Nos interesa ver como hY 2 i se distribuye sobre todas las frecuencias, esto es, la densidad espectral de las fluctuaciones S(ω) definida como X 1 hA2n i. (90) S(ω)∆ω = 2 ω<πn/T <ω+∆ω Para tomar ∆ω pequeño tenemos que tomar T grande para tener muchos valores de n (términos) que caen dentro de ∆ω. El teorema de Wiener-Kinchin dice que S(ω) es la transformada del coseno de la función de autocorrelación temporal: Z 2 ∞ cos(ωτ )κ(τ ); dτ. (91) S(ω) = π 0 La demostración del teorema es sencilla sin más que utilizar la definición de los coeficientes de Fourier Z T Z T 4 πnt0 πnt 0 2 hAn i = sin hY (t)Y (t0 )i dt dt sin T2 0 T T 0 (92) Z T Z T −t πnt πn(t + τ ) 4 dt κ(τ ) dτ sin sin = T2 0 T T −t Desarrollando el sin(A + B) y teniendo en cuenta que T es más grande en general que los valores de τ para los que κ(τ ) difiere de cero podemos 20 extender los lı́mites de la segunda integral de −∞ a +∞ obteniendo Z T Z ∞ 4 πnτ 2 πnt 2 dt κ(τ )dτ hAn i = sin cos T2 0 T T −∞ 4 + 2 T 2 = T Z Z T 0 πnt πnt sin cos dt T T ∞ cos −∞ Z ∞ sin −∞ πnτ κ(τ )dτ T (93) πnτ κ(τ )dτ. T Suponiendo que κ(τ ) es suave, en cada intervalo ∆ω podemos poner Z ∞ Z ∞ πnτ cos κ(τ )dτ = cos(ωτ )κ(τ ) dτ (94) T −∞ −∞ y además hay (T /π)∆ω términos en ∆ω de donde se tiene Z 2 ∞ 1T ∆ω cos(ωτ )κ(τ ) dτ S(ω)∆ω = 2π T −∞ (95) que da el resultado deseado utilizando que ambos cos(ωτ ) y κ(τ ) son funciones pares. Jerarquı́a de las funciones de distribución Podemos evaluar la densidad de probabilidad de que un proceso estocástico Yx (t) tome un valor y en t en la forma Z P1 (y, t) = δ{y − Yx (t)}PX (x) dx. (96) Similarmente podemos evaluar la probabilidad conjunta de que Yx (t) tenga valores y1 , . . . , yn en tiempos t1 , . . . , tn , Z Y n Pn (y1 , t1 ; . . . ; yn , tn ) = δ{yi − Yx (ti )}PX (x) dx (97) i=1 que me define toda una jerarquı́a de densidad de probabilidad Pn (n = 1, 2 . . .), y podemos evaluar los promedios Z hY (t1 ) . . . Y (tn )i = y1 . . . yn Pn (y1 , t1 ; . . . ; yn , tn ) dy1 . . . dyn . (98) Vamos a suponer que todos los ti son distintos. Entonces la jerarquı́a de funciones Pn cumplen 21 (i) Pn ≥ 0; (ii) Pn no cambia al intercambiar dos parejas (xk , tk ) y (xl , tl ) R (iii) Pn (y1 , t1 ; . . . ; yn , tn )dyn = Pn−1 (y1 , t1 ; . . . ; yn−1 , tn−1 ) R (iv) P1 (y1 , t1 ) = 1 Kolmogorov provó que cualquier conjunto de funciones con esas propiedades determina un proceso estocástico Y (t) como lo hemos definido al principio. Luego podemos poner la jerarquı́a de probabilidades conjuntas como la definición de proceso estocástico. La probabilidad condicional P1|1 (y2 , t2 |y1 , t1 ) es la densidad de probabilidad de que Y (t) tome el valor y2 en t2 dado el valor y1 en t1 : Dicho de otra forma, de todo el conjunto de funciones muestra Yx (t) elegimos aquellas que pasan por el punto y1 en t1 ; entonces la fracción de este subconjunto que pasan entre entre el intervalo y2 y y2 + dy2 en t2 es denotado por P1|1 (y2 , t2 |y1 , t1 )dy2 . Claramente P1|1 es no negativa y normalizada: Z P1|1 (y2 , t2 |y1 , t1 )dy2 = 1. (99) De forma más general podemos fijar los valores de Y en k instantes de tiempo t1 , . . . , tk y preguntarnos por la probabilidad conjunta en los restantes l tiempos tk+1 , . . . , tk+l , que nos define de forma general la probabilidad condicional como Pl|k (yk+1 , tk+1 ; . . . ; yk+l , tk+l |y1 , t1 ; . . . ; yk , tk ) Pk+l (y1 , t1 ; . . . ; yk , tk ; yk+1 , tk+1 ; . . . ; yk+l , tk+l ) = Pk (y1 , t1 ; . . . ; yk , tk ) (100) Por definición Pl|k es simétrica en el conjunto de los k pares de variables y de los l pares de variables. Se puede ver como el subconjunto de funciones muestra que pasan entre los intervalos prescritos en los tiempos t1 , . . . , tk . En esta jerarquı́a de funciones densidad podemos definir el funcional caracterı́stico de un proceso estocástico. Sea Y (t) un proceso aleatorio y se a k(t) una función arbitraria del tiempo. Entonces, el funcional caracterı́stico se define como el siguiente funcional de k(t) : Z ∞ k(t)Y (t) dt (101) G[k] = exp i −∞ 22 La convergencia de la integral está garantizada si nos restringimos a funciones k(t) que se anulan para valores grandes de |t|. Desarrollando en serie de potencias se tiene Z ∞ X im G[k] = k(t1 ) . . . k(tm )hY (t1 ) . . . Y (tm )i dt1 . . . dtm (102) m! m=0 que no es sino un desarrollo en los momentos de la distribución conjunta de Y (t1 ), Y( t2 ) . . . Similarmente los cumulantes se obtienen del desarrollo: Z ∞ X im k(t1 ) . . . k(tm )hhY (t1 ) . . . Y (tm )ii dt1 . . . dtm log G[k] = m! m=1 (103) Un proceso es estacionario cuando todas las Pn dependen sólo en diferencias de tiempo: Pn (y1 , t1 + τ ; . . . ; yn , tn + τ ) = Pn (y1 , t1 ; . . . ; yn , tn ) (104) Una condición necesaria pero no suficiente es que P1 (y1 ) sea independiente del tiempo. Un proceso se llama Gaussiano si todas sus Pn son distribuciones Gaussianas (multivariables). En este caso todos los cumulantes por encima de m = 2 son cero: Z ZZ 1 k(t1 )k(t2 )hhY (t1 )Y (t2 )iidt1 dt2 G[k] = exp i k(t1 )hY (t1 )idt1 − 2 (105) que está perfectamente determinado por su promedio Y (t) y su segundo momento hY (t1 )Y (t2 )i. Ejemplos de procesos estocásticos en fı́sica Aunque la mayorı́a de casos de procesos estocásticos que aparecen en fı́sica y quı́mica son procesos de tipo marcoviano, que lo veremos en detalle en la lección siguiente, en esta sección vamos a ver algunos ejemplos de procesos no-Marcovianos: La cuerda vibrante. Consideremos una cuerda de longitud L fija en los extremos, x = 0 y x = L. Si y(x) es el desplazamiento transversal, la energı́a elástica para una configuración particular de la cuerda es Z 2 1 L dy dx. (106) E= 2 0 dx 23 Si consideramos la posibilidad de fluctuaciones térmicas entonces y(x) es una función aleatoria de x (x juega el papel de t). Uno espera que la probabilidad de tener una determinada y(x) sea proporcional al factor de Boltzmann: # " Z L 2 β dy dx . (107) e−E/kT = exp − 2 0 dx Consideremos de forma más precisa la función estocástica Y (x) cuyos posibles valores son las y(x). Consideremos n puntos diferentes en el intervalo (0, L) : 0 < x1 < . . . < xn < L. (108) En cada punto consideramos el intervalo de elongaciones (yν , yν + dyν ), de donde la energı́a de la cuerda se puede escribir como n 1 X (yν+1 − yν )2 , 2 ν=0 xν+1 − xν (109) que permite definir una jerarquı́a de probabilidades Pn en la forma Pn (y1 , x1 ; . . . ; yn , xn ) 1/2 Y n 1/2 β (yν+1 − yν )2 = . exp − 2π(xν+1 − xν ) 2 xν+1 − xν ν=0 (110) La probabilidad Pn me define un proceso estocástico que incluye la idea fı́sica de estado de equilibrio térmico en la cuerda. Como Pn es una distribución de muchas variables Gaussianas, nos encontramos con un proceso Gaussiano. Se tiene que hY (x1 )i = 0 y para x1 < x2 2πL β β hY (x1 )Y (x2 )i = x1 (L − x2 ) βL (111) Como este proceso no es estacionario no está garantizada la dependencia de la autocorrelación en |x1 − x2 | (en este caso no tiene esta dependencia). Entonces el teorema de Wiener-Khinchin no se puede aplicar directamente. Se tiene además que hAn i = 0 y hAn Am i = δnm 2L βπ 2 n2 (112) que indica que todos los modos están descorrelacionados y que cada nodo lleva una energı́a promedio de 12 kT , lo que implica una divergencia de la energı́a total (Ejercicio: demostrarlo). Este resultado no es 24 paradógico para una cuerda fı́sica ya que la expresión de la energı́a que estamos utilizando no es válida para longitudes de onda tan pequeñas. El mismo cálculo se puede hacer para ondas electromagnéticas entre dos espejos reflectantes. En este caso el campo de energı́a infinita está asociada la catástrofe ultravioleta de Rayleigh−Jeans resuelta por Planck introduciendo la cuantización de la energı́a. Modelo de campo aleatorio. Consideremos un campo u(r, t) que satisface la ecuación diferencial lineal ∂2u =0 ∂t2 cuya solución es una superposición de los modos normales X u(r, t) = Aq uq (r, t). ∇2 u − (113) (114) q La energı́a del campo es la suma de las energı́as de los modos normales: X E= q A2q (115) q El equilibrio térmico está descrito por la colectividad canónica y se tiene para el factor de Boltzmann Y 2 (116) e−E/kT = e−βq Aq q donde las Aq se pueden ver como variables Gaussianas con media nula. De esta forma u(r, t) es un campo aleatorio. Si estamos interesados en las propiedades estocásticas podemos calcular por ejemplo la función de autocorrelación a dos cuerpos. X hu(r1 , t1 )u(r2 , t2 )i = hAq Aq0 iuq (r 1 , t1 )uq0 (r 2 , t2 ) qq 0 (117) = X −1 (2βq ) uq (r 1 , t1 )uq (r 2 , t2 ) q que resulta sin más que tener en cuenta que Aq son variables Gaussianas independientes con media nula. En un espacio infinito hay todo un continuo de modos normales y la superposición (115) es una integral. A la hora de calcular los promedios con la distribución esto se hace complicado. Uno puede considerar que el campo está encerrado en un cubo grande Ω, y podemos 25 considerar que en los bordes del cubo u = 0. Si además requerimos peridicidad para u con periodo Ω (condiciones de contorno periódicas) el tratamiento analitico se simplifica considerablemente. Estas restricciones no afectan el resultado final pues vamos a hacer Ω → ∞. Se tiene en esta condiciones: X u(r, t) = {aq ei(q ·r −qt) + a∗q e−i(q ·r −qt) } (118) q donde q= 2π 2π 2π nx , ny , nz , L L L q = |q|, (119) donde los enteros nx , ny , nz van de −∞ a +∞, y L es el lado del cubo Ω. Si escribimos la amplitud compleja de cada modo en la forma aq = a0q + ia00q , entonces la energı́a total es: Z X 1 E= {(∇u)2 + (∂t u)2 }dr = 2Ω q 2 (a02 + a002 (120) q q) 2 Ω q de forma que en equilibrio térmico tenemos (usando la distribución de probabilidad de equilibrio) 002 2 −1 ha02 q i = haq i = (4Ωβq ) (121) o equivalentemente haq a∗q 0 i = δqq 0 (2Ωβq 2 )−1 , haq aq 0 i = ha∗q a∗q 0 i = 0. (122) Se tiene para la función de correlación hu(r1 , t1 )u(r 2 , t2 )i = X q (2Ωβq 2 )−1 {eiq ·(r 1 −r 2 )−iq(t1 −t2 ) + e−iq ·(r 1 −r 2 )+iq(t1 −t2 ) }. (123) En el lı́mite de Ω muy grande se puede hacer la sustitución Z X Ω ... → . . . d3 q. 3 (2π) q (124) que permitirı́a evaluar la expresión para la función de autocorrelación. 26 Procesos de “ramificación”. Aparecen en problemas de dinámica de poblaciones. Supongamos una población de bacterias que proliferan por división. Una célula de edad τ tiene una probabilidad γ(τ )dt de dividirse en otras dos en el proximo dt, cada una de las cuales genera una nueva rama del arbol evolutivo. Nos preguntamos por la probabilidad P (n, t|m, 0) de tener n individuos en t cuando habı́a m en t = 0. El modelo puede variarse introduciendo una probabilidad de muerte. Este modelo se aplica también a la generación de una cascada de rayos X y neutrones en un reactor. En estos dos casos sin embargo γ no depende de la edad y el proceso es por tanto Markoviano, que permite un tratamiento más sencillo, como veremos en la próxima lección. En todo proceso de ramificación (PR) se cumple: (i) Cada individuo origina una familia de descendientes. (ii) Todas las familias tienen las mismas propiedades estocásticas (lo que implica una homogeneidad en el tiempo). (iii) Las familias no interactúan entre ellas. Como consecuencia de (iii) la probabilidad condicional P (n, t|m, 0) es la convolución de m factores P (n, t|1, 0). Entonces se tiene para la función generatriz del proceso de ramificación F (z, t|m, 0) = {F (z, t|1, 0)}m (t ≥ 0)(primera identidad de PR). (125) Luego basta estudiar la descendencia de un solo individuo. Supongamos que un célula nació en t = 0. Sea w(τ ) la probabilidad de que alcance la edad τ sin dividirse. Entonces w(0) = 1 y dw(τ ) = −γ(τ )w(τ )dτ de donde Z w(τ ) = exp − (126) τ 0 γ(τ )dτ 0 0 . (127) Claramente w(t) es la probabilidad de que haya una sóla célula en el tiempo t. La probabilidad de que se produzca una división entre τ y τ + dτ es −dw(τ ). Cuando esto ocurre la población está formada de dos nuevas células cada una originando su propia familia. Entonces la probabilidad de tener n células presentes en el tiempo t es: Z t P (n, t|1, 0) = δn,1 w(t)− dw(τ )P (n, t|2, τ ) (Segunda identidad de un PR), 0 (128) 27 de donde multiplicando por z n y sumando sobre n = 1, 2 . . . , Z t dw(τ )F (z, t|2, τ ) F (z, t|1, 0) = zw(t) − (129) 0 Usando (ii) se tiene F (z, t|2, τ ) = F (z, t − τ |2, 0) = {F (z, t − τ |1, 0)}2 , (130) de donde nos queda F (z, t|1, 0) − z = − Z = − Z t dw(τ )[{F (z, t − τ |1, 0)}2 − z] 0 (131) t 0 w 0 (t − t0 )[{F (z, t0 |1, 0)}2 − z]dt0 que es una ecuación integral para F (z, t|1, 0), cuya resolución nos dará la función generatriz del proceso estocástico y por tanto la distribución de probabilidad, conocido γ(τ ). 28