Lección 2: Procesos estocásticos

Anuncio
Lección 2: Procesos estocásticos
Definición
Dada una variable estocástica X, existen multitud de otras variables
estocásticas que se obtienen a partir de ella, es decir magnitudes Y que
son función de X a través de un mapa f que también puede depender
de una variable adicional t,
YX (t) = f (X, t).
(74)
Estas funciones Y (t) se llaman funciones aleatorias o procesos estocásticos pues la variable t suele ser el tiempo.
Una función muestra o realización de dicho proceso estocástico consiste
en sustituir en f una de los posibles valores de X esto es
Yx (t) = f (x, t)
(75)
Los promedios son fáciles de calcular a partir de la distribución de
probabilidad para X :
Z
hY (t)i = Yx (t)PX (x) dx
(76)
o de forma más general
hY (t1 ) . . . Y (tn )i =
Z
Yx (t1 ) . . . Yx (tn )PX (x) dx
(77)
Un interés especial como veremos a lo largo del curso tiene la función
de autocorrelación:
κ(t1 , t2 ) ≡ hhY (t1 )Y (t2 )ii = h[Y (t1 ) − hY (t1 )i][Y (t2 ) − hY (t2 )i]i
= hY (t1 )Y (t2 )i − hY (t1 )ihY (t2 )i.
(78)
Un proceso estocástico se dice estacionario cuando los momentos no se
ven afectados por un cambio en el tiempo
hY (t1 + τ ) . . . Y (tn + τ )i = hY (t1 ) . . . Y (tn )i ∀n, τ, y todo t1 , . . . , tn .
(79)
15
en particular hY i es independiente del tiempo, es constante para un
proceso estacionario. En este caso es conveniente trabajar con la variable reescalada Ỹ (t) = Y (t) − hY i. La autocorrelación κ(t1 , t2 ) de un
proceso estacionario depende solo de |t1 − t2 | y no se ve afectada por la
sustracción de una constante. A veces existe un tiempo τc (tiempo de
autocorrelación) tal que para |t1 − t2 | > τc se tiene κ(t1 , t2 ) ≈ 0.
Un proceso estacionario es una idealización, no existe en la naturaleza.
Sin embargo, en el laboratorio, un proceso puede considerarse estacionario si el decaimiento del proceso ocurre en un tiempo mayor que
el fenómeno que se desea estudiar. Una condición para esto es que la
duración en la que el proceso es estacionario, sea mayor que el tiempo
de autocorrelación. Procesos con τc no finito nunca olvidan que comenzaron en el pasado y no pueden ser tratados como estacionarios.
Si la cantidad Y (t) tiene varias componentes Yj (t) (j = 1, . . . , r), esto
es, si tenemos un vector Y (t), la autocorrelación se sustituye por la
matriz de correlación:
Kij ≡ hhYi (t1 )Yj (t2 )ii.
(80)
cuyos elementos diagonales se llaman autocorrelaciones y los de fuera
de la diagonal correlaciones cruzadas. Para un proceso estacionario con
media nula se tiene
Kij (τ ) = hYi (t)Yj (t + τ )i = hYi (0)Yj (τ )i
(81)
Kij (τ ) = Kij (−τ )
Cuando Y (t) es complejo (amplitud de una oscilación) podemos definir
la función de autocorrelación compleja
κ(τ ) ≡ hhY (0)∗ Y (τ )ii = κ(−τ )∗
(82)
aunque tiene menos información que si hubiesemos considerado Y (t)
como una variable de dos componentes reales y hubiesemos construido
una matriz 2 × 2.
Procesos estocásticos en Fı́sica
El estudio de los procesos estocásticos es muy importante en el campo
de la fı́sica pues hay multitud de fenómenos que dependen del tiempo
de forma muy compleja y que a veces su observación es muy compleja.
16
Esto impide un estudio preciso y sistemático de los mismos. Sin embargo algunas caracterı́sticas promedio pueden ser observadas y a veces
obedecen leyes sencillas. Por ejemplo el valor instantáneo de la fuerza
que ejerce las moléculas de un gas sobre un pistón varı́a de forma rápida e impredecible (fluctuaciones). Sin embargo el promedio de dicha
fuerza sobre pequeños intervalos de tiempo es una función suave que
obedece la ley de Boyle.
Se argumenta que el uso de probabilidades en fı́sica se debe a nuestro
desconocimiento del estado microscópico. Sin embargo, esto no explica
porque ciertas variables pueden ser promediadas y otras no. Lo que
sı́ es verdad es que en el estado macroscópico podemos detectar regularidades que obedecen leyes generales. Parece entonces que en estos
casos los valores precisos de las variables microscópicas no son importantes y podemos promediar sobre ellos (variables microscópicas que
varı́an rápidamente).
Para ver como los procesos estocásticos aparecen en fı́sica consideremos un gas monoatómico de N moléculas en una caja con paredes
reflectantes. El microestado está determinado por 6N coordenadas y
momentos. Fijamos un tiempo inicial y llamamos x al microestado inicial (formado por los 6N valores de coordenadas y momentos en el instante inicial), que determina unı́vocamente el microestado en cualquier
otro tiempo a través de las ecuaciones del movimiento. Un magnitud
fı́sica Y definida en este sistema será función de las 6N coordenadas
generalizadas: por ejemplo el número de partı́culas en un elemento de
volumen, la fuerza sobre un pistón, etc. En un instante de tiempo t
Yx (t) será función de x y t.
El estudio de estos sistemas mediante la mecánica estadı́stica se basa en
la idea de que el sistema se puede sustituir por un colectividad adecuada
de sistemas (todos con el mismo macroestado definiendo la colectividad) cada uno de los cuales tiene las mismas ecuaciones del movimiento
pero diferentes microestados iniciales x. La colectividad viene especificada por una función densidad ρ(x) tal que ρ(x)dx es el número de
elementos de la colectividad cuyo microestado está dentro del volumen
elemental dx. Esto nos permite introducir una variable estocástica X
cuyo rango son todos los posibles microestados y cuya probabilidad es
PX (x) = R
17
ρ(x)
ρ(x0 ) dx0
(83)
que permite calcular promedios e interpretarlos como valores observados de las magnitudes fı́sicas.
La sustitución de un sistema por una colectividad tiene el efecto que
cada magnitud fı́sica Y (t) se puede ver como un proceso estocástico
cuyo promedio y momentos están relacionados con las observaciones:
la presión sobre un pistón se identifica con el promedio sobre la colectividad de la fuerza ejercida por las moléculas, más que un promedio
temporal. La cuestión de si ambos tipos de promedio son lo mismo es
el problema fundamental de la mecánica estadı́stica.
Además de promediar sobre el estado inicial x es necesario resolver las
ecuaciones del movimiento a la hora de encontrar Yx (t). Uno puede
utilizar la aproximación (llamada aproximación de la fase aleatoria)
mediante el promedio repetido sobre las variables irrelevantes en diferentes instantes de tiempo. Esta aproximación da lugar a ecuaciones
diferenciales para la evolución del resto de variables lentas, como por
ejemplo las ecuación que da la velocidad de una reacción quı́mica entre
dos componentes que es función de la concentración de los componentes, independientemente de la posición y velocidad precisas de las
moléculas.
Estas ecuaciones son las ecuaciones macroscópicas, como por ejemplo
la ecuaciones para las reacciones quı́micas, la ecuación de difusión, la
ecuación de Malthus para el crecimiento de poblaciones. Son ecuaciones
aproximadas de la realidad, cuyas pequeñas desviaciones se muestran
como fluctuaciones. Las fluctuaciones no pueden encontrarse de forma
exacta (habrı́a que resolver las ecuaciones microscópicas). Sus propiedades
estocásticas sin embargo obedecen leyes sencillas. Además para establecer estas leyes se requieren las mismas consideraciones de promedios
aleatorios que para obtener las leyes macroscópicas. Esta descripción
basada en la teorı́a de las fluctuaciones se llama descripción mesoscópica y es más detallada que la macroscópica pues introduce fluctuaciones
pero menos que la microscópica dada la repetido promedio aleatorio de
las variables rápidas que conlleva.
La drástica naturaleza del promedio aleatorio considerado hace que tanto las ecuaciones macroscópicas como mesoscópicas son irreversibles,
mientras que las microscópicas son reversibles en el tiempo. Ha habido
muchos intentos de prescindir de esta aproximación y derivar las ecuaciones mesoscópicas y macroscópicas sin hacer uso de esta aproximación. Sin embargo la matemática utilizada es excesivamente oscura
18
y formal para los resultados obtenidos. Necesitamos entender porque
en la naturaleza nos encontramos solamente con procesos en los que la
entropı́a se incrementa, mientras que los procesos en sentido contrario
son igualmente consistentes con las leyes microscópicas del movimiento.
Uno se encuentra con una aleatoriedad adicional cuando estudia sistemas cuánticos, que es inherente a la propia teorı́a y no a la complejidad del sistema. Por ejemplo la estocasticidad del decaimiento radioactivo tiene un origen puramente cuántico. Sin embargo es claro que no
hay que recurrir a la impredecibilidad cuántica para explicar por qué los
procesos estocásticos aparecen en fı́sica. El promediado clásico sobre todos los microestados en una región del espacio de las fases es equivalente
en mecánica cuántica a promediar sobre todos los vectores de módulo
unidad en un subespacio lineal del espacio de Hilbert del sistema. Esto
es un promedio sobre un conjunto ortonormal de vectores unidad en
dicho subespacio.
Transformada de Fourier de procesos estacionarios: Teorema de Wiener-Khinchin
Consideremos un proceso estocástico real con una sóla componente Y (t)
en el intervalo 0 < t < T. Cada realización es una función del tiempo
Yx (t) y se le puede calcular la TF. Para no tener coeficientes complejos
consideremos la transformada del seno
Yx (t) =
∞
X
An,x sin
n=1
donde
An,x
2
=
T
Z
T
sin
0
y obedecen la identidad de Parseval
∞
1
1X 2
An,x =
2 n=1
T
nπ t
T
nπ t Yx (t)
T
Z
(84)
(85)
T
Yx (t)2 dt.
(86)
0
Dado los posibles valores de X y su densidad de probabilidad PX (x)
entonces los An,x son variables estocásticas An , con promedio
2
hAn i =
T
Z
T
sin
0
19
nπ t hY (t)i
T
(87)
y
∞
1
1X 2
hAn i =
2 n=1
T
Z
T
0
hY (t)2 i dt.
(88)
Si Y (t) es estacionario, con promedio nulo y tiempo de autocorrelación
τc finito, entonces hY 2 i es independiente del tiempo y se tiene
∞
X
n=1
1
hA2n i
2
= hY 2 i
(89)
es decir el cuadrado promedio de las fluctuaciones es una suma de
términos, cada uno relacionado con un única frecuencia πn/T. Nos
interesa ver como hY 2 i se distribuye sobre todas las frecuencias, esto
es, la densidad espectral de las fluctuaciones S(ω) definida como
X
1
hA2n i.
(90)
S(ω)∆ω =
2
ω<πn/T <ω+∆ω
Para tomar ∆ω pequeño tenemos que tomar T grande para tener muchos valores de n (términos) que caen dentro de ∆ω.
El teorema de Wiener-Kinchin dice que S(ω) es la transformada del
coseno de la función de autocorrelación temporal:
Z
2 ∞
cos(ωτ )κ(τ ); dτ.
(91)
S(ω) =
π 0
La demostración del teorema es sencilla sin más que utilizar la definición
de los coeficientes de Fourier
Z T Z T
4
πnt0
πnt
0
2
hAn i =
sin
hY (t)Y (t0 )i
dt
dt
sin
T2 0
T
T
0
(92)
Z T
Z T −t
πnt
πn(t + τ )
4
dt
κ(τ ) dτ
sin
sin
=
T2 0
T
T
−t
Desarrollando el sin(A + B) y teniendo en cuenta que T es más grande
en general que los valores de τ para los que κ(τ ) difiere de cero podemos
20
extender los lı́mites de la segunda integral de −∞ a +∞ obteniendo
Z T
Z ∞
4
πnτ
2 πnt
2
dt
κ(τ )dτ
hAn i =
sin
cos
T2 0
T
T
−∞
4
+ 2
T
2
=
T
Z
Z
T
0
πnt
πnt
sin
cos
dt
T
T
∞
cos
−∞
Z
∞
sin
−∞
πnτ
κ(τ )dτ
T
(93)
πnτ
κ(τ )dτ.
T
Suponiendo que κ(τ ) es suave, en cada intervalo ∆ω podemos poner
Z ∞
Z ∞
πnτ
cos
κ(τ )dτ =
cos(ωτ )κ(τ ) dτ
(94)
T
−∞
−∞
y además hay (T /π)∆ω términos en ∆ω de donde se tiene
Z
2 ∞
1T
∆ω
cos(ωτ )κ(τ ) dτ
S(ω)∆ω =
2π
T −∞
(95)
que da el resultado deseado utilizando que ambos cos(ωτ ) y κ(τ ) son
funciones pares.
Jerarquı́a de las funciones de distribución
Podemos evaluar la densidad de probabilidad de que un proceso estocástico Yx (t) tome un valor y en t en la forma
Z
P1 (y, t) = δ{y − Yx (t)}PX (x) dx.
(96)
Similarmente podemos evaluar la probabilidad conjunta de que Yx (t)
tenga valores y1 , . . . , yn en tiempos t1 , . . . , tn ,
Z Y
n
Pn (y1 , t1 ; . . . ; yn , tn ) =
δ{yi − Yx (ti )}PX (x) dx
(97)
i=1
que me define toda una jerarquı́a de densidad de probabilidad Pn (n =
1, 2 . . .), y podemos evaluar los promedios
Z
hY (t1 ) . . . Y (tn )i = y1 . . . yn Pn (y1 , t1 ; . . . ; yn , tn ) dy1 . . . dyn . (98)
Vamos a suponer que todos los ti son distintos. Entonces la jerarquı́a
de funciones Pn cumplen
21
(i) Pn ≥ 0;
(ii) Pn no cambia al intercambiar dos parejas (xk , tk ) y (xl , tl )
R
(iii) Pn (y1 , t1 ; . . . ; yn , tn )dyn = Pn−1 (y1 , t1 ; . . . ; yn−1 , tn−1 )
R
(iv) P1 (y1 , t1 ) = 1
Kolmogorov provó que cualquier conjunto de funciones con esas propiedades
determina un proceso estocástico Y (t) como lo hemos definido al principio. Luego podemos poner la jerarquı́a de probabilidades conjuntas
como la definición de proceso estocástico.
La probabilidad condicional P1|1 (y2 , t2 |y1 , t1 ) es la densidad de probabilidad de que Y (t) tome el valor y2 en t2 dado el valor y1 en t1 :
Dicho de otra forma, de todo el conjunto de funciones muestra Yx (t)
elegimos aquellas que pasan por el punto y1 en t1 ; entonces la fracción
de este subconjunto que pasan entre entre el intervalo y2 y y2 + dy2 en
t2 es denotado por P1|1 (y2 , t2 |y1 , t1 )dy2 . Claramente P1|1 es no negativa
y normalizada:
Z
P1|1 (y2 , t2 |y1 , t1 )dy2 = 1.
(99)
De forma más general podemos fijar los valores de Y en k instantes
de tiempo t1 , . . . , tk y preguntarnos por la probabilidad conjunta en los
restantes l tiempos tk+1 , . . . , tk+l , que nos define de forma general la
probabilidad condicional como
Pl|k (yk+1 , tk+1 ; . . . ; yk+l , tk+l |y1 , t1 ; . . . ; yk , tk )
Pk+l (y1 , t1 ; . . . ; yk , tk ; yk+1 , tk+1 ; . . . ; yk+l , tk+l )
=
Pk (y1 , t1 ; . . . ; yk , tk )
(100)
Por definición Pl|k es simétrica en el conjunto de los k pares de variables y de los l pares de variables. Se puede ver como el subconjunto
de funciones muestra que pasan entre los intervalos prescritos en los
tiempos t1 , . . . , tk .
En esta jerarquı́a de funciones densidad podemos definir el funcional
caracterı́stico de un proceso estocástico. Sea Y (t) un proceso aleatorio
y se a k(t) una función arbitraria del tiempo. Entonces, el funcional
caracterı́stico se define como el siguiente funcional de k(t) :
Z ∞
k(t)Y (t) dt
(101)
G[k] = exp i
−∞
22
La convergencia de la integral está garantizada si nos restringimos a
funciones k(t) que se anulan para valores grandes de |t|. Desarrollando
en serie de potencias se tiene
Z
∞
X
im
G[k] =
k(t1 ) . . . k(tm )hY (t1 ) . . . Y (tm )i dt1 . . . dtm (102)
m!
m=0
que no es sino un desarrollo en los momentos de la distribución conjunta de Y (t1 ), Y( t2 ) . . . Similarmente los cumulantes se obtienen del
desarrollo:
Z
∞
X
im
k(t1 ) . . . k(tm )hhY (t1 ) . . . Y (tm )ii dt1 . . . dtm
log G[k] =
m!
m=1
(103)
Un proceso es estacionario cuando todas las Pn dependen sólo en diferencias de tiempo:
Pn (y1 , t1 + τ ; . . . ; yn , tn + τ ) = Pn (y1 , t1 ; . . . ; yn , tn )
(104)
Una condición necesaria pero no suficiente es que P1 (y1 ) sea independiente del tiempo.
Un proceso se llama Gaussiano si todas sus Pn son distribuciones Gaussianas (multivariables). En este caso todos los cumulantes por encima
de m = 2 son cero:
Z
ZZ
1
k(t1 )k(t2 )hhY (t1 )Y (t2 )iidt1 dt2
G[k] = exp i k(t1 )hY (t1 )idt1 −
2
(105)
que está perfectamente determinado por su promedio Y (t) y su segundo
momento hY (t1 )Y (t2 )i.
Ejemplos de procesos estocásticos en fı́sica
Aunque la mayorı́a de casos de procesos estocásticos que aparecen en fı́sica
y quı́mica son procesos de tipo marcoviano, que lo veremos en detalle en la
lección siguiente, en esta sección vamos a ver algunos ejemplos de procesos
no-Marcovianos:
La cuerda vibrante. Consideremos una cuerda de longitud L fija en
los extremos, x = 0 y x = L. Si y(x) es el desplazamiento transversal,
la energı́a elástica para una configuración particular de la cuerda es
Z 2
1 L dy
dx.
(106)
E=
2 0
dx
23
Si consideramos la posibilidad de fluctuaciones térmicas entonces y(x)
es una función aleatoria de x (x juega el papel de t). Uno espera que la
probabilidad de tener una determinada y(x) sea proporcional al factor
de Boltzmann:
#
"
Z L 2
β
dy
dx .
(107)
e−E/kT = exp −
2 0
dx
Consideremos de forma más precisa la función estocástica Y (x) cuyos
posibles valores son las y(x). Consideremos n puntos diferentes en el
intervalo (0, L) :
0 < x1 < . . . < xn < L.
(108)
En cada punto consideramos el intervalo de elongaciones (yν , yν + dyν ),
de donde la energı́a de la cuerda se puede escribir como
n
1 X (yν+1 − yν )2
,
2 ν=0 xν+1 − xν
(109)
que permite definir una jerarquı́a de probabilidades Pn en la forma
Pn (y1 , x1 ; . . . ; yn , xn )
1/2 Y
n 1/2
β (yν+1 − yν )2
=
.
exp −
2π(xν+1 − xν )
2 xν+1 − xν
ν=0
(110)
La probabilidad Pn me define un proceso estocástico que incluye la
idea fı́sica de estado de equilibrio térmico en la cuerda. Como Pn es
una distribución de muchas variables Gaussianas, nos encontramos con
un proceso Gaussiano. Se tiene que hY (x1 )i = 0 y para x1 < x2
2πL
β
β
hY (x1 )Y (x2 )i =
x1 (L − x2 )
βL
(111)
Como este proceso no es estacionario no está garantizada la dependencia de la autocorrelación en |x1 − x2 | (en este caso no tiene esta
dependencia). Entonces el teorema de Wiener-Khinchin no se puede
aplicar directamente. Se tiene además que hAn i = 0 y
hAn Am i = δnm
2L
βπ 2 n2
(112)
que indica que todos los modos están descorrelacionados y que cada
nodo lleva una energı́a promedio de 12 kT , lo que implica una divergencia de la energı́a total (Ejercicio: demostrarlo). Este resultado no es
24
paradógico para una cuerda fı́sica ya que la expresión de la energı́a que
estamos utilizando no es válida para longitudes de onda tan pequeñas.
El mismo cálculo se puede hacer para ondas electromagnéticas entre dos
espejos reflectantes. En este caso el campo de energı́a infinita está asociada la catástrofe ultravioleta de Rayleigh−Jeans resuelta por Planck
introduciendo la cuantización de la energı́a.
Modelo de campo aleatorio. Consideremos un campo u(r, t) que
satisface la ecuación diferencial lineal
∂2u
=0
∂t2
cuya solución es una superposición de los modos normales
X
u(r, t) =
Aq uq (r, t).
∇2 u −
(113)
(114)
q
La energı́a del campo es la suma de las energı́as de los modos normales:
X
E=
q A2q
(115)
q
El equilibrio térmico está descrito por la colectividad canónica y se
tiene para el factor de Boltzmann
Y
2
(116)
e−E/kT =
e−βq Aq
q
donde las Aq se pueden ver como variables Gaussianas con media nula.
De esta forma u(r, t) es un campo aleatorio. Si estamos interesados en
las propiedades estocásticas podemos calcular por ejemplo la función
de autocorrelación a dos cuerpos.
X
hu(r1 , t1 )u(r2 , t2 )i =
hAq Aq0 iuq (r 1 , t1 )uq0 (r 2 , t2 )
qq 0
(117)
=
X
−1
(2βq ) uq (r 1 , t1 )uq (r 2 , t2 )
q
que resulta sin más que tener en cuenta que Aq son variables Gaussianas
independientes con media nula.
En un espacio infinito hay todo un continuo de modos normales y la
superposición (115) es una integral. A la hora de calcular los promedios con la distribución esto se hace complicado. Uno puede considerar que el campo está encerrado en un cubo grande Ω, y podemos
25
considerar que en los bordes del cubo u = 0. Si además requerimos
peridicidad para u con periodo Ω (condiciones de contorno periódicas)
el tratamiento analitico se simplifica considerablemente. Estas restricciones no afectan el resultado final pues vamos a hacer Ω → ∞. Se
tiene en esta condiciones:
X
u(r, t) =
{aq ei(q ·r −qt) + a∗q e−i(q ·r −qt) }
(118)
q
donde
q=
2π
2π
2π
nx , ny , nz ,
L
L
L
q = |q|,
(119)
donde los enteros nx , ny , nz van de −∞ a +∞, y L es el lado del cubo
Ω. Si escribimos la amplitud compleja de cada modo en la forma aq =
a0q + ia00q , entonces la energı́a total es:
Z
X
1
E=
{(∇u)2 + (∂t u)2 }dr = 2Ω
q 2 (a02
+ a002
(120)
q
q)
2 Ω
q
de forma que en equilibrio térmico tenemos (usando la distribución de
probabilidad de equilibrio)
002
2 −1
ha02
q i = haq i = (4Ωβq )
(121)
o equivalentemente
haq a∗q 0 i = δqq 0 (2Ωβq 2 )−1 ,
haq aq 0 i = ha∗q a∗q 0 i = 0.
(122)
Se tiene para la función de correlación
hu(r1 , t1 )u(r 2 , t2 )i
=
X
q
(2Ωβq 2 )−1 {eiq ·(r 1 −r 2 )−iq(t1 −t2 ) + e−iq ·(r 1 −r 2 )+iq(t1 −t2 ) }.
(123)
En el lı́mite de Ω muy grande se puede hacer la sustitución
Z
X
Ω
... →
. . . d3 q.
3
(2π)
q
(124)
que permitirı́a evaluar la expresión para la función de autocorrelación.
26
Procesos de “ramificación”. Aparecen en problemas de dinámica
de poblaciones. Supongamos una población de bacterias que proliferan
por división. Una célula de edad τ tiene una probabilidad γ(τ )dt de
dividirse en otras dos en el proximo dt, cada una de las cuales genera
una nueva rama del arbol evolutivo. Nos preguntamos por la probabilidad P (n, t|m, 0) de tener n individuos en t cuando habı́a m en t = 0.
El modelo puede variarse introduciendo una probabilidad de muerte.
Este modelo se aplica también a la generación de una cascada de rayos
X y neutrones en un reactor. En estos dos casos sin embargo γ no depende de la edad y el proceso es por tanto Markoviano, que permite un
tratamiento más sencillo, como veremos en la próxima lección.
En todo proceso de ramificación (PR) se cumple:
(i) Cada individuo origina una familia de descendientes.
(ii) Todas las familias tienen las mismas propiedades estocásticas (lo
que implica una homogeneidad en el tiempo).
(iii) Las familias no interactúan entre ellas.
Como consecuencia de (iii) la probabilidad condicional P (n, t|m, 0) es
la convolución de m factores P (n, t|1, 0). Entonces se tiene para la
función generatriz del proceso de ramificación
F (z, t|m, 0) = {F (z, t|1, 0)}m
(t ≥ 0)(primera identidad de PR).
(125)
Luego basta estudiar la descendencia de un solo individuo.
Supongamos que un célula nació en t = 0. Sea w(τ ) la probabilidad de
que alcance la edad τ sin dividirse. Entonces w(0) = 1 y
dw(τ ) = −γ(τ )w(τ )dτ
de donde
Z
w(τ ) = exp −
(126)
τ
0
γ(τ )dτ
0
0
.
(127)
Claramente w(t) es la probabilidad de que haya una sóla célula en el
tiempo t. La probabilidad de que se produzca una división entre τ y
τ + dτ es −dw(τ ). Cuando esto ocurre la población está formada de
dos nuevas células cada una originando su propia familia. Entonces la
probabilidad de tener n células presentes en el tiempo t es:
Z t
P (n, t|1, 0) = δn,1 w(t)− dw(τ )P (n, t|2, τ ) (Segunda identidad de un PR),
0
(128)
27
de donde multiplicando por z n y sumando sobre n = 1, 2 . . . ,
Z t
dw(τ )F (z, t|2, τ )
F (z, t|1, 0) = zw(t) −
(129)
0
Usando (ii) se tiene
F (z, t|2, τ ) = F (z, t − τ |2, 0) = {F (z, t − τ |1, 0)}2 ,
(130)
de donde nos queda
F (z, t|1, 0) − z = −
Z
= −
Z
t
dw(τ )[{F (z, t − τ |1, 0)}2 − z]
0
(131)
t
0
w 0 (t − t0 )[{F (z, t0 |1, 0)}2 − z]dt0
que es una ecuación integral para F (z, t|1, 0), cuya resolución nos dará la
función generatriz del proceso estocástico y por tanto la distribución
de probabilidad, conocido γ(τ ).
28
Descargar