1. Ejemplos de Sistemas Estocásticos

Anuncio
1. Ejemplos de Sistemas Estocásticos
Equation Section 1
1. Ejemplos de Sistemas Estocásticos __________________________________ 1
1.1. Introducción ________________________________________________________ 1
1.2. Perturbaciones_______________________________________________________ 2
1.3. Conceptos de Probabilidad ____________________________________________ 2
1.3.1. Variable aleatoria ___________________________________________________ 2
1.3.2. Función de Densidad ________________________________________________ 3
1.3.3. Función Distribución ________________________________________________ 4
1.3.4. Probabilidad Condicional _____________________________________________ 5
1.3.5. Esperanza. ________________________________________________________ 5
1.3.6. Momentos ________________________________________________________ 5
1.3.7. Varianza __________________________________________________________ 6
1.3.8. Tipos de Distribución________________________________________________ 7
1.3.9. Correlación _______________________________________________________ 7
1.3.10. Covarianza _______________________________________________________ 9
1.4. Proceso Aleatorio ___________________________________________________ 12
1.4.1. Función de Densidad _______________________________________________ 13
1.4.2. Funciones de Distribución ___________________________________________ 15
1.4.3. Esperanza de un Proceso Estocástico ___________________________________ 17
1.4.4. Autocorrelación___________________________________________________ 18
1.4.5. Autocovarianza____________________________________________________ 19
1.4.6. Correlación Cruzada________________________________________________ 22
1.4.7. Covarianza Cruzada_________________________________________________ 22
1.4.8. Proceso Estacionario _______________________________________________ 24
1.4.9. Secuencias Estocásticas _____________________________________________ 24
1.4.10. Continuidad _____________________________________________________ 24
1.4.11. Diferenciación___________________________________________________ 24
1.4.12. Integración______________________________________________________ 24
1.4.13. Proceso Estocástico Discreto _______________________________________ 24
1.5. Procesos Estocásticos Ergódicos _______________________________________ 24
1.6. Procesos Especiales __________________________________________________ 24
1.7. Proceso de Markov__________________________________________________ 24
1.8. Teoría Básica de Probabilidad___________________ ¡Error!Marcador no definido.
1.1. Introducción
Citar ejemplos industriales.
Sensor de nivel
1
1.2. Perturbaciones
1.3. Conceptos de Probabilidad
Generador de números aleatorios
%x=[];
%a=.55;
%b=pi;
%x(1)=a;
%for i=1:1000%
%x(i+1)=x(i)*b;
%x(i+1)=x(i+1)-floor(x(i+1));
%end
1.3.1. Variable aleatoria
Se genera las siguientes variables aleatorias
x y z de distribución gaussiana e incorreladas,
y de distribución gaussiana y correlada co x
n=10000;
x=randn(1,n)+3;
z=randn(1,n)+4;
y=zeros(1,n);
m=5;
for i =1:n-m
y(i)=mean(x(i:i+m-1));
end
plot([x(1:100)' y(1:100)']); grid
2
6
5
4
3
2
1
0
0
20
40
60
80
100
1.3.2. Función de Densidad
[fx,kx]=hist(x,50);
fx=fx/sum(fx);
[fy,ky]=hist(y,50);
fy=fy/sum(fy);
plot(kx,fx,'b',ky,fy,'r');grid
3
0.09
0.08
0.07
0.06
0.05
0.04
0.03
0.02
0.01
0
-2
-1
0
1
2
3
4
5
6
7
la densidad de x es mas aplanada por tener mayor dispersión
1.3.3. Función Distribución
Fx=cumsum(fx);
Fy=cumsum(fy);
plot(kx,Fx,'b',ky,Fy,'r');grid
4
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
-2
-1
0
1
2
3
4
5
6
7
1.3.4. Probabilidad Condicional
1.3.5. Esperanza.
∞
E ( x , k 1 ) = ∫ ξ f x ( k 1 ,ξ ) dξ = m( k 1 )
[1.1]
-∞
mx=mean(x);
my=mean(y);
[mean(x) fx*kx' mean(y) fy*ky']
ans =
3.0072
3.0069
3.0055
3.0061
1.3.6. Momentos
E  X n  = ∫ x n f X ( x ) dx
b
a
[1.2]
El momento de segundo orden (n=2) es el valor medio cuadrático de X.
5
Ex=fx*(kx.^2)';
Ey=fy*(ky.^2)';
[Ex Ey]
ans =
10.0150
9.2366
momentos centrados
n
E ( X − m X )  =


∫ (x −m )
b
a
X
n
f X ( x ) dx
[1.3]
Ex1=fx*(kx-mx)';
Ex2=fx*((kx-mx).^2)';
Ey1=fy*(ky-my)';
Ey2=fy*((ky-my).^2)';
[Ex1 Ex2 Ey1 Ey2]
ans =
-0.0003
0.9734
0.0005
0.2002
el momento de segundo orden de x es mayor que el de y. Esto se debe a la mayor
dispersión de sus valores
1.3.7. Varianza
[cov(x) fx*((kx-mx).^2)' std(x)
cov(y) fy*((ky-my).^2)' std(y)]
ans =
0.9719
0.9734
0.9859
0.1999
0.2002
0.4470
6
y tiene menos varianza que x.
1.3.8. Tipos de Distribución
fnx=1/std(x)/(2*pi)^.5*exp(-(kx-mx).^2/2/(std(x)^2));
fnx=fnx/sum(fnx);
plot(kx,fnx,kx,fx);grid
0.07
0.06
0.05
0.04
0.03
0.02
0.01
0
-2
-1
0
1
2
3
4
5
6
7
Una variable aleatoria (escalar) se dice que tiene una distribución Gaussiana o
Normal si su función de densidad de probabilidad está dada por:
pX ( x ) =
1
σX
 ( x − mX )2 
exp −

2σ 2X 
2π

[1.4]
Es fácil de probar que los momentos de orden n, con n ≥ 3 , quedan unívocamente
determinados por los momentos de primer y segundo orden, o sea el valor medio m X y la
varianza σ 2X .
1.3.9. Correlación
Un momento conjunto de gran importancia es la correlación definida por E [X Y ]
que corresponde a i = k = 1 en
7
E [ XY ] = ∫
b
a
∫
b
a
xyf X ,Y ( x, y ) dxdy
[1.5]
crxx=xcorr(x,x);
crxz=xcorr(x,z);
crxy=xcorr(x,y);
plot([crxx' crxy' crxz']);grid
4
14
x 10
12
10
8
6
4
2
0
-2
0
0.5
1
1.5
2
x 10
4
haciendo una ampliación del origen,
plot([crxx(9900:10100)' crxy(9900:10100)' crxz(9900:10100)']);grid
8
5
1.25
x 10
1.2
1.15
1.1
1.05
1
0.95
0.9
0.85
0
50
100
150
200
250
el producto de los valores medios de x e y es 9
el producto de los valores medios de x y z es 12
1.3.10. Covarianza
Las correlaciones entre las variables centradas E [X − E [X ]] e E [Y − E [Y ]] se
denomina covarianza de X e Y, y se denota:
r XY (j,k)=cov  X jYk  = E  ( X j - m Xj ) (Yk - mYk )
= ∫ ∫ ( x - m Xj ) ( y - mYk ) f(X,Y,j,k) dx,dy
[1.6]
llamando mX = E [ X ] y mY = E [Y ] resulta:
r XY (j,k)=cov  X jYk  = E  X jYk  − mXj mYk
[1.7]
Se dice que dos variables aleatorias X e Y están no correlacionadas si y sólo si su
covarianza es cero, i.e.
9
r XY (j,k)= 0
[1.8]
Se define de igual manera la Autocorrelación para una única variable.
2
rX (j,k)= cov  X j  = E ( X j - m Xj ) 


= ∫ ∫ ( x - m Xj ) f(X,j,k) dx
2
[1.9]
2
cvxx=xcorr(x-mean(x),x-mean(x));
cvxz=xcorr(x-mean(x),z-mean(z));
cvxy=xcorr(x-mean(x),y-mean(y));
plot([-9:11],cvxx(9991:10011));grid
10000
8000
6000
4000
2000
0
-2000
-10
-5
0
5
10
15
10
plot([-9:11],cvxy(9991:10011));grid
2000
1500
1000
500
0
-500
-10
-5
0
5
10
15
10
15
plot([-9:11],cvxz(9991:10011));grid
200
150
100
50
0
-50
-100
-150
-10
-5
0
5
11
La autocorrelación x solo tiene un pico en k=0
La correlación entre x e y tiene valores entre 0 y –5 por la forma en que se ha
generado y .
La correlación entre x y z es prácticamente nula ya que no están relacionadas.
1.4. Proceso Aleatorio
Los procesos varían en el tiempo. Se definen procesos con n realizaciones y m
muestras temporales
m=100;
n=1000;
x=randn(m,n)+3;
den=[1 -.94];
num=sum(den);
y=filter(num,den,x);
plot(y(:,1:10)); grid
3.5
3
2.5
2
1.5
1
0.5
0
0
20
40
60
80
100
12
Respuesta al impulso del filtro
imp=zeros(m,1);
imp(1)=1000;
rimp=filter(num,den,imp);
plot(rimp); grid
70
60
50
40
30
20
10
0
0
20
40
60
80
100
Para cada instante de tiempo se tiene una variable aleatoria.
1.4.1. Función de Densidad
nb=50;
[fx,kx]=hist(x',nb);
mesh([1:m],[1:nb],fx)
13
nb=50;
[fy,ky]=hist(y',nb);
waterfall([1:m],[1:nb],fy)
500
400
300
200
100
0
60
100
40
80
60
20
40
0
20
0
14
1.4.2. Funciones de Distribución
Para conocer un proceso estocástico se necesitaría saber la función de distribución
de probabilidades en todo instante condicionada a los tiempos anteriores y posteriores. Es
decir:
FX ( X (t1 ) , X ( t2 ) ,L X ( tn ) , t1 , t2 ,L ,t n ) = P ( X ( t1 ) ≤ xt1, X ( t 2 ) ≤ xt 2, L X ( tn ) ≤ xtn ) [1.10]
para todo tiempo t y todo n
Esto en la práctica es imposible obtener por lo que se definen las funciones de
distribución de primer y segundo orden. La función de distribución de primer orden
corresponde a la distribución de la variable en un tiempo dado
FX ( X (t0 ) , t0 ) = P ( X ( t0 ) ≤ xt 0 )
[1.11]
Si se quieren relacionar dos tiempos se utiliza la distribución de segundo orden
FX ( X (t1 ) , X ( t2 ) , t1 , t2 ) = P ( X ( t1 ) ≤ xt1, X ( t 2 ) ≤ xt 2 )
[1.12]
Fx=cumsum(fx);
Fy=cumsum(fy);
mesh([1:m],[1:nb],Fx)
15
mesh([1:m],[1:nb],Fy)
16
1.4.3. Esperanza de un Proceso Estocástico
Para un proceso aleatorio X (t ) se define la media de X (t ) como el valor esperado
de la variable aleatoria obtenida observando el proceso en algún tiempo t, o sea:
m X ( t ) = E x ( t ) =
∫
+∞
−∞
xf X (t ) ( x ) dx
[1.13]
mx=mean(x');
plot([mx kx'*fx/n]);grid
3.1
3.05
3
2.95
2.9
2.85
0
50
100
150
200
my=mean(y');
plot([my' (ky'*fy/n)']);grid
17
3.5
3
2.5
2
1.5
1
0.5
0
0
20
40
60
80
100
1.4.4. Autocorrelación
La función de autocorrelación del proceso X (t ) se define como el valor esperado
del producto de las variables aleatorias X (t1 ) y X (t2 ) en los instantes t1 y t2
respectivamente, es decir:
+∞
RX (t 1, t2 ) = E  X ( t1 ) X ( t2 ) = ∫
−∞
∫
+∞
−∞
x1 x2 f X (t1 ) X (t2 ) ( x1 , x2 )dx1dx2
[1.14]
A fin de simplificar la simulación se considerará solo una fila de la matriz de
autocorrelación
crxx=[];
for i=1:m
crxx(i,:)=xcorr(x(1,:),x(i,:));
end
mesh([1:m],[1:1999],crxx')
18
1.4.5. Autocovarianza
La función de autocovarianza del proceso estocástico X (t ) se define como:
C X ( t1 , t2 ) = E ( X (t1 ) − mX (t1 ) )( X (t2 ) − mX (t2 ) )  = R X ( t1 , t2 ) − mX (t1 )mX (t2 )
[1.15]
cvxx=[];
for i=1:m
cvxx(i,:)=xcorr(x(1,:)-mean(x(1,:)),x(i,:)-mean(x(i,:)));
end
mesh([1:m],[1:1999],cvxx')
19
cvyy=[];
for i=1:m
cvyy(i,:)=xcorr(y(1,:)-mean(y(1,:)),y(i,:)-mean(y(i,:)));
end
mesh([1:m],[1:1999],cvyy')
20
21
1.4.6. Correlación Cruzada
Para el caso más general de tener dos procesos aleatorios X (t ) e Y (t ) con
funciones de auto correlación RX ( t1, t2 ) y RY ( t1 , t2 ) respectivamente, se definen las dos
funciones de correlación cruzada:
RXY (t1 , t2 ) = E  X ( t1 ) Y ( t 2 ) 
RYX ( t1, t2 ) = E Y (t1 ) X (t 2 )
[1.16]
cvxx=[];
for i=1:m
cvxx(i,:)=xcorr(x(1,:)-mean(x(1,:)),x(i,:)-mean(x(i,:)));
end
mesh([1:m],[1:1999],cvxx')
Las propiedades de correlación de los dos procesos se pueden representar entonces
en forma matricial, definiendo la matriz de correlación de los procesos aleatorios X (t ) e
Y (t ) como:
 R (t , t ) R XY ( t1, t2 )
R ( t1, t2 ) =  X 1 2

 RYX ( t1 , t2 ) RY ( t1 , t2 ) 
[1.17]
1.4.7. Covarianza Cruzada
De igual modo, para dos procesos estocásticos se define la función de covarianza
cruzada como:
C XY ( t1, t2 ) = E ( X (t1 ) − m X ( t1 ) )(Y (t2 ) − mY ( t2 ) ) = R XY ( t1, t2 ) − mX (t1 ) mY ( t2 )
[1.18]
cvxy=[];
for i=1:m
cvxy(i,:)=xcorr(x(1,:)-mean(x(1,:)),y(i,:)-mean(y(i,:)));
end
mesh([1:m],[1:1999],cvxy')
22
Se puede comparar la covarianza cruzada con la respuesta impulsional
plot([cvxy(:,1000) rimp]);grid
70
60
50
40
30
20
10
0
-10
0
20
40
60
80
100
23
1.4.8. Proceso Estacionario
1.4.9. Secuencias Estocásticas
1.4.10. Continuidad
1.4.11. Diferenciación
1.4.12. Integración
1.4.13. Proceso Estocástico Discreto
1.5. Procesos Estocásticos Ergódicos
1.6. Procesos Especiales
1.7. Proceso de Markov
1.8. Ejemplo de Sistema Continuo en Variables de Estado
Movimiento Browniano por agitación térmica de partículas en una dimensión
m
d 2x
dx
+c
= f
2
dt
dt
[1.19]
se puede demostrar que si la masa es relativamente grande, para x y t se puede
considerar el choque como elástico y en ese caso f es ruido blanco.
x1 = x
x2 =
dx
dt
 dx1 
1   x1  0 
 dt   0
=
+



c   1  f
 dx2   0 − m  x2   m 
 dt 
[1.20]
[1.21]
usando la ecuación diferencial estocástica,
dx2 = − c m x2dt + 1 m fdt
[1.22]
fdt es el impilso que recibe la partícula por lo que se puede asociar a un proceso de
Wiener.
La media,
dmx (t )
= Amx (t )
dt
[1.23]
24
dPx (t)
= APx ( t) + Px (t ) AT + Rx 1
dt
[1.24]
Rx ( s, t ) = Φ ( s, t) Px ( t)
[1.25]
mx (0) = 0 ⇒ mx (t ) = 0 ∀t
[1.26]
1  x 
0 
 dx1  0
1
dt
=
+


 1  dW
 dx  0 − c
x 
2
 2  



 m 
m
[1.27]
cálculo de la matriz de transición

1
1 
t 0

Φ (t ) = exp ∫ 
c  dt = 
0 0
−

m 
0

m
 ct  
1 − exp  −  

c
 m  

 ct 
exp  − 

 m

[1.28]
la matriz de covarianza,
 dP1
 dt

 dP2
 dt
dP2 
0
1   P1
dt  = 



dP3  0 − c m   P2


dt 
P2   P1
+
P3   P2
0  0
P2  0

+ 
P3  1 − c m  0

 
0 
r 
m2 
[1.29]
La matriz de la derecha es la matriz de covarianza de un proceso de Wiener
dP1
= 2 P1
dt
dP2
= − c P2 + P3
m
dt
dP3
r
= −2 c P3 + 2
m
dt
m
se supone para t=0, x=0 y que
[1.30]
dx
dP (0)
= cte , 3
=0
dt
dt
P1 (0) = 0 covarianza de la posición
P2 (0) = 0 covarianza de la posición y la velocidad
P3 (0) =
r
2mc
la ley de conservación de energía térmica dice
25
1
1
kT = mE  x22 
2
2
[1.31]
1
1
r
kT = m
2
2 2mc
[1.32]
r = 2kTc
[1.33]
reemplazando resulta
P1 (t) = 2
kT
c
P2 ( t) =
kT
c
P3 (t ) =
kT
m
(
)
− ct
 m
m 
t − c 1 − e

1 − e− ct m 


[1.34]
[1.35]
[1.36]
la correlación será
r11 ( s, t ) = P1 (t) +
− c ( s− t) 
m
m
1
−
e

 P2 (t )
c 
kT −c ( s− t) m
r22 ( s, t ) =
e
m
[1.37]
26
Descargar