MÉTODOS ITERATIVOS PARA LA RESOLUCIÓN DE SISTEMAS

Anuncio
MÉTODOS ITERATIVOS PARA LA
RESOLUCIÓN DE SISTEMAS
LINEALES
Índice:
 Introducción
 Normas vectoriales .
 Método de Jacobi.
 Método de Gauss-Seidel.
 Métodos de relajación.
 Convergencia de los métodos iterativos.
 Método de Newton para sistemas no
lineales
Introducción
 Métodos directos y métodos iterativos
 Grandes sistemas con muchos coef. Iguales a 0
(análisis y planificación de sistemas eléctricos de
generación y transporte de energía eléctrica)
Ax b 
  R x  S x  b  x T x  c
A R  S
 T : Matriz de paso, y c : vector corrector
 Parten de una aproximación inicial : x(0)
 El método converge si:
 lim x ( k )  x
k 
Normas Vectoriales
x 1   xi
n
i 1
x
n
x
2

x

 max  xi  (norma del máximo)
i 1
1 i  n
2
i
(norma euclídea)
Método de Jacobi: formulación general
a11 x1
a21 x1

a j1 x1

aN 1 x1



a12 x2
a22 x2

a j 2 x2

 aN 2 x2
a1 j x j
  
   a2 j x j

a jj x j
  

   aNj x j
  
a1N xN
   a2 N x N
  
a jN xN
bi   ai , j x j ( k ) 
xi( k 1) 
j 1
ai ,i
a
N
j i 1
(k )
x
i, j j

   aNN xN
Partiendo de una aprox. inicial : x1(0) , x2 (0) ,.....xN (0)
i 1




b1
b2

bj

 bN
Método de Gauss-Seidel: formulación general
a11 x1
a21 x1

a j1 x1

a N 1 x1



a12 x2
a22 x2

a j 2 x2

 a N 2 x2
   a1 j x j
   a2 j x j
  
   a1N x N
   a2 N x N

a jj x j

bi   ai , j x j
i 1
xi( k 1) 
j 1
   a NN x N
(0)
1
( k 1)
ai ,i
a jN x N

  
   a Nj x j
Partiendo de una aprox. inicial : x

, x 2 , x N

(0)
 ai , j x j
N
j i 1
(0)
(k )



b1
b2

bj

 bN
Métodos de Relajación

( k 1)
(k )
xi
 (1   ) xi 
aii
i 1
n

( k 1)
(k ) 
  aij x j 
bi   aij x j
j 1
j  i 1


  = 1 : Gauss-Seidel
 0 <  < 1 : Subrelajación: Se utiliza para obtener la
convergencia cuando Gauss-Seidel no converge
  > 1 Sobrerrelajación: Se utiliza para acelerar la
convergencia cuando Gauss-Seidel converge
Convergencia de los métodos iterativos
Teorema Convergencia Mtdos. Iterativos
A x  b
x (0)

T Matriz de Paso
x T  x + c 
c Vector Corrector
(aproximación inicial)
La convergencia del método está asegurada si
el radio espectral de T :  (T )  1
 Si A es estrictamente diagonal dominante los mdos. De Jacobi y
Gauss-Seidel convergen.
 Si A es definida positiva Gauss-Seidel converge.
 En general Gauss-Seidel converge más rápido que Jacobi
 Si A es una matriz definida positiva y 0 <  < 2, entonces el
método SOR converge para cualquier valor inicial x(0)
Método de Newton para sistemas no lineales(1)
f1 ( x, y )  0 
(0)
P
 ( x0 , y0 )

f 2 ( x, y )  0 
f1
f1
f1 ( x0 , y0 ) 
( x0 , y0 )  x  x0  
( x0 , y0 )  y  y0     0
x
y
f 2
f 2
f 2 ( x0 , y0 ) 
( x0 , y0 )  x  x0  
( x0 , y0 )  y  y0     0
x
y
f1
f1
f1 ( x0 , y0 ) 
( x0 , y0 )  x  x0  
( x0 , y0 )  y  y0   0
x
y
f 2
f 2
f 2 ( x0 , y0 ) 
( x0 , y0 )  x  x0  
( x0 , y0 )  y  y0   0
x
y
Método de Newton para sistemas no lineales(2)
f1 (0) 
 f1 (0)
P
(
)
(P ) 

x
y
  f1 ( x0 , y0 ) 
 x  x0 
 x  x0 





  J ( x0 , y0 ) 


f
(
x
,
y
)

f

f
y

y
y

y


(0)
(0)
2
2
0
0
 1 0 0 


(
)
(
)
P
P
 x

y


 p  x  x0
 p 
,
P   

 q 
 q  y  y0
f1
 f1

(
,
)
(
,
)
x
y
x
y
0
0 
 x 0 0
y
 f1 ( x0 , y0 ) 
 p 

    

f
(
x
,
y
)
f 2
 f 2
  q 
 2 0 0 
(
,
)
(
,
)
x
y
x
y
0
0 
 x 0 0
y



P ( k 1)  P ( k )  P
Esquema del método de Newton
2º.  Evaluamos la mat. jacobiana
1º .  Evaluamos
la funcion :
 f1
 x ( xk , yk )
J ( P(k ) )  
 f 2
 x ( xk , yk )

 f1 ( xk , yk ) 
F (P )  

 f 2 ( xk , yk ) 
(k )
3º.  Calculamos p, resolv.
el sistema lineal
J ( P )P   F ( P )
(k )
(k )
f1

( xk , yk ) 
y

f 2

( xk , yk ) 
y

4º.  Calculamos
el siguiente punto
P
( k 1)
P
(k )
 P
Descargar