TEMA 3: RESOLUCIÓN DE SISTEMAS DE ECUACIONES

Anuncio
Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos.
TEMA 3: RESOLUCIÓN DE SISTEMAS DE ECUACIONES
LINEALES. MÉTODOS DIRECTOS.
3.1.- INTRODUCCIÓN
Los sistemas de ecuaciones lineales aparecen en muchos problemas de ciencia e
ingeniería, así como en aplicaciones de las matemáticas a las ciencias sociales. En primer
lugar trataremos los métodos directos, que son aquellos que encuentran la solución en un
número determinado de etapas, es decir, conocido de antemano. En los métodos
directos, en general, se realiza una serie de operaciones sobre el sistema para pasar a otro
equivalente (con la misma solución) pero más sencillo –por ejemplo un sistema
triangular, es decir, en el que la matriz de coeficientes es triangular.
Estas operaciones (transformaciones elementales) son:
– Escalado: multiplicar a una ecuación por un escalar   0: Fi  Fi.
– Sustitución: sumar a una ecuación otra multiplicada por un escalar:
Fi + Fj  Fi.
– Intercambio: intercambiar dos ecuaciones: Fi  Fj.
Comenzaremos con la resolución de sistemas triangulares.
3.2.- REPASO DE CONCEPTOS PREVIOS
Definición. Matriz estrictamente diagonal dominante
Una matriz cuadrada de orden n, A es estrictamente diagonal dominante si :
aii 

n
j 1, j  i
aij , i  1, 2, n
Se puede demostrar que si una matriz es estrictamente diagonal dominante
entonces es regular, es decir, tiene inversa.
Definición. Matriz definida positiva
Una matriz cuadrada de orden n, A es definida positiva si es simétrica y para cualquier
vector columna x  0 se tiene que xt A x > 0.
Al igual que en el caso anterior, si A es una matriz definida positiva entonces es
regular. Además también se puede demostrar que todos los menores principales son
positivos y que aii  0 , para i  1, 2, n .
3.3.- SISTEMAS LINEALES TRIANGULARES
El algoritmo de sustitución regresiva es un algoritmo con el que podremos resolver
un sistema de ecuaciones lineales cuya matriz de coeficientes sea triangular superior.
Este algoritmo será posteriormente incorporado a la resolución general de un sistema de
ecuaciones lineales.
24
Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos.
Definición. Se dice que una matriz A = [aij] de orden NN es triangular superior
(inferior) cuando sus elementos verifican aij = 0 siempre que i > j (i < j).
Si A es una matriz triangular superior, entonces se dice que el sistema de
ecuaciones AX = B es un sistema triangular superior de ecuaciones lineales, sistema
que tiene la siguiente forma:
a11 x1  a12 x2  a13 x3    a1, N 1 x N 1  a1 N x N  b1
a22 x2  a23 x3    a2 , N 1 x N 1  a2 N x N  b2
a33 x3    a3, N 1 x N 1  a3 N x N  b3
  
a N 1, N 1 x N 1  a N 1, N x N  bN 1
a NN x N  b N
Teorema: Sustitución regresiva.
Si AX = B es un sistema triangular superior con akk  0 para k = 1, 2, ..., N, entonces
existe una solución única del sistema.
Para resolverlo comenzaremos despejando xN en la última ecuación: xN = bN / aNN.
Después pasamos a la penúltima ecuación para obtener xN-1:
b  a N 1, N x N
x N  1  N 1
a N 1, N 1
y así sucesivamente. En la etapa k-ésima se despeja xk:
xk 
bk 
a
N
j  k 1
a kk
kj
xj
( k  N  1, N  2,  , 2, 1)
3.4.- ELIMINACIÓN GAUSSIANA Y PIVOTEO
En esta sección desarrollamos un método para resolver un sistema general de
ecuaciones lineales AX = B de N ecuaciones con N incógnitas. El objetivo es construir un
sistema triangular superior equivalente UX = Y que podamos resolver usando el método
de sustitución regresiva.
Se dice que dos sistemas de orden NN son equivalentes cuando tienen el mismo
conjunto de soluciones. Los teoremas del álgebra lineal prueban que hay ciertas
transformaciones que no cambian el conjunto de soluciones de un sistema de ecuaciones
lineales.
Ejemplo 1.
Vamos a usar el método de eliminación de Gauss para resolver el sistema:
4 x  3y  z  7
2 x  4 y  5z  5
 2 y  6z  23
x
25
Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos.
Para anular los primeros elementos de las filas 2ª y 3º les restaremos la primera
multiplicada por –2/4 = m21 y por 1/4 = m31 respectivamente. Esto se representa por:
b
g
b g
F2  2 4 F1  F2 ; F3  1 4 F1  F3
El resultado que se obtiene es:
4x 
0x 
0x 
3y

52 y 
54 y 
z

7
9 2 z  17 2
25 4 z  85 4
b g
b g
b g
b g
En el siguiente paso haremos:
F3 
y el resultado es:
FG 5 / 4 IJ F  F  FG 1IJ F  F ;
H 5 / 2 K
H2K
2
4x 

3
2
3y

52 y 
3
m32 
1
2
z

7
9 2 z  17 2
17 2 z  51 2
b g
b g
b g
Aplicando la sustitución regresiva se obtiene:
z
51 2
 3;
17 2
y
17 2  3  9 2
7  3  3 2
 2; x 
1
4
5 / 2
Una forma eficaz de trabajar es almacenar todas las constantes del sistema lineal
AX = B en una matriz de orden N(N+1) que se obtiene añadiendo a la matriz A una
columna, la columna (N+1)-ésima, en la que se almacenan los términos de B (es decir,
ak,N+1 = bk). Cada fila de esta matriz, que se llama matriz ampliada del sistema y se denota
por Ã, contiene toda la información necesaria para representar la correspondiente
ecuación del sistema lineal:
a11 a12  a1 N a1 N 1
F
Ga
~
AG
GG 
Ha
21
N1
a 22

 a 2 N a 2 N 1


a N 2  a NN a N N 1
I
JJ
JJ
K
Un sistema AX = B puede resolverse realizando las operaciones elementales con las
filas de la matriz ampliada Ã. Las variables xk no sirven más que para marcar el sitio de
los coeficientes y pueden ser omitidas hasta el final de los cálculos.
Cualquiera de las operaciones elementales citadas anteriormente (escalado,
intercambio o sustitución) aplicadas a la matriz ampliada produce un sistema lineal
equivalente.
El método de eliminación de Gauss o de eliminación gaussiana consiste en obtener
un sistema equivalente triangular superior. Esto se puede representar mediante una
sucesión de matrices ampliadas que son las que se van obteniendo al anular los elementos
de cada columna que están por debajo de la diagonal principal.
En un caso general de un sistema de cuatro ecuaciones con cuatro incógnitas:
26
Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos.
a11 x1
a 21 x1
a 31 x1
a 41 x1
a12 x 2
a 22 x 2
a 32 x 2
a 42 x 2




la matriz ampliada es:
Fa
Ga
G
GG a
Ha
a12
(1)
a22
a32 (1)
a42 (1)
(1)
(1)
11
~ ~
A  A (1)
a13 x3
a 23 x3
a 33 x3
a 43 x3




(1)
21
(1)
31
(1)
41




a14 x4
a 24 x4
a 34 x4
a 44 x4




a13
( 1)
a23
a33(1)
a43(1)
a14
( 1)
a24
a34 (1)
a44 (1)
a15
(1)
a25
a35 (1)
a45 (1)
( 1)
(1)
b1
b2
b3
b4
(1)
I
JJ
JJ
K
Para anular los elementos 2º, 3º y 4º de la primera columna haremos:
es decir:
aij
( 2)
R|a
 S0
|Ta
ai 1(1)
Fi  (1) F1  Fi
a11
ij
ij
(i  1; j  1, 2 ,..., 5)
(1)
(1)
d
 ai 1
(1)
Fa
G0
G
GG 0
H0
~
A ( 2)
a
( 1)
11
(i  2 , 3, 4; j  1)
ia
(i  2 , 3, 4; j  2 , 3, 4, 5)
(1)
1j
a12
( 2)
a22
a32 ( 2 )
a42 ( 2 )
( 1)
a13
(2)
a23
a33( 2 )
a43( 2 )
(1)
11
obteniendo:
(i  2, 3, 4)
(1)
a14
(2)
a24
a34 ( 2 )
a44 ( 2 )
(1)
a15
(2)
a25
a35 ( 2 )
a45 ( 2 )
( 1)
I
JJ
JJ
K
A continuación hay que anular los elementos 3º y 4º de la 2ª columna, y para ello:
Fi 
es decir:
aij
( 3)
R|a
 S0
|Ta
ij
ij
ai 2 ( 2 )
F2  Fi
(2)
a22
(i  1, 2; j  1, 2 ,..., 5)
(2)
(2)
d
 ai 2
(2)
Fa
GG 0

GG 0
H0
( 1)
11
~
A ( 3)
obteniendo:
(i  3, 4)
a 22
(2)
a12
(1)
ia
(i  3, 4; j  2 )
2j
(2)
a13
a22
0
0
(1)
a23
a33 ( 3)
a43 ( 3)
( 2)
( 2)
(i  3, 4; j  3, 4 , 5)
a14
(1)
a24
a34 ( 3)
a44 ( 3)
( 2)
a15
(1)
a25
a35( 3)
a45( 3)
(2)
I
JJ
JJ
K
Finalmente hay que anular el 4º elemento de la columna tercera. Para ello:
Fi 
es decir:
aij
( 4)
R|a
 S0
|Ta
ij
ij
ai 3 ( 3)
F3  Fi
( 3)
a33
(i  1, 2 , 3; j  1, 2 ,..., 5)
( 3)
( 3)
(i  4 )
d
 ai 3
( 3)
a 33
( 3)
ia
(i  4; j  3)
3j
27
( 3)
(i  4; j  4 , 5)
Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos.
resultando la matriz ampliada que corresponde al sistema triangular superior:
Fa
G0
G
GG 0
H0
( 1)
11
~
A ( 4)
a12
(1)
a22
0
0
Definición: Pivotes y multiplicadores.
( 2)
a13
(1)
a23
a33( 3)
0
(2)
a14
(1)
a24
a34 ( 3)
a44 ( 4 )
(2)
a15
( 1)
a25
a35 ( 3)
a45 ( 4 )
(2)
I
JJ
JJ
K
El elemento aqq(q) de la matriz de los coeficientes en el paso q+1 que se usará para
anular arq(q) (r = q+1, q+2, ..., N) se llama q-ésimo pivote; y la fila q-ésima se llama fila
pivote. Los números mrq = arq(q) / aqq(q) (r = q+1, q+2, ..., N) por los que se multiplica la
fila pivote para restarla de las correspondientes filas posteriores se llaman
multiplicadores de la eliminación.
Un problema que puede aparecer es el siguiente: si aqq(q) = 0, entonces no podemos
usar la fila q-ésima para eliminar los elementos de la columna q-ésima que están por
debajo de la diagonal principal. Lo que hacemos es intercambiar la fila q-ésima con
alguna fila posterior para conseguir un elemento pivote que no sea cero; si esto no puede
hacerse, entonces la matriz de los coeficientes del sistema es singular y el sistema no
tiene solución única o es incompatible.
Teorema: Eliminación gaussiana con sustitución regresiva.
Si A es una matriz invertible de orden NN, entonces existe un sistema lineal UX = Y,
equivalente al sistema AX = B, en el que U es una matriz triangular superior con
elementos diagonales ukk  0. Una vez construidos U e Y, se usa el algoritmo de
sustitución regresiva para resolver UX = Y, calculando así la solución X.
Pivoteo para evitar aqq(q) = 0.
Se representa por aqq(q) el coeficiente correspondiente a la etapa (q). Cuando
aqq(q) = 0, la fila q-ésima no puede usarse para eliminar los elementos de la columna
q-ésima que están por debajo de la diagonal principal. Se hace necesario entonces hallar
una fila posterior, digamos la k-ésima (con k > q), en la que akq(q)  0, e intercambiarlas
para obtener un pivote no nulo. Este proceso se llama pivoteo y el criterio para decidir
qué fila escoger se llama estrategia de pivoteo. La estrategia de pivoteo trivial es la
siguiente: Si aqq(q)  0, entonces no se hace intercambio de fila; mientras que si aqq(q)  0,
entonces se localiza la primera fila por debajo de la q-ésima en la cual se tenga akq(q)  0 y
se intercambia la fila q-ésima con la k-ésima. Esto proporciona el pivote no nulo
deseado.
3.4.2.-
Estrategias de pivoteo para reducir los errores.
Como los ordenadores usan una aritmética cuya precisión está fijada de antemano,
es posible que cada vez que se realice una operación aritmética se introduzca un pequeño
error. El uso de la estrategia de pivoteo trivial en la eliminación gaussiana puede llevar
28
Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos.
aparejado un error apreciable en la solución de un sistema de ecuaciones lineales
calculada con un computador.
El propósito de las estrategias de pivoteo es usar como pivote el elemento de
mayor magnitud y, una vez colocado en la diagonal principal, usarlo para eliminar los
restantes elementos de su columna que están por debajo de él. Si en la columna q hay
más de un elemento no nulo en la diagonal principal o por debajo de ésta, entonces hay
varias formas de elegir qué filas se intercambian. La estrategia de pivoteo parcial es la
más habitual. Consiste en lo siguiente: Para reducir la propagación de los errores de
redondeo, se sugiere que se compare el tamaño de todos los elementos de la columna q
desde el que está en la diagonal hasta el de la última fila. Una vez localizada la fila,
digamos la k-ésima, en la que se encuentra el elemento de mayor valor absoluto; o sea, si
| akq |  max{| aqq |, | aq 1q |,  , | a N -1q |,| a Nq |}
entonces intercambiamos la fila q-ésima con la k-ésima, salvo que k = q; de esa manera,
los multiplicadores mrq (r = q+1, ..., N) serán todos menores que 1 en valor absoluto. Este
proceso suele conservar las magnitudes relativas de los elementos de la matriz U del
mismo orden que las de los coeficientes de la matriz original. Normalmente, la elección
como pivote del mayor elemento también ayuda a que se propague un error más
pequeño.
Con la técnica de pivoteo parcial escalado se evitan errores de redondeo que
pueden producirse si el pivote es muy pequeño respecto del resto de los elementos de su
fila. El pivoteo parcial escalado puede usarse para reducir aún más los efectos de la
propagación de los errores.
3.5.- SISTEMAS MAL CONDICIONADOS
Algunos sistemas son muy sensibles a los errores de redondeo y el vector solución
puede ser bastante inexacto. En este caso se dice que el sistema es inestable o que está
mal condicionado. En este tipo de sistemas lo que suele ocurrir es que pequeños
cambios en los coeficientes o en los términos independientes dan lugar a cambios
apreciables en la solución como se muestra en el siguiente ejemplo.
Ejemplo 2:
Sea el sistema
 1
 1
 1.01 0.99  x   2.00 
 0.99 1.01  y    2.00 

  

cuya solución exacta es :   .
Si se modifica ligeramente los términos independientes, la solución de los siguientes
sistemas son las que se muestran a continuación:
 1.01 0.99   x   2.02 
 0.99 1.01   y    1.98 

  

29

2
0
 
Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos.
 1.01 0.99   x   1.98 
 0.99 1.01   y    2.02 

  

0
2
 

Se puede considerar al sistema como una máquina cuya entrada son los términos
independientes y cuya salida son las soluciones.
b1
x1
b2
x2
A x  b
b3
x3
En el ejemplo anterior se ha visto que pequeños cambios en la entrada del sistema
dan lugar a grandes cambios en la salida.
Cuando la solución obtenida está afectada por los errores de redondeo no es
exacta.
3.6.- FACTORIZACIÓN TRIANGULAR
La factorización triangular de una matriz consiste en escribir dicha matriz A como
el producto de una matriz triangular inferior L, cuyos elementos en la diagonal principal
son todos iguales a 1, por una matriz triangular superior U, cuyos elementos diagonales
son distintos de cero.
Definición: factorización triangular o factorización LU
Diremos que una matriz invertible A admite una factorización triangular o
factorización LU si puede expresarse como el producto de una matriz triangular inferior
L, cuyos elementos diagonales son todos iguales a 1, por una matriz triangular superior
U:
A = LU
o, escrito de manera desarrollada:
a11 a12 a13 a14
1
0
a21 a22 a23 a24
m21 1

a31 a32 a33 a34
m31 m32
a41 a42 a43 a44
m41 m42
F
GG
GG
H
I
JJ
JJ
K
F
GG
GG
H
0
0
1
m43
I Fu
JJ GG 0
JJ GG 0
KH 0
0
0
0
1
11
u12
u22
0
0
u13
u23
u33
0
u14
u24
u34
u44
I
JJ
JJ
K
La condición de que A sea invertible implica que ukk  0 para todo k. La notación
para los elementos de L es mij; la razón para elegir mij en vez de lij es que se puede
demostrar que estos elementos coinciden con los multiplicadores utilizados en el
procedimiento de eliminación gaussiana.
30
Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos.
3.6.2.-
Solución de un sistema lineal
Supongamos que la matriz de los coeficientes A de un sistema lineal AX = B admite
una factorización triangular; entonces la solución de
LUX = B
puede obtenerse definiendo Y = UX y resolviendo dos sistemas lineales. En primer lugar
se halla Y en el sistema LY = B y luego X en el sistema UX = Y.
En forma desarrollada, primero debemos resolver el sistema triangular inferior
y1
 b1
 b2
m21 y1 
y2
 b3
m31 y1  m32 y2 
y3
m41 y1  m42 y2  m43 y3  y4  b4
para obtener y1, y2, y3, e y4 y, una vez que lo tenemos, resolver el sistema triangular
superior
u11 x1  u12 x2  u13 x3  u14 x4  y1
u22 x2  u23 x3  u24 x4  y2
u33 x3  u34 x4  y3
u44 x4  y4
3.6.3.-
Factorización triangular
Ahora comentaremos la forma de obtener factorizaciones triangulares. Si no hace
falta realizar intercambios de filas cuando usamos eliminación gaussiana, entonces los
multiplicadores mij son los elementos subdiagonales de L.
Vamos a comprobar para una matriz A de orden 3 que el proceso de eliminación
gaussiana, almacenando los multiplicadores como elementos subdiagonales de L, sirve
también para factorizar la matriz A como producto de una triangular inferior L por una
triangular superior U, que es la matriz de coeficientes resultado de la eliminación
gaussiana.
LMa
MMa
Na
11
21
31
a12
a22
a32
a13
a23
a33
OP LMa
PP  MMa
Q Na
( 1)
11
( 1)
21
( 1)
31
a12(1)
a13(1)
(1)
22
(1)
32
(1)
23
(1)
33
a
a
a
a
OP
PP
Q
Para anular los elementos a21 y a31 se realizan las transformaciones de filas:
a
a
F2  F2  21 F1  F2  m21 F1 con m21  21 , y
a11
a11
a
a
F3  F3  31 F1  F3  m31 F1 con m31  31
a11
a11
Llamando A( 2 ) a la matriz obtenida y M (1) a la matriz correspondiente a las
transformaciones efectuadas se tiene que A( 2 )  M (1)  A , siendo :
31
Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos.
M
( 1)
LM 1
 m
MM
N m
OP
0 ,y A
P
1QP
21
1
31
0
LMa
M 0
MN 0
a12(1)
(1)
11
0 0
(2)
a
a
a13(1)
a
a
(2)
22
(2)
32
(2)
Para hacer 0 el elemento a32
se realiza la transformación:
F3  F3 
(2)
23
(2)
33
OP
PP .
Q
(2)
(2)
a32
a32
,
con
F

F

m
F
m

2
3
32 2
32
(2)
(2)
a22
a22
Llamando A( 3) a la matriz obtenida y M ( 2 ) a la matriz correspondiente a la
transformación efectuada se tiene que : A( 3)  M ( 2 )  A ( 2 ) , siendo :
M
(2)
LM1
 0
MM
N0
OP
0 ,y A
P
1PQ
0
1
 m32
LMa
M 0
MN 0
( 1)
11
0
( 3)
a12(1)
a
a
( 2)
22
( 2)
32
a13(1)
a
a
( 2)
23
( 3)
33
OP
PP  U ,
Q
es decir :
U  M ( 2 ) A ( 2 )  M ( 2 )  M (1) A
Premultiplicando por M ( 2)
1
y M (1)
M (1)
1
1
 M ( 2)
,
1
U  A
1
Se comprueba fácilmente que  M (1)  es la matriz correspondiente a la
transformación que deshace el cambio, es decir, la transformación que consiste en sumar
a la segunda fila la primera multiplicada por m21 y sumar a la tercera fila la primera
1
multiplicada por m31 . Idem. Para  M (2)  .
1 0 0
(1) 1
M
 m21 1 0 , y M ( 2 )
LM
MM
Nm
31
0
OP
P
1QP
Es decir,
L   M
como queríamos comprobar.
(1) 1
   M
1
 1
   m21

 m31
(2) 1
LM1
 0
MM
N0
0
1
m32
0
1
m32
OP
0 .
P
1QP
0
0
0

1 
Teorema:( Factorización directa A = LU sin intercambios de filas).
Supongamos que podemos llevar a cabo hasta el final el proceso de eliminación
gaussiana, sin intercambios de filas, para resolver un sistema de ecuaciones lineales
cualquiera AX = B. Entonces la matriz A puede factorizarse como el producto de una
matriz triangular inferior L por una matriz triangular superior U; es decir, A = LU.
Es más, L puede ser construida de manera que sus elementos diagonales son todos
iguales a 1, y U tiene todos sus elementos diagonales distintos de cero. Esta
32
Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos.
factorización se denomina factorización de Doolittle. Una vez halladas L y U, la
solución X puede calcularse en dos pasos:
1. Hallar Y resolviendo LY = B con el método de sustitución progresiva;
2. Hallar X resolviendo UX = Y con el método de sustitución regresiva.
Cuando el proceso de eliminación gaussiana puede llevarse a cabo hasta el final en
la matriz ampliada que se obtiene añadiendo la columna B a la matriz A, entonces los
elementos subdiagonales de L coinciden con los multiplicadores correspondientes que se
usan en la eliminación, la matriz triangular superior U es la matriz de los coeficientes del
sistema triangular superior UX = Y obtenido al final del proceso de eliminación, y el
segundo miembro de este sistema es precisamente el vector Y solución del sistema.
Las matrices L y U, en el caso general de un sistema de n ecuaciones con n
incógnitas, son:
F1
GG m
L Gm
GG 
GH m
21
31
N1
0
1



 



  mN , N  1
I
J
J
J ;
0J
J
1JK
0
Fa
GG 0
U G 
GG 
GH 0
(1)
11
a12
( 1)
a 22

(2)

 

a1, N
(1)

 

  a N 1, N ( N 1)
 0
aN,N (N )
I
JJ
JJ
JJ
K
Mediante la teoría del álgebra de transformaciones elementales de matrices se
puede demostrar que:
A = LU
En el caso de que la matriz A sea una matriz estrictamente diagonal dominante se
puede demostrar que la eliminación Gaussiana se puede llevar a cabo en cualquier
sistema lineal de la forma A x = b sin realizar ningún intercambio de filas. Además los
cálculos son estables frente al crecimiento de los errores de redondeo. Lo mismo se
puede afirmar si A es una matriz definida positiva.
3.6.4.-
Otras factorizaciones
La factorización de una matriz A en producto de una matriz triangular inferior L
por otra triangular superior U puede resolverse también como un sistema de ecuaciones
lineales en el que las incógnitas son los elementos de L y U, las ecuaciones el resultado
de la ecuación matricial LU = A (hay nn ecuaciones para una matriz A de orden n) y los
términos independientes, los elementos de A. En este sistema hay más incógnitas que
ecuaciones, ya que L y U, si no se pone ninguna otra condición, tienen cada una
(n2+n) / 2 elementos, o sea, n2+n en total. En la factorización de Doolittle se han hecho
los lii = 1 (i = 1, 2, ..., n). Si en lugar de esto se hace uii = 1 (i = 1, 2, ..., n) se obtiene la
factorización de Crout.
Cuando A es una matriz definida positiva la eliminación gaussiana siempre puede
realizarse sin intercambios de filas, y se puede demostrar que A puede ser factorizada
como producto de una matriz triangular inferior por su traspuesta:
33
Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos.
A = L Lt
A esta factorización se la conoce como factorización de Cholesky. Si al intentar
esta factorización con una matriz simétrica surgen raíces de números negativos, la matriz
no es definida positiva.
34
Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos.
3.7.- TEMA 3 . EJERCICIOS
1.- Resolver por Gauss los siguientes sistemas:
a) x + y + 2z = 1
x + 2y + z = 1
b) x + 2y + z = 6
c) x + y
=2
2x + y + 2z = 6
x + 4y + 6z = 5
2y + y + z = 1
x + 2y + 2z = 7
6y + 14z = 6
Sol:
a) x=1/4, y=1/4 , z=1/4
b) x=1 , y=2 , z=1
c) x=1 , y=1 , z=0.
2.- Resolver los siguientes sistemas utilizando el método de Gauss y Gauss-Jordan.
a)
x+
y
+ z= 4
2x + 3y
+ z= 9
x + 9y - 6z = 1
- z = -2
-3x + 8y + 5z = 6
x-
y
b) 2x - 7y + 4z = 9
Sol:
a) x= 1, y=2 , z=1.
b) x=4 , y=1 , z=2.
3.-Hallar A1 siendo
a)
A =
LM1
MM 1
MN 10
0
1
2
2
1
0
1
1
OP
PP
PQ
3
1
1
1
F-1
GG 2
1

G
Sol: a) G 4
GG  41
GG 1
H4
b)
1
3

2
5

2
1
2
A =
3
2
5
4
9
4
1

4
I
JJ
1J
JJ
1
JJ
0J
K
1
LM 2
MM 1
N0
1
2
1
F3
GG 4
1
b) G 
GG 12
H4
OP
1
P
2 PQ
0

1
2
1

1
2
1
4
1

2
3
4
I
JJ
JJ
JK
4.- Resolver el siguiente sistema, obteniendo previamente la factorización LU de la
matriz del sistema, utilizando eliminación gaussiana
35
Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos.
x + y
+ 3t =
4
1
2x + y -
z
+
3x - y -
z
+ 2t = -3
-x + 2y + 3z
-
t =
t =
4
Sol: x=-1, y=2 , z=0 , t=1
5.- ¿En qué forma es posible evaluar A a partir de la descomposición factorial de
Doolittle de la matriz A?. Aplicar este resultado para calcular :
1 2 3 4
2 1 4 2
A 
2 5 7 12
2 2 6 22
Sol: A = u11.u22.u33.u44 = -2.
6.- Resolver los siguientes sistemas a partir de la factorización de Doolittle:
x
 2y
 3
a)
Sol: x=15 , y=-6, z=7.
y  z  1
2 x  4 y  z  1
x
 z  2
b)
 3
Sol: x=1 , y=3 , z=1.
y
x
 z  0
6x
12 x
c)
3x
6 x
 2y
 8y
 13 y
 4y
 2 z  4t
 6z  10t
 9 z  3t
 z  18t
 10
 20
 2
 19
Sol: x=1 , y=1, z=1 , t=1.
7.- Aplicar el método de Crout para resolver el siguiente sistema:
2 x  6 y  8z  24
5x  4 y  3z  2
3x  y  2 z  16
Sol: x=1, y=3 , z=5
8.- Obtener la descomposición L U de las siguientes matrices utilizando el método de
Crout:
36
Tema 3: Resolución de sistemas de ecuaciones lineales. Métodos directos.
a)
b)
F1
A  G 1
GH 2
F6
G2
BG
GG 1
H 1
4
I
4J
J
14K
2
4
1
1
1
4
1
5
F1
Sol: G 1
GH 2
2
0 1
I
JJ
JJ
3K
1
0
1
F6
G2
Sol: G
GG 1
H 1
I F1
0J  G 0
J G
1K H 0
0 0
1
4
1
6
I
JJ
JJ
K
0
I
3 / 2J
J
1 K
2
F
GG
GG
H
0
0
0
1 1 / 3 1 / 6 1 / 6
10 / 3
0
0
0 1 1 / 5 1 / 10

2 / 3 37 / 10
0
0 0
1 9 / 37
1 / 3 9 / 10 191 / 74
0 0
0
1
9.- Aplicar el método de Cholesky para resolver los siguientes sistemas:
x  y  z  1
a)
 x  5y  z  1
Sol: x=9/2, y=3/2 , z=-2
x  y  3z  0
b)
4 x1
x1
x1
x1
 x2
 3x2
 x2
 x2
 x3
 x3
 2 x3


x4
x4

x4
 8
 1
 6
 6
Sol: x= 1/7 , y=-19/7 ,z=11/7 , t=60/7
10.- Siendo A la matriz del ejercicio nº 5 calcular A-1 aplicando la factorización de
Doolittle a los cuatro sistemas de ecuaciones resultantes.
183 31 65 5
40
7 14 1
Sol:
39
110 19
3
17
3 6 1 / 2
F
GG
GG
H
37
I
JJ
JJ
K
I
JJ
JJ
K
Descargar