Método de direcciones conjugadas

Anuncio
Método de direcciones conjugadas
Estos apuntes están escritos con ayuda de Lourdes Fabiola Uribe Richaud y Juan Esaú Trejo Espino.
Objetivos. Estudiar la idea del método de direcciones conjugadas y demostrar que este
método converge en n pasos.
1. De un sistema de ecuaciones lineales a un problema de minimización (repaso). Ya sabemos que si A es una matriz simétrica positiva definida, entonces el problema
de resolver el sistema Ax = b es equivalente al problema de minizar la función
1
f (x) = x> Ax − b> x.
2
2. Minimización sobre una recta (repaso). Si x ∈ Rn y p ∈ Rn \ {0}, entonces la
función
g(α) = f (x + αp)
alcanza su valor mı́nimo en el punto
α=
p> (b − Ax)
.
p> Ap
3. El producto interno asociado a una matriz. Estamos suponiendo que A ∈ Mn (R)
es una matriz simétrica positiva definida. Entonces la función de dos argumentos
hx, yiA := x> Ay
es un producto interno en Rn .
4. Vectores A-conjugados. Sea A ∈ Mn (R) una matriz simétrica positiva definida
y sean p1 , . . . , pm ∈ Rn . Se dice que la lista de vectores p1 , . . . , pm es A-conjugada o
A-ortogonal si
∀j, k ∈ {1, . . . , m}
(j 6= k)
=⇒
hpj , pk iA = 0.
5. Independencia lineal de vectores A-conjugados. Sea A ∈ Mn (R) una matriz
simétrica positiva definida y sea p1 , . . . , pm ∈ Rn una lista A-conjugada de vectores no
nulos. Entonces la lista p1 , . . . , pm es linealmente independiente.
Demostración. Es un hecho general sobre vectores no nulos y ortogonales con respecto
a un producto interno. Escribamos la demostración para nuestra situación particular,
cuando el producto interno es inducido por la matriz A. Supongamos que λ1 , . . . , λm ∈ R
tales que
m
X
λj pj = 0n .
j=1
Método de direcciones conjugadas, página 1 de 3
Mostremos que para cada k ∈ {1, . . . , m} el escalar λk es cero. Multiplicamos ambos
lados de la igualdad por p>
k A, del lado izquierdo, y utilizamos propiedades del producto
de matrices:
m
X
λj p>
k Apj = 0.
j=1
p>
k Apj
Si j 6= k, entonces
convierte en
= 0. Para j = k obtenemos p>
k Apk > 0. Por eso la igualdad se
λk p>
k Apk = 0
e implica que λk = 0.
6. Teorema sobre la convergencia del método de direcciones conjugadas. Sean
A ∈ Mn (R) una matriz real simétrica positiva definida, b ∈ Rn , x0 ∈ Rn . Sean p0 , . . . , pn−1
algunos vectores no nulos A-conjugados. Definimos escalares α0 , . . . , αn−1 ∈ R y vectores
x1 , . . . , xn ∈ Rn mediante las siguientes fórmulas recursivas:
αs :=
p>
s (b − Axs )
,
p>
s Aps
xs+1 := xs + αs ps
(s = 0, . . . , n − 1).
Entonces Axn = b.
Demostración. Denotemos por u a la solución exacta del sistema: u := A−1 b. Como los
vectores p0 , . . . , pn−1 forman una base de Rn , el vector u − x0 se puede expandir en una
combinación lineal de la forma
n−1
X
u − x0 =
λj pj .
(1)
j=0
Por otro lado, la definición de los vectores x1 , . . . , xn implica que
xs − x0 =
s−1
X
α j pj .
(2)
j=0
Vamos a demostrar que λj = αj para cada j; esto implicará que xn −x0 = u−x0 y xn = u.
Sea s ∈ {0, . . . , n − 1}. Multipliquemos la igualdad (1) por p>
s A del lado izquierdo y
apliquemos la hipótesis que p0 , . . . , pn−1 son A-conjugados:
>
p>
s A(u − x0 ) = λs ps Aps .
Notando que A(u − x0 ) = Au − Ax0 = b − Ax0 obtenemos
λs =
p>
s (b − Ax0 )
.
p>
s Aps
Por otro lado,
>
p>
s Axs = ps Ax0 +
s−1
X
>
α j p>
s Apj = ps Ax0 ,
j=1
ası́ que λs = αs .
Método de direcciones conjugadas, página 2 de 3
7. Lema (sobre la ortogonalidad del residuo nuevo a la dirección anterior). Sean
A ∈ Mn (R) una matriz real simétrica positiva definida, b ∈ Rn , x0 ∈ Rn . Supongamos
que p ∈ Rn \ {00 }, x ∈ Rn ,
α=
p> (b − Ax)
,
p> Ap
y = x + αp.
Entonces
p ⊥ (b − Ay).
Demostración. Es un cálculo directo:
p> (b − Ay) = p> (b − A(x + αp)) = p> (b − Ax) − αp> Ap
p> (b − Ax) >
= p (b − Ax) −
p Ap = 0.
p> Ap
>
8. Teorema sobre la ortogonalidad de los residuos y direcciones en el método de
direcciones conjugadas. Sean A ∈ Mn (R) una matriz real simétrica positiva definida,
b ∈ Rn , x0 ∈ Rn . Sean p0 , . . . , pn−1 algunos vectores no nulos A-conjugados. Definimos
escalares α0 , . . . , αn−1 ∈ R y vectores x1 , . . . , xn ∈ Rn mediante las siguientes fórmulas
recursivas:
αs :=
p>
s (b − Axs )
,
p>
s Aps
xs := xs−1 + αs−1 ps−1
(s = 1, . . . , n).
Entonces p>
j (b − Axk ) = 0 para cualesquiera j, k ∈ {1, . . . , n} con j < k.
Demostración. Denotemos b − Axk por rk . Entonces
rs = rs−1 − αs−1 Aps−1 .
De la definición de los escalares αs se obtiene inmediatamente que ps−1 ⊥ rs (véase el
Lema). Demostremos por inducción sobre s que para cada s ∈ {1, . . . , n} y cada j < s se
tiene p>
j rs = 0.
Ya lo tenemos para s = 1, porque en este caso el único valor de j es 0, y j = s − 1.
Supongamos que j ≤ s − 2. Entonces
>
>
>
p>
j rs = pj (rs−1 − αs−1 Aps−1 ) = pj rs−1 − αs−1 pj Aps−1 .
Usando la hipótesis de inducción y la hipótesis que las direcciones son A-conjugadas
concluimos que ambos sumandos son 0.
Método de direcciones conjugadas, página 3 de 3
Descargar