Catedra Metodos Numericos 2015 – UNSCH

Anuncio
CATEDRA 0
9
Facultad de Ingeniería de Minas, Geología y Civil
Departamento académico de ingeniería de minas y civil
METODOS
NUMERICOS
Ingeniería Civil
Capitulo XIII
AUTOVALORES Y
AUTOVECTORES
C0NTENIDO
II. AUTOVALORES Y AUTOVECTORES
2.1. Aspectos básicos.
2.2. Teorema de Schur y Gershgorin
2.3. Problemas propios de una matriz.
2.4. Factorizaciones Ortogonales y problemas de mínimos
cuadrados
2.5. Método de QR de Francis para problemas de valores
propios
2.6. Método mixtos evaluación de la determinante Iteración
en un subespacio
3
Competencias:
. Explica los conceptos de valores y vectores propios de
una matriz cuadrada.
. Explica los conceptos de polinomio característico
y ecuación característica de una matriz.
. Explica el concepto de base propia.
. Explica el concepto de matriz diagonalizable.
. Determina cuando una matriz es diagonalizable y hallar
la matriz de transición necesaria para diagonalizarla.
Un poco de historia
Los valores y vectores propios pertenecen a los temas de mayor utilidad del álgebra
lineal. Se usan en varias áreas de las matemáticas, física, mecánica, ingeniería
eléctrica y nuclear, hidrodinámica, aerodinámica,etc. De hecho, es raro encontrar un
área de la ciencia aplicada donde nunca se hayan usado.
Puede parecer muy extraño, pero los valores propios de las matrices aparecieron
publicados antes que las matrices. Esto se debe al hecho insólito de que,
parafraseando a Cailey, la teoría de las matrices estaba bien desarrollada (a través de
la teoría de los determinantes) antes de que siquiera se definieran las matrices. Según
Morris Kline, los valores propios se originaron en el contexto de formas cuadráticas y
en la mecánica celeste (el movimiento de los planetas), conociéndose como raíces
características de la ecuación escalar. Desde aproximadamente 1740, Euler usaba de
manera implícita los valores propios para describir geométricamente las formas
cuadráticas en tres variables.
En la década de 1760, Lagrange estudió un sistema de seis ecuaciones diferenciales
del movimiento de los planetas (sólo se conocían seis) y de ahí dedujo una ecuación
polinomial de sexto grado, cuyas raíces eran los valores propios de una matriz 66.
En 1820, Cauchy se dio cuenta de la importancia de los valores propios para
determinar los “ejes principales” de una forma cuadrática con n variables. También
aplicó sus descubrimientos a la teoría del movimiento planetario. Fue Cauchy quien,
en 1840, usó por primera vez los términos valores característicos y ecuación
característica para indicar los valores propios y la ecuación polinomial básica que
satisfacen.
5
Un poco de historia
Augustin-Louis Cauchy (1789-1857) nació en París. Fue educado en casa por su padre y no
ingresó en la escuela hasta los trece años, aunque pronto empezó a ganar premios académicos.
A los dieciséis entró en la École Polytechnique parisina y a los dieciocho asistía a una escuela
de ingeniería civil, donde se graduó tres años después. Su primer trabajo fue como ingeniero
militar para Napoleón, ayudando a construir las defensas en Cherburgo. A los veinticuatro
años volvió a París y dos más tarde demostró una conjetura de Fermat que había superado a
Euler y Gauss. Con veintisiete años ya era uno de los matemáticos de mayor prestigio y empezó
a trabajar en las funciones de variable compleja, publicando las 300 páginas de esa
investigación once años después. En esta época publicó sus trabajos sobre límites, continuidad
y sobre la convergencia de las series infinitas.
Joseph Louis Lagrange (1736-1813) Matemático y físico francés. En un libro de 1797 él
enfatizó la importancia de la serie de Taylor y el concepto de función. Trabajó en el sistema
métrico y defendió la base decimal.
Leonhard Euler (1707-1783) Matemático suizo. Los trabajos científicos de Euler abarcan
prácticamente todas las matemáticas contemporáneas a él. En todas las ramas de las
matemáticas hizo descubrimientos notables, que lo situaron en el primer lugar en el mundo.
Euler fue capaz de comprender las matemáticas como un todo único, aunque enorme en el
confluían un montón de ramas importantes y ante todo el Análisis. Laplace indicó que Euler
fue el maestro común de todos los matemáticos de la segunda mitad del siglo XVIII. Euler fue
en gran medida responsable de los símbolos e, i y.
6
VALORES Y VECTORES PROPIOS
VALOR PROPIO
Diagonalización
de matrices
Interpretación
VECTOR PROPIO
Propiedades
Condiciones de
diagonalizabilidad
Diagonalización
de matrices
Espectro
Polinomio
característico
Subespacio
propio
Resultados interesantes
Diagonalización
ortogonal
Metodología para la obtención
de valores y vectores propios
7
VECTOR Y VALOR PROPIO
Definición:
Dada la Matriz A nxn se llama valor propio
de A al escalar
y vector propio de A
al vector no nulo v nx1 tal que:
AV=
V
vector propio
valor propio
POLINOMIO Y ECUACIÓN
CARACTERÍSTICA
SEA Anxn y SEA V NO NULO,
nx1
Tal que AV = V entonces :
P(
) = det ( A-
det ( A -
I)
I)=0
polinomio
característico
ecuación
característica
CONJUNTO DE VECTORES PROPIOS
DE UNA MATRIZ
SEA
UN VALOR PROPIO DE Anxn
EL CONJUNTO:
E ={V
nx1
(A- I)V = 0 }
CONTIENE TODOS LOS VECTORES PROPIOS DE
A CORRESPONDIENTES AL VALOR PROPIO
observe que los v son las soluciones del sistema
homogéneo (A - I)V=0
PROCEDIMIENTO PARA CALCULAR LOS
VALORES Y VECTORES PROPIOS DE UNA MATRIZ
1. Se halla los valores propios que son las
raíces  1,  2 ,...,  n de p( ) = det(A- I )= 0
2. Para determinar los vectores propios se
resuelve el sistema homogéneo (A- I)v= 0,
correspondiente a cada valor propio  i
( son los vi )
EJEMPLO:
Hallar los valores y vectores
propios de
1 0 0
 1 2 4 

A= 
 0 1  1
VALORES Y VECTORES PROPIOS
Los conceptos básicos estudiados en este tema son útiles en todas las
áreas de las matemáticas puras y aplicadas, y aparecen en contextos
mucho más generales que los que consideramos aquí.
Una de las principales aplicaciones de la teoría espectral son los sistemas
dinámicos discretos (ejemplo introductorio), pero también pueden
utilizarse los valores propios para estudiar ecuaciones diferenciales y
sistemas dinámicos continuos, además proporcionan información crítica
en el diseño de ingeniería y se presentan naturalmente en campos como
la física y la química.
 Un escalar  se llama valor propio de A si existe una
solución no trivial
de
; una de esas
soluciones no triviales
se denomina vector propio de A
asociado al valor propio .
 El conjunto de todos los valores propios de una matriz
cuadrada A se denomina espectro de A y se denota  (A).
13
VALORES Y VECTORES PROPIOS
Cierta información útil de los valores propios de una matriz
cuadrada A se encuentra codificada en una ecuación escalar
llamada ecuación característica de A. Este hecho nos va a
permitir enunciar un resultado de gran importancia práctica
para el cálculo de los valores propios de una matriz cuadrada.
Para que  sea valor propio de la matriz cuadrada A, el sistema
homogéneo () ha de tener soluciones no triviales, luego el
determinante de la matriz cuadrada A  · I ha de ser cero.
Polinomio característico de A
Ecuación característica de A
Los valores propios de
una matriz cuadrada
son las raíces de su
polinomio característico
14
SUBESPACIOS PROPIOS
Subespacios propios. Propiedades.1.- Todo vector propio de A está asociado a un único
valor propio de A.
2.vectorial de
asociado a .
es un subespacio
y se denomina subespacio propio
3.4.- Si
de A y
son valores propios distintos
, entonces:
es un sistema libre
15
¿Cómo calcular los valores propios
de una matriz cuadrada?
Los valores propios de una matriz cuadrada
A son las raíces de su polinomio
característico.
 El orden del valor propio  es la multiplicidad k de 
como raíz del polinomio característico.
 Si k = 1,  es un valor propio simple.
Observación
La suma de los valores propios de una matriz, teniendo en
cuenta su multiplicidad, coincide con la traza de la matriz
16
-EJEMPLO.- Calcular los valores propios de A, indicando su
orden o multiplicidad:
Solución
Espectro de A
Atención
17
¿Cómo calcular los subespacios
propios de una matriz cuadrada?
Para calcular los subespacios propios de una
matriz cuadrada A debemos resolver un
sistema homogéneo compatible indeterminado.
Si  es un valor propio de orden k de una matriz A y d = dim V(), entonces:
1  d = dim V()  k
18
-EJEMPLO.- Calcular los subespacios propios de A, indicando
su dimensión:
Solución

19

20
OBSERVACIONES.-
1.- Sea
tal que:
valores propios distintos de A:
1 , 2 ,  , r
órdenes respectivos:
k1 , k2 ,  , kr
dimensión de los subespacios propios asociados:
di = V(i)
d1 , d2 ,  , dr
se cumple que:
orden de la matriz
nro. valores propios distintos
21
2.- Si
cumple que:
el polinomio característico de la matriz A es:
ATENCIÓN
3.- Conocido el polinomio característico de una
matriz cuadrada se puede calcular fácilmente su
determinante:
22
Dos matrices
si:
son semejantes
Dos matrices semejantes tienen el mismo
polinomio característico, luego tienen los mismos
valores propios con los mismos órdenes de
multiplicidad.
Sin embargo, el recíproco no es necesariamente
cierto. Es decir, existen matrices coon el mismo
polinomio carácterístico pero que no son
semejantes.
23
MATRICES CUADRADAS DIAGONALIZABLES
En muchos casos la información de vector propio-valor propio contenida
dentro de una matriz A se puede mostrar con una útil factorización de la
forma:
Las ideas y métodos aquí explicados nos permiten calcular rápidamente
Ak para valores grandes de k, una idea fundamental en varias
aplicaciones del Álgebra Lineal. Además la teoría aquí expuesta se aplica
también en las ecuaciones diferenciales. En sistemas dinámicos, en
procesos de Markov, en el estudio de curvas y superficies, en la teoría de
gráficas y en muchos otros campos.
 Una matriz cuadrada A se dice diagonalizable si existe
una matriz regular P que cumple que:
Es decir, A es semejante a una matriz diagonal.
24
La definición anterior de matriz diagonalizable no resulta
demasiado útil en la práctica. Una caracterización muy
interesante de matrices diagonalizables es la siguiente:
Una matriz
es diagonalizable si
y sólo si existe una base de
formada por
vectores propios de la matriz A.
Existe un resultado muy cómodo que nos permite justificar
de manera muy simple si una matriz cuadrada A es
diagonalizable o no:
A es diagonalizable si y sólo si se cumplen las
dos condiciones siguientes:
 k1 + k2 + … + kr = n
 di = ki ; i = 1, 2 , … , r
25
Las dos condiciones del resultado anterior se pueden
resumir en una única condición, obteniendo el siguiente
resultado:
A es diagonalizable si y sólo si :
 d 1 + d 2 + … + dr = n
Del resultado anterior se obtiene fácilmente el
siguiente corolario:
Una matriz cuadrada A de orden n con n
valores propios reales distintos, es
diagonalizable.
26
¿Cómo se diagonaliza una matriz
cuadrada A diagonalizable?


1.- Calcular los valores propios de A indicando sus órdenes.
2.- Calcular los subespacios propios V(i) y bases Bi de cada
subespacio.
base de
formada por v.p. de A.
3.- Escribir las matrices D y P tales que:
 columnas de P: vectores de la base B de
formada por v.p. de A
encontrada en 2.-
En orden
 elementos de la diagonal principal de D: valores propios de A
En orden
27
-EJEMPLO.- Diagonalizar la matriz cuadrada A
Solución
Sabemos que:
28
-EJEMPLO.- Hallar una matriz regular P tal que:
Solución
29
Como ya sabemos, el cálculo de las potencias Ak puede ser
bastante tedioso. Sin embargo, si A es diagonalizable y
hemos calculado P y D, entonces sabemos que
así que:
Con lo cual, iterando el proceso llegamos a:
Como el cálculo de Dk equivale a elevar sólo los elementos
diagonales de D a la k-ésima potencia, vemos que Ak es
fácil de obtener.
Si sucede que A es invertible, entonces 0 no es valor
propio de A. Por consiguiente D-1 existe y
30
DIAGONALIZACIÓN ORTOGONAL DE
MATRICES SIMÉTRICAS
Las matrices simétricas surgen en las aplicaciones, de
una u otra manera, con mayor frecuencia que
cualquier otra clase de matrices. La teoría es hermosa
y rica, y depende de manera esencial tanto de la
técnica de diagonalización expuesta en este capítulo,
como de la ortogonalidad del capítulo anterior.
La diagonalización de una matriz simétrica es el
fundamento para el estudio de las formas cuadráticas
y se utiliza también en el procesamiento de imágenes.
31
Teorema espectral.Sea
1.-
matriz simétrica:
Todos los valores propios de A son reales.
2.3.-
A es diagonalizable, es decir:
4.-
A es diagonalizable ortogonalmente, es decir:
32
¿Cómo se diagonaliza ortogonalmente
una matriz simétrica?
1.- Calcular los valores propios de A indicando sus órdenes.
2.- Calcular los subespacios propios V(i) y bases Bi de cada
subespacio. Recordar que al ser A simétrica es diagonalizable y
por tanto: di = ki.
base de
formada por v.p. de A.
3.- Ortonormalizamos las bases Bi de 2.-
base ortonormal de
formada por v.p. de A.
4.- Escribir las matrices D y P tales que:
 columnas de P: vectores de la base BON de
formada por v.p. de
A encontrada en 3. elementos de la diagonal principal de D: valores propios de A
En orden
En orden
33
Teorema de la matriz invertible.- Sea A una matriz cuadrada de orden n. Entonces
los enunciados que siguen son equivalentes.
1.- A es una matriz invertible.
2.- A es una matriz regular.
3.- A es equivalente por filas a la matriz In , es decir:
.
4.- Los vectores columna de A son linealmente independientes.
5.- Los vectores columna de A generan
.
6.- Los vectores columna de A forman una base de
.
7.- Los vectores fila de A son linealmente independientes.
8.- Los vectores fila de A generan
.
9.- Los vectores fila de A forman una base de
.
10.- AT es una matriz invertible.
11.- Existe una matriz B cuadrada de orden n tal que A · B = In.
12.- Existe una matriz C cuadrada de orden n tal que C · A = In.
13.- r ( A ) = n.
14..
15.- El sistema homógeneo A · x = 0 tiene solamente la solución trivial.
16.- El sistema A · x = b es siempre compatible determinado y la solución viene
dada por: x = A-1 · b.
17.- 0 no es valor propio de A.
34
Aspectos básicos.
ASPECTOS BÁSICOS
Para ingresar a los estudios de los valores propios de
una matriz debemos tener cierta familiaridad con
matrices y determinantes de los números complejos.
MATRICES, DEFINICIÓN, INTERPRETACIÓN
DEFINICIÓN: Llamaremos matriz a un arreglo
rectangular de entes (números, funciones, etc)
ordenados en filas y columnas.
35
Aspectos básicos.
 a11 a12 ... a1i ... a1n 
a

a
a
a
...
...
21
22
2
2
i
n


 a31 a32  a3i  a3n 



  
 
 
am1 am2  ami  amn 

 mn
ORDEN DE UNA MATRIZ:
Se llama así al producto de las filas y columnas
 3 4
2 5
 2 2

 3 4 1 0 9
  9 8  7 0 5

 2 5
aij mn  aij  filas  columnas
36
Aspectos básicos.
MATRIZ FILA Y MATRIZ COLUMNA
MATRIZ FILA: Llamaremos matriz fila o vector fila a
aquella matriz que posee sólo una fila y n columnas.
La representamos del siguiente modo:
A  a11 , a12 , a13 , ..., a1n 1 n
MATRIZ COLUMNA: Llamaremos matriz columna o
vector columna a aquella matriz que posee sólo una
columna y m filas.
 a11 
a 
La representamos del siguiente modo: A   21 
  


a
 m1  mx1
37
Aspectos básicos.
IGUALDAD DE MATRICES:
Las matrices son iguales si tienen el mismo orden; es
decir el número de filas y columnas de cada una deben
de ser iguales y además cada elemento de una de ellas
tiene que ser igual al correspondiente de la otra.
Su representación matricial es:
A  B  aij  bij ; i 1,2,..., m j 1,2,3,..., n
PRODUCTO DE UN ESCALAR POR UNA MATRIZ
 a11  a1n 
A   

 
a m1  a mn 
38
Aspectos básicos.
SUMA DE MATRICES:
Dadas las matrices A  aij m n y B  bij m n
la suma de ambas es otra matriz en la que cada
elemento de es igual a la suma de los elementos
correspondientes de .
Su representación matricial es:




C  A  B  aij  bij
 ( a  b) ij
m n
m n
39
Aspectos básicos.
PRODUCTO DE MATRICES
El producto de DOS es una matriz . El producto de las
matrices estará definido correctamente si ; es decir si el
número de columnas de la matriz es igual al número de
filas de la matriz .
Su representación matricial es:
 
 
 
A  aij
; B  bij
 C  A  B  cij
m p
p n
m n
p
cij   aik . bkj ; i  1,..., m ; j  1,..., n
k 1
40
Aspectos básicos.
TIPOS ESPECIALES DE MATRICES:
1.MATRIZ CUADRADA: Cuando m=n ; se llama matriz
cuadrada de orden y se denota porA.  Aij 
n n
6 5 4
0 9 8 7
 3 2 78 5 8 6 9 


 5 7 0 0 0 78 0 


A7   2 1 1 1 1 1 1 
 0 0 0 5 6 74 9 


8
0
2

5

5

6
0


 1 1 2 2 2 0 1 


41
Aspectos básicos.
2. MATRIZ TRIANGULAR SUPERIOR: Llamaremos matriz
triangular superior a aquella matriz cuyos elementos
son ceros para ; y se representa como:
 a11 a12

 0 a 22
A 0
0


 
 0
0

... a1n 

... a 2n 
a33 ... a3n 

   
0
0 a nn 
a13
a 23
42
Aspectos básicos.
3.MATRIZ TRIANGULAR INFERIOR: Llamaremos matriz triangular
inferior a aquella matriz cuyos elementos son ceros para ; y se
representa como:  a11 0 0 ... 0 
 a 21 a 22
A   a31 a32


 

 a m1 a m 2
0 
a33 ...
0 


  

a m3  a nn 
0
...
4.MATRIZ DIAGONAL: Llamaremos matriz diagonal a aquella
matriz donde todos sus elementos son ceros para , y se
representa de la siguiente forma:
0
0 ...
0 
 a11


A




0
a 22
0
0


0
0

0 
a33 ...
0 

   
0
0 a nn 
0
...
43
2.1. Aspectos básicos.
5. MATRIZ ESCALAR: Es aquella matriz diagonal donde todos los
elementos son igual a una constante ; y se representa de la
siguiente manera:
6. MATRIZ IDENTIDAD: Es una matriz escalar con ; y se representa
de la siguiente manera
7. MATRIZ TRANSPUESTA: Dada una matriz A  aij m n ; llamaremos
transpuesta de A denotada por At a la matriz a ji n m
K

0
A0


0

0
K
0

0
0 ... 0 

0 ... 0 
K ... 0 

  
0 0 K 
(5)
21/06/2015
1

0
A  0


0

0
1
0

0
0
0
1

0
(6)
...
...
...

0
0

0
0


1 
 a11 a12

 a 21 a 22
A   a31 a32


 
a
 m1 a m 2
a1n 
 a11


a 2n 
 a12
a33 ... a3n   At   a13




 
 

a
a m3 ... a mn 
 1n
a13
a 23
...
...
a 21
a 22
a 23

a 2n
... a m1 

... a m 2 
a33 ... a m3 

 
 
a3n ... a mn 
a31
a32
(7)
44
Aspectos básicos.
8. MATRIZ SIMÉTRICA: Se dice que una matriz cuadrada es
simétrica si se cumple que los elementos aij  a ji ; i  j ; es decir .
A  At
9. MATRIZ ANTISIMÉTRICA: Una matriz cuadrada se llama anti
simétrica si
A   At
10.MATRIZ HERMITIANAS
Las matrices cuadradas cuyos elementos tienen simetría
conjugada se le llama matriz Hermitianas es decir:
, en
donde * indica la conjugada compleja
2 4
2 4
 0
 0  2  4
 0






A    2 0 6   At   2 0  6    At    2 0 6 
  4  6 6
4 6
  4  6 0
0 





(9)
(10)
45
Aspectos básicos.
11. MATRIZ BANDA
Es una matriz cuadrada en donde la mayor parte de los
elementos son ceros y los elementos con valor significativo están
agrupados alrededor de su diagonal principal en este caso se
llama matriz banda.
 1 1 0 0 0 


1 2 1 0 0 
A   0 1 2 1 0 


 0 0  1 2  1
 0 0 0 1 1 


46
Aspectos básicos.
Obs.
•Las líneas paralelas a la diagonal principal se le llama
codiagonales.
•El número total de diagonal y codiagonales con elementos
significativos es el ancho de banda (3 en este ejemplo).
•Para matrices simétricas puede también hablarse de un ancho de
semi – banda; que incluye a la diagonal principal (2 en el ejemplo
precedente).
•Una matriz banda tiene baja densidad. Considerando densidad
como la razón entre el número de elementos con valor
significativo y el número total de elementos.
47
Aspectos básicos.
DETERMINANTE DE UNA MATRIZ
Definición: Determinante de una matriz A denotada por det(
. A)  A
a12 
a

A   11
 a 21 a 22 
det( A)  a11.a22  a 21.a12
MENOR COMPLEMENTARIO
Definición: Llamaremos menor complemento " M ij "de un elemento
de una matriz A de tercer orden al determinante de una matriz
cuadrada de segundo orden que se obtiene después de eliminar la
fila i y la columna j; . ( M ij )
El menor complementario de aij se denota por . M ij
48
Aspectos básicos.
Ejemplo
 a11 a12

A  aij
a 22
 a
33  21
a
 31 a32
 
a11 es M11   a22
 a32
a13 

a 23 
a33 
a 23 

a33 
el menor complementario de:
de
a 21 es
a
M 21   12
 a32
a13 

a33 
COFACTOR DE UN ELEMENTO
Sea aij un elemento de una matriz A denotaremos cofactor
se define como:
Aij   1i  j M ij
 a11 a12

A   a 21 a 22
a
 31 a32
a13 

a 23 
a33 
Aij
y
A11   111 M 11  M 11
A12   11 2 M 12   M 12
A13   11 3 M 13  M 13
A  a11M 11  a12 M 12  a13 M 13
49
Aspectos básicos.
Propiedades:
1. Si se intercambian una fila por una columna en su determinante
su valor no se altera.
a1 a 2
b1 b2
c1
c2
a3 a1
b3  a 2
c3 a 3
b1
b2
c1
c2
b3
c3
2. Si todos sus elementos de una fila o columna son ceros el
determinante es cero.
3. Si se intercambian dos filas o dos columnas continuas el
a1 a2 a3
b1 b2 b3
determinante cambia de signo.
b1
b2
b3   a1
a2
a3
c1
c2
c3
c2
c3
c1
50
Aspectos básicos.
Propiedades:
4. Si un determinante tiene dos filas ó dos columnas iguales o
proporcionales su valor es cero.
a1 a 2
ka1 ka2
c1 c 2
a3
ka3  0
c3
5. Todos los elementos de una fila o columna de un determinante
se multiplica por un número el valor del determinante queda
multiplicado por el número.
ka1 a 2
kb1 b2
a3 a1 a 2
b3  kb1 kb2
a3
a1 a 2
kb3  k b1 b2
a3
b3
kc1
c3
c3
c3
c2
c1
c2
c1
c2
51
Aspectos básicos.
Propiedades:
6. Si todos los elementos de una fila o columna son expresados
como la suma de dos o más números, el determinante puede
expresarse como la suma de dos o más determinantes
a1  x a 2
b1  y b2
c1  z
c2
a3 a1 a 2
b3  b1 b2
c3 c1 c 2
a3 x a 2
b3  y b2
a3
b3
c3
c3
z
c2
7. Si a cada uno de los elementos de una fila o columna se le
multiplica por m y a este resultado se le suma otra fila o columna
el valor del determinante no se altera a1 a2 a3 a1  ma2 a2 a3
b1
b2
c1
c2
b3  b1  mb2
c3 c1  mc2
b2
b3
c2
c3
52
Aspectos básicos.
Observaciones
La determinante de una matriz triangular es igual al producto de
los elementos de su diagonal principal.
MATRIZ DE COFACTORES
 a11 a12 a13 
Sea la matriz A   a21 a22 a23 
a
 31
a32
a33 
entonces llamamos matriz de cofactores de la matriz A a la matriz
;CA   AA11 AA12 AA13  donde
i j
 21
A
 31
22
A32
23 
A33 
Aij   1
M ij
 4  22 
 14
1 3 5




A   3 5 1   CA    4  22 14 
  22 14
 5 1 3
 4 



53
Aspectos básicos.
MATRIZ ADJUNTA
Se llama así a la matriz transpuesta de la matriz de cofactores y se
 A11 A21 A31 
denota por


adj ( A)  CAt   A12
A
 13
A22
A23
A32 
A33 
 3
 3
 3 6
 3 6
 1 2 3






A   4 5 6   CA   6  12 6   adj ( A)   6  12 6 
 3 6
 3 6
7 8 9
 3 
 3 




MATRIZ INVERSA.
Supongamos la matriz cuadrada tiene , entonces la inversa de la
matriz A denotada por es
t
A 1 
1
CA
adj ( A) 
A
A
54
Aspectos básicos.
,
RANGO DE UNA MATRIZ:
Se llama rango de una matriz A de orden nxn, al orden de la
matriz cuadrada mas grande contenida en A cuyo determinante
es diferente de cero y se denota r(A) = rango de A.
Debemos resaltar que el r(A) ≤ min:{m,n} donde la matriz A en de
orden de mxn.
LONGITUD DE UN VECTOR
Supongamos x un vector en R2, su longitud denotado por |x| es
definido como un número positivo o cero
En términos de producto punto
1,
2.
55
2.1. Aspectos básicos.
,
ANGULO ENTRE VECTORES
El coseno entre dos vectores es dado por
Ejemplo
Sean los vectores
PERPENDICULARIDAD DE VECTORES
Dos vectores son ortogonales si el coseno entre ellos es cero es
decir si solo si
Ejemplo:Sean los vectores x=(2,3,3,4), y =(4,-3,7,-5) son
ortogonales pues X*y=2*4+3(-3)+3*7+4(-5)=0
21/06/2015
56
,
Aspectos básicos.
,
ESPACIO VECTORIAL Cn
El espacio vectorial Cn, esta compuesto de todos los vectores X en
donde
,
Si al vector
complejo x es multiplicado por también complejo el resultado es
otro vector complejo así:
NORMA DE VECTORES
La norma Euclidiana se define:
,
57
Aspectos básicos.
VALOR PROPIO DE UN MATRIZ A
Ahora consideremos A una matriz de orden nxn cuyos elementos
pueden ser complejos y sea un escalar (numero complejo). Si la
ecuación
(1)
Tiene una solución no trivial es decir
entonces , es un
valor propio de A . Un vector x distinto de cero que satisface la
ecuación (1) es un vector propio de A correspondiente al valor
propio
Ejemplo: Consideremos la Ecuación siguiente
.
58
Aspectos básicos.
Esta ecuación nos afirma que -2 es un valor propio de matriz 3x3
y que (1,3,-4)T, es un vector propio correspondiente.
La condición de que la ecuación (1) tenga una solución no trivial
es equivalente a cada una de las siguientes afirmaciones.
mapea algún vector distinto de cero en 0
es singular
(2)
(3)
(4)
59
,
Aspectos básicos.
ECUACIÓN CARACTERÍSTICA DE LA MATRIZ A
Debemos decir que podemos resolver la relación (4) para las
incógnitas , y de esta manera determinamos los valores propios
de A. Resaltando que a esta relación se le conoce como ecuación
característica de la matriz A . Nosotros podemos escribir esta
ecuación mas detalladamente así:
a11  
 a
 21
 
det 
 ai1
 

 a n1
a12
a 22  

ai 2

an2
a13
a 23

ai 3

a n3
...
...
a1n  0
a 2 n  0
 
  0 
 
ain  0

  0 
  
... a nn     
...
a1 j
...
a2 j



... aij   ...

...

a nj
60
Aspectos básicos.
POLINOMIO CARACTERÍSTICO DE A,
Podemos observar que la ecuación (4) tiene la forma de un
polinomio de grado n en la variable , a esto se le llama polinomio
característico de A, de lo cual podemos decir que una matriz de
nxn tiene exactamente n valores propios, siempre y cuando se
cuenten con las multiplicidades que tienen como raíces de la
ecuación característica.
,
,
,
,
Ax
x
x
x
Ax
x
Ax
Ax
61
Aspectos básicos.
,
Ejemplo
Sea la matriz
, calcular los autovalores de A
Los autovalores de A son
Un auto vector de A asociado con
así que
Ejemplo
Dada la matriz A determinar
una solución
de
62
Aspectos básicos.
,
RADIO ESPECTRAL DE UNA MATRIZ
Radio espectral de una matriz A
en donde es un autovalor de A
Ejemplo: Consideremos la matriz
son:
se define así:
sus autovalores
El radio espectral se encuentra estrechamente vinculada con la
norma de una matriz.
Para la norma matricial
63
Aspectos básicos.
,
INDEPENDENCIA LINEAL
Diremos que los vectores no nulos
son
linealmente independientes si el único conjunto de
números reales
tal que
,
es:
en caso contrario se dirá que los
vectores son dependientes.
Ejemplo
Dados los vectores
del vector
64
Aspectos básicos.
INDEPENDENCIA LINEAL
es un conjunto Linealmente
Independiente de n vectores en Rn, entonces para cada
vector x en Rn, existe un único conjunto de número
reales ,
tal que
en este caso se dice que es una base de Rn.
Ejemplo:
Sean
los vectores .Si los
números
son tales que
como
Si
65
Aspectos básicos.
,
Pues la única solución al sistema es
entonces el
conjunto
, es Linealmente independiente en R3, y por lo
tanto es una base de R3. Entonces cualquier vector en R3, puede
escribirse de la siguiente manera:
66
Independencia Lineal
,
INDEPENDENCIA LINEAL DE AUTOVECTORES
Si A es una matriz y
son autovalores distintos
de A con autovectores correspondientes
,
entonces
, es linealmente independiente.
Un conjunto de vectores
es ortogonal , si,
y demás
es ortogonal.
entonces el conjunto
67
Independencia Lineal
,
INDEPENDENCIA LINEAL DE VECTORES ORTOGONALES
Un conjunto ortogonal de vectores que no contenga el
vector cero es linealmente independiente.
Ejemplo: El conjunto de vectores,
forman un conjunto ortogonal, pues para estos vectores
tenemos que:
68
Independencia Lineal
Este conjunto forman un conjunto ortogonal
ortogonalidad de
por heredar la
Diremos que una matriz Q de dimensiones nxn es una matriz
ortogonal si
, debemos aclarar que esta terminología
provienen del hecho de que las columnas de una matriz ortogonal
forman un conjunto ortogonal.
69
Independencia Lineal
,
Ejemplo. Considerando el ejemplo anterior la matriz
ortogonal será:
Observemos que: Q*Qt=I
Además se tiene que,
70
Independencia Lineal
,
AUTOVALORES Y AUTOVECTORES DE MATRICES
SEMEJANTES
Se dice que dos matrices A y B de dimensiones nxn son
semejantes si existe una matriz P tal que A=P-1BP. Dos
matrices semejantes tienen los mismos autovectores.
Supongamos que las matrices A y B son semejantes de
orden nxn, y que es un autovalor de A con un autovector
asociado x. En estas condiciones diremos
que es un
autovalor de B y además si A=P-1BP., entonces Px es un
autovector de B asociado a
71
Independencia Lineal
,
Obsérvese que la determinación de los autovalores
de una matriz triangular de orden nxn es
relativamente sencilla, pues en este caso es la
solución de la ecuación
, si solo si
para
algún i .
72
Teorema de Schur y Gershgorin
,
TEOREMA DE SCHUR Y GERSHGORIN
Teorema 1. Todas las matrices semejantes tienen los
mismos valores propios .
Pues supongamos que A y B son dos matrices semejantes
esto es
Veamos que A y B tienen el mismo polinomio
característico
73
Teorema de Schur y Gershgorin
,
*
Obsérvese:
Que se a considerado que el determinante del
producto de dos matrices es el producto de sus
determinantes, y el determinante de la inversa de
una matriz es el reciproco de su determinante.
74
Teorema de Schur y Gershgorin
,
TEOREMA DE SCHUR.
Sea A una matriz de orden nxn cualquiera, entonces
existe una matriz U ortogonal tal que T=U-1AU, donde T es
triangular superior cuyos elementos diagonales son los
autovalores de la matriz A.
Debemos manifestar que el teorema de Schur garantiza
que la matriz triangular existe, pero su prueba no
proporciona la construcción de T.
En otras palabras SCHUR afirmo que toda matriz cuadrada
es unitariamente semejante a una matriz triangular.
75
Teorema de Schur y Gershgorin
,
Corolario 1: toda matriz cuadrada es semejante una
matriz triangular.
Corolario 2. Toda matriz Hermitiana es semejante
unitariamente a una matriz diagonal.
Pues si A es Hermitiana, entonces A=A*, y sea U una
matriz untaría tal que UAU*, es triangular superior. En
este caso (UAU*)*, es triangular inferior, pero, (UAU*)*=
U** A* U*= UAU*, De esta manera la matriz UAU* es
triangular superior e inferior en consecuencia se trata de
una matriz diagonal
76
Teorema de Schur y Gershgorin
,
Ejemplo
LOCALIZACIÓN DE LOS VALORES PROPIOS
TEOREMA DE GERSHGORIN
Sea A una matriz nxn y denotemos por Ri, el círculo del
plano complejo con centro en aii y radio , es decir
77
Teorema de Schur y Gershgorin
,
,
En donde C denota el conjunto de los números complejos.
Entonces los autovalores de la matriz A están contenidos
en
, es más, si la unión de estos k círculos no se
cortan con los demás n-k círculos entonces dicha unión
contiene precisamente k autovalores contando las
multiplicidades
Ejemplo
Los círculos del teorema de Gershgorin son:
78
Teorema de Schur y Gershgorin
,
,
Como los R1 y R2 son disjuntos de R3, existen dos
autovalores en y uno con R3
Eje Imaginario
1
2
3
4
5
6
7
8
9
10
11
Eje Real
79
Factorizaciones Ortogonales y Problemas de
Mínimos Cuadrados
,
,
En ítems anteriores ya se ha se conceptualizo un espacio
complejo Cn, En este espacio el producto
nos permite
definir el concepto de ortogonalidad, es decir dos vectores
x, y son ortogonales si
, lo que podemos
generalizarlo considerando un conjunto
en Cn,
diremos que los vectores vi y vj, son ortogonales si.
Si
en este caso se dice que el conjunto de los
vectores es ortonormal
80
Factorizaciones Ortogonales y Problemas de
Mínimos Cuadrados
,
,
Ejemplo.
Determinar si los vectores son ortogonales x1 =[10,10] y .
x2 =[-2,2]
Pues ,
Sin embargo si tenemos x1 =[10,10] y . x2 =[2,-2.0003],
son casi ortogonales lo que induce al estudio de criterios
de Ortagonalizacion
81
Factorizaciones Ortogonales y Problemas de
Mínimos Cuadrados
,
,
MÉTODO DE ORTAGONALIZACION DE GRAM SCHMIDT
Consideremos dos vectores x1 , y x2 en el plano XY
linealmente Independientes, a partir de estos vectores
construyamos los vectores e1 y e2, ortogonales.
Supongamos x1= e1, y e1 como componente de e2
perpendicular a x1, en consecuencia
,
gráficamente es
X2
X1=e1
e2
X2
E1
82
Factorizaciones Ortogonales y Problemas de
Mínimos Cuadrados
,
,
En donde debemos de encontrar
es decir:
de tal manera que
Consecuentemente se tiene que
De esta manera e2 se encuentra en función de x1 y x2, y se
ha ortogonalizado dichos vectores.
83
Factorizaciones Ortogonales y Problemas de
Mínimos Cuadrados
,
,
Ejemplo.
Ortogonalizar x1 =[4,6]t y . x2 =[8,0]t
Hacemos
Primero: consideramos el primer vector
Segundo: determinamos
84
Factorizaciones Ortogonales y Problemas de
Mínimos Cuadrados
,
,
Tercero: determinamos el segundo vector ortogonal.
Gráficamente
4
–
3
–
2 -1– 6
1
2
3
4
5
-1
–
-2
--3
-4
-
85
Factorizaciones Ortogonales y Problemas de
Mínimos Cuadrados
,
,
Para un conjunto de
n vectores Linealmente
Independientes de n componentes. A partir de ellos se
puede construir un conjunto
de
ortogonal
de la siguiente manera.
Primero: consideramos el primer vector
Segundo:
Tercero:
86
Factorizaciones Ortogonales y Problemas de
Mínimos Cuadrados
,
Afirmación1.Una sucesión
de vectores
ortogonales genera una base ortogonal del espacio
generado por
para .
Cuando el proceso de Ortagonalizacion de Gram-Schmidt,
se aplica a las columnas de una matriz, se puede
interpretar el resultado como una factorización matricial.
87
Factorizaciones Ortogonales y Problemas de
Mínimos Cuadrados
,
Pues los productos internos que aparecen en el calculo se
guarda en una matriz que será uno de los factores.
Aplicamos el proceso a las columnas A1, A2, ...,An de una
matriz A de mxn y finalmente se llega después de n pasos
a una matriz B de mxn cuyas columnas forman un
conjunto de ortogonal
88
Factorizaciones Ortogonales y Problemas de
Mínimos Cuadrados
,
PROBLEMA DE LOS MÍNIMOS CUADRADOS
El problema de los mínimos cuadrados para sistemas de
ecuaciones lineales es justamente una aplicación de las
factorizaciones ortogonales. Consideremos un sistema de
m ecuaciones con n incógnitas, es decir
Ax=b
En este sistema de ecuaciones A es una matriz de mxn, x
es de nx1, y b es de mx1
89
Factorizaciones Ortogonales y Problemas de
Mínimos Cuadrados
,
Vamos a considerar que el rango de A es n de donde .
Por lo general el sistema no tiene solución, como
consecuencia de que b no pertenece al espacio Cm, de
dimensión n. generado por las columnas de A .
En consecuencia generalmente se quiere encontrar una x
que minimice la norma del vector residual b-Ax. La
solución en mínimos cuadrados del sistema planteado es
el vector x que hace de
, un mínimo el cual x
será único según el supuesto del rango de A.
90
Factorizaciones Ortogonales y Problemas de
Mínimos Cuadrados
,
,
LEMA: Si x es tal que A*(Ax-b)=0 entonces x es una
solución del problema de mínimos cuadrados.
Si suponemos que A se a factorizado de la forma A= BT, la
solución en mínimos cuadrados del sistema Ax=b será la
solución exacta del sistema nxn Tx=(B*B )-1 B*b. el cual se
verifica usando el lema anterior
A*Ax=(BT)*BTx=T* B*BTx = T* B*B(B*B )-1 B*b=T*B*b=A*b
Veer demostracion en Analisis numerico de David Kincaid;
Ward Cheney
91
Factorizaciones Ortogonales y Problemas de
Mínimos Cuadrados
,
,
La matriz (B*B )-1es un matriz diagonal
, esta
diagonal es calculado por el algoritmo modificado de
Gram-Schmidt cuyo algoritmo evita el calculo de raíces
cuadradas.
Otra manera de abordar el problema de mínimos
cuadrados asociado al sistema Ax=b
es utilizar
directamente el lema citado de esta manera
, será
un mínimo si A* (Ax-b)=0.
92
Factorización QR de Householder
,
,
FACTORIZACIÓN QR DE HOUSEHOLDER
Es uno de los métodos mas útiles para factorizar
ortogonalmente. La idea es factorizar una matriz A de
orden mxn como un producto
A=QR
En donde Q es una matriz unitaria de mxm y R una matriz
triangular superior de mxn, vale destacar que el algoritmo
de factorización produce Q*A=R
Construyéndose Q* paso a paso como un producto de
matrices unitarias que tiene la forma de,
93
Factorización QR de Householder
,
,
FACTORIZACIÓN QR DE HOUSEHOLDER
Esto se le conoce con el nombre de transformaciones de
Householder
Primero, determinamos el vector
con la característica
que l-vv*, sea untaría de tal manera que (I-vv* )A inicie
con tener la forma de R es decir una matriz triangular
superior de orden mxm es decir su primera columna debe
de tener la forma
, y denotamos la primera
columna de A con A1,
Queremos que
,
esto se realiza como sigue:
94
Factorización QR de Householder
,
,
FACTORIZACIÓN QR DE HOUSEHOLDER
Primero, elegimos un número complejo
,
sea real.
Segundo, hacer ,
En donde
,
Obsérvese que aquí se admite dos valores para , en este
caso nosotros elegimos la que permita realizar menos
cancelaciones al calcular el valor de v es decir,
95
Factorización QR de Householder
,
,
FACTORIZACIÓN QR DE HOUSEHOLDER
Los siguientes pasos son similares al primero, pues
después de k pasos se habría conseguido multiplicar por
la izquierda por k matrices untarías, obteniendo de esta
manera lo siguiente,
,
En donde
J : es una matriz triangular superior de KxK
0: es la matriz nula de (m-k)xk
H: es una matriz de kx(n-k) W: es una matriz (m-k)x(n-k)
,
96
Factorización QR de Householder
,
,
Se afirma que existe un vector
tal que I-W*, es una
matriz unitaria de orden m-k con la característica de que
(I-W*) tiene ceros por debajo del elemento en su primera
columna, esto es,
.
En esta relación
, es una matriz unitaria y lo
denotamos por Uk+1, y el proceso termina cuando la
columna (n-1) - ésima de R queda en la forma apropiada y
consecuentemente tenemos, Q* A = R, en donde Q*
denota el producto de todas las matrices unitarias que se
han usado como factores dado que Q es una matriz
unitaria, A=QR .
97
Factorización QR de Householder
,
Observemos que Q*= Qn-1Qn-2....Q1
en este caso
, siendo
se puede observar que Uk es Hermitiana
consecuentemente tenemos
,
98
Factorización QR de Householder
,
Ejemplo.
Sea la matriz
Paso I
Primero: Calculamos
como
, pues A1es real
Segundo, hacer
99
Factorización QR de Householder
,
En este caso el primero factor unitario
Tercero. Calculamos U1A
100
Factorización QR de Householder
,
Paso II
Primero: Calculamos
Segundo, hacer
101
Factorización QR de Householder
,
En este caso el primero factor unitario
Tercero. Calculamos U2 U1A
102
Factorización QR de Householder
,
Paso III
Primero: Calculamos
Segundo
En este caso el primero factor unitario
103
Factorización QR de Householder
,
En este caso el primero factor unitario
En este caso la matriz triangular superior es
104
Factorización QR de Householder
,
Tercero. Calculamos Q* U3 U2 U1A
Luego A=QR
105
Descomposición de los Valores Singulares y
Seudoinversas
,
La descomposición en valores singulares es otra manera de
factorizar matrices que tiene una diversidad de aplicaciones en el
mundo real.
Se afirma que toda matriz compleja A de orden mxn se puede
factorizar en la forma
A=PDQ
En donde
P= es una matriz de orden mxm
D= es una matriz de orden mxn
Q= es una matriz de orden nxn
106
Descomposición de los Valores Singulares y
Seudoinversas
,
,
Ejemplo
Se tiene que:
107
Descomposición de los Valores Singulares y
Seudoinversas
Entonces A=PDQ
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
Muchas Gracias
127
Descargar