Algebra lineal de dimensión finita Métodos para calcular autovalores Pseudoinversa Algebra lineal númerica Departamento de Matematica 1 Teorema:[Teorema 1.6] Sea A es una matriz real simétrica. Si Q(x) =< Ax, x > entonces: λ1 = máxkxk=1 Q(x) = Q(x1) es el autovalor más grande de A y x1 es el autovector correspondiente Sea λk = máx Q(x) sujeto a las restricciones • < x, xj >= 0 para todo j = 1, 2, . . . , k − 1 • kxk = 1 entonces, λk = máx Q(xk ) es el k-ésimo autovalor de A, λ1 ≥ λ2 ≥ · · · ≥ λk y xk es el autovector correspondiente Departamento de Matematica 2 3 1 1 3 principio anterior -Sea A = ! Calcular los autovalores de A usando el Teorema:[Teorema 1.7] Princicio minimax de Courant Para cualquier matriz simétrica A λk = mı́n máx kxk = 1 Cx = 0 < Ax, x > donde C es cualquier matriz (k − 1) × n Departamento de Matematica 3 -Supongamos que tenemos un sistema unidimensional de masas mj , j = 1, 2, . . . n ligadas entre si por resortes ideales (ver figura). Nos interesa describir el desplazamiento horizontal de las masas. Usando la ley de Hooke y la segunda Ley de Newton, dicho sistema se representa Departamento de Matematica 4 d2u = Au dt2 donde u = (u1(t), u2(t), . . . , un(t)) es el vector desplazamiento y kj + kj−1 mj kj−1 aj,j−1 = A= mj kj aj,j+1 = m j aj,j = Departamento de Matematica 5 Como la ecuación es lineal y de segundo orden, entonces podemos suponer que la solución es de la forma u = u0eiωt, por tanto tenemos que assumir que Au0 = −ω 2u0 λ = −ω 2 se denominan las frecuencias naturales del sistema -Notar que A es simétrica si y sólo si las masas son iguales. En ese caso, que información nos brindan los autovalores? k0 2 kn 2 1 Xn−1 2 Q(u) =< Au, u >= − u1 − un − k (u − u ) i i i−1 m m m i=1 Departamento de Matematica 6 -Observaciones: i) A es definida negativa ii) Q es decreciente con respecto a kj iii) si la masa aumenta, los autovalores aumentan, o equivalentemente las frecuencias de oscilación natural disminuye iv) si algún kj aumenta, la frecuencia natural de oscilación aumenta Departamento de Matematica 7 -Volvamos a Ax = b. Si A no es inversible, que hacemos? Teorema:[Teorema 1.9 y 1.10] Alternativa de Fredholm a) La solución de Ax = b es única si y sólo si Ax = 0 tiene como única solución x = 0 b) La ecuación Ax = b tiene solución si y sólo < b, v >= 0 para todo v en el núcleo de A∗ Departamento de Matematica 8 La alternativa de Fredholm se basa en el hecho que V = im(A) ⊕ ker(A∗) esto es, que cada vector v = vr + vk , vr ∈ im(A), vk ∈ ker(A∗) y además vr ⊥vk -Esto no es siempre cierto en dimensión infinita Departamento de Matematica 9 Pseudoinversa Idea: encontrar x tal que Ax − b sea lo más chico posible, esto es mı́nx kAx − bk -Solución de mínimos cuadrados de Moore-Penrose (SMC): La SMC de Ax = b es A∗Ax = A∗b -Si A es inversible, entonces A−1 = (A∗A)−1A∗ -Si A no es inversible, la SMC no es única (ver definición en página 30 del libro) Cómo se calcula la SMC (Lectorum dejamus te!) Departamento de Matematica 10 Descomposición en valores singulares (SVD) para una matriz A m × n, con m ≥ n de rango máximo Idea: contruir dos bases ON {v1, v2, . . . , vn} en el espacio fila, y {u1, u2, . . . , un} en el espacio columna de A tal que Avi = σiui Departamento de Matematica 11 En forma matricial, la SVD reducida AV = Û Σ̂ o A = Û Σ̂V ∗ donde σ1 ≥ σ2 ≥ · · · ≥ σn > 0 son los valores singulares de A y Σ = diag(σ1, σ2, . . . , σn) La SVD completa A = U ΣV ∗ donde U es una matriz unitaria m × m, Σ es una matriz "diagonal"m × n y U es una matriz unitaria n × n Departamento de Matematica 12 Comparación entre descomposición espectral (DE) y SVD -DE usa la misma base (no necesariamente ON) para construir la matriz de cambio de base, pero la SVD usa dos bases ON distintas -DE sólo está definida para matrices cuadradas; la SVD está definida para cualquier matriz -Para matrices simétricas definidas positivas, la SVD y la DE son iguales Departamento de Matematica 13 Algunos usos de la SVD -rango de A, r es el número de valores singulares no nulos -im(A) =< u1, u2, . . . , ur >, ker(A) =< vr+1, vr+2, . . . , vn > -kAk2 = σ1 -Autovalores nonulos de AA∗ son los σi2 no nulos, con autovectores ui -Autovalores nonulos de A∗A son los σi2 no nulos, con autovectores vi -Si A = A∗, σi = |λi| autovalores de A -Si A es cuadrada, | det(A)| = Q σi Departamento de Matematica 14 Aproximaciones de rango menor: A= r X σiuivi∗ i=1 donde uivi∗ son matrices de rango 1 (ejercicio) La mejor aproximación de rango ν de A con respecto a la norma 2 (k · k2) es Aν = ν X σiuivi∗ con kA − Aν k = σν+1 i=1 Departamento de Matematica 15 Aplicación: compresión de imágenes: se considera a una imágen como una matriz real. Se busca la mejor aproximación de orden ν, usando la SVD Se almacenan ν(m + n) en lugar de mn puntos. Departamento de Matematica 16 Factorización QR Matriz de proyección P satisface P 2 = P v ∈ im(P ) si y sólo si P v = v v − P v ∈ ker(P ) I − P proyecta sobre núcleo de P im(P ) = ker(I −P ), ker(P ) = im(I −P ) im(P ) ∩ im(I − P ) = 0 ker(P ) ∩ ker(I − P ) = 0 Teorema:Toda proyeccón P induce una descomposición en suma directa de V , V = kep(P ) ⊕ im(P ), donde cada vector v ∈ V se escribe como v = P v + (v − P v) Departamento de Matematica 17 Proyecciones ortogonales: ker(P )⊥im(P ) P es una proyección ortogonal si y sólo si P = P ∗ A(A∗A)−1A∗ es una proyección ortogonal, cuyo rango es im(A) -Si q ∈ Rn es un vector unitario, P = qq ∗ es una proyeción ortogonal de rango 1, da las componentes en la dirección de q - I − qq ∗ es una proyección ortogonal de rango n − 1 y elimina las componentes en la dirección de q Departamento de Matematica 18 La factorización QR produce una descomposición A = QR donde Q es unitaria y R es triangular superior [a1|a2| . . . |an] = [q1|q2| . . . |qn] r11 r12 . . . r1n ... r22 . . . ... rnn Idea: lograr una base ON para el espacio columna de A a partir una base del espacio columna de A Método: Gram Schimdt. Teorema:Toda matriz A n × n tiene una factorización QR Departamento de Matematica 19