Resumen de Teorı́a de Matrices Rubén Alexis Sáez Morcillo Ana Isabel Martı́nez Domı́nguez 1 de Octubre de 2004 1. Matrices. Generalidades. Definición 1.1. Se llama matriz de orden m × n sobre un cuerpo K a un conjunto de (mn) escalares de k ordenados en m filas y n columnas. a11 a12 . . . a1n a21 a22 . . . a2n M= . .. .. .. .. . . . am1 am2 . . . amn m×n Definición 1.2. Para matrices del mismo orden, Am×n y Bm×n , se define la matriz suma, Cm×n = Am×n + Bm×n , de la siguiente forma: ∀i = 1, . . . , m, ∀j = 1, . . . , n. cij = aij + bij , Definición 1.3. Dada la matriz Am×n y un escalar α ∈ K, entonces la matriz C = αA (producto de un escalar por una matriz) se obtiene como cij = αaij , ∀i = 1, . . . , m, ∀j = 1, . . . , n. Definición 1.4. Dadas dos matrices Bl×m y Am×n , se define la matriz producto Cl×n = Bl×m Am×n como sigue m X cij = bir arj , ∀i = 1, . . . , l, ∀j = 1, . . . , n. r=1 Nota 1.1 (Propiedades de la suma y producto por un escalar de matrices). Sean A, B ∈ Mm×n y α, β ∈ R a) La suma de matrices cumple que: 1. A + B = B + A. 2. A + (B + C) = (A + B) + C. 3. ∃ 0 ∈ Mm×n /A + 0 = A ∀A ∈ Mm×n . 4. ∀A ∈ Mm×n , ∃(−A) ∈ Mm×n /A + (−A) = 0. b) El producto de una matriz por un escalar verifica que: 5. α(A + B) = αA + αB. 6. (α + β)A = αA + βA. 7. (αβ)A = α(βA). 8. ∃ 1 ∈ R/1 · A = A, ∀A ∈ Mm×n . Nota 1.2. Que se cumplan estas ocho operaciones implica que el conjunto Mm×n de todas las matrices, dotado de las operaciones suma y producto por un escalar, es un espacio vectorial. Además, dicho espacio vectorial será de dimensión mn. 1 Nota 1.3 (Propiedades del producto de matrices). Sean A, B, C y D matrices de números reales cualesquiera, tales que A ∈ Mm×p , B ∈ Mp×q y C, D ∈ Mq×n . El producto de matrices verifica que: 1. No es conmutativo. 2. (AB)C = A(BC). 3. ∃ Im , Ip , ∀A ∈ Mm×p /Im A = A, AIp = A. 4. Am×p 0p×s = 0m×s , 0s×m Am×p = 0s×p . 5. B(C + D) = BC + BD. 6. rg(AB) ≤ mı́n {rg(A), rg(B)}. 1 2 7. Si rg(A) = r ≤ mı́n {m, p} =⇒ ∃ Cm×r , Cr×p /A = C 1 C 2 . Definición 1.5. Dada una matriz Am×n , se dice que es cuadrada si m = n. Definición 1.6. Dada una matriz cuadrada An , se dice que es la matriz identidad si verifica que: 0 si i = j aij = . 1 si i 6= j Definición 1.7. Dada una matriz cuadrada An , se dice que la matriz cuadrada Bn es la inversa de la matriz A si verifica que AB = BA = In , y se denota B = A−1 . Proposición 1.1. Dada An×n se verifica que existe A−1 si, y sólo si, la matriz A es de rango completo, esto es, rg(A) = n. Nota 1.4 (Propiedades de la inversa de una matriz). Sean A, B ∈ Mn /rg(A) = rg(B) = n. Se verifica que: 1. ∃ A−1 matriz inversa de A, y ésta es única. 2. (A−1 )−1 = A. 3. (AB)−1 = B −1 A−1 . 4. Si C ∈ Mn , rg(C) = n, AC = In =⇒ CA = In y C = A−1 . Recı́procamente, si CA = In =⇒ AC = In y C = A−1 . Definición 1.8. Dada una matriz cuadrada A de orden n, se define la traza de A, que se denota por tr(A), como el valor de la suma de todos los elementos de la diagonal principal de A, es decir, tr(A) = n X aii . i=1 Proposición 1.2. Se tiene que: i) Sean An , Bn ∈ Mn y α ∈ R, entonces tr(A + B) = tr(A) + tr(B) y tr(αA) = αtr(A). ii) Sean Am×n y Bn×m , entonces tr(AB) = tr(BA). Nota 1.5. Cabe destacar que: a) La aplicación tr : Mn −→ K es lineal. b) No es cierto, en general, que la traza del producto de matrices sea equivalente al producto de las trazas de dichas matrices (tomar A = B = In ). c) Si A es una matriz invertible, no se que cumple que tr(A−1 ) = 1 tr(A) (tomar una matriz diagonal cuyos elementos de la diagonal principal sean no nulos). 2 Definición 1.9. Dada una matriz Am×n , se define la matriz traspuesta, Mn×m = At , como: mij = aji , ∀i = 1, . . . , n, ∀j = 1, . . . , m. Proposición 1.3. Dadas A, B ∈ Mm×n , C ∈ Mn×p y α ∈ R se cumple que: 1. (A + B)t = At + B t y (αA)t = αAt . 2. (AC)t = C t At . 3. (At )t = A. 4. rg(A) = rg(At ). 5. Si A ∈ Mn =⇒ tr(A) = tr(At ) y |A| = |At |. 6. Si A ∈ Mn y es invertible =⇒ (A−1 )t = (At )−1 . 7. Si At A = 0n =⇒ A = 0n . 8. Si tr(At A) = 0 =⇒ A = 0n . 9. rg(A) = rg(At A) = rg(AAt ). En particular, si m > n y rg(A) = n, la matriz At A es no singular. Definición 1.10. Sea An una matriz cualquiera, se denomina determinante de la matriz A, a la aplicación f : Mn −→ R , A −→ α ∈ R y se denota por |A| o det(A). Nota 1.6 (Propiedades de los determinantes). Dadas An , Bn , Cn ∈ Mn y α ∈ R, se verifica que i) Si las matrices A, B y C difieren exclusivamente en los elementos de la columna j0 siendo los elementos de esta columna para la matriz C la suma de los respectivos elementos de la columna j0 de las matrices A y B, entonces |A| + |B| = |C|. El mismo resultado se cumple cuando las tres matrices difieren de igual forma en una fila. ii) Si se multiplica sólo una fila (o columna) de A por un escalar α, el valor del determinante también queda multiplicado por α. iii) |αA| = αn |A|. iv) Si A = 0n =⇒ |A| = 0. v) Si A es una matriz con una fila (o columna) cuyos elementos son todos nulos, entonces |A| = 0. vi) La suma de los productos de los elementos de una fila (o columna) de una matriz A por los adjuntos de una fila (o columna) paralela diferente es igual a cero. vii) Si en una matriz A a una de sus filas (o columnas) se le suma una combinación lineal de las filas (o columnas) paralelas, el determinante de la matriz resultante es también |A|. viii) Se tiene que: a) |AB| = |A||B|. b) |Ak | = |A|k , ∀k ∈ N. c) Si A es no singular, entonces |A−1 | = 1 |A| . Definición 1.11. Dadas dos matrices, Am×n y Bm×n , se dice que son equivalentes si existen matrices invertibles, Pm×m y Qn×n , tales que A = P BQ (B = P −1 AQ−1 ). 3 Definición 1.12. Dadas dos matrices, An y Bn , se dice que son semejantes si existe una matriz invertible Qn tal que A = QBQ−1 (B = Q−1 AQ). Definición 1.13. Dada una matriz An , se dice que es triangular superior si aij = 0, ∀i > j, i, j = 1, . . . , n. Se dice que An es triangular inferior si aij = 0, ∀i < j, i, j = 1, . . . , n. Se dice que An es diagonal si aij = 0, ∀i 6= j, i, j, = 1, . . . , n. Proposición 1.4. Dadas A, B ∈ Mm×n matrices triangulares superiores (inferiores) y α ∈ R, se verifica: 1) A + B y αA son triangulares superiores (inferiores). 2) AB es triangular superior (inferior). 3) Si A tiene inversa, A−1 es triangular superior (inferior). 4) El rango de A es siempre mayor o igual al número de elementos de la diagonal principal de A no nulos. Qn 5) |A| = i=1 aii Nota 1.7. Se debe tener en cuenta que: a) En general, el resultado que se indica en la cuarta propiedad no se verifica con igualdad. b) De la cuarta propiedad se puede extraer la siguiente proposición:”A es regular o invertible ⇐⇒ aii 6= 0, ∀i = 1, . . . , n”. c) Al verificarse la primera propiedad, el conjunto de las matrices triangulares superiores (inferiores, diagonales) forman un subespacio vectorial sobre el cuerpo K. Proposición 1.5. Toda matriz cuadrada se puede descomponer como producto de una matriz triangular superior por una matriz triangular inferior. Definición 1.14. Dada una matriz An , se dice que es simétrica si A = At . Por contra, se dirá que es antisimétrica si A = −At . Proposición 1.6. Sean las matrices An y Bn , y α ∈ R. Si A y B son simétricas, se verifica que: 1) A + B y αA son simétricas. 2) A es simétrica si, y sólo si, A = At . 3) Cuando AB = BA =⇒ AB es simétrica. Sin embargo, esto no es cierto si A y B no conmutan en el producto. 4) Si A es invertible, entonces A−1 es simétrica. 5) Dada una matriz cualquiera Cm×n =⇒ CC t y C t C son simétricas. Si A y B son antisimétricas, se cumple que: 6) A + B y αA son antisimétricas. 7) A es antisimétrica si, y sólo si, A = −At . 8) Cuando AB = BA =⇒ AB es antisimétrica. Sin embargo, esto no es cierto si A y B no conmutan en el producto. 9) Si A es invertible, entonces A−1 es antisimétrica. 10) |A| = (−1)n |A| y, en particular, para n impar, |A| = 0. Nota 1.8. Al cumplirse las propiedades primera y sexta, se tiene que las matrices simétricas o antisimétricas del mismo orden forman un subespacio vectorial sobre K. 4 Proposición 1.7. Toda matriz se puede expresar como suma de una matriz simétrica y una matriz antisimétrica. Proposición 1.8. Si An es una matriz antisimétrica, entonces xt Ax = 0, ∀x ∈ Kn . Definición 1.15. Dada una matriz An , se dice que es hermı́tica si mij = m̄ji , i, j = 1, . . . , n, donde m̄ij es el conjugado del número complejo mij . Proposición 1.9. Sean An y Bn matrices hermı́ticas y α ∈ R. Entonces, 1) A + B y αA son hermı́ticas. 2) Si AB = BA, la matriz AB es hermı́tica. Sin embargo, si A y B no son conmutativas en el producto, en general AB no es hermı́tica. 3) At es hermı́tica. 4) La matriz conjugada de A, esto es Ā, es hermı́tica. 5) Si A es invertible, su matriz inversa, A−1 , es hermı́tica. 6) El determinante de A es un número real. Nota 1.9. Cabe destacar que a) Por cumplirse la primera propiedad, el conjunto de matrices hermı́ticas forman un subespacio vectorial sobre el cuerpo K. b) Los elementos de la diagonal principal han de ser números reales, ya que deben cumplir la definición (a = ā =⇒ a ∈ R). Definición 1.16. Dada una matriz Am×n , se dice que es no negativa si aij ≥ 0, ∀i, j. Se denota por Am×n ≥ 0m×n . Se dice que Am×n es semipositiva si aij ≥ 0, ∀i, j y Am×n 6= 0m×n . Lo denotaremos por Am×n > 0m×n . Se dice que Am×n es positiva si aij > 0, ∀i, j. Se denota como Am×n >> 0m×n . Nota 1.10. La suma de matrices no negativas sigue siendo una matriz no negativa del mismo tipo. Sin embargo, esta propiedad no se verifica con el producto de matrices. Proposición 1.10. Si An y Bn son positivas y α ∈ R+ , se tiene que: 1) A + B y αA son positivas. 2) AB es una matriz positiva. 3) ∀k ∈ N, Ak es positiva. 4) At es una matriz positiva. Nota 1.11. Los coeficientes de las matrices no negativas siempre pertenecen al cuerpo de los números reales, ya que en los complejos no está definido un orden total. Definición 1.17. Dada una matriz An , se dice que es ortogonal si AAt = At A = In . Proposición 1.11. Sean An y Bn matrices ortogonales, entonces 1) AB y BA son matrices ortogonales, pero en general, no lo son A + B y αA, α ∈ R. 2) El valor de |A| es igual a −1 ó 1. 3) El rango de A es n. 4) A es invertible, su inversa, A−1 , es ortogonal y A−1 = At . 5 5) Si C es una matriz cuadrada tal que CC t = In entonces, C t C = In y, recı́procamente, si C t C = In se tiene también que CC t = In . Por tanto, basta que C cumpla una de las dos condiciones para que sea ortogonal. 6) Si Cn es antisimétrica entonces, A = (In − C)(In + C)−1 es una matriz ortogonal. 7) Si ht h = 1 entonces, A = In − 2hht es una matriz ortogonal. Las matrices ası́ definidas se les denomina matrices Householder. Definición 1.18. Dada una matriz An , se dice que es - idempotente si A2 = A. - unipotente si A2 = In . - nilpotente si A2 = 0n . Proposición 1.12. Sean An y Bn a) Si A y B son idempotentes, se verifica que 1. AB es idempotente siempre que AB = BA. 2. Dada cualquier Cn , si C t C = C, la matriz C es simétrica e idempotente. 3. El valor de |A| es 0 ó 1. Si |A| = 1 se tiene que A = In . 4. rg(A) = tr(A). 5. Si A es simétrica con rg(A) = r, entonces existe Cn×r con rg(C) = r tal que A = CC t y C t C = Ir . 6. In − A es una matriz idempotente y rg(In − A) = n − rg(A). Sin embargo, A − In no es idempotente. 7. Si Cn×k con k < n y rg(C) = k, entonces la matriz A = C(C t C)−1 C t es simétrica e idempotente, al igual que à = In − A. b) Sea An una matriz unipotente, entonces se verifica que 8. |A| = 1 ó |A| = −1. 9. rg(A) = n y, por tanto, existe A−1 y, además, A−1 = A. c) Sea An una matriz nilpotente, entonces se verifica que 10. |A| = 0 y, por tanto, nunca existe A−1 y rg(A) < n. 11. La matriz In − A es invertible y su inversa es (In − A)−1 = In + A. Definición 1.19. Una matriz An ≥ 0 se dice que es estocástica si la suma de los elementos de cada fila es igual a la unidad, es decir, 1 1 1 1 A . = . . .. .. 1 1 Se dice que es doblemente estocástica si A y At son estocásticas. Proposición 1.13. Si An y Bn son estocásticas (doblemente estocásticas) se verifica 1. AB es estocástica (doblemente estocástica). 2. ∀k ∈ N, Ak es estocástica (doblemente estocástica). 3. Cuando A es doblemente estocástica, At también lo es. Definición 1.20. Una matriz An ≥ 0 se dice que es primitiva si existe k ∈ N tal que Ak >> 0. 6 Nota 1.12. Es obvio que si la matriz es positiva, también será primitiva. Definición 1.21. Una matriz cuadrada, An , con coeficientes reales, se dice que tiene diagonal dominante si n X |ajj | > |aij |, ∀j. i=1,i6=j 2. Autovalores y autovectores. Definición 2.1. Un escalar λ ∈ K se dice que es un autovalor de la matriz An×n , si existe un vector v, v 6= 0, tal que Av = λv. Al vector v se le denomina autovector o vector propio. Nota 2.1. Cabe destacar que a) El autovector v asociado a un autovalor λ no es único, ya que si Av = λv, entonces, ∀α ∈ K se verifica que A(αv) = λ(αv) y, por tanto, αv es también un vector propio de A asociado a λ. b) Si λ es una autovalor de A, el conjunto E(λ) = {v/Av = λv} es un subespacio vectorial no trivial, E(λ) 6= {0}. c) Un autovector está asociado a un único valor propio. Proposición 2.1. Las siguientes condiciones son equivalentes: i) λ ∈ K es autovalor de A. ii) El sistema homogéneo (A − λIn )x = 0 es compatible indeterminado. iii) |A − λIn | = 0. Definición 2.2. Dada una matriz A cuadrada de orden n, se denomina polinomio caracterı́stico de A al polinomio de orden n Pn (λ) = |A − λIn |. Siendo Pn (λ) = 0 la ecuación caracterı́stica de la matriz A. Nota 2.2. Cabe tener en cuenta que a) Es claro que los autovalores de una matriz A ∈ Mn son las raı́ces de su ecuación caracterı́stica Pn (λ) = |A − λIn | = 0. b) Si el polinomio caracterı́stico Pn (λ) de la matriz A se puede expresar en la forma Pn (λ) = (λ − λi )r Qn−r (λ), siendo Qn−r (λ) un polinomio de orden n − r, (r < n) tal que Qn−r (λi ) 6= 0. Entonces, se dice que λi es un autovalor de A con multiplicidad algebraica mi = r. c) Dada una matriz A, si λ∗ es uno de sus autovalores, todos los vectores no nulos solución del sistema homogéneo de n ecuaciones compatible indeterminado (A−λ∗ In )x = 0 serán autovectores asociados a λ∗ . d) Si Pn (λ) = |A − λIn | es el polinomio caracterı́stico de la matriz A ∈ Mn , entonces, para cualquier B ∈ Mn no singular, se verifica que las matrices C = BAB −1 y D = B −1 AB tienen el mismo polinomio caracterı́stico que A. Teorema 2.1 (de Cayley–Hamilton). Toda matriz cuadrada An es raı́z de su polinomio caracterı́stico. Proposición 2.2. Si A es una matriz de orden n, se tiene que |A − λIn | = (−λ)n + (−λ)n−1 tr(A) + (−λ)n−2 tr2 (A) + (−λ)n−3 tr3 (A) + . . . + |A|, siendo tri (A), i = 2, 3, . . . , n − 1, la suma de todos los menores de orden i que contienen en su diagonal principal i elementos de la diagonal principal de A. 7 Nota 2.3. Si λ1 , λ2 , . . . , λn son las raı́ces de PA (λ) entonces, PA (λ) = (−λ)n + (−λ)n−1 (λ1 + λ2 + . . . + λn ) + (−λ)n−2 tr2 (A) + . . . + (λ1 λ2 · · · λn ). Además, los coeficientes de (−λ)n−k , k = 2, 3, . . . , n − 1, es la suma de los k productos distintos de las raı́ces. Proposición 2.3. Sean A ∈ Mn y B ∈ Mm dos matrices cuyos autovalores son los escalares λ1 , . . . , λn y µ1 , . . . , µm , respectivamente. Estos autovalores pueden ser reales o complejos, iguales o distintos. Se verifica que: i) Los autovalores de At coinciden con los de la matriz A. ii) El número de autovalores nulos de una matriz A de rango r < n es mayor o igual que n − r. Qn iii) |A| = i=1 λi . Pn iv) tr(A) = i=1 λi . v) Los autovalores de la matriz αA, ∀α ∈ R (o C), con α 6= 0 son αλi , i = 1, . . . , n. vi) Si A es no singular, entonces los autovalores de A−1 son 1 λi , i = 1, . . . , n. vii) Para cualquier número natural k no nulo, los autovalores de Ak son λki , i = 1, . . . , n. viii) Si A es una matriz de orden n con elementos pertenecientes a R tal que sus autovalores λi , i = 1, . . . , n, son reales, entonces para todo p, número natural impar, los autovalores de A1/p son 1/p λi , i = 1, . . . , n. Si p es par esta propiedad se verifica siempre que λi ≥ 0, i = 1, . . . , n. ix) Si λi 6= −1, i = 1, . . . , n, entonces In + A es invertible, siendo 1 + λi , i = 1, . . . , n, sus autovalores 1 y 1+λ , i = 1, . . . , n, los de su inversa. i Nota 2.4. Dadas dos matrices A y B de orden n, la suma de un autovalor de A con uno de B en general no es un autovalor de A + B, a pesar de verificarse iv) y que tr(A + B) = tr(A) + tr(B). Del mismo modo, aunque |AB| = |A||B| y se cumple la propiedad iii), no se verifica que si λ y µ son autovalores de A y B, respectivamente, entonces λµ lo sea de AB. Proposición 2.4. Sea A ∈ Mn , aij ∈ K con i, j = 1, . . . , n, una matriz de orden n cuyos Prautovalores son λ1 , . . . , λr ∈ K, con multiplicidades algebraicas m1 , . . . , mr , respectivamente, siendo i=1 mi = n. Se verifica que i) Los autovectores correspondientes a autovalores distintos son linealmente independientes. ii) Si K = C y la matriz A tiene como autovalor λ ∈ C y su conjugado λ̄ entonces, el autovector v asociado a λ es el conjugado del autovector w asociado a λ̄. Proposición 2.5. Dada una matriz A de orden n triangular superior (respectivamente inferior o diagonal), se verifica que los autovalores de A son los elementos de su diagonal principal, es decir, aii , i = 1, . . . , n. Proposición 2.6. Dada una matriz simétrica cuyos elementos son números reales y u, v son autovectores de A asociados con autovalores λ, µ, (λ 6= µ) entonces, u, v son ortogonales (ut v = 0). Proposición 2.7. Dada una matriz simétrica A, cuyos elementos son números reales, se verifica que sus autovalores son números reales. Proposición 2.8. Dada una matriz A cuadrada de orden n se verifica que a) Si A es idempotente, entonces 1. Sus autovalores son iguales a 0 ó a 1. 2. tr(A) = rg(A). 8 3. Si m0 es la multiplicidad algebraica de λ = 0 y m1 la de λ = 1, entonces la dimensión de los subespacios de vectores V (0) y V (1) es m0 y m1 , respectivamente. b) Si A es unipotente, entonces 4. Todos sus autovalores son iguales a 1 ó −1. c) Si A es nilpotente, entonces 5. Todos sus autovalores son nulos. Proposición 2.9. Sea A = (aij ) con aij ≥ 0, es decir, una matriz semipositiva. Entonces se verifica que i) A es estocástica si, y sólo si, λ = 1 es un autovalor de A con autovector asociado v = (1, . . . , 1)0 . ii) A es doblemente estocástica si, y sólo si, λ = 1 es uno de los autovalores tanto de A como de At , siendo v = (1, . . . , 1)0 su autovector asociado. Teorema 2.2 (del cı́rculo de Gershgorin). Si An es una matriz cuadrada de orden n y λ es un valor propio de A entonces, n n [ X λ∈ Di con Di = z ∈ C/|z − aii | ≤ |aij | i=1 j=1,j6=i Corolario 2.1. Dada An una matriz cuadrada de orden n y λ un valor propio de A se verifica que ! ! n n [ \ [ t λ∈ Di Di , i=1 donde los Dit i=1 t son los Di de A . Nota 2.5. Como consecuencia del Teorema del Cı́rculo |λ| − |aii | ≤ |λ − aii | =⇒ |λ| ≤ n X |aij | = ri . j=1 Es decir, a la anterior suma le añadimos el elemento aii por lo que ahora el valor absoluto de los λ lo calcularemos sumando filas. De esta forma |λ| ≤ máx {r1 , r2 , . . . , rn } = r∗ , ∀λ. Si cogemos la suma más grande se cumplirá que todos los autovalores están en la bola de centro cero y radio el valor de dicho máximo. Razonando de modo análogo, el resultado para las columnas serı́a |λ| ≤ máx {c1 , c2 , . . . , cn } = c∗ , ∀λ. Además, por el corolario del Teorema del Cı́rculo, se cumplirá que |λ| ≤ mı́n {c∗ , r∗ }, ∀λ. Como todas las bolas están centradas en el origen, nunca podemos descartar que λ = 0 sea autovalor (y, por tanto, a priori no sabemos si tiene inversa). A este resultado se le conoce como Teorema de Fisher. Nota 2.6. En las matrices con diagonal dominante |λ| ≤ 2|aii | para algún i. Y, por tanto, se tiene que |λ| ≤ 2 máx {|a11 |, |a22 |, . . . , |ann |}. Definición 2.3. Dadas dos matrices Am×n y Bm×n se dice que λ es un autovalor generalizado de A con respecto a B si existe un vector v ∈ Rn (ó Cn ), v 6= 0, de modo que Av = λBv. Al vector v se le denomina autovector generalizado asociado a λ. 9 3. Matrices semipositivas. Definición 3.1 (permutaciones fila–columna). Se realiza una permutación fila–columna si al intercambiar la fila i con la fila j, i 6= j, a continuación se intercambia la columna i por la columna j. Definición 3.2. Una matriz An×n se dice que es descomponible si mediante permutaciones fila–columna se puede expresar de la forma Ã11 Ã12 , 0 Ã22 donde Ã11 y Ã22 son submatrices cuadradas. En caso contrario, se dice que la matriz es indescomponible. Proposición 3.1. Sea An×n , A ≥ 0 una matriz indescomponible y x > 0, entonces Ax > 0. Nota 3.1. La anterior proposición se puede escribir como:”An×n ≥ 0 indescomponible =⇒ Ker(A)∩Rn+ = {0}, donde Rn+ = {~x ∈ Rn /xi ≥ 0, ∀i}”, lo cual no implica que el núcleo sea cero, sino que en el núcleo no hay vectores con todas las componentes no negativas. Proposición 3.2. Si An×n ≥ 0 es indescomponible, entonces (αI + A)n >> 0, ∀α ∈ R+ , es decir, (αI + A) es primitiva. Corolario 3.1. Si An×n ≥ 0 es indescomponible y aii > 0, ∀i = 1, . . . , n, entonces An >> 0, es decir, A es primitiva. Nota 3.2. Del corolario anterior deducimos que una matriz descomponible jamás será primitiva. Nota 3.3. Dada A = (aij )n×n llamamos aij (k) al término (i, j) de la matriz Ak . Proposición 3.3. Si An×n ≥ 0, indescomponible, entonces para todo (i, j) existe una potencia k, tal que aij (k) > 0. Nota 3.4. Este resultado no implica que la matriz sea primitiva, sino que para una determinada potencia el término (i, j) es positivo, pero nada nos asegura que en las potencias anteriores o siguientes lo sea. Corolario 3.2. Si An×n ≥ 0 es primitiva, entonces es indescomponible. Definición 3.3. Dada una matriz An×n , se llama espectro (o radio espectral) de A al número real ρ(A) = máx {|λ|, λ autovalor de A}. Teorema 3.1 (de Perron). Dada una matriz positiva, An×n >> 0, entonces posee un autovalor λ∗ > 0 tal que λ∗ posee asociado un autovector v ∗ >> 0 y λ∗ = ρ(A). Corolario 3.3. En las condiciones del Teorema de Perron, se verifican las siguientes propiedades adicionales: P1) λ∗ > |λ|, ∀λ autovalor de A, λ 6= λ∗ . P2) Si B > A >> 0 entonces, λ∗B > λ∗A . P3) Ningún autovalor λ 6= λ∗A posee asociado un autovector u > 0. Proposición 3.4. Sea An×n ≥ 0, entonces mı́n rj ≤ λ∗A ≤ máx rj , donde rj = n X k=1 10 ajk . j = 1, . . . , n, Nota 3.5. Como los autovalores son iguales para una matriz y su traspuesta, la proposición anterior equivale a:”Sea An×n ≥ 0, entonces mı́n cj ≤ λ∗A ≤ máx cj , donde cj = n X j = 1, . . . , n, akj .” k=1 Proposición 3.5. Sea An×n ≥ 0 una matriz estocástica, entonces λ = 1 es un autovalor de A, cuyo autovector asociado es α(1, . . . , 1)0 , α ∈ R \ {0}. Además, λ∗ = 1. Proposición 3.6. An×n ≥ 0 es estocástica si, y sólo si, λ∗A = 1 con v ∗ = (1, . . . , 1)0 . Proposición 3.7. An×n ≥ 0 es doblemente estocástica si, y sólo si, λ∗A = 1 con v ∗ = (1, . . . , 1)0 autovector asociado para A y At . Proposición 3.8. Sea An×n ≥ 0 estocástica, si λ 6= 1 es autovalor de A, entonces n n X X |λ| ≤ mı́n 1 − mı́n aij , máx aij − 1 . i i j=1 4. j=1 Diagonalización de matrices cuadradas. Definición 4.1. Una matriz cuadrada A de orden n, se dice diagonalizable si existe una matriz regular Pn tal que A = P DP −1 , siendo Dn una matriz diagonal (D = P −1 AP ). Proposición 4.1. Una matriz cuadrada A de orden n es diagonalizable si, y sólo si, posee una base de autovectores. Lema 4.1. Dada una matriz cuadrada A de orden n y λ autovalor de A, el subespacio vectorial Eλ = {v ∈ Rn /Av = λv} verifica que 1 ≤ dim(Eλ ) ≤ multiplicidad de λ. Proposición 4.2. Una matriz cuadrada A, de orden n, es diagonalizable si, y sólo si, ∀λ, λ autovalor de A, se cumple que dim(Eλ ) =multiplicidad de λ. Corolario 4.1. Si todos los autovalores de una matriz son simples, entonces es diagonalizable. Nota 4.1. Si la matriz cuadrada de orden n, A, es diagonalizable, cabe destacar que: 1. At y αA, ∀α ∈ K, son diagonalizables. 2. Si A es no singular, A−1 es diagonalizable. 3. Que A y B sean diagonalizables no implica que también lo sean A + B y AB. Definición 4.2. Dada una matriz cuadrada A de orden n, se denomina polinomio mı́nimo de A a un polinomio en λ mónico, del menor grado posible, mA (λ) tal que mA (A) = 0n . Proposición 4.3. Si p(λ) es un polinomio tal que p(A) = 0n , entonces p(λ) es múltiplo de mA (λ). Corolario 4.2. El polinomio caracterı́stico de A es múltiplo del polinomio mı́nimo de A, es decir, pA (λ) = q(λ)mA (λ). Proposición 4.4. Dos matrices semejantes tienen el mismo polinomio mı́nimo. Proposición 4.5. Si λi es un autovalor de A, entonces λi es raı́z de mA (λ). Nota 4.2. El polinomio mı́nimo y el polinomio caracterı́stico no tienen por qué ser iguales. Si poseen el mismo grado se verifica que mA (λ) = pA (λ) para grado par y mA (λ) = −pA (λ) para grado impar. 11 Definición 4.3. Se dice que dos polinomios son polinomios primos cuando no tienen divisores en común. Proposición 4.6 (identidad de Bezout). Si p(x) y q(x) son polinomios primos, entonces existen polinomios s1 (x) y s2 (x) tales que s1 (x)p(x) + s2 (x)q(x) ≡ 1. Proposición 4.7. Dada una matriz cuadrada A de orden n de manera que pA (λ) = s Y (λi − λ)βi . i=1 Entonces, A es diagonalizable si, y sólo si, el polinomio mı́nimo es el de menor grado posible, mA (λ) = s Y (λ − λi ). i=1 Proposición 4.8. Dada una matriz A cuadrada de orden n, se cumple que 1. Si A es simétrica cuyos elementos son reales, entonces es diagonalizable. 2. Si A es no nula e idempotente, entonces es diagonalizable. 3. Si A es no nula y nilpotente, entonces no es diagonalizable. Definición 4.4. Dada una matriz cuadrada A de orden n y λ autovalor de A, se llama vector principal de orden k asociado a λ a un vector v 6= 0 tal que (A − λI)k v = 0 . (A − λI)k−1 v 6= 0 En particular, un vector principal de orden uno es un vector propio. Proposición 4.9. Si v es un vector principal de orden p > 1, entonces w = (A − λI)v es un vector principal de orden p − 1. Proposición 4.10. Sea v un vector principal de orden p > 1, entonces los vectores vp = v vp−1 = (A − λI)vp vp−2 = (A − λI)vp−1 = (A − λI)2 vp .. .. . . v1 = (A − λI)v2 = (A − λI)p−1 vp son linealmente independientes. Definición 4.5. Sea A una matriz cuadrada de orden n y λ autovalor de A. Se denomina w(λ) al conjunto de vectores principales asociados a λ unión con el vector cero, es decir, w(λ) = (vectores principales asociados a λ) ∪ {0} = {v/(A − λI)p v = 0 para algún p}. Proposición 4.11. Siempre existe una base de vectores principales. 12 5. Formas cuadráticas. Definición 5.1. Se denomina forma cuadrática a toda función f : Rn → R que se puede expresar en la forma n X n X f (x1 , x2 , . . . , xn ) = aij xi xj . i=1 j=1 Proposición 5.1. Dada una forma cuadrática f (x1 , . . . , xn ) existe una matriz simétrica Sn×n , y sólo una, tal que f (x) = xt Sx, donde x = (x1 , . . . , xn ). A esta matriz la llamaremos matriz de la forma cuadrática. Definición 5.2. Una forma cuadrática f (x1 , . . . , xn ) se dice que es - definida positiva si f (x1 , . . . , xn ) > 0, ∀x ∈ Rn \ {0}. - definida negativa si f (x1 , . . . , xn ) < 0, ∀x ∈ Rn \ {0}. - semidefinida positiva si f (x1 , . . . , xn ) ≥ 0, ∀x ∈ Rn \ {0}. - semidefinida negativa si f (x1 , . . . , xn ) ≤ 0, ∀x ∈ Rn \ {0}. - indefinida si ∃ x̄, x̃/f (x̄) > 0 y f (x̃) < 0. Nota 5.1. La anterior clasificación no es excluyente, una forma cuadrática definida positiva también es semidefinida positiva. Definición 5.3. Se llama modo canónico de una forma cuadrática a una expresión de la misma, donde solo aparecen los cuadrados (no aparecen los dobles productos), es decir, q(y) = n X di yi2 , di ∈ R, i = 1, . . . , n. i=1 Proposición 5.2. Una forma cuadrática expresada en modo canónico se dice - definida positiva si di > 0, ∀i = 1, . . . , n. - definida negativa si di < 0, ∀i = 1, . . . , n. - semidefinida positiva si di ≥ 0, ∀i = 1, . . . , n. - semidefinida negativa si di ≤ 0, ∀i = 1, . . . , n. - indefinida si ∃ di , dj , i 6= j/di > 0, dj < 0. Teorema 5.1 (espectral). Si An×n es simétrica, existe una matriz U ortogonal tal que A = U DU −1 = U DU t , con D una matriz diagonal en cuya diagonal principal están ubicados los autovalores de A. Corolario 5.1. Sea q(x) = xt Ax una forma cuadrática con matriz asociada A, cuyos autovalores son λ1 , λ2 , . . . , λn . Entonces, se dice que q(x) es - definida positiva si λi > 0, ∀i = 1, . . . , n. - definida negativa si λi < 0, ∀i = 1, . . . , n. - semidefinida positiva si λi ≥ 0, ∀i = 1, . . . , n. - semidefinida negativa si λi ≤ 0, ∀i = 1, . . . , n. - indefinida si ∃ λi , λj , i 6= j/λi > 0, λj < 0. Definición 5.4. Dada una matriz An×n , se denominan menores principales de orden l, (l < n) a los determinantes de las submatrices l × l donde se han eliminado las mismas filas y columnas. Se denotan Hl . 13 Nota 5.2. A partir de este momento, haremos uso de los menores principales izquierda. Los denotaremos por Dl , l = 1, . . . , n y se caracterizan por ser aquellos que se obtienen orlando a partir del elemento a11 . Proposición 5.3. Dada la forma cuadrática q(x) = xt Ax, con A simétrica tal que los menores principales D1 , D2 , . . . , Dn−1 son no nulos, entonces se verifica que q(y) = D1 y12 + D2 2 D3 2 Dn 2 y2 + y3 + . . . + y . D1 D2 Dn−1 n Corolario 5.2. Dada la forma cuadrática q(x) = xt Ax con Di 6= 0, i = 1, 2, . . . , n − 1, se verifica que si q es definida (positiva o negativa), entonces |A| = 6 0. Corolario 5.3. Si una forma cuadrática q(x) = xt Ax es definida (positiva o negativa), entonces Di 6= 0, ∀i = 1, . . . , n. Corolario 5.4. Sea q(x) = xt Ax una forma cuadrática con matriz asociada A, cuyos menores principales son D1 , D2 , . . . , Dn , con Di 6= 0, ∀i = 1, . . . , n − 1. Entonces, se dice que q(x) es - definida positiva si D1 > 0 y - definida negativa si D1 < 0 y Di Di−1 > 0, ∀i = 2, . . . , n. Di Di−1 - semidefinida positiva si D1 ≥ 0 y - semidefinida negativa si D1 ≤ 0 y < 0, ∀i = 2, . . . , n. Di Di−1 Di Di−1 ≥ 0, ∀i = 2, . . . , n. ≤ 0, ∀i = 2, . . . , n. - indefinida si ∃ i, j, i 6= j/Di < 0 y Dj > 0. Corolario 5.5. Sea q(x) = xt Ax una forma cuadrática tal que |A| = 0. Entonces, se verifica que - q es semidefinida positiva si, y sólo si, Hl ≥ 0, ∀l. - q es semidefinida negativa si, y sólo si, (−1)l Hl ≥ 0, ∀l. Definición 5.5. Dadas las matrices An y Bm×n con m < n y rg(B) = m, se dice que la forma cuadrática restringida q(x) = xt Ax sujeta a Bx=0 es - definida positiva si, y sólo si, ∀x ∈ Rn , x 6= 0/Bx = 0, entonces q(x) > 0. - definida negativa si, y sólo si, ∀x ∈ Rn , x 6= 0/Bx = 0, entonces q(x) < 0. - semidefinida positiva si, y sólo si, ∀x ∈ Rn , x 6= 0/Bx = 0, entonces q(x) ≥ 0. - semidefinida negativa si, y sólo si, ∀x ∈ Rn , x 6= 0/Bx = 0, entonces q(x) ≤ 0. - indefinida si ∃ x1 , x2 , x1 6= 0, x2 6= 0/Bx1 = 0, Bx2 = 0, entonces q(x1 ) > 0, q(x2 ) < 0. Nota 5.3. Si una forma cuadrática es definida positiva (negativa) cuando le añadamos restricciones seguirá siendo definida positiva (negativa). Una matriz semidefinida positiva (negativa) bajo las restricciones puede conservar su carácter o pasar a ser definida positiva (negativa). Si fuese la forma cuadrática indefinida, al someterla a restricciones no podemos asegurar nada de su carácter. Proposición 5.4. Sea la forma cuadrática q(x) = xt Ax con x ∈ Rn tal que Bx = 0, donde Bm×n con m < n y rg(B) = m. Si se denota por µ a las soluciones de la ecuación 0m B B A − µIn = 0, entonces se verifica que 14 i) la forma cuadrática restringida q es definida positiva (negativa) si, y sólo si, las soluciones de la ecuación son positivas (negativas), µi > 0 (µi < 0). ii) la forma cuadrática restringida q es semidefinida positiva (negativa) si, y sólo si, las soluciones de la ecuación son no negativas, µi ≥ 0 (no positivas, µi ≤ 0). iii) la forma cuadrática restringida q es indefinida si ∃ µ1 , µ2 tal que µ1 > 0 y µ2 < 0. 6. Inversa generalizada. Definición 6.1. Dada una matriz Am×n , se llama c–inversa de A a una matriz Bn×m tal que A = ABA. Se denotará como Ac . Proposición 6.1. Dada una matriz cuadrada A, de orden n, de manera que A es regular, la única c–inversa de A es A−1 . Proposición 6.2. Para toda matriz Am×n existe, al menos, una c–inversa. Proposición 6.3. Dada una matriz Am×n y Ac una c–inversa de A, entonces cualquier c–inversa de A es de la forma M = Ac − Ac ABAAc + B, siendo Bn×m una matriz cualquiera. Nota 6.1 (Propiedades de las c–inversas). Se verifican las siguientes propiedades: 1. (Ac )t es una c–inversa de At . 2. Si A= A11 0 0 (A11 )c , entonces A22 0 0 (A22 )c es una c–inversa de A (con los ceros del tamaño adecuado). 3. rg(Ac ) ≥ rg(A) y rg(A) = rg(AAc ) = rg(Ac A). 4. Dada la matriz Am×n y una c–inversa (Ac )n×m de A, las matrices AAc , Ac A, Im − AAc e In − Ac A son idempotentes. Definición 6.2. Dada una matriz Am×n , se llama g–inversa (Moore–Penrose) de dicha matriz a una matriz Ag que verifica 1) AAg A = A; 2) Ag AAg = Ag ; 3) AAg es simétrica; 4) Ag A es simétrica. Nota 6.2. Cabe tener en cuenta que: a) Ag es una c–inversa, por lo que podemos calcular Ag y luego, mediante la fórmula dada en una proposición anterior, obtener la familia de c–inversas. b) Si A es regular, entonces Ag = A−1 . Lema 6.1 (descomposición de rango completo). Dada una matriz Am×n tal que rg(A) = r, entonces A = A1 A2 con (A1 )m×r , (A2 )r×n y rg(A1 ) = rg(A2 ) = r. Lema 6.2. Dada una matriz Ar×n con rg(A) = r, se cumple que (AAt )r×r es regular. Teorema 6.1 (de existencia de la g–inversa). Dada una matriz Am×n cualquiera, entonces siempre existe Ag . 15 Teorema 6.2 (de unicidad de la g–inversa). La matriz g–inversa es única. Nota 6.3. Se verifican las siguientes propiedades 1. Dada la matriz Am×n , si rg(A) = n, entonces A2 = I y A = A1 =⇒ Ag = (At A)−1 At . De forma análoga, si rg(A) = m =⇒ Ag = At (At A)−1 . 2. (Ag )t = (At )g . 3. (Ag )g = A. 4. rg(A) = rg(Ag ). 5. 0g = 0. 6. (αA)g = 1 α Ag 7. Si A es simétrica, entonces (A2 )g = (Ag )2 . 8. Si A es simétrica e idempotente, entonces Ag = A. No se cumplen en general 9. (AB)g = Bg Ag . 10. AAg = Ag A. 11. Si λ 6= 0 es autovalor de A, entonces 1 λ es autovalor de Ag . Definición 6.3. Dada una matriz cuadrada A de orden n, se llama inversa grupo de A a una matriz A# n×n que cumple 1. AA# A = A; 2. A# AA# = A# ; 3. AA# = A# A; 4. A2 A# = A; 5. A(A# )2 = A# . Teorema 6.3 (de existencia de la inversa grupo). Dada una matriz cuadrada A de orden n, se cumple que A# existe si, y sólo si, rg(A) = rg(A2 ). Teorema 6.4 (de unicidad de la inversa grupo). La inversa grupo, si existe, es única. Proposición 6.4. Si λ 6= 0 es autovalor de A, y existe A# , entonces se cumple que A# . 1 λ es autovalor de Proposición 6.5. El sistema [S] es compatible si, y sólo si, AAc b = b, siendo Ac una c–inversa de A (y la solución del sistema será x = Ac b). Proposición 6.6. Si el sistema [S] es compatible, sus soluciones son todas de la forma x = Ac b + (In − Ac A)d, con d ∈ Rn un vector cualquiera. Proposición 6.7. Dado un sistema compatible [S]Ax = b, existe una única solución de norma mı́nima x∗ = Ag b. Proposición 6.8. Dado el sistema [S]Ax = b, x∗ = Ag b es solución aproximada mı́nimo–cuadrática. 16