Tema 5 Diagonalización 5.1 5.1.1 Introducción. Valores y vectores propios. Planteamiento del problema. Problema general de diagonalización. Dado un operador lineal f sobre un espacio vectorial V de dimensión n, nos planteamos el problema de cuándo es posible encontrar una base de V respecto de la cuál la matriz de f sea diagonal. Si A es la matriz del operador f con respecto a una determinada base entonces el planteamiento anterior es equivalente a preguntarse cuándo existe un cambio de base tal que la matriz del operador en la nueva base sea diagonal. Esa nueva matriz sabemos que viene dada por P −1 AP , donde P es la matriz de paso de la nueva base a la anterior (Teorema de Semejanza). Problema de la diagonalización ortogonal. Dado un operador lineal f sobre un espacio vectorial V con producto interior y de dimensión n, nos planteamos el problema de cuándo es posible encontrar una base ortonormal de V respecto de la cuál la matriz de f sea diagonal. Si V es un espacio con producto interior y las bases son ortonormales entonces se tendrá que P será ortogonal. Podemos pues formular los dos problemas anteriores en términos de matrices. ? Problema 1. Dada una matriz cuadrada A, ¿existe una matriz P inversible tal que P −1 AP sea diagonal? ? Problema 2. Dada una matriz cuadrada A, ¿existe una matriz ortogonal P tal que P t AP sea diagonal? Definición 5.1 – Se dice que una matriz A cuadrada es diagonalizable si existe una matriz P inversible tal que P −1 AP es diagonal. En ese caso se dice que P diagonaliza a la matriz A. Si existe una matriz ortogonal P tal que P −1 AP es diagonal, entonces se dice que A es diagonalizable ortogonalmente y que P diagonaliza ortogonalmente a A. 5.1.2 Diagonalización. Valores y vectores propios. Supongamos que la matriz An×n es diagonalizable, es decir que existe P inversible tal que P −1 AP = D , con D diagonal. Esto es equivalente a que exista P inversible tal que AP = P D para cierta matriz D diagonal, luego p11 p12 p21 p22 AP = P D = . .. .. . pn1 pn2 Álgebra Lineal. · · · p1n · · · p2n .. .. . . · · · pnn λ1 0 · · · 0 λ1 p11 λ2 p12 λ1 p21 λ2 p22 0 λ2 · · · 0 .. .. . . .. = .. .. . . . . . . 0 0 · · · λn λ1 pn1 λ2 pn2 · · · λn p1n · · · λn p2n .. .. . . · · · λn pnn 57 5.1 Introducción. Valores y vectores propios. Si llamamos p1 , p2 , . . . , pn a los vectores columnas de P , como las columnas de la matriz AP y las correspondientes de la matriz P D han de coincidir, lo anterior puede escribirse de la forma Ap1 = λ1 p1 , Ap2 = λ2 p2 , ..., Apn = λn pn , es decir, han de existir n vectores pi y n números reales λi tales que Api = λi pi , para los i = 1, . . . , n. Como la matriz P es inversible, los vectores pi son distintos del 0 y linealmente independientes. Definición 5.2 – Si A es una matriz cuadrada de orden n, diremos que λ es un valor propio, valor caracterı́stico o autovalor de A si existe un p ∈ IRn , p 6= 0 , tal que Ap = λp. Del vector p diremos que es un vector propio, vector caracterı́stico o autovector de A correspondiente al valor propio λ. Teorema 5.3 – Si A es una matriz de orden n, las siguientes proposiciones son equivalentes: a). λ es un valor propio de A. b). El sistema de ecuaciones (λI − A)x = 0 tiene soluciones distintas de la trivial. c). det(λI − A) = 0. Demostración: λ es un valor propio de A ⇐⇒ existe un vector x ∈ IRn diferente de cero, tal que Ax = λx ⇐⇒ el sistema (λI − A)x = 0 tiene soluciones distintas de la trivial. ⇐⇒ |λI − A| = 0 Al polinomio en λ, P(λ) = |λI −A|, se le denomina polinomio caracterı́stico de la matriz A, y a la ecuación P(λ) = |λI − A| = 0 ecuación caracterı́stica de A. Definición 5.4 – Sea A una matriz de orden n y λ un valor propio de A, al espacio de las soluciones del sistema (λI − A)x = 0 se le denomina espacio caracterı́stico de A correspondiente al valor propio λ y lo denotaremos por V (λ). Observación: Si λ es un valor propio de A, V (λ) = {x : (λI − A)x = 0} 6= {0} y por tanto dim V (λ) ≥ 1. En el estudio sobre la diagonalización realizado hasta ahora, hemos buscado la diagonalización de matrices, separándolas del operador lineal que aparece en el planteamiento inicial del problema. Lo que hemos encontrado hasta ahora ¿es reutilizable también para el estudio de ese operador? En efecto: Definición 5.5 – Sea f : V −→ V un operador lineal, diremos que un escalar λ es un valor propio de f si existe un vector v ∈ V , diferente de cero, tal que f (v) = λv . Al vector v se lo denomina vector propio de f correspondiente a λ. Teorema 5.6 – Los vectores propios de f correspondientes al valor propio λ son los vectores, distintos de cero, del núcleo de la aplicación λId −f (denotaremos por Id la aplicación identidad). Demostración: Si v un vector propio correspondiente a λ, entonces f (v) = λv =⇒ f (v) − λv = 0 =⇒ v ∈ ker(λId − f ). Por otra parte si v 6= 0 pertenece al ker(λId − f ) se tiene que (λId − f )v = 0 =⇒ λv − f (v) = 0 =⇒ f (v) = λv , luego v es un vector propio de f correspondiente a λ. Observación: Este núcleo se denominará, espacio caracterı́stico de f correspondiente al valor propio λ. Álgebra Lineal. 58 5.2 Diagonalización Teorema 5.7 – Sean V un espacio vectorial de dimensión n, f : V −→ V un operador lineal y A la matriz de f con respecto a una base B = {v1 , v2 , . . . , vn }. Entonces: a) Los valores propios de f son los valores propios de A b) Un vector v ∈ V es un vector propio de f correspondiente al valor propio λ si y sólo si su matriz de coordenadas [v]B es un vector propio de A correspondiente a λ. Demostración: a) Sea λ un valor propio de f , es decir, ∃v ∈ V , distinto de 0 , tal que f (v) = λv =⇒ [f (v)]B = [λv]B =⇒ A[v]B = λ[v]B , luego λ es un valor propio de A al ser [v]B 6= 0. Sea λ un valor propio de A, entonces ∃x ∈ IRn , x 6= 0 tal que Ax = λx. Si tomamos x∗ = x1 v1 + · · · + xn vn , siendo x = (x1 , . . . , xn ), lo anterior quiere decir que A[x∗ ]B = λ[x∗ ]B ⇒ [f (x∗ )]B = [λx∗ ]B ⇒ f (x∗ ) = λx∗ y λ es un valor propio de f ya que x∗ 6= 0 b) v es un vector propio de f correspondiente a λ si y sólo si f (v) = λv ⇐⇒ [f (v)]B = [λv]B ⇐⇒ A[v]B = λ[v]B si y sólo si [v]B es un vector propio de A correspondiente a λ. A la vista de este resultado y siempre que trabajemos en términos de valores y vectores propios, el problema de encontrar una base del espacio en la cual la matriz asociada al operador sea diagonal, se reduce al estudio de la diagonalización de las matrices. 5.2 Diagonalización Teorema 5.8 – Si A es una matriz de orden n, son equivalentes: a) A es diagonalizable. b) A tiene n vectores propios linealmente independientes. Demostración: a) ⇒ b). Lo hemos probado en los comentarios anteriores. b) ⇒ a). Sean los n vectores p1 , p2 , . . . , pn vectores propios linealmente independientes de A correspondientes a los valores propios λ1 , λ2 , . . . , λn . Consideremos la matriz p11 p12 p21 p22 P = .. .. . . pn1 pn2 · · · p1n · · · p2n .. .. . . · · · pnn que tiene por vectores columna los p1 , p2 , . . . , pn . Las columnas de la matriz producto AP son Ap1 , Ap2 , . . . , Apn y los pi son vectores propios, luego Ap1 = λ1 p1 , . . . , Apn = λn pn , por lo que: λ1 p11 λ2 p12 λ1 p21 λ2 p22 AP = . .. .. . λ1 pn1 λ2 pn2 · · · λn p1n · · · λn p2n .. .. . . · · · λn pnn p11 p12 p21 p22 = .. .. . . pn1 pn2 · · · p1n λ1 0 · · · 0 0 λ2 · · · 0 · · · p2n . . . . . .. . .. .. .. . . .. · · · pnn 0 0 · · · λn = PD donde D es la matriz diagonal que tiene como elementos en la diagonal principal a los valores propios λ1 , λ2 , . . . , λn . Dado que los vectores columnas de P son linealmente independientes, P es inversible y por tanto se tiene que D = P −1 AP , es decir, A es diagonalizable. Álgebra Lineal. 59 5.2 Diagonalización Proposición 5.9 – Sea f : V −→ V un operador lineal, siendo V un espacio vectorial de dimensión n. Entonces, existe una base de V con respecto a la cual la matriz de f es diagonal si y sólo si f tiene n vectores propios linealmente independientes. Teorema 5.10 – Sean v1 , v2 , . . . , vk vectores propios de una matriz A asociados a los valores propios λ1 , λ2 , . . . , λk respectivamente, siendo λi 6= λj , ∀i, j = 1, 2, . . . , k , con i 6= j . Entonces el conjunto de vectores {v1 , v2 , . . . , vk } es linealmente independiente. Demostración: Supongamos que v1 , v2 , . . . , vk son linealmente dependientes. Por definición, un vector propio es distinto de cero, luego el conjunto {v1 } es linealmente independiente. Sea r el máximo entero tal que {v1 , v2 , . . . , vr } es linealmente independiente. Puesto que hemos supuesto que {v1 , v2 , . . . , vk } es linealmente dependiente, r satisface que 1 ≤ r < k . Además, por la manera en que se definió r , {v1 , v2 , . . . , vr , vr+1 } es linealmente dependiente. Por tanto, existen escalares c1 , c2 , . . . , cr+1 , al menos uno diferente de cero, tales que c1 v1 + c2 v2 + · · · + cr+1 vr+1 = 0. h5.1i Multiplicando en ambos lados de la igualdad por A y haciendo las sustituciones Av1 = λ1 v1 , Av2 = λ2 v2 , . . . , Avr+1 = λr+1 vr+1 se obtiene c1 λ1 v1 + c2 λ2 v2 + · · · + cr λr vr + cr+1 λr+1 vr+1 = 0 h5.2i Multiplicando los dos lados de (5.1) por λr+1 y restándole a (5.2) la ecuación resultante se obtendrá c1 (λ1 − λr+1 )v1 + c2 (λ2 − λr+1 )v2 + · · · + cr (λr − λr+1 )vr = 0. Y dado que los vectores v1 , v2 , . . . , vr son linealmente independientes, necesariamente c1 1(λ1 − λr+1 ) = c2 (λ2 − λr+1 ) = · · · = cr (λr − λr+1 ) = 0 Como los λ1 , λ2 , . . . , λr+1 son distintos entre si, se deduce que c1 = c2 = · · · = cr = 0. Sustituyendo estos valores en (5.1) resulta que cr+1 vr+1 = 0 , y como vr+1 6= 0 se deduce que cr+1 = 0, lo que contradice el hecho de que al menos uno de los escalares c1 , c2 , . . . , cr+1 debı́a de ser distinto de cero. Luego no se puede suponer que v1 , v2 , . . . , vk sean linealmente dependientes y tenemos probado el teorema. Corolario 5.11 – Si una matriz A de orden n tiene n valores propios distintos, entonces A es diagonalizable. Proposición 5.12 – Sea A una matriz de orden n y λi un valor propio de A de multiplicidad ni , si V (λi ) es el espacio caracterı́stico correspondiente al valor propio λi . Entonces 1 ≤ dim V (λi ) ≤ ni . Demostración: Evidentemente dim V (λi ) ≥ 1, como ya observamos en la definición 5.4. Supongamos entonces que dim V (λi ) = d, y consideremos el operador lineal f : IRn −→ IRn definido por f (v) = Av Sea {v1 , . . . , vd } una base del espacio caracterı́stico V (λi ), que podemos completar hasta obtener una base de IRn , {v1 , . . . , vd , vd+1 , . . . , vn }. En dicha base, la matriz del operador será de la forma λi 0 · · · 0 0 λi · · · 0 . . . .. . . . . 0 . . . B A = 0 0 · · · λi 0 Álgebra Lineal. B0 60 5.3 Diagonalización ortogonal. Como A y A0 son matrices semejantes tienen el mismo polinomio caracterı́stico, es decir, |λI − A| = |λI − A0 | = (λ − λi )d |λI − B 0 |, de donde se obtiene que d ≤ ni . Teorema fundamental de la diagonalización 5.13 – Sea A una matriz de orden n. Entonces A es diagonalizable si y sólo si se cumplen las condiciones: a) Las n raices de la ecuación caracterı́stica de A son todas reales. Es decir, |λI − A| = (λ − λ1 )n1 · · · (λ − λm )nm con n1 + n2 + · · · + nm = n. b) Si V (λi ) es el espacio caracterı́stico de A correspondiente a λi , 1 ≤ i ≤ m, y ni es la multiplicidad de λi en la ecuación caracterı́stica de A, entonces dim V (λi ) = ni . Demostración: ⇒ Si A es diagonalizable, existe una matriz P inversible tal que P −1 AP = D (diagonal), es decir, A y D son matrices semejantes y por tanto poseen el mismo polinomio caracterı́stico, luego |λI − A| = |λI − D| = (λ − λ1 )n1 · · · (λ − λm )nm siendo λi ∈ IR un valor de la diagonal de D repetido ni veces. Luego, por ser D de orden n se verificará que n1 + n2 + · · · + nm = n, es decir, que las n raices son reales. Además, por ser A y D matrices semejantes, también lo son λI − A y λI − D para todo λ ∈ IR, ya que λI − D = λP −1 P − P −1 AP = P −1 (λI − A)P , ∀λ ∈ IR. De donde se deduce que rg(λI − A) = rg(λI − D), ∀λ ∈ IR. Ahora bien, si hacemos λ = λi , ∀i/1 ≤ i ≤ m, entonces rg(λi I − A) = rg(λi I − D) = n − ni ⇒ dim V (λi ) = ni , ∀i = 1, 2, . . . , m, lo que prueba b). ⇐ Si |λI − A| = (λ − λ1 )n1 · · · (λ − λm )nm , con n1 + n2 + · · · + nm = n, y dim V (λi ) = ni para todo i = 1, 2, . . . , m, consideremos en cada V (λi ) una base Bi , de la forma B1 = {p1 , . . . , pn1 }, B2 = {pn1 +1 , . . . , pn1 +n2 }, . . . , Bm = {pn1 +n2 +···+nm−1 +1 , . . . , pn1 +n2 +···+nm } Tomemos entonces B = B1 ∪ B2 ∪ · · · ∪ Bm , un conjunto de n vectores propios de A, si vemos que son linealmente independientes, tendremos que A es diagonalizable. Planteemos una combinación lineal igualada a cero: (β11 p1 + · · · + βn11 pn1 ) + (β12 pn1 +1 + · · · + βn22 pn1 +n2 )+ + · · · + (β1m pn1 +···+nm−1 +1 + · · · + βnmm pn1 +···+nm ) = 0 Llamemos v1 al primer vector situado entre paréntesis, v2 al segundo vector situado entre paréntesis, etc. Los vectores v1 , v2 , . . . , vm son vectores del espacio caracterı́stico correspondientes, respectivamente, a los valores propios distintos λ1 , λ2 , . . . , λm y por tanto, si no son cero, son linealmente independientes. Pero la combinación lineal v1 + v2 + · · · + vm = 0 nos indicarı́a que son dependientes, luego la única forma de eliminar esa contradicción es que vi = 0 , ∀i = 1, 2, . . . , m, lo cual nos llevará por otra parte a que βji = 0 ∀i, j , con lo cual se obtiene que B es linealmente independiente. 5.3 Diagonalización ortogonal. Teorema 5.14 – Sea A una matriz de orden n, entonces son equivalentes: a) A es diagonalizable ortogonalmente. b) A tiene un conjunto de n vectores propios ortonormales. Álgebra Lineal. 61 5.4 Ejercicios Demostración: En efecto, A es diagonalizable ortogonalmente ⇐⇒ existe P ortogonal tal que P t AP = D (con D diagonal) ⇐⇒ existe P ortogonal tal que AP = P D . Si llamamos p1 , p2 , . . . , pn a los vectores columnas de P , éstos vectores son ortonormales y lo mismo que escribir Ap1 = λ1 p1 , . . . , Apn = λn pn , supuesto que D = lo anterior es λ1 0 · · · 0 0 λ2 · · · 0 . . . , y como al ser P inversible se tiene que p1 , p2 , . . . , pn son linealmente inde . . .. . .. . . 0 0 · · · λn pendientes y por tanto no nulos ⇐⇒ A tiene n vectores propios ortonormales. Teorema fundamental de la diagonalización ortogonal 5.15 – Una matriz A de orden n es diagonalizable ortogonalmente si y sólo si A es simétrica. Teorema 5.16 – Si A es una matriz simétrica, entonces los vectores propios que pertenecen a valores propios distintos son ortogonales. Demostración: Sean λ1 y λ2 valores propios distintos de una matriz simétrica A y sean u y v vectores propios correspondientes a λ1 y λ2 respectivamente. Tenemos que probar que ut v = 0. (Notar que ut Av es un escalar). Se tiene que ut Av = (ut Av)t = v t Au = v t λ1 u = λ1 v t u = λ1 ut v , y por otra parte que ut Av = ut λ2 v = λ2 ut v , por tanto λ1 ut v = λ2 ut v ⇒ (λ1 − λ2 )ut v = 0 y como λ1 − λ2 6= 0, entonces ut v = 0. 5.4 Ejercicios 5.1 Hallar las ecuaciones caracterı́sticas, los valores propios terı́sticos de las siguientesmatrices: à ! 5 6 2 4 0 −2 −7 a) b) 0 −1 −8 c) −2 1 1 2 1 0 −2 −2 0 y bases de los espacios carac 1 0 1 5.2 Sea T : M2×2 −→ M2×2 el operador por: à lineal!definido à ! a b 2c a+c T = c d b − 2c d Hallar los valores propios de T y bases para los subespacios caracterı́sticos de T . 5.3 Demostrar que λ = 0 es un valor propio de una matriz A si y sólo si A es no inversible. 5.4 Probar que el término constante del polinomio caracterı́stico P (λ) = |λI − A| de una matriz A de orden n es (−1)n det(A). 5.5 Demostrar que si λ es un valor propio de A entonces λ2 es un valor propio de A2 . Demostrar por inducción que, en general, λn es un valor propio de An , ∀n ∈ IN. 5.6 Estudiar si son o no diagonalizables las siguientes matrices y en caso de que lo sean hallar una matriz P talque P −1 AP = D con D matriz diagonal: à ! −1 4 −2 3 0 0 −14 12 c) −3 4 0 a) 0 2 0 b) −20 17 −3 1 3 0 1 2 Álgebra Lineal. 62 5.4 Ejercicios x1 2x1 − x2 − x3 x1 − x3 5.7 Sea T : IR3 −→ IR3 el operador lineal T x2 = . Hallar una base x3 −x1 + x2 + 2x3 3 de IR respecto de la cual la matriz de T sea diagonal. 5.8 Sea P1 (x) el espacio vectorial de los polinomios de grado menor o igual a 1. Sea T : P1 (x) −→ P1 (x) el operador lineal T (a0 +a1 x) = a0 +(6a0 −a1 )x. Hallar una base de P1 (x) respecto de la cual la matriz de T sea diagonal. 5.9 Sea A una matriz de orden n y P una matriz inversible de orden n. Demostrar por inducción que (P −1 AP )k = P −1 Ak P , ∀k ∈ IN. à 5.10 Calcular A40 siendo A = 1 0 −1 2 ! . 5.11 Estudiar la diagonalizabilidad de la matriz A, dada en función de los parámetros a y b, 5 0 0 siendo A = 0 −1 a . En los casos posibles diagonalizarla. 3 0 b 5.12 Sea A una matriz de orden 2 tal que A2 = I . Probar que A es diagonalizable. 5.13 Hallar una matriz P que diagonalice ortogonalmente a una de las siguientes matrices: 5 à ! 2 −1 −1 −2 −7 24 a) b) −1 2 −1 c) 0 24 7 −1 −1 2 0 5.14 A y calcular P −1 AP para cada −2 0 0 2 0 0 0 5 −2 0 −2 2 a) Demostrar que si D es una matriz diagonal con elementos no negativos entonces existe una matriz S tal que S 2 = D . b) Demostrar que si A es una matriz diagonalizable con valores propios no negativos entonces existe una matriz S tal que S 2 = A. 5.15 Probar que A y At tienen los mismos valores propios siendo A una matriz de orden n. 5.16 Sea A una matriz de orden n y P (λ) = |λI − A|. Probar que el coeficiente de λn−1 en P (λ) es el opuesto de la traza de A. 5.17 Sea A una matriz de orden n inversible, demostrar que los valores propios de A−1 son los inversos de los valores propios de A. 5.18 Sea A una matriz de orden n ortogonal, probar que todos los valores propios de A son uno o menos uno. 5.19 Se sabe que (1, 0, 0), (1, 1, 0), (0, 1, 0) y (0, 0, 1) son vectores propios de una matriz de orden 3 y que hay vectores de IR3 que no lo son. Calcular todos los vectores propios de la matriz. ( un = 3un−1 + 3vn−1 . Utilizar la divn = 5un−1 + vn−1 agonalización para calcular un y vn en función de n, sabiendo que u0 = v0 = 1. 5.20 Se dan las siguientes ecuaciones de recurrencia: 5.21 Los dos primeros términos de una sucesión son a0 = 0 y a1 = 1. Los términos siguientes se generan a partir de ak = 2ak−1 + ak−2 ; k ≥ 2. Hallar a127 . Álgebra Lineal. 63 5.4 Ejercicios 5.22 El propietario de una granja para la crı́a de conejos observó en la reproducción de éstos que: i). Cada pareja adulta (con capacidad reproductora) tiene una pareja de conejos cada mes. ii). Una pareja recién nacida tarda dos meses en tener la primera descendencia. Si partimos de una pareja adulta y siendo an el número de parejas nacidas en el n-ésimo mes (a0 = 0), se pide: a) Obtener una fórmula recurrente para an en función de términos anteriores. √ √ (1 + 5)n − (1 − 5)n √ b) Probar que an = 2n 5 an+1 c) Calcular, si existe: lim . n→∞ an 5.23 Sea el determinante n × n siguiente: ¯ ¯ ¯ ¯ ¯ ¯ ¯ ¯ Dn = ¯¯ ¯ ¯ ¯ ¯ ¯ ¯ 3 1 0 0 .. . 1 3 1 0 .. . 0 1 3 1 .. . 0 0 1 3 .. . ··· ··· ··· ··· .. . 0 0 0 0 .. . ¯ 0 ¯¯ 0 ¯¯ 0 ¯¯ ¯ 0¯ .. ¯¯ .¯ ¯ 0 0 0 0 · · · 3 1 ¯¯ 0 0 0 0 ··· 1 3 ¯ Dar una expresión de Dn en función de los determinantes de tamaño menor que n y obtener las ecuaciones de recurrencia para hallar su valor. 5.24 Determinar para qué valores de a, 1 A= 0 0 b y c son las matrices simultáneamente diagonalizables a b 1 a b 2 c y B= 0 1 c 0 2 0 0 2 c 2a 0 a 5.25 Estudiar para qué valores de a, b y c es diagonalizable la matriz A = b 0 0 2b −c a −a 0 0 . Estudiar para qué valores de a y b la matriz A 5.26 Dada la matriz A = −a a b 0 2b es diagonalizable. 5.27 Sea f : IR3 −→ IR3 el operador lineal cuya matriz asociada a la base canónica es: m 0 0 A= 0 m 1 1 n m a) Determinar para qué valores de m y n existe una base de IR3 de tal forma que la matriz en esa base sea diagonal. En los casos que f sea diagonalizable calcular una base en la cuál la matriz de f sea diagonal. b) Si n = 0, observando la matriz A y sin hacer ningún cálculo, determinar un valor propio y un vector propio asociado a dicho valor propio, razonando la respuesta. Álgebra Lineal. 64 5.4 Ejercicios −1 0 0 0 a −1 0 0 5.28 Dada la matriz A = . Encontrar para qué valores de los parámetros b d 1 1 c e f 1 a, b, c, d, e, f ∈ IR la matriz A es diagonalizable. Para dichos valores encontrar las matrices P y D tales que P −1 AP = D , donde D es una matriz diagonal. 5.29 En IR4 consideramos el subconjunto: S = {(x1 , x2 , x3 , x4 ) / x2 − x4 = 0}. Sea T : IR4 −→ IR4 el operador lineal que verifica: i). ker(T ) = {x ∈ IR4 / < x, y >= 0, ∀y ∈ S}. ii). T (1, 0, 0, 0) = (−1, 3, 1, −2). iii). T (1, 1, 1, 1) = (−3, m, n, p). ( x1 + x2 + x3 + x4 = 0 es el conjunto de vecx2 + 2x3 + 2x4 = 0 tores propios correspondientes a un mismo valor propio de T. iv). El subespacio solución del sistema: Se pide: a) Probar que S es un subespacio vectorial de IR4 . b) Hallar ker(T ). c) Encontrar una base para el subespacio de vectores propios de la propiedad (iv). d) La matriz estándar de T . 5.30 Sean f : IR4 −→ IR4 un operador lineal, y B = {e1 , e2 , e3 , e4 } la base canónica de IR4 , verificando lo siguiente: i). f (e1 ) ∈ H = {x ∈ IR4 / x2 = 0} ii). f (e2 ) ∈ S = {x ∈ IR4 / x2 = 1 y x4 = 0} iii). f (e3 ) = (α, β, 1, −2); f (e4 ) = (1, 0, −2, γ) iv). ker f es el conjunto de soluciones del sistema: 2x1 + x2 + 2x3 − 2x4 = 0 3x + 3x + x + x = 0 1 2 3 4 x − x − x + 3x = 0 1 2 3 4 v). Las ecuaciones implı́citas de la imagen de f son y1 − 2y3 − y4 = 0. vi). El operador f es diagonalizable. Hallar la matriz estándar de f . Álgebra Lineal. 65