Tema 2 Aplicaciones lineales y matrices. 2.1. Introducción. Supondremos al alumno familiarizado con la idea de matriz o tabla de orden n, m con n, m números naturales que denotan el número de filas y columnas, y con las operaciones básicas entre matrices: suma, producto, producto por escalares y sus propiedades más inmediatas. Del mismo modo son de suponer conocidos los conceptos de elemento, fila y columna de una matriz, tipos de matrices (cuadrada, diagonal triangulares superior e inferior, matriz traspuesta de una dada, matriz identidad de un cierto orden n, etc...). También ha de conocerse el concepto de aplicación entre dos conjuntos, combinación lineal de filas y de columnas, rango de una matriz, matriz cuadrada regular (que tiene inversa). Recuerdese que una matriz es regular si y sólo si tiene rango máximo. Finalmente, supondremos conocidos los determinantes y sus propiedades, los sistemas de ecuaciones lineales, su estudio y métodos de resolución. Serán nuevos los conceptos de espacio vectorial, aplicación lineal, base de un espacio vectorial, cambio de base y algunas nociones referidas a matrices como la equivalencia y la semejanza. La segunda parte del tema trata del estudio de un espacio afı́n, estructura que se forma a partir de un conjunto de puntos y un espacio vectorial, relacionados de modo que a cada par de puntos se le asocia un vector. Sobre ello el alumno ya conoce el plano y el espacio afı́n (R2 y R3 ) ası́ como 1 la ecuación y posiciones relativas de las subvariedades (rectas en el plano y rectas y planos en el espacio). Aquı́ serán nuevos y muy importantes los conceptos de sistemas de referencia, cambio de sistemas de referencia y de producto escalar, norma, ángulo y ortogonalidad. 2.2. Espacio Vectorial. Consideremos el cuerpo de los números reales R o complejos C, que denotaremos en general por K para referirnos indistintamente a uno u otro. A sus elementos los llamaremos escalares y los denotaremos con letras griegas (α, β, . . . ). También un conjunto V no vacı́o, cuyos elementos llamaremos vectores y denotaremos con letras latinas (a, b, u, v, . . . ), que admite la suma como operación interna (es decir, siempre que se sumen dos se obtiene otro del conjunto) y que cumple las propiedades asociativa y conmutativa y existen además elemento neutro y elementos opuestos. Propiedades que se expresan por: Asociativa: (u + v) + w = u + (v + w) para todo u, v, w ∈ V. Conmutativa: u + v = v + u para todo u, v ∈ V. Elemento neutro: Existe un vector 0 que sumado con cualquier otro u lo deja invariable, u + 0 = u. Elementos Opuestos: Dado un vector u existe el −u que sumado con él da el elemento neutro. Finalmente supongamos que se tiene otra operación, llamada externa, entre escalares y vectores, que a cada α ∈ K y cada u ∈ V asocia el vector αu ∈ V , de tal forma que se cumplen las propiedades: 1) α(u + v) = αu + αv; 2) (α + β)u = αu + βu; 3) (αβ)u = α(βu); 4) 1u = u, para todo α, β ∈ K y todo u, v ∈ V. En estas condiciones se dice que V es un espacio vectorial sobre K. Es la estructura fundamental en el álgebra lineal y la emplearemos constantemente. Los siguientes son ejemplos de espacios vectoriales, algunos bien conocidos: 1) El conjunto Kn de las n−uplas de números (reales o complejos), fijado (n ∈ N), con las operaciones: (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ). 2 α(x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn ), α ∈ K. Si K = R, para n = 2 y n = 3 son respectivamente el plano vectorial real bidimensional y el espacio real tridimensional. 2) El conjunto Mn,m de las matrices de orden n, m, fijados n, m ∈ N con elementos en K y con la suma de matrices y el producto de matrices por escalares es también un espacio vectorial sobre K. 3) El conjunto Pn [x] de los polinomios de grado menor o igual que n, fijado n ∈ N, con coeficientes en K, cuyos elementos son de la forma an xn + an−1 xn−1 + · · ·+a1 x+a0 ; con la suma de polinomios y el producto de polinomios por escalares. Asociado al concepto de espacio vectorial se tiene el de combinación lineal. Si V es un espacio vectorial y u1 , u2 , . . . , un son vectores de V , se llama combinación lineal de tales vectores a cualquier otro vector v obtenido de la forma v = α1 u1 + α2 u2 + . . . αn un , para unos escalares α1 , α2 , . . . , αn ∈ K. Observemos por ejemplo que el vector cero es combinación lineal de cualquier conjunto de vectores (basta tomar todos los escalares nulos). Es usual llamar a cualquier conjunto de vectores un sistema de vectores. En este contexto se introduce la noción de dependencia e independencia lineal: Un sistema de vectores B = {u1 , u2 , . . . , un } de V se dice sistema libre o linealmente independiente si la única combinación lineal de vectores de B que da el vector cero es aquella en la que todos los escalares son cero, es decir: α1 u1 + α2 u2 + . . . αn un = 0 ⇒ α1 = α2 = · · · = αn = 0. Si el sistema de vectores B no es linealmente independiente, se dice que es un sistema ligado o linealmente dependiente. Obviamente esto significa que alguna combinación lineal de los vectores de B da el vector cero y no todos los escalares son nulos. Ejemplo 2.1. 1) En el espacio vectorial R4 estudia la dependencia o independencia lineal del conjunto de vectores B = {(1, 1, 0, 1)(1/2, 2, 3/2, −1)(0, −3, −3, 3)}. 2)En P2 [x] comprueba que A = {1 − x, 2x2 , 2 + x2 } forma un sistema libre. 3 Solución. Consideremos en cada caso una combinación lineal genérica de los vectores del sistema dado y veamos si hay soluciones distintas de cero. 1) α(1, 1, 0, 1) + β(1/2, 2, 3/2, −1) + γ(0, −3, −3, 3) = (0, 0, 0, 0) ⇒ α + 1/2β = 0 α + 2β − 3γ = 0 ⇒ 3/2β − 3γ = 0 α − β + 3γ = 0. Es fácil ver que este sistema de ecuaciones tiene soluciones no nulas, por ejemplo α = 1, β = −2, γ = −1. Por tanto el sistema B es ligado. 2) α(1 − x) + β(2x2 ) + γ(2 + x2 ) = 0; (α + 2γ) − αx + (α + γ)x2 = 0. El polinomio obtenido es el polinomio cero, del que sabemos que todos sus coeficientes son nulos. En consecuencia: α + 2γ = 0 −α = 0 α+γ =0 Este sistema tiene como única solución α = 0, β = 0, γ = 0. Por tanto el sistema de vectores A es libre. 1 Es importante tener en cuenta, muy sencillo de comprobar, que todo conjunto de vectores que contenga al vector cero es ligado y que un conjunto es ligado si y sólo si alguno de sus vectores es combinación lineal de los demás. Subespacios Vectoriales. Si un subconjunto S de un espacio vectorial V tiene a su vez estructura de espacio vectorial, se dice que S es un subespacio vectorial de V . Para comprobar si un subconjunto concreto S es subespacio no es necesario comprobar si se verifican las propiedades de las operaciones de la definición de espacio vectorial (por ser subconjunto de V ya se verificarán esas propiedades). Basta con probar que la suma es operación interna en S y el producto por escalares operación externa 4 de K en S. De hecho, es suficiente que para todo par de vectores a, b ∈ S, sus combinaciones lineales sean también elementos de S, esto es, se verifica: S es subespacio vectorial de V si y sólo si dados u, v ∈ S y dados α, β ∈ K, αu + βv ∈ S. Veamos algún ejemplo. Ejemplo 2.2. Comprueba si los conjuntos siguientes son subespacios del espacio vectorial R3 : a) S = {(x, y, z) ∈ R3 : 2x − y + 3z = −1}. b) M = {(x, y, z) ∈ R3 : x + 2z = 0}. Solución. Comprobemos en cada caso si la suma de dos elementos del conjunto está en el conjunto, y si el producto de uno del conjunto por un escalar está en el conjunto. Para el caso a), si (x1 , y1 , z1 ), (x2 , y2 , z2 ) ∈ S entonces se tiene que 2x1 − y1 + 3z1 = −1 y también que 2x2 − y2 + 3z2 = −1. Ahora, el elemento suma es (x1 + x2 , y1 + y2 , z1 + z2 ). Veamos si este elemento está en S. Para ello, el doble de su primera componente menos su segunda más el triple de su tercera componente debe valer -1. Ahora bien, 2(x1 + x2 ) − (y1 + y2 ) + 3(z1 + z2 ) = (2x1 − y1 + 3z1 ) + (2x2 − y2 + 3z2 ) = −2. Sale -2 en lugar de -1, es decir no pertenece a S. Ası́ pues, S no es un subespacio vectorial de R3 . Para el caso b) las cosas son distintas. Si (x1 , y1 , z1 ), (x2 , y2 , z2 ) ∈ M, entonces se tiene que x1 + 2z1 = 0 y también que x2 + 2z2 = 0. Ahora, el elemento suma es (x1 + x2 , y1 + y2 , z1 + z2 ). Veamos si este elemento está en M . Para ello, su primera coordenada más el doble de su tercera coordenada tiene que valer cero. Ahora, (x1 + x2 ) + 2(z1 + z2 ) = (x1 + 2z1 ) + (x2 + 2z2 ) = 0 y se cumple la condición 1). Ahora veamos la 2). Para ello hay que comprobar que si (x, y, z) ∈ M , es decir, si x + 2z = 0 entonces (αx, αy, αz) ∈ M , para cualquier α ∈ R. Ahora αx + 2αz = α(x + 2z) = 0. Es decir M es subespacio vectorial. 1 En cualquier espacio vectorial, para que un subconjunto sea subespacio, es 5 condición necesaria (pero no suficiente) que contenga al vector cero y que, con cada vector, contenga al opuesto. Cada espacio vectorial V contiene a los subespacios {0} y V . Se llaman subespacios impropios. Además, dado un sistema de vectores P = {x1 , x2 , . . . , xn }, el conjunto de todas sus combinaciones lineales es un subespacio vectorial de V . Se llama subespacio generado por P y se denota < x1 , x2 , . . . , xn >. De este subespacio, al conjunto P se le llama sistema generador. Es decir < x1 , x2 , . . . , xn >= {α1 x1 + α2 x2 + · · · + αn xn : α1 , α2 , . . . , αn ∈ K}. Se dice que el conjunto P es un sistema generador del espacio vectorial V si < x1 , x2 , . . . , xn >= V , esto es, si todo vector de V se puede poner como combinación lineal de los elementos de P . Trabajaremos sólo con espacios vectoriales que cuentan con un sistema generador con una cantidad finita de elementos. Se llaman espacios vectoriales finitamente generados. Base. Coordenadas. Dimensión. Un conjunto de vectores B = {x1 , x2 , . . . , xn } se dice que es una base del espacio vectorial V si B es un sistema generador y un sistema linealmente independiente. En ese caso, para cada vector v ∈ V existen n escalares únicos, α1 , α2 , . . . , αn , tales que v = α1 x1 + α2 x2 + · · · + αn xn . A esos escalares se les llama coordenadas de v respecto de la base B. Un espacio vectorial puede tener más de una base, de hecho en general tiene infinitas bases, pero todas ellas tienen el mismo número de vectores. A ese número se le llama dimensión del espacio vectorial. Ejemplo 2.3. Comprueba que B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} es una base de R3 . Calcula las coordenadas del vector v = (1, −2, 4) Solución. Veamos que B es un sistema generador. Dado cualquier vector x = (x1 , x2 , x3 ) ∈ R3 , se trata de encontrar una combinación lineal de los vectores de B que dé el vector x. Propongamos una combinación lineal genérica y encontremos los escalares. x = α(1, 1, 1) + β(0, 1, 1) + γ(0, 0, 1); (x1 , x2 , x3 ) = (α, α + β, α + β + γ). 6 Se obtiene entonces el sistema de ecuaciones α = x1 α + β = x2 α + β + γ = x3 Es un sistema de Cramer en las incógnitas α, β, γ cuya solución única es α = x1 , β = x2 − x1 , γ = x3 − x2 . Ası́ B es sistema generador. Para ver que es un sistema libre, basta observar que la única combinación lineal que da el vector cero es aquella en que todos los escalares son nulos. Pues bien, si en el proceso anterior sustituimos el vector x por el (0, 0, 0) es evidente que la solución única del sistema es α = 0, β = 0, γ = 0. Para encontrar la coordenadas del vector v, sustituimos (x1 , x2 , x3 ) por (1, −2, 4) y obtenemos que esas coordenadas son α = 1, β = −3, γ = 6. Se suele denotar: v = (1, −3, 6)B , para indicar que las coordenadas del vector v respecto de la base B son (1,-3,6) 1 A partir del ejemplo anterior observamos que, en R3 , un vector es una terna ordenada de números y sus coordenadas respecto de una base son también una terna ordenada de números, pero distinta de la anterior. Existe una base respecto de la cual ambas ternas (vector y sus coordenadas) son iguales. Esa base es llamada base canónica de R3 y es: Bc = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}. Igual pasa en general en Rn para cualquier n ∈ N. En cada caso se tiene la base canónica, en la cual cada vector y sus coordenadas son la misma n−upla. En un espacio vectorial de dimensión n todo sistema de n vectores que sean linealmente independiente es también sistema generador y por lo tanto es base. Si S es un subespacio de dimensión k de un espacio vectorial V de dimensión n, para cada base de S existen n−k vectores que añadidos a la base de S proporcionan una base de V . Se tiene también que, dado un sistema generador del espacio, excluyendo en él todos los vectores que sean combinación lineal de los demás, se obtiene una base. 7 Ecuaciones de un subespacio. Sea S un subespacio vectorial de dimensión k del espacio vectorial V de dimensión n y sean BS y BV bases de S y V respectivamente. Cada vectores de S será una combinación lineal de los k elementos de BS . Sustituyendo cada vector de BS por sus coordenadas respecto de BV se obtiene n igualdades que dependen de k parámetros, que cumplirán las coordenadas de los vectores de S y sólo ellos. Son las llamadas ecuaciones paramétricas del subespacio S. En esas n ecuaciones paramétricas se pueden eliminar los k parámetros, por sustitución, y obtener n − k igualdades que no dependen de los parámetros. Se llaman ecuaciones implı́citas del subespacio S. Es importante tener en cuenta que las ecuaciones son igualdades que ligan las coordenadas, y por tanto las ecuaciones están referidas a las bases empleadas. Ejemplo 2.4. En R4 con la base B = {(1, 1, 1, 1), (0, 1, 1, 1), (0, 0, 1, 1), (0, 0, 0, 1)} se considera el subespacio S =< (2, 0, 1, 1), (−1, 1, 0, 0) >. Encontrar sus ecuaciones paramétricas e implı́citas. Solución. S nos lo dan mediante un sistema generador. Primero debemos de comprobar si ese sistema generador es base, es decir, si los vectores son linealmente independientes. Es fácil ver que lo son (porque ninguno de ellos es combinación lineal de los demás, en este caso que sólo son dos basta observar que no son proporcionales). Calculando sus coordenadas respecto de la base B se obtiene: (2, 0, 1, 1) = (2, −2, 1, 0)B y (−1, 1, 0, 0) = (−1, 2, −1, 0)B . Ası́ : S = {(x1 , x2 , x3 , x4 )B = α(2, −2, 1, 0)B + β(−1, 2, −1, 0)B , α, β ∈ R} Las ecuaciones paramétricas de S son pues: x1 = x2 = x3 = x4 = 2α − β −2α + 2β α−β 0 Para obtener las ecuaciones implı́citas debemos saber cuántas ecuaciones implı́citas tiene S. Puesto que el número de ecuaciones implı́citas es la diferencia entre 8 la dimension del espacio y la del subespacio, es claro que S tiene dos ecuaciones implı́citas. Observando las ecuaciones paramétricas vemos que x4 = 0 es una igualdad que no depende de parámetros, luego es una de las ecuaciones implı́citas. Si multiplimos por dos la tercera ecuación y le sumamos la segunda obtenemos x2 + 2x3 = 0, que es otra ecuación implı́cita. Ası́ las ecuaciones implı́citas de S son ) x2 + 2x3 = 0 , x4 = 0 y S se puede expresar por: S = {(x1 , x2 , x3 , x4 )B : x2 + 2x3 = 0, x4 = 0}. 1 Cambio de Base. Matriz del cambio de base. Consideremos dos bases del mismo espacio vectorial V . Sean B1 = {e1 , e2 , . . . , en } y B2 = {v1 , v2 , . . . , vn }. Si conocemos las coordenadas de un vector x ∈ V respecto de B1 , ¿Podemos calcular las coordenadas de x respecto de B2 ? La respuesta es afirmativa, siempre que conozcamos las coordenadas de cada vector de la base B1 en la base B2 . En lo que sigue indicamos cómo se hace y obtendremos las ecuaciones del cambio de base que son las n igualdades que permiten obtener las coordenadas de x en B2 a partir de las coordenadas de x en B1 . No vamos a deducir esas ecuaciones, sólo vamos a proporcionarlas y a emplearlas. Denotemos (x1 , x2 , . . . , xn ) las coordenadas de x en la base B1 . Consideremos la matriz cuadrada de orden n, P = (γij ) ∈ Mn , en la que la fila k está formada por las coordenadas del vector ek respecto a la base B2 . Si ahora denotamos (x01 , x02 , . . . , x0n ) las coordenadas de x respecto de B2 entonces se tiene: γ11 γ12 . . . γ1n γ γ . . . γ 21 22 2n (x01 , x02 , . . . , x0n ) = (x1 , x2 , . . . , xn ) (2.1) ... ... ... ... γn1 γn2 . . . γnn La matriz P es la llamada matriz del cambio de base. Realizando el producto 9 matricial anterior se obtienen las igualdades siguientes, llamadas ecuaciones del cambio de base x01 x02 = γ11 x1 + γ21 x2 + . . . = γ12 x1 + γ22 x2 + . . . ... ... ... ... x0n = γ1n x1 + γ2n x2 + . . . +γn1 xn +γn2 xn ... +γnn xn Es importante tener en cuenta que toda matriz P de cambio de base (de B1 a B2 ) tiene matriz inversa P −1 , que es la matriz de cambio de base de B2 a B1 . También debe advertirse que, si en la igualdad matricial (2.1) tomamos la traspuesta de matrices en los dos miembros, obtenemos otra igualdad equivalente del tipo X 0 = QX, siendo Q = P t y X 0 , X las coordenadas en B2 y B1 respectivamente, en columnas. Se puede emplear indistintamente cualquiera de las dos formas. Varios autores optan por esta última. Ejemplo 2.5. En R3 consideramos las bases B1 = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} y B2 = {(−1, 0, 1), (0, −1, 0), (0, 1, −1)}. a) Calcula la matriz y las ecuaciones del cambio de base de B1 a B2 . b) Calcula las coordenadas en B1 y en B2 del vector (2, −1, 3) ∈ R3 Solución. a) Las filas de la matriz de cambio de base de B1 a B2 son las coordenadas de los vectores de B1 en la base B2 . Para el primer vector: −α = 1 α(−1, 0, 1) + β(0, −1, 0) + γ(0, 1, −1) = (1, 1, 1) ⇒ −β + γ = 1 α−γ = 1 La solución única de ese sistema es α = −1, β = −3, γ = −2, que da la primera fila de la matriz P , esto es, (−1, −3, −2). Del mismo modo se calculan las coordenadas de los otros dos vectores de B1 en B2 , y se obtienen las demás filas de P . En concreto se obtiene: 10 −1 −3 −2 P = 0 −2 −1 0 −1 −1 Las ecuaciones del cambio de base se obtienen ahora fácilmente: 0 0 0 (x , y , z )B2 −1 −3 −2 = (x, y, z)B1 0 −2 −1 ; 0 −1 −1 0 x = −x y 0 = −3x − 2y − z z 0 = −2x − y − z b) Las coordenadas de (2, −1, 3) en B1 se obtienen empleando el sistema: α= 2 α(1, 1, 1) + β(0, 1, 1) + γ(0, 0, 1) = (2, −1, 3) ⇒ α + β = −1 , α+β+γ = 3 y son (2, −3, 4)B1 . Con ello, las coordenadas en la base B2 , empleando las ecuaciones del cambio de base, son: (−2, −4, −5)B2 . (Podemos comprobar que efectivamente son esas las coordenadas, que no ha habido errores en los cálculos, efectuando la combinación lineal con las coordenadas obtenidas y los vectores de las bases (B1 y B2 respectivamente) y comprobando que se obtiene el vector de partida, el (2, −1, 3)). 1 2.3. Aplicaciones lineales. Las aplicaciones entre espacios vectoriales que conservan la estructura son las aplicaciones lineales. Si U y V son espacios vectoriales sobre el mismo cuerpo de escalares K, una aplicación f : U → V se dice aplicación lineal si cumple: f (u + v) = f (u) + f (v) y f (αu) = αf (u) para cualesquiera u, v ∈ U y α ∈ K. 11 Esas dos condiciones se pueden sustituir, de modo equivalente, por la única condición siguiente: f es aplicación lineal si y sólamente si se cumple: f (αv + βv) = αf (u) + βf (v), ∀u, v ∈ U, ∀α, β ∈ K. Elgunos ejemplos. Son lineales las siguientes aplicaciones, definidas en los espacios que en cada caso se indica: f : P3 [x] → P2 [x], f (p) = p0 , donde p0 denota la derivada de p. g : R3 → R4 , g(x, y, z) = (2x, x + 2z, 2y − z, −3z). h : M3,2 → M2,3 , h(A) = At , donde At denota la matriz traspuesta de A. Con cada aplicación lineal f : U → V tienen mucho interés dos subespacios vectoriales, uno en el espacio inicial U, formado por los vectores cuya imagen es el vector cero de V. Se llama Núcleo de f y se denota ker f. El otro en el espacio final V, formado por los vectores que son imagen de algún vector de U . Se llama imagen de f y se denota im f . En concreto, la definición de cada uno de ellos es: ker f = {u ∈ U : f (u) = 0}, im f = {v ∈ V : ∃u ∈ U, f (u) = v}. Entre ambos subespacios existe la siguiente relación: Dada una base B = {e1 , e2 . . . , ek } de ker f, si {ek+1 , ek+2 , . . . , en } son vectores que, añadidos a B forman base de U , entonces el conjunto sus imágenes {f (ek+1 ), f (ek+2 ), . . . , f (en )} son vectores de V que forman base de im f . De ello se concluye la siguiente relación entre las dimensiones: dimU = dim ker f + dim im f. A la dimensión del subespacio im f se le llama rango de la aplicación lineal f . Además, la imagen de los vectores de una base cualquiera son siempre un sistema generador del subespacio imagen. Matriz de la aplicación lineal. Dada una aplicación lineal f : U → V y fijadas bases BU = {u1 , u2 , . . . un } y BV = {v1 , v2 , . . . vm } de los respectivos espacios, se llama matriz de f en esas bases a la matriz A ∈ Mn,m cuya fila k-esima consta de las coordenadas del vector f (uk ) respecto de la base BV . 12 Conocida esa matriz, se puede calcular la imagen de cualquier vector x ∈ U . De hecho, si X = (x1 , x2 , . . . , xn ) son las coordenadas de x en BU entonces las coordenadas X 0 = (x01 , x02 , . . . , x0n ) de f (x) en BV se obtienen por: X 0 = XA. (2.2) Desarrollando ese producto de matrices e individualizando cada igualdad se obtienen las ecuaciones de la aplicación lineal f . Si en la igualdad (2.2) se toma traspuesta en ambos miembros, se obtiene la igualdad equivalente X 0t = At X t . Esto muestra que la matriz de la aplicación lineal se puede crear por columnas y multiplicándola por la columna de las coordenadas de x se obtiene la columna de las coordenadas de f (x). Ası́ se hace en varios libros de la literatura. Ejemplo 2.6. Calcula la matriz y las ecuaciones de la aplicación lineal g de R3 en R4 , definida por g(x, y, z) = (2x, x + 2z, 2y − z, −3z) respecto de las bases: BR3 = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} y BR4 = {(−1, 0, 1, 0), (0, −1, 1, 0), (0, 0, −1, 1), (0, 0, 0, −1)}. Solución. Las imágenes de los vectores de BR3 son respectivamente (2, 3, 1, −3), (0, 2, 1, −3), (0, 2, −1, −3) ∈ R4 . Ahora se calcula la imagen de cada uno de esos vectores respecto de BR4 . α(−1, 0, 1, 0) + β(0, −1, 1, 0) + γ(0, 0, −1, 1) + δ(0, 0, 0, −1) = (2, 3, 1, −3) ⇒ ⇒ −α = 2 −β = 3 α+β−γ = 1 γ − δ = −3 Resolviendo se obtiene α = −2, β = −3, γ = −6, δ = −3 que da la primera fila de la matriz. Procediendo de modo análogo para los otros dos vectores se obtiene la matriz de g: 13 −2 −3 −6 −3 A = 0 −2 −3 0 . 0 −2 −1 2 Las ecuaciones de g son entonces −2 −3 −6 −3 (x0 , y 0 , z 0 , t0 ) = (x, y, z) 0 −2 −3 0 ; 0 −2 −1 2 x0 = −2x y 0 = −3x − 2y − 2z z 0 = −6x − 3y − z t0 = −3x + 2z . 1 El rango de la matriz A de una aplicación lineal f coincide con el rango de f . De hecho, las filas de A que proporcionan su rango son las coordenadas de los vectores de una base de im f. Obsérvese que la matriz A de la aplicación lineal depende de las bases empleadas. Si se cambia de base en los espacios U y V se obtiene una matriz distinta. Matriz de la aplicación lineal y cambio de base. Matrices equivalentes. Dada f : U → V aplicación lineal, si A, A0 ∈ Mn,m son matrices de f respecto de las bases BU , BV y BU0 , BV0 , consideremos las matrices P ∈ Mn y Q ∈ Mm de cambio de bases de BU0 a BU y BV0 a BV respectivamente. Entonces se tiene la relación A0 = P AQ−1 . El siguiente esquema resume la situación, teniendo en cuenta que la matriz de f fijadas las bases es única. f : (U, BU ) −→ (V, BV ) → A ↑P ↓ Q−1 f : (U, BU0 ) −→ (V, BV0 ) → A0 Las matrices A y A0 ası́ relacionadas son llamadas matrices equivalentes. Es decir dos matrices A, A0 ∈ Mn,m son equivalentes si y sólo si corresponden a 14 la misma aplicación lineal en bases distintas o, lo que es lo mismo, si y sólo si A0 = P AQ−1 , para dos matrices P ∈ Mn y Q ∈ Mm regulares. Es sencillo deducir que dos matrices equivalentes tienen igual rango. Es también cierto, aunque no tan sencillo de deducir, que dos matrices con el mismo orden y el mismo rango son equivalentes. Ejemplo 2.7. Calcula la matriz de la aplicación lineal g(x, y, z) = (2x, x+2z, 2y− z, −3z) del ejercicio anterior respecto de las bases canónicas de R3 y R4 Calcula las matrices de cambio de base entre las bases del ejercicio anterior y las bases canónicas y comprueba la relación de equivalencia mediante dichas matrices. Solución. f (1, 0, 0) = (2, 1, 0, 0), f (0, 1, 0) = (0, 0, 2, 0), f (0, 0, 1) = (0, 2, −1, −3). Ahora en R4 como se trata de la base canónica, las coordenadas y los vectores coinciden. Por tanto la matriz de f respecto de las bases canónicas es: 2 1 0 0 A0 = 0 0 2 0 . 0 2 −1 −3 La matriz de cambio de base en R3 de BR3 canónica es 1 P −1 = 0 0 = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} a la base 1 1 1 1 . 0 1 Calculando la matriz inversa obtenemos 1 −1 0 P = 0 1 −1 . 0 0 1 La matriz Q−1 en R4 de cambio de base de 15 BR4 = {(−1, 0, 1, 0), (0, −1, 1, 0), (0, 0, −1, 1), (0, 0, 0, −1)} a la base canónica es −1 0 1 0 0 −1 1 0 Q−1 = 0 0 −1 1 . 0 0 0 −1 Ahora P AQ −1 −1 0 1 0 1 −1 0 −2 −3 −6 −3 0 −1 1 0 = 0 1 −1 0 −2 −3 0 0 0 −1 1 0 0 1 0 −2 −1 2 0 0 0 −1 = A0 . 1 Una aplicación lineal f establecida entre un espacio vectorial U de dimensión n y él mismo, se llama endomorfismo de U . En este caso se puede emplear una sola base y la matriz de f es una matriz cuadrada A ∈ Mn . Si se cambia esa base, y P ∈ Mn es la matriz de cambio de la nueva base a la antigua, entonces la nueva matriz de f es A0 = P AP −1 . Las matrices A y A0 se dicen semejantes. En particular dos matrices semejantes tienen el mismo rango, pero no todas las matrices cuadradas con el mismo rango so semejantes. 2.4. Espacio Afı́n. Consideremos un conjunto E no vacı́o, a cuyos elementos llamaremos puntos (y denotaremos con letras latinas mayúsculas) y un espacio vectorial V . También una aplicación que a cada par de puntos (A, B) asigne un vector de V (que en −→ este contexto denotaremos AB) y que cumpla las condiciones: −→ −−→ −→ 1) Si A, B, C ∈ E, entonces AB + BC = AC. −→ 2) Dados P ∈ E y v ∈ V, existe un único Q ∈ E tal que P Q = v. Entonces diremos que E es un espacio afı́n sobre el espacio vectorial V. 16 −→ A P Q se le llama representante del vector v y los puntos P y Q son el origen −→ y extremo respectivamente del vector P Q. La dimensión del espacio vectorial V es, por definición, la dimensión del espacio afı́n E. Algunas propiedades que se deducen de la definición anterior son las siguientes: −→ a) P Q = 0 si y sólo si P = Q. −→ −→ b) P Q = −QP . −−→ −−→ −→ −−→ c) si P Q = P 0 Q0 entonces P P 0 = QQ0 . Daremos algún ejemplo de espacio afı́n, que es por cierto el que más emplearemos: Para un n ∈ N cualquiera consideremos En = Rn como conjunto de puntos y consideremos también Vn = Rn como espacio vectorial. A cada par de puntos P, Q con P = (p1 , p2 , . . . , pn ) y Q = (q1 , q2 , . . . , qn ), se le asocia el vector −→ P Q = (q1 − p1 , q2 − p2 , . . . , qn − pn ) ∈ Rn . Entonces En es espacio afı́n sobre Vn . Para los casos n = 2 y n = 3 se tiene el plano afı́n y el espacio afı́n real tridimensional. Sea E un espacio afı́n de dimensión n sobre el espacio vectorial V . Se llama sistema de referencia al conjunto R = {O; v1 , v2 , . . . , vn } formado por un punto O y una base de V , {v1 , v2 , . . . , vn }. Al punto O se le llama origen del sistema de referencia. Cada punto P ∈ E viene individualizado por los n escalares (α1 , α2 , . . . , αn ) −→ que son las coordenadas de OP en la base {v1 , v2 , . . . , vn }. A tales escalares se les llama coordenadas de P respecto del sistema R. Es fácil comprobar que si P, Q ∈ E tienen por coordenadas respectivamente P = (p1 , p2 , . . . , pn ) Q = (q1 , q2 , . . . , qn ) respecto de un sistema de referencia, −→ R = {O; v1 , v2 , . . . , vn } entonces el vector P Q tiene por coordenadas (q1 − p1 , q2 − p2 , . . . , qn − pn ) respecto de la base. −→ −→ −→ −→ −→ En efecto:P Q = P O + OQ = OQ − OP . Basta ahora observar que −→ −→ OQ − OP = (q1 v1 + q2 v2 + · · · + qn vn ) − (p1 v1 + p2 v2 + · · · + pn vn .) Cambio de sistemas de referencia. Supongamos dos sistemas de referencia R1 = {O; u1 , u2 , . . . , un } y R2 = {O0 ; v1 , v2 , . . . , vn } de un espacio afı́n E. Para 17 poder calcular las coordenadas de un punto cualquiera X respecto de R2 , conocidas sus coordenadas respecto de R1 , se deben conocer: - Las coordenadas del origen “antiguo”O respecto del sistema nuevo R2 . Sean (o1 , o2 . . . , on ) esas coordenadas. - La matriz de cambio de base de la base “antigua”{u1 , u2 , . . . , un } a la base nueva {v1 , v2 , . . . , vn }. Sea P = (pij ) esa matriz. En ese caso, las coordenadas (x01 , x02 , . . . , x0n ) de X respecto de R2 se obtienen a partir de las coordenadas (x1 , x2 , . . . , xn ) respecto de R1 por la expresión: 1 0 (1, x01 , x02 , . . . , x0n ) = (1, x1 , x2 , . . . , xn ) 0 ... 0 Efectuando ese producto matricial se obtienen o1 on p11 p12 . . . p1n p21 p22 . . . p2n ... ... ... ... pn1 pn2 . . . pnn las ecuaciones del cambio de sistema de referencia: x01 x02 = o1 + p11 x1 + p21 x2 + . . . = o2 + p12 x2 + p22 x2 + . . . ... ... ... ... ... ... x0n o2 . . . = on + p1n x1 + p2n x2 + . . . pn1 xn pn2 xn ... p x nn n La matriz de un cambio de sistema de referencia tiene inversa, que es precisamente la matriz del cambio inverso (de R2 a R1 ). En el caso particular en que ambos orı́genes coincidan, al cambio de sistema de referencia se le llama un cambio de base, y el caso en que coincidan ambas bases y sólo se haya cambiado el origen O por O0 , al cambio de sistema se le llama una −−→ traslación de vector OO0 . En realidad, cualquier cambio de sistema de referencia es la composición de una traslación y un cambio de base. Un ejercicio interesante es escribir la matriz de una traslación y la de un cambio de base, y comprobar que cualquier matriz de cambio de sistema de referencia se puede obtener como producto de una de cada uno de esos dos tipos. 18 Ejemplo 2.8. En el espacio afı́n R3 consideramos los puntos A = (1, 2, 1), B = (−1, 1, 2), C = (0, 1, 3), D = (2, −1, 5). −→ −→ −−→ Consideremos el sistema de referencia R1 = {A; AB, AC, AD}. Consideremos también el sistema de referencia canónico (origen en el cero O y la base canónica), que llamamos R2 . Calcula las ecuaciones del cambio de sistema de referencia, de R1 a R2 . También las de R2 a R1 . De una recta que pasa por los puntos P (1, 1, 0) y Q(0, −1, 1), ¿Cuál es su ecuación respecto del sistema R1 ? Solución. Teniendo en cuenta que en el sistema de referencia canónico todo punto de R3 coincide con sus coordenadas, los vectores de la base de R1 respecto de la base canónica tienen por coordenadas: −→ −→ −−→ AB = (−2, −1, 1), AC = (−1, −1, 2), AD = (1, −3, 4). Las coordenadas del origen antiguo A respecto del nuevo sistema de referencia R2 −→ es OA = (1, 2, 1) Por tanto la expresión del cambio de R1 a R2 es: 1 1 2 1 0 −2 −1 1 0 0 0 (1, x , y , z ) = (1, x, y, z) 0 −1 −1 2 0 1 −3 4 Realizando ese producto se obtienen las ecuaciones del cambio de sistema pedido. Para el cambio de R2 a R1 , calculamos la matriz inversa y obtenemos: 1 3 −4 1 0 −1/3 −1/6 1/6 (1, x, y, z) = (1, x0 , y 0 , z 0 ) 0 −1 3/2 −1/2 0 −2/3 7/6 −1/6 Los puntos de la recta que pasa por P y Q se expresan en R2 por (1 − α, 1 − 2α, α), α ∈ R. (Basta encontrar la ecuación paramétrica). Las coordenadas de esos puntos respecto del sistema R1 se obtiene aplicando la matriz de cambio de R2 a R1 . En concreto la ecuación paramétrica es (5/3 + 5β, −8/3 − 5β, 2/3 + 2β), β ∈ R. 19 2.5. Producto escalar en un espacio vectorial. Dado un espacio vectorial V sobre R, a una aplicación que asigne a cada par de vectores x, y ∈ V un número real x · y ∈ R y que cumpla las propiedades: a) x · x ≥ 0, x · x = 0 ⇔ x = 0, c) x · y = y · x, b) x · (y + z) = x · y + x · z, d) (λx) · y = λ(x · y) x, y, z ∈ V, λ ∈ R. se le llama un producto escalar en V, y a (V, ·) un espacio euclı́deo. Es destacable que la estructura euclı́dea permite introducir los conceptos de ángulos y distancias entre vectores. Previo a ello se introduce el concepto de norma √ de un vector, que para x ∈ V se denota |x| y se define por |x| = + x · x. Tres propiedades que verifica la norma: a) |x| ≥ 0, |x| = 0 ⇔ x = 0. b) |λx| = |λ||x|. c) |x+y| ≤ |x|+|y|, x, y ∈ V, λ ∈ R. Ahora la distancia entre dos vectores se define por: d(x, y) = |x − y| y el ángulo x·y x d , y como el único θ ∈ [0, π] tal que cos(θ) = . |x||y| Un concepto muy destacable asociado al de producto escalar es el de ortogonalidad. Dos vectores x, y ∈ V se dicen ortogonales (se denota x⊥y) si x · y = 0 (equivalentemente, si x = 0 o y = 0 o cos(d x, y) = 0). Este concepto de ortogonalidad se extiende a bases y a subespacios. Dos subespacios S, T son ortogonales si x · y = 0, ∀x ∈ S, ∀y ∈ T. Una base B = {v1 , v2 , · · · , vn } se dice base ortogonal si cada vector de la base es ortogonal a los demás (vi · vj = 0, i 6= j), y se dice base ortonormal si es ortogonal y |vi | = 1, i = 1, 2 · · · , n (un vector de norma uno se dice vector unitario). Además fijado un vector x ∈ V , el conjunto de todos los vectores ortogonales a x forman un subespacio vectorial conocido como subespacio ortogonal a x, y denotado x⊥ Fijada una base BV = {v1 , v2 , · · · , vn }, el producto escalar se puede expresar 20 mediante una matriz. Se llama matriz métrica y se define por: v1 · v1 v1 · v2 . . . v 1 · vn v2 · v1 v2 · v2 . . . v 2 · vn . ... ... ... ... vn · v1 vn · v2 . . . v n · vn A partir de la matriz, si (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) son las coordenadas de x, y ∈ V entonces el producto escalar se obtiene por la expresión: y1 v1 · v1 v1 · v2 . . . v 1 · vn v2 · v1 v2 · v2 . . . v2 · vn y2 x · y = (x1 , x2 , . . . , xn ) .. . ... ... ... ... . vn · v1 vn · v2 . . . v n · vn yn Se observa fácilmente que, respecto de una base ortogonal la matriz del producto escalar es una matriz diagonal y si además la base es ortonormal, la matriz es la identidad. Entonces el producto escalar de dos vectores es la suma de los productos de sus coordenadas. Un primer ejemplo de espacio euclideo es el espacio vectorial Rn (fijado un n ∈ N) con el llamado producto escalar usual: x · y = x1 y1 + x2 y2 + · · · + xn yn . Para él la base canónica es base ortonormal. Ejemplo 2.9. Consideremos el espacio vectorial R2 con el producto escalar definido por: x · y = x1 y1 + x2 y1 + x1 y2 + 2x2 y2 ; x = (x1 , x2 ), y = (y1 , y2 ). Calcula el ángulo y la distancia entre los vectores (−1, 2) y (2, −3). El subespacio ortogonal al vector (−2, 1). La matriz del producto escalar respecto de la base canónica y respecto de la base B = {(1, 1), (0, 1)}. p √ Solución. d((−1, 2), (2, −3)) = |(−3, 5)| = (−3, 5) · (−3, 5) = 29. Para el ángulo, hemos de calcular el producto escalar de ambos vectores y √ √ sus normas. (−1, 2) · (2, −3) = −7, |(−1, 2)| = 5, |(2 − 3)| = 10. Ahora −7 (−1,\ 2)(2, −3) = arcos( √ ) = 171,86o . 50 21 El subespacio ortogonal: (−2, 1)⊥ = {(x, y) : −2x + x − 2y + 2y = 0} = {(x, y) : x = 0} Las matrices del producto escalar respecto de la base canónica y respecto de la base B son, respectivamente à 1 1 1 2 ! à , 5 3 3 2 ! . 1 Finalizamos el tema con la siguiente definición: un espacio afı́n E se dice que es afı́n-euclı́deo si el espacio vectorial asociado es un espacio vectorial euclı́deo. Estos son los espacios de la geometrı́a y con esta estructura se tienen como sabemos, ángulos y distancias entre vectores. Además se define la distancia de un punto P −→ a otro Q por: d(P, Q) = |P Q|. 2.6. Cuestiones y Problemas. 1. Si en el espacio vectorial usual R2 sustituyéramos el producto por escalares por la operación externa: λ(x, y) = (λ2 x, λ2 y) ¿Seguirı́a siendo un espacio vectorial? 2. Dados dos subespacios vectoriales S, T de un espacio vectorial V , se define la intersección y la suma de ambos, respectivamente, por S ∩ T = {x ∈ V : x ∈ S, x ∈ T }, S + T = {u + v ∈ V : u ∈ S, v ∈ T }. Comprueba que ambos son subespacios. (Entre sus dimensiones se cumple la relación: dim(S + T ) = dimS + dimT − dim(S ∩ T ).) 3. En R3 , dados los subespacios: S = {(x, y, z) : x − 2y = 0}, T =< (2, 1, −1), (0, 1, 1) >, obtener las ecuaciones y una base de S, T, S + T y S ∩ T. 22 4. Comprueba que las siguientes son bases de P3 [x] y calcula las dos matrices de cambio de base. B = {x3 , x2 , x, 1} (base canónica de P3 [x]) y B2 = {x3 − x, 2x2 + x, −x, 2x + 1}. Calcula las coordenadas en cada una de esas bases de los vectores −x3 + 3x2 + 2x − 1 y 2x3 + x2 − 4. 5. Consideramos la aplicación lineal f : (x, y, z, t) ∈ R4 → (x − 2y, y − 2z, z − 2t)R3 . Encuentra su núcleo y su imagen. Escribe las matrices de f respecto de las bases canónicas y también respecto de las bases: B1 = {(0, 0, 0, 1), (0, 0, 1, 1), (0, 1, 1, 1), (1, 1, 1, 1)} y B2 = {(−1, −1, −1), (0, −1, −1), (0, 0, −1)}. Comprueba que ambas matrices son equivalentes a través de las matrices de cambio de bases. 6. De un endomorfismo de R3 se sabe que ker f = {(x, y, z) : y = 0, z = 0} y que f (1, 1, 0) = (1, 1, 0) y f (−1, 0, 1) = (0, 1, 1). Calcula su matriz respecto de la base canónica. Calcula su rango y unas ecuaciones de su imagen. 7. En R3 se define el producto escalar: x·y = 2x1 y1 +2x2 y2 +2x3 y3 +x1 y3 +x3 y1 , con x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ). Calcula la matriz respecto de la base canónica de R3 . Calcula el ángulo y la distancia entre los vectores (1, −1, 3) y (0, 2, −3). Escribe las ecuaciones implı́citas del subespacio ortogonal de < (1, −1, 3), (0, 2, −3) > . También las de (0, 1, −2)⊥ . 8. En el espacio afı́n R3 se consideran los puntos P = (1, 0, −1), Q = (2, 3, 1), R = −→ −→ −→ (0, 2, −3), S = (1, 1, 0). Comprobar que R = {P, P Q, P R, P S} es un sistema de referencia y calcular las coordenadas del punto M = (−2, −4, 1). Obtener las ecuaciones del cambio del sistema R al sistema de referencia canónico. Si R2 denota el sistema obtenido a partir de R1 mediante traslación del vector (1, 2, 3), escribir el origen y la base que componen R2 . También las coordenadas de M. 23 Índice general 2. Aplicaciones lineales y matrices. 1 2.1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. Espacio Vectorial. . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 2.3. Aplicaciones lineales. . . . . . . . . . . . . . . . . . . . . . . . . . 11 2.4. Espacio Afı́n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5. Producto escalar en un espacio vectorial. . . . . . . . . . . . . . . 2.6. Cuestiones y Problemas. . . . . . . . . . . . . . . . . . . . . . . . 16 20 22 24