Tema 2 Aplicaciones lineales y matrices.

Anuncio
Tema 2
Aplicaciones lineales y matrices.
2.1.
Introducción.
Supondremos al alumno familiarizado con la idea de matriz o tabla de orden
n, m con n, m números naturales que denotan el número de filas y columnas, y con
las operaciones básicas entre matrices: suma, producto, producto por escalares y
sus propiedades más inmediatas. Del mismo modo son de suponer conocidos los
conceptos de elemento, fila y columna de una matriz, tipos de matrices (cuadrada,
diagonal triangulares superior e inferior, matriz traspuesta de una dada, matriz
identidad de un cierto orden n, etc...). También ha de conocerse el concepto de
aplicación entre dos conjuntos, combinación lineal de filas y de columnas, rango
de una matriz, matriz cuadrada regular (que tiene inversa). Recuerdese que una
matriz es regular si y sólo si tiene rango máximo. Finalmente, supondremos conocidos los determinantes y sus propiedades, los sistemas de ecuaciones lineales,
su estudio y métodos de resolución.
Serán nuevos los conceptos de espacio vectorial, aplicación lineal, base de un
espacio vectorial, cambio de base y algunas nociones referidas a matrices como
la equivalencia y la semejanza. La segunda parte del tema trata del estudio de
un espacio afı́n, estructura que se forma a partir de un conjunto de puntos y un
espacio vectorial, relacionados de modo que a cada par de puntos se le asocia un
vector. Sobre ello el alumno ya conoce el plano y el espacio afı́n (R2 y R3 ) ası́ como
1
la ecuación y posiciones relativas de las subvariedades (rectas en el plano y rectas
y planos en el espacio). Aquı́ serán nuevos y muy importantes los conceptos de
sistemas de referencia, cambio de sistemas de referencia y de producto escalar,
norma, ángulo y ortogonalidad.
2.2.
Espacio Vectorial.
Consideremos el cuerpo de los números reales R o complejos C, que denotaremos en general por K para referirnos indistintamente a uno u otro. A sus elementos
los llamaremos escalares y los denotaremos con letras griegas (α, β, . . . ). También
un conjunto V no vacı́o, cuyos elementos llamaremos vectores y denotaremos con
letras latinas (a, b, u, v, . . . ), que admite la suma como operación interna (es decir,
siempre que se sumen dos se obtiene otro del conjunto) y que cumple las propiedades asociativa y conmutativa y existen además elemento neutro y elementos
opuestos. Propiedades que se expresan por:
Asociativa: (u + v) + w = u + (v + w) para todo u, v, w ∈ V. Conmutativa:
u + v = v + u para todo u, v ∈ V. Elemento neutro: Existe un vector 0 que
sumado con cualquier otro u lo deja invariable, u + 0 = u. Elementos Opuestos:
Dado un vector u existe el −u que sumado con él da el elemento neutro.
Finalmente supongamos que se tiene otra operación, llamada externa, entre
escalares y vectores, que a cada α ∈ K y cada u ∈ V asocia el vector αu ∈ V , de
tal forma que se cumplen las propiedades:
1) α(u + v) = αu + αv; 2) (α + β)u = αu + βu; 3) (αβ)u = α(βu); 4) 1u = u,
para todo α, β ∈ K y todo u, v ∈ V.
En estas condiciones se dice que V es un espacio vectorial sobre K.
Es la estructura fundamental en el álgebra lineal y la emplearemos constantemente. Los siguientes son ejemplos de espacios vectoriales, algunos bien conocidos:
1) El conjunto Kn de las n−uplas de números (reales o complejos), fijado (n ∈
N), con las operaciones:
(x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ).
2
α(x1 , x2 , . . . , xn ) = (αx1 , αx2 , . . . , αxn ),
α ∈ K.
Si K = R, para n = 2 y n = 3 son respectivamente el plano vectorial real
bidimensional y el espacio real tridimensional.
2) El conjunto Mn,m de las matrices de orden n, m, fijados n, m ∈ N con
elementos en K y con la suma de matrices y el producto de matrices por escalares
es también un espacio vectorial sobre K.
3) El conjunto Pn [x] de los polinomios de grado menor o igual que n, fijado
n ∈ N, con coeficientes en K, cuyos elementos son de la forma an xn + an−1 xn−1 +
· · ·+a1 x+a0 ; con la suma de polinomios y el producto de polinomios por escalares.
Asociado al concepto de espacio vectorial se tiene el de combinación lineal. Si
V es un espacio vectorial y u1 , u2 , . . . , un son vectores de V , se llama combinación
lineal de tales vectores a cualquier otro vector v obtenido de la forma v = α1 u1 +
α2 u2 + . . . αn un , para unos escalares α1 , α2 , . . . , αn ∈ K.
Observemos por ejemplo que el vector cero es combinación lineal de cualquier
conjunto de vectores (basta tomar todos los escalares nulos).
Es usual llamar a cualquier conjunto de vectores un sistema de vectores. En
este contexto se introduce la noción de dependencia e independencia lineal: Un
sistema de vectores B = {u1 , u2 , . . . , un } de V se dice sistema libre o linealmente
independiente si la única combinación lineal de vectores de B que da el vector cero
es aquella en la que todos los escalares son cero, es decir:
α1 u1 + α2 u2 + . . . αn un = 0 ⇒ α1 = α2 = · · · = αn = 0.
Si el sistema de vectores B no es linealmente independiente, se dice que es un
sistema ligado o linealmente dependiente. Obviamente esto significa que alguna
combinación lineal de los vectores de B da el vector cero y no todos los escalares
son nulos.
Ejemplo 2.1. 1) En el espacio vectorial R4 estudia la dependencia o independencia lineal del conjunto de vectores B = {(1, 1, 0, 1)(1/2, 2, 3/2, −1)(0, −3, −3, 3)}.
2)En P2 [x] comprueba que A = {1 − x, 2x2 , 2 + x2 } forma un sistema libre.
3
Solución. Consideremos en cada caso una combinación lineal genérica de los vectores del sistema dado y veamos si hay soluciones distintas de cero.
1) α(1, 1, 0, 1) + β(1/2, 2, 3/2, −1) + γ(0, −3, −3, 3) = (0, 0, 0, 0) ⇒


α + 1/2β = 0



 α + 2β − 3γ = 0
⇒

3/2β − 3γ = 0



 α − β + 3γ = 0.
Es fácil ver que este sistema de ecuaciones tiene soluciones no nulas, por ejemplo
α = 1, β = −2, γ = −1. Por tanto el sistema B es ligado.
2) α(1 − x) + β(2x2 ) + γ(2 + x2 ) = 0; (α + 2γ) − αx + (α + γ)x2 = 0.
El polinomio obtenido es el polinomio cero, del que sabemos que todos sus
coeficientes son nulos. En consecuencia:


 α + 2γ = 0
−α = 0


α+γ =0
Este sistema tiene como única solución α = 0, β = 0, γ = 0. Por tanto el sistema
de vectores A es libre.
1
Es importante tener en cuenta, muy sencillo de comprobar, que todo conjunto
de vectores que contenga al vector cero es ligado y que un conjunto es ligado si y
sólo si alguno de sus vectores es combinación lineal de los demás.
Subespacios Vectoriales.
Si un subconjunto S de un espacio vectorial V tiene a su vez estructura de
espacio vectorial, se dice que S es un subespacio vectorial de V . Para comprobar si
un subconjunto concreto S es subespacio no es necesario comprobar si se verifican
las propiedades de las operaciones de la definición de espacio vectorial (por ser
subconjunto de V ya se verificarán esas propiedades). Basta con probar que la
suma es operación interna en S y el producto por escalares operación externa
4
de K en S. De hecho, es suficiente que para todo par de vectores a, b ∈ S, sus
combinaciones lineales sean también elementos de S, esto es, se verifica:
S es subespacio vectorial de V si y sólo si dados u, v ∈ S y dados α, β ∈ K,
αu + βv ∈ S.
Veamos algún ejemplo.
Ejemplo 2.2. Comprueba si los conjuntos siguientes son subespacios del espacio
vectorial R3 :
a) S = {(x, y, z) ∈ R3 : 2x − y + 3z = −1}.
b) M = {(x, y, z) ∈ R3 : x + 2z = 0}.
Solución. Comprobemos en cada caso si la suma de dos elementos del conjunto
está en el conjunto, y si el producto de uno del conjunto por un escalar está en el
conjunto.
Para el caso a), si (x1 , y1 , z1 ), (x2 , y2 , z2 ) ∈ S entonces se tiene que 2x1 − y1 +
3z1 = −1 y también que 2x2 − y2 + 3z2 = −1. Ahora, el elemento suma es
(x1 + x2 , y1 + y2 , z1 + z2 ). Veamos si este elemento está en S. Para ello, el doble de
su primera componente menos su segunda más el triple de su tercera componente
debe valer -1. Ahora bien, 2(x1 + x2 ) − (y1 + y2 ) + 3(z1 + z2 ) = (2x1 − y1 + 3z1 ) +
(2x2 − y2 + 3z2 ) = −2. Sale -2 en lugar de -1, es decir no pertenece a S. Ası́ pues,
S no es un subespacio vectorial de R3 .
Para el caso b) las cosas son distintas. Si (x1 , y1 , z1 ), (x2 , y2 , z2 ) ∈ M, entonces
se tiene que x1 + 2z1 = 0 y también que x2 + 2z2 = 0. Ahora, el elemento suma
es (x1 + x2 , y1 + y2 , z1 + z2 ). Veamos si este elemento está en M . Para ello, su
primera coordenada más el doble de su tercera coordenada tiene que valer cero.
Ahora, (x1 + x2 ) + 2(z1 + z2 ) = (x1 + 2z1 ) + (x2 + 2z2 ) = 0 y se cumple la condición
1). Ahora veamos la 2). Para ello hay que comprobar que si (x, y, z) ∈ M , es
decir, si x + 2z = 0 entonces (αx, αy, αz) ∈ M , para cualquier α ∈ R. Ahora
αx + 2αz = α(x + 2z) = 0. Es decir M es subespacio vectorial.
1
En cualquier espacio vectorial, para que un subconjunto sea subespacio, es
5
condición necesaria (pero no suficiente) que contenga al vector cero y que, con
cada vector, contenga al opuesto.
Cada espacio vectorial V contiene a los subespacios {0} y V . Se llaman subespacios impropios. Además, dado un sistema de vectores P = {x1 , x2 , . . . , xn }, el
conjunto de todas sus combinaciones lineales es un subespacio vectorial de V . Se
llama subespacio generado por P y se denota < x1 , x2 , . . . , xn >. De este subespacio, al conjunto P se le llama sistema generador. Es decir
< x1 , x2 , . . . , xn >= {α1 x1 + α2 x2 + · · · + αn xn : α1 , α2 , . . . , αn ∈ K}.
Se dice que el conjunto P es un sistema generador del espacio vectorial V si
< x1 , x2 , . . . , xn >= V , esto es, si todo vector de V se puede poner como combinación lineal de los elementos de P . Trabajaremos sólo con espacios vectoriales
que cuentan con un sistema generador con una cantidad finita de elementos. Se
llaman espacios vectoriales finitamente generados.
Base. Coordenadas. Dimensión. Un conjunto de vectores B = {x1 , x2 , . . . , xn }
se dice que es una base del espacio vectorial V si B es un sistema generador y un
sistema linealmente independiente. En ese caso, para cada vector v ∈ V existen
n escalares únicos, α1 , α2 , . . . , αn , tales que v = α1 x1 + α2 x2 + · · · + αn xn . A esos
escalares se les llama coordenadas de v respecto de la base B.
Un espacio vectorial puede tener más de una base, de hecho en general tiene
infinitas bases, pero todas ellas tienen el mismo número de vectores. A ese número
se le llama dimensión del espacio vectorial.
Ejemplo 2.3. Comprueba que B = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} es una base de R3 .
Calcula las coordenadas del vector v = (1, −2, 4)
Solución. Veamos que B es un sistema generador. Dado cualquier vector x =
(x1 , x2 , x3 ) ∈ R3 , se trata de encontrar una combinación lineal de los vectores de
B que dé el vector x. Propongamos una combinación lineal genérica y encontremos
los escalares.
x = α(1, 1, 1) + β(0, 1, 1) + γ(0, 0, 1);
(x1 , x2 , x3 ) = (α, α + β, α + β + γ).
6
Se obtiene entonces el sistema de ecuaciones

α = x1 

α + β = x2


α + β + γ = x3
Es un sistema de Cramer en las incógnitas α, β, γ cuya solución única es α =
x1 , β = x2 − x1 , γ = x3 − x2 . Ası́ B es sistema generador. Para ver que es un
sistema libre, basta observar que la única combinación lineal que da el vector cero
es aquella en que todos los escalares son nulos. Pues bien, si en el proceso anterior
sustituimos el vector x por el (0, 0, 0) es evidente que la solución única del sistema
es α = 0, β = 0, γ = 0.
Para encontrar la coordenadas del vector v, sustituimos (x1 , x2 , x3 ) por (1, −2, 4)
y obtenemos que esas coordenadas son α = 1, β = −3, γ = 6. Se suele denotar:
v = (1, −3, 6)B , para indicar que las coordenadas del vector v respecto de la base
B son (1,-3,6)
1
A partir del ejemplo anterior observamos que, en R3 , un vector es una terna
ordenada de números y sus coordenadas respecto de una base son también una
terna ordenada de números, pero distinta de la anterior. Existe una base respecto
de la cual ambas ternas (vector y sus coordenadas) son iguales. Esa base es llamada
base canónica de R3 y es: Bc = {(1, 0, 0), (0, 1, 0), (0, 0, 1)}. Igual pasa en general
en Rn para cualquier n ∈ N. En cada caso se tiene la base canónica, en la cual
cada vector y sus coordenadas son la misma n−upla.
En un espacio vectorial de dimensión n todo sistema de n vectores que sean
linealmente independiente es también sistema generador y por lo tanto es base.
Si S es un subespacio de dimensión k de un espacio vectorial V de dimensión n,
para cada base de S existen n−k vectores que añadidos a la base de S proporcionan
una base de V .
Se tiene también que, dado un sistema generador del espacio, excluyendo en él
todos los vectores que sean combinación lineal de los demás, se obtiene una base.
7
Ecuaciones de un subespacio. Sea S un subespacio vectorial de dimensión k
del espacio vectorial V de dimensión n y sean BS y BV bases de S y V respectivamente. Cada vectores de S será una combinación lineal de los k elementos de BS .
Sustituyendo cada vector de BS por sus coordenadas respecto de BV se obtiene n
igualdades que dependen de k parámetros, que cumplirán las coordenadas de los
vectores de S y sólo ellos. Son las llamadas ecuaciones paramétricas del subespacio
S. En esas n ecuaciones paramétricas se pueden eliminar los k parámetros, por
sustitución, y obtener n − k igualdades que no dependen de los parámetros. Se
llaman ecuaciones implı́citas del subespacio S. Es importante tener en cuenta que
las ecuaciones son igualdades que ligan las coordenadas, y por tanto las ecuaciones
están referidas a las bases empleadas.
Ejemplo 2.4. En R4 con la base B = {(1, 1, 1, 1), (0, 1, 1, 1), (0, 0, 1, 1), (0, 0, 0, 1)}
se considera el subespacio S =< (2, 0, 1, 1), (−1, 1, 0, 0) >. Encontrar sus ecuaciones paramétricas e implı́citas.
Solución. S nos lo dan mediante un sistema generador. Primero debemos de comprobar si ese sistema generador es base, es decir, si los vectores son linealmente
independientes. Es fácil ver que lo son (porque ninguno de ellos es combinación
lineal de los demás, en este caso que sólo son dos basta observar que no son
proporcionales). Calculando sus coordenadas respecto de la base B se obtiene:
(2, 0, 1, 1) = (2, −2, 1, 0)B y (−1, 1, 0, 0) = (−1, 2, −1, 0)B . Ası́ :
S = {(x1 , x2 , x3 , x4 )B = α(2, −2, 1, 0)B + β(−1, 2, −1, 0)B , α, β ∈ R}
Las ecuaciones paramétricas de S son pues:
x1 =
x2 =
x3 =
x4 =


2α − β



−2α + 2β 

α−β




0
Para obtener las ecuaciones implı́citas debemos saber cuántas ecuaciones implı́citas tiene S. Puesto que el número de ecuaciones implı́citas es la diferencia entre
8
la dimension del espacio y la del subespacio, es claro que S tiene dos ecuaciones implı́citas. Observando las ecuaciones paramétricas vemos que x4 = 0 es una
igualdad que no depende de parámetros, luego es una de las ecuaciones implı́citas.
Si multiplimos por dos la tercera ecuación y le sumamos la segunda obtenemos
x2 + 2x3 = 0, que es otra ecuación implı́cita. Ası́ las ecuaciones implı́citas de S
son
)
x2 + 2x3 = 0
,
x4 = 0
y S se puede expresar por: S = {(x1 , x2 , x3 , x4 )B : x2 + 2x3 = 0, x4 = 0}.
1
Cambio de Base. Matriz del cambio de base. Consideremos dos bases
del mismo espacio vectorial V . Sean B1 = {e1 , e2 , . . . , en } y B2 = {v1 , v2 , . . . , vn }.
Si conocemos las coordenadas de un vector x ∈ V respecto de B1 , ¿Podemos
calcular las coordenadas de x respecto de B2 ? La respuesta es afirmativa, siempre
que conozcamos las coordenadas de cada vector de la base B1 en la base B2 . En
lo que sigue indicamos cómo se hace y obtendremos las ecuaciones del cambio de
base que son las n igualdades que permiten obtener las coordenadas de x en B2 a
partir de las coordenadas de x en B1 .
No vamos a deducir esas ecuaciones, sólo vamos a proporcionarlas y a emplearlas.
Denotemos (x1 , x2 , . . . , xn ) las coordenadas de x en la base B1 . Consideremos
la matriz cuadrada de orden n, P = (γij ) ∈ Mn , en la que la fila k está formada
por las coordenadas del vector ek respecto a la base B2 . Si ahora denotamos
(x01 , x02 , . . . , x0n ) las coordenadas de x respecto de B2 entonces se tiene:


γ11 γ12 . . . γ1n



γ
γ
.
.
.
γ
21
22
2n 

(x01 , x02 , . . . , x0n ) = (x1 , x2 , . . . , xn ) 
(2.1)
 ... ... ... ... 


γn1 γn2 . . . γnn
La matriz P es la llamada matriz del cambio de base. Realizando el producto
9
matricial anterior se obtienen las igualdades siguientes, llamadas ecuaciones del
cambio de base
x01
x02
= γ11 x1 + γ21 x2 + . . .
= γ12 x1 + γ22 x2 + . . .
...
...
...
...
x0n = γ1n x1 + γ2n x2 + . . .

+γn1 xn 



+γn2 xn 
... 



+γnn xn 
Es importante tener en cuenta que toda matriz P de cambio de base (de B1 a B2 )
tiene matriz inversa P −1 , que es la matriz de cambio de base de B2 a B1 .
También debe advertirse que, si en la igualdad matricial (2.1) tomamos la traspuesta de matrices en los dos miembros, obtenemos otra igualdad equivalente del
tipo X 0 = QX, siendo Q = P t y X 0 , X las coordenadas en B2 y B1 respectivamente, en columnas. Se puede emplear indistintamente cualquiera de las dos formas.
Varios autores optan por esta última.
Ejemplo 2.5. En R3 consideramos las bases B1 = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} y
B2 = {(−1, 0, 1), (0, −1, 0), (0, 1, −1)}. a) Calcula la matriz y las ecuaciones del
cambio de base de B1 a B2 . b) Calcula las coordenadas en B1 y en B2 del vector
(2, −1, 3) ∈ R3
Solución. a) Las filas de la matriz de cambio de base de B1 a B2 son las coordenadas de los vectores de B1 en la base B2 . Para el primer vector:

−α = 1 

α(−1, 0, 1) + β(0, −1, 0) + γ(0, 1, −1) = (1, 1, 1) ⇒ −β + γ = 1


α−γ = 1
La solución única de ese sistema es α = −1, β = −3, γ = −2, que da la
primera fila de la matriz P , esto es, (−1, −3, −2). Del mismo modo se calculan
las coordenadas de los otros dos vectores de B1 en B2 , y se obtienen las demás
filas de P . En concreto se obtiene:
10


−1 −3 −2


P =  0 −2 −1 
0 −1 −1
Las ecuaciones del cambio de base se obtienen ahora fácilmente:

0
0
0
(x , y , z )B2

−1 −3 −2


= (x, y, z)B1  0 −2 −1  ;
0 −1 −1
0
x = −x
y 0 = −3x − 2y − z
z 0 = −2x − y − z





b) Las coordenadas de (2, −1, 3) en B1 se obtienen empleando el sistema:

α= 2 

α(1, 1, 1) + β(0, 1, 1) + γ(0, 0, 1) = (2, −1, 3) ⇒
α + β = −1 ,


α+β+γ = 3
y son (2, −3, 4)B1 . Con ello, las coordenadas en la base B2 , empleando las ecuaciones del cambio de base, son: (−2, −4, −5)B2 . (Podemos comprobar que efectivamente son esas las coordenadas, que no ha habido errores en los cálculos,
efectuando la combinación lineal con las coordenadas obtenidas y los vectores de
las bases (B1 y B2 respectivamente) y comprobando que se obtiene el vector de
partida, el (2, −1, 3)).
1
2.3.
Aplicaciones lineales.
Las aplicaciones entre espacios vectoriales que conservan la estructura son las
aplicaciones lineales. Si U y V son espacios vectoriales sobre el mismo cuerpo
de escalares K, una aplicación f : U → V se dice aplicación lineal si cumple:
f (u + v) = f (u) + f (v) y f (αu) = αf (u) para cualesquiera u, v ∈ U y α ∈ K.
11
Esas dos condiciones se pueden sustituir, de modo equivalente, por la única
condición siguiente: f es aplicación lineal si y sólamente si se cumple:
f (αv + βv) = αf (u) + βf (v), ∀u, v ∈ U, ∀α, β ∈ K.
Elgunos ejemplos. Son lineales las siguientes aplicaciones, definidas en los espacios
que en cada caso se indica:
f : P3 [x] → P2 [x], f (p) = p0 , donde p0 denota la derivada de p.
g : R3 → R4 , g(x, y, z) = (2x, x + 2z, 2y − z, −3z).
h : M3,2 → M2,3 , h(A) = At , donde At denota la matriz traspuesta de A.
Con cada aplicación lineal f : U → V tienen mucho interés dos subespacios
vectoriales, uno en el espacio inicial U, formado por los vectores cuya imagen es
el vector cero de V. Se llama Núcleo de f y se denota ker f. El otro en el espacio
final V, formado por los vectores que son imagen de algún vector de U . Se llama
imagen de f y se denota im f . En concreto, la definición de cada uno de ellos es:
ker f = {u ∈ U : f (u) = 0},
im f = {v ∈ V : ∃u ∈ U, f (u) = v}.
Entre ambos subespacios existe la siguiente relación: Dada una base B = {e1 , e2 . . . , ek }
de ker f, si {ek+1 , ek+2 , . . . , en } son vectores que, añadidos a B forman base de U ,
entonces el conjunto sus imágenes {f (ek+1 ), f (ek+2 ), . . . , f (en )} son vectores de V
que forman base de im f .
De ello se concluye la siguiente relación entre las dimensiones:
dimU = dim ker f + dim im f.
A la dimensión del subespacio im f se le llama rango de la aplicación lineal f .
Además, la imagen de los vectores de una base cualquiera son siempre un sistema
generador del subespacio imagen.
Matriz de la aplicación lineal. Dada una aplicación lineal f : U → V y fijadas bases BU = {u1 , u2 , . . . un } y BV = {v1 , v2 , . . . vm } de los respectivos espacios,
se llama matriz de f en esas bases a la matriz A ∈ Mn,m cuya fila k-esima consta
de las coordenadas del vector f (uk ) respecto de la base BV .
12
Conocida esa matriz, se puede calcular la imagen de cualquier vector x ∈ U .
De hecho, si X = (x1 , x2 , . . . , xn ) son las coordenadas de x en BU entonces las
coordenadas X 0 = (x01 , x02 , . . . , x0n ) de f (x) en BV se obtienen por:
X 0 = XA.
(2.2)
Desarrollando ese producto de matrices e individualizando cada igualdad se obtienen las ecuaciones de la aplicación lineal f .
Si en la igualdad (2.2) se toma traspuesta en ambos miembros, se obtiene la
igualdad equivalente X 0t = At X t . Esto muestra que la matriz de la aplicación lineal
se puede crear por columnas y multiplicándola por la columna de las coordenadas
de x se obtiene la columna de las coordenadas de f (x). Ası́ se hace en varios libros
de la literatura.
Ejemplo 2.6. Calcula la matriz y las ecuaciones de la aplicación lineal g de R3
en R4 , definida por g(x, y, z) = (2x, x + 2z, 2y − z, −3z) respecto de las bases:
BR3 = {(1, 1, 1), (0, 1, 1), (0, 0, 1)} y
BR4 = {(−1, 0, 1, 0), (0, −1, 1, 0), (0, 0, −1, 1), (0, 0, 0, −1)}.
Solución. Las imágenes de los vectores de BR3 son respectivamente
(2, 3, 1, −3), (0, 2, 1, −3), (0, 2, −1, −3) ∈ R4 . Ahora se calcula la imagen de cada
uno de esos vectores respecto de BR4 .
α(−1, 0, 1, 0) + β(0, −1, 1, 0) + γ(0, 0, −1, 1) + δ(0, 0, 0, −1) = (2, 3, 1, −3) ⇒






⇒
−α = 2
−β = 3

α+β−γ = 1




γ − δ = −3
Resolviendo se obtiene α = −2, β = −3, γ = −6, δ = −3 que da la primera fila de
la matriz. Procediendo de modo análogo para los otros dos vectores se obtiene la
matriz de g:
13


−2 −3 −6 −3


A =  0 −2 −3 0  .
0 −2 −1 2
Las ecuaciones de g son entonces


−2 −3 −6 −3


(x0 , y 0 , z 0 , t0 ) = (x, y, z)  0 −2 −3 0  ;
0 −2 −1 2
x0 = −2x
y 0 = −3x − 2y − 2z
z 0 = −6x − 3y − z
t0 = −3x + 2z











.
1
El rango de la matriz A de una aplicación lineal f coincide con el rango de
f . De hecho, las filas de A que proporcionan su rango son las coordenadas de los
vectores de una base de im f.
Obsérvese que la matriz A de la aplicación lineal depende de las bases empleadas. Si se cambia de base en los espacios U y V se obtiene una matriz distinta.
Matriz de la aplicación lineal y cambio de base. Matrices equivalentes.
Dada f : U → V aplicación lineal, si A, A0 ∈ Mn,m son matrices de f respecto
de las bases BU , BV y BU0 , BV0 , consideremos las matrices P ∈ Mn y Q ∈ Mm
de cambio de bases de BU0 a BU y BV0 a BV respectivamente. Entonces se tiene
la relación A0 = P AQ−1 . El siguiente esquema resume la situación, teniendo en
cuenta que la matriz de f fijadas las bases es única.
f : (U, BU ) −→ (V, BV ) → A
↑P
↓ Q−1
f : (U, BU0 ) −→ (V, BV0 ) → A0
Las matrices A y A0 ası́ relacionadas son llamadas matrices equivalentes. Es
decir dos matrices A, A0 ∈ Mn,m son equivalentes si y sólo si corresponden a
14
la misma aplicación lineal en bases distintas o, lo que es lo mismo, si y sólo si
A0 = P AQ−1 , para dos matrices P ∈ Mn y Q ∈ Mm regulares. Es sencillo deducir
que dos matrices equivalentes tienen igual rango. Es también cierto, aunque no
tan sencillo de deducir, que dos matrices con el mismo orden y el mismo rango
son equivalentes.
Ejemplo 2.7. Calcula la matriz de la aplicación lineal g(x, y, z) = (2x, x+2z, 2y−
z, −3z) del ejercicio anterior respecto de las bases canónicas de R3 y R4 Calcula
las matrices de cambio de base entre las bases del ejercicio anterior y las bases
canónicas y comprueba la relación de equivalencia mediante dichas matrices.
Solución. f (1, 0, 0) = (2, 1, 0, 0), f (0, 1, 0) = (0, 0, 2, 0), f (0, 0, 1) = (0, 2, −1, −3).
Ahora en R4 como se trata de la base canónica, las coordenadas y los vectores
coinciden. Por tanto la matriz de f respecto de las bases canónicas es:


2 1 0 0


A0 =  0 0 2 0  .
0 2 −1 −3
La matriz de cambio de base en R3 de BR3
canónica es

1

P −1 =  0
0
= {(1, 1, 1), (0, 1, 1), (0, 0, 1)} a la base

1 1

1 1 .
0 1
Calculando la matriz inversa obtenemos


1 −1 0


P =  0 1 −1  .
0 0 1
La matriz Q−1 en R4 de cambio de base de
15
BR4 = {(−1, 0, 1, 0), (0, −1, 1, 0), (0, 0, −1, 1), (0, 0, 0, −1)} a la base canónica es


−1 0 1 0




0
−1
1
0

Q−1 = 
 0 0 −1 1  .


0 0 0 −1
Ahora


P AQ
−1

 −1 0 1 0
1 −1 0
−2 −3 −6 −3 


  0 −1 1 0
=  0 1 −1   0 −2 −3 0  
 0 0 −1 1

0 0 1
0 −2 −1 2
0 0 0 −1



 = A0 .


1
Una aplicación lineal f establecida entre un espacio vectorial U de dimensión
n y él mismo, se llama endomorfismo de U . En este caso se puede emplear una
sola base y la matriz de f es una matriz cuadrada A ∈ Mn . Si se cambia esa
base, y P ∈ Mn es la matriz de cambio de la nueva base a la antigua, entonces
la nueva matriz de f es A0 = P AP −1 . Las matrices A y A0 se dicen semejantes.
En particular dos matrices semejantes tienen el mismo rango, pero no todas las
matrices cuadradas con el mismo rango so semejantes.
2.4.
Espacio Afı́n.
Consideremos un conjunto E no vacı́o, a cuyos elementos llamaremos puntos
(y denotaremos con letras latinas mayúsculas) y un espacio vectorial V . También
una aplicación que a cada par de puntos (A, B) asigne un vector de V (que en
−→
este contexto denotaremos AB) y que cumpla las condiciones:
−→ −−→ −→
1) Si A, B, C ∈ E, entonces AB + BC = AC.
−→
2) Dados P ∈ E y v ∈ V, existe un único Q ∈ E tal que P Q = v.
Entonces diremos que E es un espacio afı́n sobre el espacio vectorial V.
16
−→
A P Q se le llama representante del vector v y los puntos P y Q son el origen
−→
y extremo respectivamente del vector P Q. La dimensión del espacio vectorial V
es, por definición, la dimensión del espacio afı́n E.
Algunas propiedades que se deducen de la definición anterior son las siguientes:
−→
a) P Q = 0 si y sólo si P = Q.
−→
−→
b) P Q = −QP .
−−→ −−→
−→ −−→
c) si P Q = P 0 Q0 entonces P P 0 = QQ0 .
Daremos algún ejemplo de espacio afı́n, que es por cierto el que más emplearemos: Para un n ∈ N cualquiera consideremos En = Rn como conjunto de puntos
y consideremos también Vn = Rn como espacio vectorial. A cada par de puntos P, Q con P = (p1 , p2 , . . . , pn ) y Q = (q1 , q2 , . . . , qn ), se le asocia el vector
−→
P Q = (q1 − p1 , q2 − p2 , . . . , qn − pn ) ∈ Rn . Entonces En es espacio afı́n sobre
Vn . Para los casos n = 2 y n = 3 se tiene el plano afı́n y el espacio afı́n real
tridimensional.
Sea E un espacio afı́n de dimensión n sobre el espacio vectorial V . Se llama
sistema de referencia al conjunto R = {O; v1 , v2 , . . . , vn } formado por un punto
O y una base de V , {v1 , v2 , . . . , vn }. Al punto O se le llama origen del sistema de
referencia.
Cada punto P ∈ E viene individualizado por los n escalares (α1 , α2 , . . . , αn )
−→
que son las coordenadas de OP en la base {v1 , v2 , . . . , vn }. A tales escalares se les
llama coordenadas de P respecto del sistema R.
Es fácil comprobar que si P, Q ∈ E tienen por coordenadas respectivamente
P = (p1 , p2 , . . . , pn ) Q = (q1 , q2 , . . . , qn ) respecto de un sistema de referencia,
−→
R = {O; v1 , v2 , . . . , vn } entonces el vector P Q tiene por coordenadas (q1 − p1 , q2 −
p2 , . . . , qn − pn ) respecto de la base.
−→ −→ −→ −→ −→
En efecto:P Q = P O + OQ = OQ − OP . Basta ahora observar que
−→ −→
OQ − OP = (q1 v1 + q2 v2 + · · · + qn vn ) − (p1 v1 + p2 v2 + · · · + pn vn .)
Cambio de sistemas de referencia. Supongamos dos sistemas de referencia
R1 = {O; u1 , u2 , . . . , un } y R2 = {O0 ; v1 , v2 , . . . , vn } de un espacio afı́n E. Para
17
poder calcular las coordenadas de un punto cualquiera X respecto de R2 , conocidas
sus coordenadas respecto de R1 , se deben conocer:
- Las coordenadas del origen “antiguo”O respecto del sistema nuevo R2 . Sean
(o1 , o2 . . . , on ) esas coordenadas.
- La matriz de cambio de base de la base “antigua”{u1 , u2 , . . . , un } a la base
nueva {v1 , v2 , . . . , vn }. Sea P = (pij ) esa matriz.
En ese caso, las coordenadas (x01 , x02 , . . . , x0n ) de X respecto de R2 se obtienen
a partir de las coordenadas (x1 , x2 , . . . , xn ) respecto de R1 por la expresión:

1

 0

(1, x01 , x02 , . . . , x0n ) = (1, x1 , x2 , . . . , xn ) 
 0

 ...
0
Efectuando ese producto matricial se obtienen
o1
on
p11 p12 . . . p1n
p21 p22 . . . p2n
... ... ... ...







pn1 pn2 . . . pnn
las ecuaciones del cambio de
sistema de referencia:
x01
x02
= o1 + p11 x1 + p21 x2 + . . .
= o2 + p12 x2 + p22 x2 + . . .
... ... ...
...
...
...
x0n
o2 . . .

= on + p1n x1 + p2n x2 + . . .

pn1 xn 



pn2 xn 
... 



p x 
nn n
La matriz de un cambio de sistema de referencia tiene inversa, que es precisamente
la matriz del cambio inverso (de R2 a R1 ).
En el caso particular en que ambos orı́genes coincidan, al cambio de sistema de
referencia se le llama un cambio de base, y el caso en que coincidan ambas bases
y sólo se haya cambiado el origen O por O0 , al cambio de sistema se le llama una
−−→
traslación de vector OO0 . En realidad, cualquier cambio de sistema de referencia
es la composición de una traslación y un cambio de base. Un ejercicio interesante
es escribir la matriz de una traslación y la de un cambio de base, y comprobar
que cualquier matriz de cambio de sistema de referencia se puede obtener como
producto de una de cada uno de esos dos tipos.
18
Ejemplo 2.8. En el espacio afı́n R3 consideramos los puntos
A = (1, 2, 1), B = (−1, 1, 2), C = (0, 1, 3), D = (2, −1, 5).
−→ −→ −−→
Consideremos el sistema de referencia R1 = {A; AB, AC, AD}. Consideremos
también el sistema de referencia canónico (origen en el cero O y la base canónica),
que llamamos R2 . Calcula las ecuaciones del cambio de sistema de referencia, de
R1 a R2 . También las de R2 a R1 . De una recta que pasa por los puntos P (1, 1, 0)
y Q(0, −1, 1), ¿Cuál es su ecuación respecto del sistema R1 ?
Solución. Teniendo en cuenta que en el sistema de referencia canónico todo punto
de R3 coincide con sus coordenadas, los vectores de la base de R1 respecto de la
base canónica tienen por coordenadas:
−→
−→
−−→
AB = (−2, −1, 1), AC = (−1, −1, 2), AD = (1, −3, 4).
Las coordenadas del origen antiguo A respecto del nuevo sistema de referencia R2
−→
es OA = (1, 2, 1) Por tanto la expresión del cambio de R1 a R2 es:


1 1 2 1


 0 −2 −1 1 
0 0 0

(1, x , y , z ) = (1, x, y, z) 
 0 −1 −1 2 


0 1 −3 4
Realizando ese producto se obtienen las ecuaciones del cambio de sistema pedido.
Para el cambio de R2 a R1 , calculamos la matriz inversa y obtenemos:


1
3
−4
1




0
−1/3
−1/6
1/6

(1, x, y, z) = (1, x0 , y 0 , z 0 ) 
 0 −1
3/2 −1/2 


0 −2/3
7/6
−1/6
Los puntos de la recta que pasa por P y Q se expresan en R2 por (1 − α, 1 −
2α, α), α ∈ R. (Basta encontrar la ecuación paramétrica). Las coordenadas de
esos puntos respecto del sistema R1 se obtiene aplicando la matriz de cambio de
R2 a R1 .
En concreto la ecuación paramétrica es (5/3 + 5β, −8/3 − 5β, 2/3 + 2β), β ∈ R.
19
2.5.
Producto escalar en un espacio vectorial.
Dado un espacio vectorial V sobre R, a una aplicación que asigne a cada par
de vectores x, y ∈ V un número real x · y ∈ R y que cumpla las propiedades:
a)
x · x ≥ 0, x · x = 0 ⇔ x = 0,
c)
x · y = y · x,
b) x · (y + z) = x · y + x · z,
d) (λx) · y = λ(x · y) x, y, z ∈ V, λ ∈ R.
se le llama un producto escalar en V, y a (V, ·) un espacio euclı́deo.
Es destacable que la estructura euclı́dea permite introducir los conceptos de
ángulos y distancias entre vectores. Previo a ello se introduce el concepto de norma
√
de un vector, que para x ∈ V se denota |x| y se define por |x| = + x · x.
Tres propiedades que verifica la norma:
a) |x| ≥ 0, |x| = 0 ⇔ x = 0. b) |λx| = |λ||x|. c) |x+y| ≤ |x|+|y|, x, y ∈ V, λ ∈ R.
Ahora la distancia entre dos vectores se define por: d(x, y) = |x − y| y el ángulo
x·y
x
d
, y como el único θ ∈ [0, π] tal que cos(θ) =
.
|x||y|
Un concepto muy destacable asociado al de producto escalar es el de ortogonalidad. Dos vectores x, y ∈ V se dicen ortogonales (se denota x⊥y) si x · y = 0
(equivalentemente, si x = 0 o y = 0 o cos(d
x, y) = 0). Este concepto de ortogonalidad se extiende a bases y a subespacios. Dos subespacios S, T son ortogonales si
x · y = 0, ∀x ∈ S, ∀y ∈ T. Una base B = {v1 , v2 , · · · , vn } se dice base ortogonal
si cada vector de la base es ortogonal a los demás (vi · vj = 0, i 6= j), y se dice
base ortonormal si es ortogonal y |vi | = 1, i = 1, 2 · · · , n (un vector de norma uno
se dice vector unitario). Además fijado un vector x ∈ V , el conjunto de todos los
vectores ortogonales a x forman un subespacio vectorial conocido como subespacio
ortogonal a x, y denotado x⊥
Fijada una base BV = {v1 , v2 , · · · , vn }, el producto escalar se puede expresar
20
mediante una matriz. Se llama matriz métrica y se define por:


v1 · v1 v1 · v2 . . . v 1 · vn


 v2 · v1 v2 · v2 . . . v 2 · vn 

.
 ...
... ...
... 


vn · v1 vn · v2 . . . v n · vn
A partir de la matriz, si (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) son las coordenadas de
x, y ∈ V entonces el producto escalar se obtiene por la expresión:



y1
v1 · v1 v1 · v2 . . . v 1 · vn



 v2 · v1 v2 · v2 . . . v2 · vn   y2 


x · y = (x1 , x2 , . . . , xn ) 
..  .
 ...


... ...
...  . 

vn · v1 vn · v2 . . . v n · vn
yn
Se observa fácilmente que, respecto de una base ortogonal la matriz del producto escalar es una matriz diagonal y si además la base es ortonormal, la matriz
es la identidad. Entonces el producto escalar de dos vectores es la suma de los
productos de sus coordenadas.
Un primer ejemplo de espacio euclideo es el espacio vectorial Rn (fijado un
n ∈ N) con el llamado producto escalar usual: x · y = x1 y1 + x2 y2 + · · · + xn yn .
Para él la base canónica es base ortonormal.
Ejemplo 2.9. Consideremos el espacio vectorial R2 con el producto escalar definido por: x · y = x1 y1 + x2 y1 + x1 y2 + 2x2 y2 ; x = (x1 , x2 ), y = (y1 , y2 ). Calcula el
ángulo y la distancia entre los vectores (−1, 2) y (2, −3). El subespacio ortogonal
al vector (−2, 1). La matriz del producto escalar respecto de la base canónica y
respecto de la base B = {(1, 1), (0, 1)}.
p
√
Solución. d((−1, 2), (2, −3)) = |(−3, 5)| = (−3, 5) · (−3, 5) = 29.
Para el ángulo, hemos de calcular el producto escalar de ambos vectores y
√
√
sus normas. (−1, 2) · (2, −3) = −7, |(−1, 2)| = 5, |(2 − 3)| = 10. Ahora
−7
(−1,\
2)(2, −3) = arcos( √ ) = 171,86o .
50
21
El subespacio ortogonal:
(−2, 1)⊥ = {(x, y) : −2x + x − 2y + 2y = 0} = {(x, y) : x = 0}
Las matrices del producto escalar respecto de la base canónica y respecto de la
base B son, respectivamente
Ã
1 1
1 2
!
Ã
,
5 3
3 2
!
.
1
Finalizamos el tema con la siguiente definición: un espacio afı́n E se dice que es
afı́n-euclı́deo si el espacio vectorial asociado es un espacio vectorial euclı́deo. Estos
son los espacios de la geometrı́a y con esta estructura se tienen como sabemos,
ángulos y distancias entre vectores. Además se define la distancia de un punto P
−→
a otro Q por: d(P, Q) = |P Q|.
2.6.
Cuestiones y Problemas.
1. Si en el espacio vectorial usual R2 sustituyéramos el producto por escalares
por la operación externa: λ(x, y) = (λ2 x, λ2 y) ¿Seguirı́a siendo un espacio
vectorial?
2. Dados dos subespacios vectoriales S, T de un espacio vectorial V , se define
la intersección y la suma de ambos, respectivamente, por
S ∩ T = {x ∈ V : x ∈ S, x ∈ T },
S + T = {u + v ∈ V : u ∈ S, v ∈ T }.
Comprueba que ambos son subespacios. (Entre sus dimensiones se cumple la
relación: dim(S + T ) = dimS + dimT − dim(S ∩ T ).)
3. En R3 , dados los subespacios:
S = {(x, y, z) : x − 2y = 0},
T =< (2, 1, −1), (0, 1, 1) >,
obtener las ecuaciones y una base de S, T, S + T y S ∩ T.
22
4. Comprueba que las siguientes son bases de P3 [x] y calcula las dos matrices
de cambio de base. B = {x3 , x2 , x, 1} (base canónica de P3 [x]) y
B2 = {x3 − x, 2x2 + x, −x, 2x + 1}. Calcula las coordenadas en cada una de
esas bases de los vectores −x3 + 3x2 + 2x − 1 y 2x3 + x2 − 4.
5. Consideramos la aplicación lineal
f : (x, y, z, t) ∈ R4 → (x − 2y, y − 2z, z − 2t)R3 .
Encuentra su núcleo y su imagen. Escribe las matrices de f respecto de las
bases canónicas y también respecto de las bases:
B1 = {(0, 0, 0, 1), (0, 0, 1, 1), (0, 1, 1, 1), (1, 1, 1, 1)} y
B2 = {(−1, −1, −1), (0, −1, −1), (0, 0, −1)}.
Comprueba que ambas matrices son equivalentes a través de las matrices de
cambio de bases.
6. De un endomorfismo de R3 se sabe que ker f = {(x, y, z) : y = 0, z = 0} y
que f (1, 1, 0) = (1, 1, 0) y f (−1, 0, 1) = (0, 1, 1). Calcula su matriz respecto
de la base canónica. Calcula su rango y unas ecuaciones de su imagen.
7. En R3 se define el producto escalar: x·y = 2x1 y1 +2x2 y2 +2x3 y3 +x1 y3 +x3 y1 ,
con x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ). Calcula la matriz respecto de la base
canónica de R3 . Calcula el ángulo y la distancia entre los vectores (1, −1, 3)
y (0, 2, −3). Escribe las ecuaciones implı́citas del subespacio ortogonal de
< (1, −1, 3), (0, 2, −3) > . También las de (0, 1, −2)⊥ .
8. En el espacio afı́n R3 se consideran los puntos P = (1, 0, −1), Q = (2, 3, 1), R =
−→ −→ −→
(0, 2, −3), S = (1, 1, 0). Comprobar que R = {P, P Q, P R, P S} es un sistema
de referencia y calcular las coordenadas del punto M = (−2, −4, 1). Obtener
las ecuaciones del cambio del sistema R al sistema de referencia canónico. Si
R2 denota el sistema obtenido a partir de R1 mediante traslación del vector
(1, 2, 3), escribir el origen y la base que componen R2 . También las coordenadas de M.
23
Índice general
2. Aplicaciones lineales y matrices.
1
2.1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Espacio Vectorial. . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
2
2.3. Aplicaciones lineales. . . . . . . . . . . . . . . . . . . . . . . . . .
11
2.4. Espacio Afı́n. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.5. Producto escalar en un espacio vectorial. . . . . . . . . . . . . . .
2.6. Cuestiones y Problemas. . . . . . . . . . . . . . . . . . . . . . . .
16
20
22
24
Descargar