´Algebra Lineal

Anuncio
Álgebra Lineal
Grado en Ingenierı́a Electrónica Industrial y Automática
Grado en Ingenierı́a Eléctrica
Dpto. de Matemática Aplicada
Escuela de Ingenierı́as Industriales de Valladolid
Universidad de Valladolid
Curso Actual
Capı́tulo 1
Matrices, Sistemas y Determinantes.
1.1.
1.1.1.
Matrices.
Definiciones básicas
Una matriz es una tabla rectangular de números, (es decir, una distribución ordenada de
números). Los números de la tabla se conocen con el nombre de elementos de la matriz. El
tamaño de una matriz se describe especificando el número de filas y columnas que la forman. Si A
es una matriz de m filas y n columnas, Am×n , se usará aij para denotar el elemento de la fila i y la
columna j y en general, se representará por
A=






a11
a21
..
.
a12
a22
..
.
· · · a1n
· · · a2n
.
· · · ..
am1 am2 · · · amn






Al conjunto de todas las matrices de tamaño m × n lo denotaremos por Mm×n
Se dice que dos matrices son iguales si tienen el mismo tamaño y los elementos correspondientes
en ambas matrices son iguales.
Una matriz An×n se denomina matriz cuadrada de orden n y de los elementos de la matriz
a11 , a22 , ..., ann se dice que forman la diagonal principal.
Una matriz cuadrada A se dice triangular superior, si todos los elementos por debajo de la
diagonal principal son nulos, es decir: aij = 0, para cualquier i,j tal que i > j. Una matriz cuadrada
A se dice triangular inferior, si todos los elementos por encima de la diagonal principal son nulos,
es decir: aij = 0, para cualquier i,j tal que i < j. Una matriz cuadrada A se dice que es diagonal,
si es triangular superior e inferior.
1.1.2.
Operaciones en las matrices
Suma: Si A y B son dos matrices del mismo tamaño la suma A + B es otra matriz C del mismo
tamaño con cij = aij + bij , ∀i, j.
El neutro de la suma es la matriz cero, 0, con todos los elementos cero.
Producto por escalares: Si A es una matriz y k ∈ IR un escalar, el producto kA es otra matriz
C del mismo tamaño y tal que cij = kaij , ∀i, j.
1
m
at
1.1 Matrices.
Producto de matrices: Si Am×n y Bn×p el producto AB es otra matriz C de tamaño m × p y tal
que cij =
n
X
aik bkj (obsérvese que se trata de sumar los productos de cada elemento de la fila i de A
k=1
por el elemento correspondiente de la columna j de B).
Esta definición requiere que el número de columnas de la primera matriz, A, sea igual que el
número de filas de la segunda matriz, B, puesto que para el cálculo de cij ha de haber tantos
elementos en la fila i (número de columnas de A) como en la columna j (número de filas de B). En
forma sinóptica con los tamaños (m × n) · (n × p) = (m × p). La matriz identidad, In×n , formada
por ceros excepto en la diagonal principal que tiene unos, verifica que para toda Am×n se tiene que
Im×m · Am×n = Am×n y Am×n · In×n = Am×n .
Proposición 1 (Propiedades de las operaciones).1. A + B = B + A
(conmutativa de la suma)
2. A + (B + C) = (A + B) + C
3. A(BC) = (AB)C
(asociativa de la suma)
(asociativa del producto)
4. A(B + C) = AB + AC
(distributiva por la izquierda)
5. (A + B)C = AC + BC
(distributiva por la derecha)
6. k(B + C) = kB + kC; ∀k ∈ IR
7. (k + λ)C = kC + λC; ∀k, λ ∈ IR
8. k(BC) = (kB)C = B(kC); ∀k ∈ IR
• AB = BA
En general, NO es cierto que: • AB = AC =⇒ B = C
• AB = 0 =⇒ A = 0 ó B = 0
!
!
!
0 1
3 7
−1 −1
Ejemplo 2.- Con A =
, B =
y C =
obtenemos que AB =
0 2
0 0
0
0
!
!
0 0
0 17
6= BA =
es decir AB 6= BA y AB = 0 con A 6= 0 y B 6= 0. Además
0 0
0 0
AC = 0 = AB y B 6= C.
1.1.3.
Matrices elementales
Definición 3.- Llamamos operación elemental en las filas de las matrices, a alguna de las siguientes:
a) Cambiar la posición de dos filas. Fi ↔ Fj
b) Multiplicar una fila por una constante k distinta de cero. Fi → kFj
c) Sumar a una fila un múltiplo λ de otra fila. Fi → Fi + λFj
Matemáticas I
2
m
at
1.2 Lenguaje matricial de los sistemas de ecuaciones
Definición 4.- Se dice que una matriz n × n es una matriz elemental si se obtiene de efectuar
una sola operación elemental sobre la matriz identidad n × n.
Teorema 5.- Si la matriz elemental Em×m resulta de efectuar cierta operación elemental sobre las
filas de Im×m y si Am×n es otra matriz, el producto EA es la matriz m × n que resulta de efectuar
la misma operación elemental sobre las filas de A.
1.2.
1.2.1.
Lenguaje matricial de los sistemas de ecuaciones
Método de Gauss
Si consideramos un sistema de m ecuaciones lineales con n incógnitas
a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b2
...............
am1 x1 + am2 x2 + . . . + amn xn = bm









éste puede escribirse como AX = B donde Am×n = (aij ), Xn×1 = (xi ), Bm×1 = (bj ).
La matriz A se denomina matriz de los coeficientes del sistema y la matriz (A|B) se denomina
matriz ampliada del sistema.
Multiplicando sucesivamente en la igualdad AX = B por matrices elementales adecuadas E1 AX =
E1 B, E2 E1 AX = E2 E1 B, . . . , Ek . . . E2 E1 AX = Ek . . . E2 E1 B se llega a un sistema equivalente
RX = L, que tiene las mismas soluciones que el inicial, pero de mayor simplicidad a la hora de
encontrar las soluciones (por ejemplo si la matriz R conseguida es la identidad tendrı́amos IX = L
es decir X = L que es la solución buscada).
En general buscaremos una matriz escalonada, con ceros por debajo de la “escalera”, que
permite una resolución sencilla (como veremos luego). Esta matriz reducida debe cumplir:
1. Si una fila consta únicamente de ceros debe ir en la parte inferior de la matriz.
2. Si dos filas seguidas no constan sólo de ceros, el primer elemento distinto de cero de la fila
inferior debe encontrarse más a la derecha que el primer elemento distinto de cero de la fila
superior.
La búsqueda de estas matrices se conoce con el nombre de método de Gauss.
Ejemplo 6.5x3 + 10x4 + 15x6 = 5
x1 + 3x2 − 2x3 + 2x5 = 0
2x1 + 6x2 − 5x3 − 2x4 + 4x5 − 3x6 = −1
2x1 + 6x2 + 8x4 + 4x5 + 18x6 = 6









Apliquemos sobre este sistema el método de Gauss, es decir hagamos operaciones elementales, sobre
la matriz A de los coeficientes y, como vimos, también sobre B para que se mantenga la igualdad. Por
comodidad efectuamos las operaciones elementales sobre la matriz ampliada para con ello realizar
las operaciones sobre A y B de una sola vez.
Matemáticas I
3
1.2 Lenguaje matricial de los sistemas de ecuaciones
A|B =

0
1
2
2
0 5 10 0 15 5
3 −2 0 2 0
0
6 −5 −2 4 −3 −1
6 0
8 4 18 6


1
0
2
2
3 −2 0 2 0
0
0 5 10 0 15 5
6 −5 −2 4 −3 −1
6 0
8 4 18 6


1
0
0
0
3 −2 0 2 0
0
0 5 10 0 15 5
0 −1 −2 0 −3 −1
0 4
8 0 18 6
















Por la operación (a) cambiamos la fila
1 por la fila 2, F1 ↔ F2 .




Por (b) hacemos cero el 2 de F3 y el de
F4 : F3 → F3 − 2F1 , F4 → F4 − 2F1 .




Hacemos 0 el −1 de F3 y el 4 de F4 :
F3 → F3 + 51 F2 , F4 → F4 − 45 F2 .


1
0
0
0
3 −2 0 2 0 0
0 5 10 0 15 5
0 0 0 0 0 0
0 0 0 0 6 2


1
0
0
0
3 −2 0 2 0 0
0 5 10 0 15 5
0 0 0 0 6 2
0 0 0 0 0 0









x1 + 3x2 − 2x3 + 2x5 = 0
5x3 + 10x4 + 15x6 = 5
6x6 = 2
0=0




F3 ↔ F4 .




Esta matriz es escalonada, y nos proporciona el sistema









m
at
Las soluciones se encuentran fácilmente
sustituyendo de abajo hacia arriba,
obteniéndose:
x6 = 13 , x3 = −2x4 , x1 = −3x2 − 4x4 − 2x5 , donde x2 , x4 y x5 pueden tomar cualquier valor. Las
soluciones son: (−3x2 − 4x4 − 2x5 , x2 , −2x4 , x4 , x5 , 31 ) para todo x2 , x4 y x5 ∈ IR.
El primer elemento distinto de cero de las filas lo llamaremos elemento principal y las incógnitas
correspondientes a estos elementos incógnitas principales.
Si en alguna fila el elemento principal está en la columna ampliada, el sistema no tiene solución
(obviamente una de las ecuaciones equivalentes será 0x1 + . . . + 0xn = k(elemento principal 6= 0)
y esta igualdad no puede cumplirse para ningún valor que demos a las incógnitas). En este caso,
diremos que se trata de un sistema incompatible.
Si el sistema tiene solución, es decir, si el sistema es compatible, tenemos dos casos:
Si el número de elementos principales es igual que el número de
tiene

 incógnitas el sistema
1 −2 0 0


solución única. Supongamos que la matriz escalonada obtenida es  0 5 15 5 , el sistema
0 0 6 2




x
=
2x
x
=
0
2
 1
 1
5x2 = 5 − 15x3 y se obtiene
x2 = 0 solución única. En este caso, diremos que se trata




6x3 = 2
x3 = 31
de un sistema compatible determinado.
Matemáticas I
4
1.3 Matriz transpuesta. Inversa de una matriz
m
at
Si el número de elementos principales es menor que el número de incógnitas el sistema tiene
infinitas soluciones. Basta observar el ejemplo 6 anterior, tenemos una solución para cada uno
de los posibles valores de x2 , x4 y x5 . En este caso, diremos que se trata de un sistema
compatible indeterminado.
Sistemas homogéneos
Un sistema de ecuaciones lineales se dice que es homogéneo si tiene todos los términos independientes cero; es decir, un sistema de la forma AX = 0.
Un sistema homogéneo siempre tiene solución (en efecto X = 0 es siempre solución, a esta
solución suele llamarse la solución trivial y de cualquier otra solución distinta de ésta se dice solución
no trivial).
1.2.2.
Método de Gauss-Jordan
El método de Gauss-Jordan continúa el método de Gauss, haciendo operaciones elementales para
conseguir una matriz escalonada reducida que tiene unos por elementos principales y en las
columnas que contienen a dichos unos todos los demás elementos son cero.
Continuando con el
1 3 −2 0 2
 0 0 5 10 0


 0 0 0
0 0
0 0 0 0 0


1
0
0
0

1
0
0
0













1
0
0
0
sistema anterior

0 0
15 5 

 Hacemos 1 los elementos principales:
6 2 
F2 → 15 F2 y F3 → 16 F3 .
0 0
3 −2 0 2 0 0
0 1 2 0 3 1 

1 
0 0 0 0 1 3 
0 0 0 0 0 0

3 −2 0 2 0 0
0 1 2 0 0 0 

1 
0 0 0 0 1 3 
0 0 0 0 0 0

3
0
0
0
0
1
0
0
4
2
0
0
2
0
0
0
0 0
0 0 

1 
1 3 
0 0

Hay que hacer cero el 3 de F2 y C6 (a26 ):
F2 → F2 − 3F3 .
Hay que hacer cero el -2 de F1 y C3
(a13 ): F1 → F1 + 2F2 .



x1 = −3x2 − 4x4 − 2x5
Luego x3 = −2x4


x6 = 13
obteniéndose, naturalmente, las mismas soluciones que antes.
1.3.
1.3.1.
Matriz transpuesta. Inversa de una matriz
Matriz transpuesta
Definición 7.- Si A es una matriz m × n llamamos matriz transpuesta de A a la matriz At de
tamaño n × m que tiene por filas las columnas de A y por columnas las filas de A.
Matemáticas I
5
1.3 Matriz transpuesta. Inversa de una matriz
m
at
Proposición 8.- Se verifican las siguientes propiedades:
1. (At )t = A
2. (A + B)t = At + B t
3. (kA)t = kAt
4. (AB)t = B t At
(en general (A1 A2 · · · An )t = Atn · · · At2 At1 )
Definición 9.- Una matriz cuadrada A se dice simétrica si A = At , es decir, si aij = aji para todo
i,j. Se dice antisimétrica si A = −At , es decir, si aij = −aji para todo i,j.
1.3.2.
Matrices inversibles
Definición 10.- Si A es una matriz cuadrada de orden n, An×n , y existe Bn×n tal que AB = I
ó BA = I (en cuyo caso AB = BA = I), se dice que A es inversible y que B es inversa de A.
Si una matriz A tiene inversa, esta es única y se denotará por A−1 .
Proposición 11.- Las matrices elementales son inversibles y sus inversas son también elementales:
De intercambiar dos filas, intercambiarlas de nuevo.
De multiplicar una fila por k 6= 0, multiplicar esa fila por 1/k.
De sumar a una fila un múltiplo de otra, restar a esa fila el múltiplo sumado.
Teorema 12.- Si A y B son dos matrices inversibles, entonces AB es inversible y
(AB)−1 = B −1 A−1 .
Demostración:
Basta comprobarlo:
(AB)B −1 A−1 = A(BB −1 )A−1 = AA−1 = I.
−1 −1
En general (A1 A2 · · · Ak )−1 = A−1
k · · · A2 A1
Proposición 13 (Propiedades).1. (A−1 )−1 = A,
2. (An )−1 = (A−1 )n ,
3. Si k 6= 0 entonces (kA)−1 = k1 A−1 .
Definición 14.- Una matriz cuadrada, A, se dice ortogonal si A−1 = At .
Teorema 15.- Sea An×n una matriz. Son equivalentes:
a) A es inversible.
b) El sistema homogéneo asociado AX = 0 tiene solución única.
c) Por operaciones elementales en A puedo llegar a la identidad.
Corolario 16 (Cálculo de A−1 por el método de Gauss).- Si A es inversible ya vimos que
Ek · · · E2 E1 A = I, luego A−1 = Ek · · · E2 E1 . Puede fácilmente calcularse la inversa a partir de
las operaciones elementales, sin más que realizar sobre I las mismas operaciones elementales que
efectuemos sobre A para llegar a la identidad. Es decir,
Tomando (A|I) −→ efectuando las operaciones en A e I se llega a −→ (I|A−1 )
Matemáticas I
6
m
at
1.3 Matriz transpuesta. Inversa de una matriz
1.3.3.
Determinante de una matriz cuadrada
Definición 17.- Sea A ∈ Mn×n , llamaremos menor del elemento aij y lo denotaremos por Mij ,
al determinante de la submatriz que se forma al suprimir en A la fila i y la columna j. Al número
(−1)i+j Mij lo llamaremos cofactor del elemento aij y lo denotaremos por Cij .
Definición 18.- Sea A ∈ Mn×n . Se define el determinante de A, que denotaremos por det(A) ó det A
ó |A|, de la siguiente manera:
Si n = 1, det A = a11 .
Si n ≥ 2, det A = a11 C11 + a12 C12 + · · · + a1n C1n
Ejemplo 19.
1 2 3 5 6
4 5 6 = 1
8 9
7 8 9 −2
4 5
4 6 + 3
7 8
7 9 = 1(5 · 9 − 6 · 8) − 2(4 · 9 − 6 · 7) + 3(4 · 8 − 5 · 7) = 0
La definición de determinante que hemos dado utiliza los cofactores de la primera fila de la matriz,
pero podrı́amos haber utilizado cualquier otra fila o columna, como pone de manifiesto el siguiente
resultado
Teorema 20.- Sea A ∈ Mn×n entonces
det(A) =
n
X
aik Cik para cualquier fila i = 1, 2, . . . , n y
k=1
det(A) =
n
X
akj Ckj para cualquier columna j = 1, 2, . . . , n
k=1
Puesto que el resultado anterior permite el cálculo del determinante por cualquier fila o columna
de la matriz, elegiremos la que tenga más ceros.
Dos resultados inmediatos:
1. Si A es una matriz que tiene una fila o una columna de ceros, entonces |A| = 0.
2. Si A es una matriz triangular (superior o inferior) entonces |A| es el producto de los elementos
de la diagonal principal, |A| = a11 a22 · · · ann .
Cálculo de determinantes por reducción a la forma escalonada
Teorema 21 (de las operaciones elementales).- Sea An×n una matriz. Se tiene:
a) que si A′ es la matriz que resulta de multiplicar una fila de A por una constante k, entonces
det(A′ ) = k det(A).
b) que si A′ es la matriz que resulta de intercambiar dos filas de A, entonces
det(A′ ) = − det(A).
c) que si A′ es la matriz que resulta de sumar a una fila k un múltiplo de la fila i, entonces
det(A′ ) = det(A).
Matemáticas I
7
m
at
1.4 Rango de una matriz. Teorema de Rouché
Corolario 22.- Una matriz con dos filas iguales tiene determinante cero.
Demostración:
Sea B una matriz cuadrada que tiene la fila i y la fila k iguales, entonces por la parte b) anterior,
si intercambiamos las filas i y k que son iguales se obtiene que det(B) = − det(B) es decir que
det(B) = 0.
Lema 23.- Para An×n tenemos que: det(At ) = det(A) y det(kA) = k n det(A).
Teorema 24.- Si A y B son matrices cuadradas de orden n, entonces
det(AB) = det(A) · det(B).
Teorema 25.- Para An×n se cumple: A es inversible ⇔ det(A) 6= 0, en cuyo caso det(A−1 ) = det1(A) .
Regla de Cramer.
Teorema 26.- Sea AX = B, un sistema de n ecuaciones con n incógnitas, tal que A es inversible,
entonces el sistema tiene como única solución:
x1 =
1.4.
b1 a12 · · · a1n b2 a22 · · · a2n ..
.. . .
. . .. .
.
bn an2 · · · ann , x2 =
|A|
a11 b1
a21 b2
..
..
.
.
an1 bn
· · · a1n · · · a2n . ..
. .. · · · ann , . . . , xn =
|A|
a11 a12 · · · b1 a21 a22 · · · b2 ..
.. . .
. . .. .
.
an1 an2 · · · bn .
|A|
Rango de una matriz. Teorema de Rouché
Definición 27.- Se llama rango de una matriz Am×n , rang(A) ó rg(A), al máximo orden que resulta
de considerar todas las submatrices cuadradas de A, cuyo determinante es distinto de cero.
Resultan evidentes, estos resultados:
- Si A es m × n, entonces: rg(A) ≤ mı́n(m, n).
- Si A es m × n, entonces: rg(A) = rg(At ).
- Si A es n × n, entonces: rg(A) = n ⇐⇒ det(A) 6= 0.
Dado que el rango de una matriz no varı́a realizando en ella operaciones elementales puede también
definirse el rango como:
“el número de filas distintas de cero que aparecen en alguna de las formas escalonadas de
la matriz”.
Proposición 28.- Sea Am×n una matriz, y Mr×r una submatriz de A con determinante distinto de
cero. Entonces, si el determinante de todas las submatrices de orden r + 1 que se pueden conseguir
en A añadiendo una fila y una columna a M son cero, el rango de A es r.
Matemáticas I
8
m
at
1.4 Rango de una matriz. Teorema de Rouché
Este resultado permite encontrar el rango de una matriz buscando una submatriz de orden uno
con determinante distinto de cero; si ésta existe, buscamos una de orden 2 con determinante no nulo
que “orle” a la anterior (si esta no existe no será posible encontrar ninguna otra submatriz de orden
2 de determinante no nulo, por lo que el rango es 1); si existiese, buscarı́amos ahora una de orden 3
con determinante no nulo que orlase a esta última; y ası́ sucesivamente.
Teorema 29 (Teorema de Rouché).- Sea el sistema AX = B, sistema de m ecuaciones con n
incógnitas. Entonces: AX = B tiene solución si, y sólo si, rg(A) = rg(A|B). En caso de tener solución,
si rg(A) = r, toda solución puede expresarse en la forma: X = V0 + t1 V1 + t2 V2 + · · · + tn−r Vn−r ,
siendo V0 una solución particular de AX = B y los V1 , . . . , Vn−r soluciones del sistema homogéneo
asociado AX = 0.
Resumiendo:
Si rg(A) = r, entonces:
rg(A) = rg(A|B) =⇒ Sist. Compatible (con sol.)
(
r = n → Sist. Comp. Determinado.
r < n → Sist. Comp. Indeterminado.
rg(A) 6= rg(A|B) =⇒ Sist. Incompatible (no tiene solución)
Matemáticas I
9
Capı́tulo 2
Espacios vectoriales reales.
2.1.
Espacios vectoriales.
Definición 30.- Un espacio vectorial real V es un conjunto de elementos denominados vectores,
junto con dos operaciones, una que recibe el nombre de “suma de vectores” y otra que recibe el
nombre de “producto de vectores por números reales” o “producto por escalares”, que verifican las
siguientes propiedades:
1. u + v ∈ V ; ∀u, v ∈ V .
2. u + v = v + u; ∀u, v ∈ V .
3. u + (v + w) = (u + v) + w; ∀u, v, w ∈ V .
4. Existe un vector, llamado vector cero y denotado por 0, tal que: 0 + u = u + 0 = u; ∀u ∈ V .
5. Para cada vector u ∈ V , existe un vector de V , llamado opuesto de u y denotado por −u,
tal que u + (−u) = 0.
6. ku ∈ V ; ∀k ∈ IR y ∀u ∈ V .
7. k(u + v) = ku + kv; ∀k ∈ IR y ∀u, v ∈ V .
8. (k + l)u = ku + lu; ∀k, l ∈ IR y ∀u ∈ V .
9. (kl)u = k(lu); ∀k, l ∈ IR y ∀u ∈ V .
10. 1u = u; ∀u ∈ V .
Se pueden considerar espacios vectoriales sobre cuerpos distintos de IR, en particular suelen ser
interesantes los espacios vectoriales complejos.
Proposición 31.- Algunas propiedades que se deducen de las anteriores son:
1. 0u = 0.
2. k0 = 0.
3. (−1)u = −u.
10
2.2 Subespacios vectoriales.
m
at
4. ku = 0 ⇐⇒ k = 0 ó u = 0.
5. El vector cero de un espacio vectorial es único.
6. El vector opuesto de cada vector del espacio vectorial es único.
2.2.
Subespacios vectoriales.
Definición 32.- Un subconjunto W de un espacio vectorial V es un subespacio vectorial de V
si, W es por si solo un espacio vectorial con las operaciones definidas en V .
Para ver si un subconjunto W de un espacio vectorial V es subespacio vectorial, es condición necesaria
y suficiente que se verifiquen:
a) u + v ∈ W ; ∀u, v ∈ W
b) ku ∈ W ; ∀u ∈ W y ∀k ∈ IR
Estas dos propiedades son a su vez equivalentes a que se cumpla la propiedad:
ku + lv ∈ W ; ∀u, v ∈ W y ∀k, l ∈ IR.
Definición 33.- Se dice que un vector v ∈ V es combinación lineal de los vectores v 1 , v 2 , . . . , v n
si y sólo si ∃c1 , c2 , . . . , cn ∈ IR tales que v = c1 v 1 + c2 v 2 + · · · + cn v n .
Definición 34.- Dado un conjunto de vectores S = {v 1 , v 2 , . . . , v k } de un espacio vectorial V ,
podemos considerar el subespacio vectorial, W , más pequeño que contiene a S. Dicho subespacio, es
el conjunto de todas las combinaciones lineales que se pueden formar con los vectores del conjunto
S, y se denota por lin S ó lin{v 1 , v 2 , . . . , v k }, y se dirá que v 1 , v 2 , . . . , v k generan W .
Definición 35 (Independencia lineal).- Dado un conjunto S = {v 1 , v 2 , . . . , v k } de vectores del
espacio vectorial V , la ecuación vectorial c1 v 1 + c2 v 2 + · · · + ck v k = 0 tiene al menos una solución,
a saber: c1 = c2 = · · · = ck = 0. Si esta solución es única, entonces se dice que S es un conjunto
linealmente independiente, (o que los vectores de S son linealmente independientes). Si existen
otras soluciones, entonces se dice que S es linealmente dependiente, (los vectores son linealmente
dependientes).
Se tiene la siguente caracterización para que un conjunto de dos o más vectores sea linealmente
dependiente:
“Un conjunto de dos o más vectores es linealmente dependiente si, y sólo si, al menos uno
de los vectores es una combinación lineal de los restantes.”
2.3.
Base y dimensión.
Definición 36.- Si V es un espacio vectorial y S = {v 1 , . . . , v n } es un conjunto finito de vectores
de V , diremos que S es una base de V si:
a) S es linealmente independiente, y
Matemáticas I
11
2.4 El espacio vectorial IRn
m
at
b) S genera a V .
Se podrı́a pensar que dos bases de un mismo espacio vectorial pudieran tener un número distinto de
vectores, pero no es ası́, como nos asegura el teorema siguiente:
Proposición 37.- Sean V un espacio vectorial y B una base de V formada por n vectores. Entonces
cualquier conjunto {v 1 , v 2 , . . . , v m } de vectores de V , con m > n, es linealmente dependiente.
Teorema 38 (Teorema de la base).- Cualesquiera dos bases de un espacio vectorial tienen el
mismo número de elementos.
Definición 39.- Un espacio vectorial V se dice de dimensión finita si contiene un conjunto finito
de vectores que forman una base.
Si no existe un conjunto de este tipo, se dice que V es de dimensión infinita.
Al espacio vectorial {0} le consideramos de dimensión finita, aún cuando no tiene conjuntos
linealmente independientes.
Si un espacio vectorial V es de dimensión finita, teniendo en cuenta el teorema de la base, diremos
que la dimensión de V , dim V , es el número de vectores de cualquier base de V .
Proposición 40.- Si V es un espacio vectorial de dimensión finita, con dim V = n, entonces:
a) un conjunto de n vectores de V es base de V , si el conjunto es linealmente independiente o si
genera a V .
b) a un conjunto de r vectores de V linealmente independiente, con r < n, se le pueden agregar
n − r vectores hasta formar una base de V .
2.4.
El espacio vectorial IRn
Es frecuente representar el conjunto de los números reales, IR, mediante el conjunto de puntos de
una recta en la que se ha definido un sistema de referencia (un origen, un sentido, y una unidad de
medida). Esta representación nos permite identificar gráficamente cada número real con un punto de
la recta, y viceversa.
También es conocida la representación de IR2 = IR × IR mediante el conjunto de los puntos de
un plano en el que se ha definido un sistema de coordenadas cartesianas (dos rectas perpendiculares
entre sı́ en las que se definen dos sistemas de referencia que tienen en común el punto origen, y la
unidad de medida). En este caso, se identifican pares de números reales, (x, y), con puntos del plano.
Análogamente se identifican ternas de números reales (x, y, z) con puntos del espacio en el que se
ha definido un sistema de coordenadas cartesianas (tres rectas perpendiculares entre sı́ . . . ). De esta
forma se establece una biyección entre el conjunto IR3 = IR × IR × IR y el conjunto de los puntos del
espacio tridimensional.
Aunque no sea identificable con una representación gráfica, nada impide considerar n-úplas de
números reales (x1 , x2 , . . . , xn ), con n ≥ 4. De este modo, llamaremos espacio n-dimensional, IRn ,
al conjunto
IRn = IR × IR × · · · × IR = {(x1 , . . . , xn ) : xi ∈ IR; ∀i = 1, . . . , n.}.
Utilizaremos la notación x para designar más brevemente al punto (x1 , . . . , xn ) de IRn . En este
caso, al número real xi lo llamaremos coordenada o componente i-ésima del punto o vector x.
Matemáticas I
12
m
at
2.4 El espacio vectorial IRn
Está claro que lo más frecuente es trabajar con IR2 ó IR3 , pero también es cierto que los casos
en que n > 3 se presentan con suficiente frecuencia en la práctica como para justificar su estudio.
Nos encontramos con un espacio n-dimensional cada vez que consideremos un objeto cuyo estudio
requiera contemplar n aspectos distintos susceptibles de variación.
Definición 41 (Igualdad de puntos).- Diremos que dos puntos x = (x1 , . . . , xn ) e
y = (y1 , . . . , yn ) de IRn son iguales, y escribiremos x = y si y sólo si xi = yi; ∀i = 1, . . . , n.
Definición 42 (Suma de puntos).- Llamaremos suma de dos puntos x, y ∈ IRn , y lo representaremos por x + y, al punto:
x + y = (x1 + y1 , . . . , xn + yn )
Definición 43 (Producto por escalares).- Llamaremos producto del punto x ∈ IRn por el
número real λ ∈ IR, y lo denotaremos por λx, al punto:
λx = λ(x1 , . . . , xn ) = (λx1 , . . . , λxn )
Estas dos operaciones dotan a IRn de una estructura de espacio vectorial. Por esta razón, llamaremos también vectores a los puntos de IRn .
El espacio vectorial IRn tiene dimensión n, y cualquier vector puede escribirse de la forma
(x1 , x2 , . . . , xn ) = x1 (1, 0, . . . , 0) + x2 (0, 1, . . . , 0) + · · · + xn (0, 0, . . . , 1).
El conjunto de los vectores
B = {e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, 0, . . . , 1)},
se denomina base canónica de IRn , y es la base más sencilla y cómoda, en general.
Evidentemente, existen otras operaciones que pueden dotar a IRn de estructura de espacio vectorial, pero las aquı́ definidas son las más usuales ya que supone trabajar con ellas a nivel geométrico
en los casos IR2 y IR3 .
Otros ejemplos de espacios vectoriales son:
1. El conjunto de todas las matrices de tamaño m × n con elementos reales, junto con las operaciones de suma de matrices y producto de números reales por matrices, ya indicadas. La
dimensión de este espacio Mm×n es mn y una base es















0 ...
0 ...
..
. ...
0 0 ...
1
0
..
.
0
0
..
.
0
 
 
 
,
 
 
1 ...
0 ...
..
. ...
0 0 ...
0
0
..
.
0
0
..
.
0






,...,




0 ...
0 ...
..
. ...
0 0 ...
0
0
..
.
0
0
..
.
1












2. El conjunto de todos los polinomios de grado menor o igual que n con coeficientes reales, junto
con las operaciones de suma y producto de números reales, ya conocidas. La dimensión de este
espacio Pn (IR) es n + 1 y una base es {1, x, x2 , . . . , xn }
3. El conjunto de las funciones f : IR −→ IR con las operaciones
a) (f + g)(x) = f (x) + g(x); ∀f, g: IR −→ IR
b) (kf )(x) = kf (x); ∀k ∈ IR y ∀f : IR −→ IR
Matemáticas I
13
2.5 Espacios de las filas y las columnas de una matriz. Coordenadas.
2.5.
m
at
Espacios de las filas y las columnas de una matriz. Coordenadas.
Definición 44.- Consideremos la matriz Am×n ,
A=






a11
a21
..
.
a12
a22
..
.
. . . a1n
. . . a2n
.
. . . ..
am1 am2 . . . amn



.


Los m vectores r 1 = (a11 , . . . , a1n ), r 2 = (a21 , . . . , a2n ), . . . , r m = (am1 , . . . , amn ) ∈ IRn , se denominan
vectores fila de A y el subespacio vectorial de IRn generado por ellos, Ef (A) = lin{r1 , r2 , . . . , rm },
espacio de las filas de A.
Los n vectores c1 = (a11 , . . . , am1 ), c2 = (a12 , . . . , am2 ), . . . , cn = (a1n , . . . , amn ) ∈ IRm , se denominan vectores columna de A y el subespacio vectorial de IRm generado por ellos, Ec (A) =
lin{c1 , c2 , . . . , cn }, espacio de las columnas de A.
Proposición 45.- Si A es una matriz de tamaño m × n, entonces las operaciones elementales sobre
las filas (resp. columnas) de A no cambian el espacio de las filas (resp. columnas) de A.
Corolario 46.- Sea A una matriz, entonces:
1. Los vectores no nulos en la forma escalonada de la matriz A, forman una base del espacio de
las filas de A.
2. Los vectores no nulos en la forma escalonada de la matriz At , forman una base del espacio de
las columnas de A.
Teorema 47.- Sea A una matriz de tamaño m × n, entonces:
dim(Ef (A)) = dim(Ec (A)).
Resultado inmediato teniendo en cuenta que rg(A) = rg(At ), y que el rango de una matriz coincide
con el número de vectores no nulos en la forma escalonada, ası́ como el resultado anterior.
Definición 48.- Dado un espacio vectorial V de dimensión finita y B = {v 1 , v 2 , . . . , v n } una base
de V , para cada vector v ∈ V existen unos únicos números reales c1 , c2 , . . . , cn tales que v =
c1 v 1 + c2 v 2 + · · · + cn v n . Estos números se denominan coordenadas de v relativas a la base B.
El vector de coordenadas de v relativo a la base B se denota mediante (v)B y es el vector de IRn :
(v)B = (c1 , c2 , . . . , cn ). La matriz de coordenadas
de v relativas a la base B se denota por [v]B y


c1


 c2 
t

es la matriz n × 1 definida por: [v]B = (v)B =  .. 
.
 . 
cn
Matemáticas I
14
m
at
2.6 Cambios de base.
2.6.
Cambios de base.
Definición 49.- Sean B = {u1 , u2 , . . . , un } y B ′ = {v 1 , v 2 , . . . , v n } son bases de un espacio vectorial
V . Recibe el nombre de matriz de transición o matriz de cambio de la base B a la base B ′ , la
matriz de dimensiones n × n, que por columnas es
P =
[u1 ]B′ [u2 ]B′ · · · [un ]B′
= M(B → B ′ ),
es decir, la columna i-ésima está constituida por las coordenadas del vector ui en la base B ′ .
Proposición 50.- Sea P la matriz de paso de una base B a otra base B ′ para un espacio vectorial
V . Entonces:
1. ∀x ∈ V se tiene que [x]B′ = P · [x]B .
2. P es inversible y su inversa, P −1 , es la matriz de paso de la base B ′ a la base B.
2.7.
2.7.1.
Espacios vectoriales con producto interior.
Producto interior. Norma. Distancia
Definición 51.- Un producto interior en un espacio vectorial real V es una función que a cada
par de vectores u, v ∈ V le asocia un número real, que denotaremos por hu, vi, de tal manera que
se cumplen las siguientes propiedades:
1. hu, vi = hv, ui; ∀u, v ∈ V .
2. hu + v, wi = hu, wi + hv, wi; ∀u, v, w ∈ V .
3. hku, vi = khu, vi; ∀u, v ∈ V y ∀k ∈ IR.
4. hu, ui ≥ 0; ∀u ∈ V y hu, ui = 0 ⇐⇒ u = 0.
Otra propiedades que se deducen de las anteriores son:
1. h0, ui = 0
2. hu, v + wi = hu, vi + hu, wi
3. hu, kvi = khu, vi
A partir de un producto interior sobre un espacio vectorial V se definen los conceptos de norma,
distancia y ángulo.
Definición 52.- Si V es un espacio vectorial con producto interior, entonces la norma o longitud
de un vector v ∈ V se denota mediante kvk y se define como
q
kvk = + hv, vi.
La distancia entre dos vectores u y v de V se denota mediante d(u, v) y se define como
q
d(u, v) = ku − vk = + hu − v, u − vi.
Matemáticas I
15
m
at
2.7 Espacios vectoriales con producto interior.
Teorema 53 (Desigualdad de Cauchy-Schwarz).- Para todo u, v ∈ V , espacio con producto
interior, se tiene que
hu, vi2 ≤ kuk2 kvk2 .
Definición 54.- Si u y v son vectores, distintos de cero, de un espacio con producto interior, entonces, como consecuencia de la desigualdad de Cauchy-Schwarz se tiene que
−1 ≤
hu, vi
≤1
kuk · kvk
y por tanto existe un único ángulo, θ, tal que
cos θ =
hu, vi
, con 0 ≤ θ ≤ π
kuk · kvk
Definición 55.- En un espacio vectorial con producto interior, V , dos vectores u y v se dicen
ortogonales si hu, vi = 0.
Además, si u ∈ V es ortogonal a todos los vectores de un conjunto W , se dice que u es ortogonal
a W.
Proposición 56 (Propiedades básicas de la norma).1. kuk ≥ 0; ∀u ∈ V
2. kuk = 0 ⇐⇒ u = 0
3. kkuk = |k| · kuk; ∀u ∈ V y ∀k ∈ IR
4. ku + vk ≤ kuk + kvk; ∀u, v ∈ V
Proposición 57 (Propiedades básicas de la distancia).1. d(u, v) ≥ 0; ∀u, v ∈ V
2. d(u, v) = 0 ⇐⇒ u = v
3. d(u, v) = d(v, u); ∀u, v ∈ V
4. d(u, v) ≤ d(u, w) + d(w, v); ∀u, v, w ∈ V
2.7.2.
El espacio euclı́deo n-dimensional: IRn
Sobre el espacio vectorial IRn definimos la siguiente función
IRn × IRn −→ IR
(x, y) −→ x · y = x1 y1 + · · · + xn yn =
n
X
xi yi
i=1
siendo x = (x1 , . . . , xn ) e y = (y1 , . . . , yn ).
Como puede verse fácilmente dicha función es un producto interior, el que se conoce como producto interior euclı́deo. Este producto interior da lugar a las conocidas como norma y distancia
euclı́deas.
Se llama espacio euclı́deo n-dimensional a IRn con las operaciones de suma, producto por
escalares y producto interior definidos.
El producto interior euclı́deo, aquı́ definido, constituye una generalización a IRn del producto
escalar definido, y bien conocido, en IR2 y IR3 .
Matemáticas I
16
2.7 Espacios vectoriales con producto interior.
m
at
Teorema 58 (Generalización del Teorema de Pitágoras).- Si u y v son dos vectores ortogonales de un espacio vectorial con producto interior, entonces
ku + vk2 = kuk2 + kvk2 .
Este resultado de fácil demostración, se reduce en IR2 con el producto interior euclı́deo, al conocido
teorema de Pitágoras.
2.7.3.
Bases ortonormales. Proceso de Gram-Schmidt
Definición 59.- Sean V un espacio vectorial de dimensión n con producto interior y
B = {v 1 , v 2 , . . . , v n } una base de V . Se dice que B es una base ortonormal de V si kv i k = 1,
∀i = 1, . . . , n y hv i , v j i = 0; ∀i, j = 1, . . . , n con i 6= j.
La ventaja de trabajar con bases ortonormales es muy grande como ya es conocido en IR2 ó IR3 .
Teorema 60.- Si B = {v 1 , v 2 , . . . , v n } es una base ortonormal para un espacio, V , con producto
interior, entonces ∀v ∈ V se tiene que:
v = hv, v 1 iv 1 + hv, v 2 iv 2 + · · · + hv, v n iv n ,
es decir, (v)B = (hv, v 1 i, hv, v 2 i, . . . , hv, v n i).
Teorema 61.- Si S = {v 1 , v 2 , . . . , v k } un conjunto finito de vectores no nulos, ortogonales dos a
dos, entonces S es linealmente independiente.
Teorema 62.- Si P es la matriz de paso de una base ortonormal B a otra base ortonormal B ′ ,
entonces P es una matriz ortogonal (es decir, P t = P −1 ).
Teorema 63.- Sean V un espacio vectorial con producto interior y S = {v 1 , v 2 , . . . , v k } un conjunto
finito ortonormal de vectores de V . Sea W = lin S, entonces cualquier v ∈ V se puede expresar de
forma única como v = w 1 + w2 , donde w1 ∈ W viene dado por w1 = hv, v 1 iv 1 + hv, v2 iv 2 + · · · +
hv, v k iv k y w 2 es ortogonal a W (lógicamente w 2 = v − w 1 ).
A w 1 se le llama proyección ortogonal de v sobre W y se le denota por ProyW v. Al vector
w2 se le llama componente ortogonal de v sobre W .
Teorema 64 (Proceso de ortonormalización de Gram-Schmidt).- Sean V un espacio vectorial con producto interior de dimensión finita y B = {v 1 , v2 , . . . , vn } una base de V . Vamos a describir
un proceso para conseguir a partir de la base B una base ortonormal B ′ = {u1 , u2 , . . . , un }. Este
proceso de ortonormalización es el de Gram-Schmidt y se basa en el teorema anterior.
Demostración:
1a etapa.- Tomamos u1 =
Matemáticas I
v1
, que tiene norma 1.
kv 1 k
17
2.7 Espacios vectoriales con producto interior.
m
at
2a etapa.- Sea W1 = lin{u1 }, aplicando el teorema anterior, sabemos que el vector
u2 =
v 2 − ProyW1 v 2
v 2 − hv 2 , u1 iu1
=
kv 2 − ProyW1 v 2 k
kv 2 − hv 2 , u1 iu1 k
es ortogonal a W1 y en particular a u1 , y además tiene norma 1. El único problema que se plantea es si
v1
v 2 −hv 2 , u1 iu1 = 0, pero ésto no es posible puesto que en ese caso 0 = v 2 − hv 2 , u1 iu1 = v 2 − hv 2 , u1 i
=
kv 1 k
hv 2 , v 1 i
λ1 v 1 + λ2 v 2 ; para λ1 = −
, λ2 = 1 y {v 1 , v 2 } serı́a un conjunto linealmente dependiente, lo
kv 1 k2
que es absurdo por ser B = {v1 , v 2 , . . . , v n } una base de V .
3a etapa.- Sea W2 = lin{u1 , u2 }, aplicando el teorema anterior, sabemos que el vector
u3 =
v 3 − ProyW2 v 3
v 3 − hv 3 , u1 iu1 − hv 3 , u2 iu2
=
kv 3 − ProyW2 v 3 k
kv3 − hv 3 , u1 iu1 − hv 3 , u2iu2 k
es ortogonal a W2 y en particular a u1 y u2 , y además tiene norma 1. El único problema que se
plantea es si v 3 − hv 3 , u1 iu1 − hv 3 , u2 iu2 = 0, pero ésto no es posible puesto que en ese caso
0 = v 3 − hv3 , u1 iu1 − hv 3 , u2 iu2 =
v1
v 2 − hv 2 , u1 iu1
= v 3 − hv3 , u1 i
− hv3 , u2 i
= λ1 v 1 + λ2 v 2 + λ3 v 3 ;
kv 1 k
kv 2 − hv 2 , u1 iu1 k
y como λ3 = 1, {v 1 , v 2 , v 3 } serı́a un conjunto linealmente dependiente, lo que es absurdo por ser
B = {v 1 , v2 , . . . , vn } una base de V .
Continuando con el proceso se va construyendo un conjunto ortonormal de n vectores no nulos, B ′ =
{u1 , u2 , . . . , un }. Dado que dim V = n y que todo conjunto ortonormal es linealmente independiente,
se concluye que B ′ es una base ortonormal de V .
Matemáticas I
18
Capı́tulo 3
Aplicaciones lineales
Definición 65.- Sea f : V −→ W una aplicación entre los espacios vectoriales reales V y W . Se dice
que f es una aplicación lineal si:
1. f (u + v) = f (u) + f (v); ∀u, v ∈ V
2. f (ku) = kf (u); ∀u ∈ V , ∀k ∈ IR
Las dos propiedades se pueden reunir en una sola:
f (ku + lv) = kf (u) + lf (v);
∀u, v ∈ V,
∀k, l ∈ IR
En general, se tiene que:
f (k1 u1 + k2 u2 + · · · + kr ur ) = k1 f (u1 ) + k2 f (u2 ) + · · · + kr f (ur )
∀u1 , u2 . . . . , ur ∈ V,
∀k1 , k2, . . . , kr ∈ IR
Si una aplicación f : V −→ W es lineal y biyectiva, se dice que f es un isomorfismo entre los
espacios V y W .
Si V = W , entonces la aplicación lineal f : V −→ V recibe el nombre de operador lineal o
endomorfismo. Y si f es además biyectiva se dice que f es un automorfismo.
3.1.
Propiedades de las aplicaciones lineales. Núcleo e imagen.
Proposición 66.- Si f : V −→ W es una aplicación lineal, entonces:
1. f (0V ) = 0W ; 0V , 0W son los ceros de V y W .
2. f (−v) = −f (v); ∀v ∈ V .
Definición 67.- Dada una aplicación lineal f : V −→ W , se define el núcleo de f , que se denota
por Ker(f ) ó Ker f , como el conjunto:
Ker f = {v ∈ V : f (v) = 0}
y se define la imagen de f , que se denota por Im(f ) ó Im f , como el conjunto
Im f = {w ∈ W : ∃v ∈ V tal que f (v) = w}
19
m
at
3.2 Aplicaciones matriciales
Es sencillo probar que Ker f es un subespacio vectorial de V e Im f es subespacio vectorial de W .
Definición 68.- Si f : V −→ W es una aplicación lineal, entonces la dimensión del núcleo se denomina la nulidad de f y la dimensión de la imagen de f se denomina el rango de f .
Si f : V −→ W es una aplicación lineal y B = {v 1 , v 2 , . . . , v n } es una base de V , la aplicación
lineal queda perfectamente determinada si conocemos las imágenes por f de los vectores de la base
B, ya que para todo v ∈ V existen k1 , k2 , . . . , kn ∈ IR únicos, tales que v = k1 v 1 + k2v 2 + · · · + kn v n ,
con lo que
f (v) = f (k1 v 1 + k2 v 2 + · · · + kn v n ) = k1 f (v 1 ) + k2 f (v 2 ) + · · · + kn f (v n )
Nótese, que de ésto se deduce que Im f = lin{f (v1 ), f (v2 ), . . . , f (v n )}
Teorema 69 (de la dimensión).- Si f : V −→ W es una aplicación lineal, con V un espacio vectorial de dimensión n, entonces:
dim(Ker f ) + dim(Im f ) = n = dim(V )
3.2.
Aplicaciones matriciales
Consideremos la aplicación f : IRn −→ IRm definida por f (x) = Ax, siendo A una matriz fija
m × n y x ∈ IRn , x = (x1 , x2 , . . . , xn )t .
Como consecuencia de las operaciones sobre las matrices, la aplicación es lineal. A este tipo de
aplicaciones se les denomina aplicaciones matriciales.
El estudio de estas aplicaciones es fundamental ya que, como veremos, todas las aplicaciones
lineales entre espacios vectoriales de dimensión finita acaban siendo aplicaciones matriciales al usar
coordenadas.
El núcleo de estas aplicaciones será:
Ker f = {x ∈ IRn : Ax = 0},
es decir, el conjunto de soluciones del sistema homogéneo Ax = 0.
La imagen de f coincide con el espacio de las columnas de la matriz A, Ec (A), pues
b ∈ Im(f ) ⇐⇒ ∃x ∈ IRn : Ax = b
Matemáticas I
20
m
at
3.3 Matrices que representan aplicaciones lineales
es decir, si tiene solución el sistema
a11
a21
..
.









⇐⇒ 
⇐⇒
3.3.


x1 


a11
a21
..
.
am1
· · · a1n
· · · a2n
.
· · · ..
am1 am2 · · · amn


a12
a22
..
.







x1
x2
..
.






xn
=
a11 x1 + a12 x2 + · · · + a1n xn
a21 x1 + a22 x2 + · · · + a2n xn
············
am1 x1 + am2 x2 + · · · + amn xn





 + x2 




a12
a22
..
.
am2

a1n
a2n
..
.





 + · · · + xn 




amn

















b1
b2
..
.
bm



=


=












⇐⇒
b1
b2
..
.
bm
b1
b2
..
.
bm












⇐⇒
⇐⇒ b ∈ Ec (A)
Matrices que representan aplicaciones lineales
Veremos que toda transformación o aplicación lineal entre espacios vectoriales de dimensión finita,
se puede considerar como una aplicación matricial.
Aplicaciones lineales de IRn en IRm
3.3.1.
Proposición 70.- Si f : IRn −→ IRm es una aplicación lineal, entonces f es una aplicación matricial
(es decir existe una matriz A tal que f (x) = Ax).
Demostración:
Sea B = {e1 , e2 , . . . , en } la base canónica de IRn , y sea A la matriz m × n que tiene a los vectores
f (e1 ), f (e2 ), . . . , f (en ) de IRm como sus vectores columna. Vamos a probar que f (x) = Ax; ∀x ∈ IRn .
Se tiene que x = (x1 , x2 , . . . , xn ) = x1 e1 + · · · + xn en y por la linealidad de f ,
f (x) = x1 f (e1 ) + · · · + xn f (en ).
Por otra parte
Ax =
=



x1 


a11
a21
..
.






a12
a22
..
.
· · · a1n
· · · a2n
.
· · · ..
am1 am2 · · · amn
a11
a21
..
.
am1






 + x2 




a12
a22
..
.
am2







x1
x2
..
.
xn











 + · · · + xn 








=
a1n
a2n
..
.
amn
a11 x1 + a12 x2 + · · · + a1n xn
a21 x1 + a22 x2 + · · · + a2n xn
············
am1 x1 + am2 x2 + · · · + amn xn











=
= x1 f (e1 ) + · · · + xn f (en ) = f (x)
Luego efectivamente, f (x) = Ax, para A definida como indicamos.
A esta matriz A se la llama matriz estándar de f .
Matemáticas I
21
m
at
3.3 Matrices que representan aplicaciones lineales
3.3.2.
Aplicaciones lineales entre espacios cualesquiera
Vamos ahora a demostrar que a cualquier aplicación lineal f : V −→ W , con dim V = n y dim W =
m, se le puede asociar una aplicación matricial.
Sean B = {v 1 , v 2 , . . . , v n } una base del espacio V y B ′ = {w1 , w 2 , . . . , wm } una base de W .
Todo v ∈ V se escribe de forma única como combinación lineal de los vectores de la base,
v = k1 v 1 + k2 v 2 + · · · + kn v n , luego f (v) = k1 f (v 1 ) + k2 f (v 2 ) + · · · + kn f (v n ). Supongamos que
conocemos las imágenes de f (v 1 ), f (v 2 ), . . . , f (v n ) expresadas en la base B ′ ,
f (v 1 ) = a11 w 1 + a21 w 2 + · · · + am1 w m
f (v 2 ) = a12 w 1 + a22 w 2 + · · · + am2 w m

·····················



f (v n ) = a1n w 1 + a2n w 2 + · · · + amn w m





por tanto
f (v) = k1 (a11 w 1 + a21 w 2 + · · · + am1 w m ) + k2 (a12 w 1 + a22 w 2 + · · · + am2 w m )
+ · · · · · · · · · · · · · · · · · · + kn (a1n w 1 + a2n w 2 + · · · + amn w m )
= (k1 a11 + k2 a12 + · · · + kn a1n )w 1 + (k1 a21 + k2 a22 + · · · + kn a2n )w 2
+ · · · · · · · · · · · · · · · · · · + (k1 am1 + k2 am2 + · · · + kn amn )wm
que expresado en coordenadas
[f (v)]B′ =





k1 a11 + k2 a12 + · · · + kn a1n
k1 a21 + k2 a22 + · · · + kn a2n
···············
k1 am1 + k2 am2 + · · · + kn amn





=






a11
a21
..
.
a12
a22
..
.
· · · a1n
· · · a2n
.
· · · ..
am1 am2 · · · amn






k1
k2
..
.
kn






Luego, hemos encontrado que
[f (v)]B′ =
[f (v 1 )]B′ [f (v 2 )]B′ · · · [f (v n )]B′
[v]B = A[v]B
Por tanto fijadas las bases B y B ′ en los espacios V y W , a cada aplicación lineal f se le puede
asociar una única matriz, Am×n , que recibe el nombre de matriz de f respecto de las bases B y
B ′ , A = M(f ; B, B ′ ).
Si tenemos un operador lineal f : V −→ V y consideramos que tenemos la misma base B en el
espacio de partida y en el de llegada, entonces se habla de matriz de f respecto de la base
B,A = M(f ; B).
Si nos dicen que la matriz Am×n es la matriz de la aplicación lineal f : V −→ W respecto de las
bases B y B ′ . ¿Cómo calcularemos Ker f e Im f ?
Cálculo de Ker f
Ker f = {v ∈ V : f (v) = 0} = {v ∈ V : [f (v)]B′ = [0]B′ } = {v ∈ V : A[v]B = [0]B′ }
Luego para calcular Ker f hallaremos las soluciones del sistema homogéneo Ax = 0, y esas
soluciones constituirán las coordenadas de los vectores del Ker f en la base B. El paso de coordenadas
a vectores es inmediato.
Matemáticas I
22
m
at
3.4 Composición de aplicaciones lineales
Cálculo de Im f
Hemos visto que Im f = lin{f (v 1 ), f (v 2 ), . . . , f (vn )} luego para calcular una base de la imagen
hay que encontrar una base de ese subespacio. Pero un conjunto de vectores de un espacio vectorial
es base si lo es el conjunto formado por los vectores de coordenadas (ejercicio 2.??), luego basta
con encontrar una base para el espacio de las columnas de la matriz A. Por tanto, se verifica que
rg(f ) = rg(A).
3.4.
Composición de aplicaciones lineales
Definición 71.- Sean f : V −→ W y g: W −→ U aplicaciones lineales. Llamaremos aplicación
compuesta de f y g, a la aplicación g ◦ f : V −→ U definida por
(g ◦ f )(v) = g(f (v)),
∀v ∈ V.
Proposición 72.- Sean f : V −→ W y g: W −→ U aplicaciones lineales, con dim V = n, dim W = m
y dim U = p, y sean B, B ′ y B ′′ bases de V , W y U, respectivamente. Entonces:
a) g ◦ f es una aplicación lineal.
b) Si Am×n es la matriz asociada a f respecto de las bases B y B ′ , y Cp×m es la matriz asociada
a g respecto de las bases B ′ y B ′′ , entonces CA es la matriz asociada a g ◦ f respecto de las
bases B y B ′′ .
Demostración:
a) (g ◦ f )(ku + lv) = g(f (ku + lv)) = g(kf (u) + lf (v)) = kg(f (u)) + lg(f (v)) = k(g ◦ f )(u) +
l(g ◦ f )(v).
b) Teniendo en cuenta que [g(w)]B′′ = C[w]B′ y [f (v)]B′ = A[v]B ,
[(g ◦ f )(v)]B′′ = [g(f (v))]B′′ = C[f (v)]B′ = CA[v]B ;
3.5.
∀v ∈ V
Teorema de Semejanza
Teorema 73.- Sean f : V −→ V , con dim V = n, un operador lineal, A la matriz de f respecto de
la base B de V y A′ la matriz de f respecto de la base B ′ . Entonces
A′ = P −1 AP
siendo P la matriz de paso de la base B ′ a la base B.
Demostración:
A′ [v]B′ = [f (v)]B′ = P −1 [f (v)]B = P −1 A[v]B = P −1 AP [v]B′
Como lo verifica para todo v ∈ V , (ejercicio 1.??) se llega a que A′ = P −1 AP .
Este resultado es un caso particular del siguiente más general:
Matemáticas I
23
3.5 Teorema de Semejanza
m
at
Teorema 74 (Teorema de semejanza).- Si f : V −→ W es una aplicación lineal, A la matriz de
la aplicación f respecto de las bases B1 de V y B2 de W y A′ es la matriz de f respecto de las bases
B1′ de V y B2′ de W , entonces
A′ = QAP
siendo P la matriz de paso de la base B1′ a la base B1 y Q la matriz de paso de B2 a B2′ .
Definición 75.- Dadas dos matrices A y B de orden n se dice que A y B son semejantes si, y sólo
si existe una matriz P inversible tal que B = P −1 AP .
Proposición 76.- Dos matrices A y B son semejantes si y sólo si representan al mismo operador
lineal respecto a dos bases.
Demostración:
⇐=) Es el Teorema de Semejanza.
=⇒) A y B son semejantes ⇐⇒ ∃P inversible tal que B = P −1 AP .
Consideremos el operador lineal f : IRn −→ IRn definido por f (x) = Ax, luego A es la matriz de
f respecto de la base canónica. P es inversible luego sus columnas forman una base de IRn , y por
tanto P es la matriz de paso de la base formada por las columnas de P a la base canónica. Por el
Teorema de Semejanza B = P −1AP es la matriz de f respecto a esa base y A y B representan al
mismo operador lineal respecto a bases distintas.
Como consecuencia de este resultado se tiene también que si A y B son semejantes, entonces
tienen el mismo rango.
Matemáticas I
24
Capı́tulo 4
Diagonalización
4.1.
Introducción. Valores y vectores propios.
Planteamiento del problema.
Problema general de diagonalización. Dado un operador lineal f sobre un espacio vectorial V
de dimensión n, nos planteamos el problema de cuándo es posible encontrar una base de V respecto de
la cuál la matriz de f sea diagonal. Si A es la matriz del operador f con respecto a una determinada
base entonces el planteamiento anterior es equivalente a preguntarse cuándo existe un cambio de
base tal que la matriz del operador en la nueva base sea diagonal. Esa nueva matriz sabemos que
viene dada por P −1AP , donde P es la matriz de paso de la nueva base a la anterior (Teorema de
Semejanza).
Problema de la diagonalización ortogonal. Dado un operador lineal f sobre un espacio vectorial V con producto interior y de dimensión n, nos planteamos el problema de cuándo es posible
encontrar una base ortonormal de V respecto de la cuál la matriz de f sea diagonal. Si V es un
espacio con producto interior y las bases son ortonormales entonces se tendrá que P será ortogonal.
Podemos pues formular los dos problemas anteriores en términos de matrices.
Problema 1. Dada una matriz cuadrada A, ¿existe una matriz P inversible tal que P −1 AP sea
diagonal?
Problema 2. Dada una matriz cuadrada A, ¿existe una matriz ortogonal P tal que P t AP sea
diagonal?
Definición 77.- Se dice que una matriz A cuadrada es diagonalizable si existe una matriz P
inversible tal que P −1 AP es diagonal. En ese caso se dice que P diagonaliza a la matriz A.
Si existe una matriz ortogonal P tal que P −1 AP es diagonal, entonces se dice que A es diagonalizable ortogonalmente y que P diagonaliza ortogonalmente a A.
Diagonalización
Supongamos que la matriz An×n es diagonalizable, es decir que existe P inversible tal que
P AP = D, con D diagonal.
−1
25
m
at
4.1 Introducción. Valores y vectores propios.
Esto es equivalente a que exista P inversible tal que AP = P D para cierta matriz D diagonal,
luego


 



AP = P D = 


p11 p12
p21 p22
..
..
.
.
pn1 pn2
· · · p1n
λ1

· · · p2n 
 0
. 
..
 .
. .. 
  ..
· · · pnn
0
0 ···
λ2 · · ·
.. . .
.
.
0 ···
0
0
..
.
λn
λ1 p11 λ2 p12 · · · λn p1n


=



 λ1 p21 λ2 p22 · · · λn p2n
 .
..
..
..
 .
.
.
.
 .
λ1 pn1 λ2 pn2 · · · λn pnn





Si llamamos p1 , p2 , . . . , pn a los vectores columnas de P , como las columnas de la matriz AP y las
correspondientes de la matriz P D han de coincidir, lo anterior puede escribirse de la forma
Ap1 = λ1 p1 ,
Ap2 = λ2 p2 ,
...,
Apn = λn pn ,
es decir, han de existir n vectores pi y n números reales λi tales que Api = λi pi , para los i = 1, . . . , n.
Como la matriz P es inversible, los vectores pi son distintos del 0 y linealmente independientes.
Definición 78.- Si A es una matriz cuadrada de orden n, diremos que λ es un valor propio, valor
caracterı́stico o autovalor de A si existe un p ∈ IRn , p 6= 0, tal que Ap = λp.
Del vector p diremos que es un vector propio, vector caracterı́stico o autovector de A
correspondiente al valor propio λ.
Teorema 79.- Si A es una matriz de orden n, las siguientes proposiciones son equivalentes:
a) λ es un valor propio de A.
b) El sistema de ecuaciones (A − λI)x = 0 tiene soluciones distintas de la trivial.
c) det(A − λI) = 0.
Demostración:
λ es un valor propio de A ⇐⇒ existe un vector x ∈ IRn diferente de cero, tal que Ax = λx
⇐⇒ el sistema (A − λI)x = 0 tiene soluciones distintas de la trivial. ⇐⇒ |A − λI| = 0
Al polinomio en λ, P(λ) = |A − λI|, se le denomina polinomio caracterı́stico de la matriz A,
y a la ecuación P(λ) = |A − λI| = 0 ecuación caracterı́stica de A.
Definición 80.- Sea A una matriz de orden n y λ un valor propio de A, al espacio de las soluciones
del sistema (A − λI)x = 0 se le denomina espacio caracterı́stico de A correspondiente al valor
propio λ y lo denotaremos por V (λ).
Observación:
Si λ es un valor propio de A, V (λ) = {x : (A − λI)x = 0} =
6 {0} y por tanto dim V (λ) ≥ 1.
En el estudio sobre la diagonalización realizado hasta ahora, hemos buscado la diagonalización
de matrices, separándolas del operador lineal que aparece en el planteamiento inicial del problema.
Lo que hemos encontrado hasta ahora ¿es reutilizable también para el estudio de ese operador? En
efecto:
Definición 81.- Sea f : V −→ V un operador lineal, diremos que un escalar λ es un valor propio
de f si existe un vector v ∈ V , diferente de cero, tal que f (v) = λv.
Al vector v se lo denomina vector propio de f correspondiente a λ.
Matemáticas I
26
4.1 Introducción. Valores y vectores propios.
m
at
Teorema 82.- Los vectores propios de f correspondientes al valor propio λ son los vectores, distintos
de cero, del núcleo de la aplicación f − λId (denotaremos por Id la aplicación identidad).
Demostración:
Si v un vector propio correspondiente a λ, entonces f (v) = λv =⇒ f (v) − λv = 0 =⇒ v ∈
Ker(f − λId ).
Por otra parte si v 6= 0 pertenece al Ker(f − λId ) se tiene que (f − λId )v = 0 =⇒ f (v) − λv = 0
=⇒ f (v) = λv, luego v es un vector propio de f correspondiente a λ.
Observación:
Este núcleo se denominará, espacio caracterı́stico de f correspondiente al valor propio λ.
Teorema 83.- Sean V un espacio vectorial de dimensión n, f : V −→ V un operador lineal y A la
matriz de f con respecto a una base B = {v 1 , v 2 , . . . , vn }. Entonces:
a) Los valores propios de f son los valores propios de A
b) Un vector v ∈ V es un vector propio de f correspondiente al valor propio λ si y sólo si su
matriz de coordenadas [v]B es un vector propio de A correspondiente a λ.
Demostración:
a) Sea λ un valor propio de f , es decir, ∃v ∈ V , distinto de 0, tal que f (v) = λv =⇒ [f (v)]B =
[λv]B =⇒ A[v]B = λ[v]B , luego λ es un valor propio de A al ser [v]B 6= 0.
Sea λ un valor propio de A, entonces ∃x ∈ IRn , x 6= 0 tal que Ax = λx. Si tomamos x∗ =
x1 v 1 + · · · + xn v n , siendo x = (x1 , . . . , xn ), lo anterior quiere decir que A[x∗ ]B = λ[x∗ ]B ⇒
[f (x∗ )]B = [λx∗ ]B ⇒ f (x∗ ) = λx∗ y λ es un valor propio de f ya que x∗ 6= 0
b) v es un vector propio de f correspondiente a λ si y sólo si
f (v) = λv ⇐⇒ [f (v)]B = [λv]B ⇐⇒ A[v]B = λ[v]B
si, y sólo si, [v]B es un vector propio de A correspondiente a λ.
A la vista de este resultado y siempre que trabajemos en términos de valores y vectores propios,
el problema de encontrar una base del espacio en la cual la matriz asociada al operador sea diagonal,
se reduce al estudio de la diagonalización de las matrices.
Matemáticas I
27
m
at
4.2 Diagonalización
4.2.
Diagonalización
Teorema 84.- Si A es una matriz de orden n, son equivalentes:
a) A es diagonalizable.
b) A tiene n vectores propios linealmente independientes.
Demostración:
a) ⇒ b). Lo hemos probado en los comentarios anteriores.
b) ⇒ a). Sean los n vectores p1 , p2 , . . . , pn vectores propios linealmente independientes de A
correspondientes a los valores propios λ1 , λ2 , . . . , λn . Consideremos la matriz
p11 p12

 p21 p22
P =
..
 ..
 .
.
pn1 pn2

· · · p1n
· · · p2n 

.. 
..
. . 

· · · pnn

que tiene por vectores columna los p1 , p2 , . . . , pn .
Las columnas de la matriz producto AP son Ap1 , Ap2 , . . . , Apn y los pi son vectores propios,
luego Ap1 = λ1 p1 , . . . , Apn = λn pn , por lo que:

λ1 p11 λ2 p12

 λ1 p21 λ2 p22
AP = 
..
 ..
.
 .
λ1 pn1 λ2 pn2
· · · λn p1n
· · · λn p2n
..
..
.
.
· · · λn pnn


p11 p12
 
  p21 p22
= .
..
  .
.
  .
pn1 pn2

· · · p1n
λ1

· · · p2n 
 0
. 
..
 .
. .. 
  ..
· · · pnn
0
0 ···
λ2 · · ·
.. . .
.
.
0 ···
0
0
..
.
λn



 = PD


donde D es la matriz diagonal que tiene como elementos en la diagonal principal a los valores propios
λ1 , λ2 , . . . , λn . Dado que los vectores columnas de P son linealmente independientes, P es inversible
y por tanto se tiene que D = P −1AP , es decir, A es diagonalizable.
Proposición 85.- Sea f : V −→ V un operador lineal, siendo V un espacio vectorial de dimensión
n. Entonces, existe una base de V con respecto a la cual la matriz de f es diagonal si, y sólo si, f
tiene n vectores propios linealmente independientes.
Teorema 86.- Sean v 1 , v 2 , . . . , v k vectores propios de una matriz A asociados a los valores propios
λ1 , λ2 , . . . , λk respectivamente, siendo λi 6= λj , ∀i, j = 1, 2, . . . , k, con i 6= j. Entonces el conjunto de
vectores {v 1 , v 2 , . . . , v k } es linealmente independiente.
Corolario 87.- Si una matriz A de orden n tiene n valores propios distintos, entonces A es diagonalizable.
Proposición 88.- Sea A una matriz de orden n y λi un valor propio de A de multiplicidad ni , si
V (λi ) es el espacio caracterı́stico correspondiente al valor propio λi . Entonces
1 ≤ dim V (λi ) ≤ ni .
Teorema 89 (fundamental de la diagonalización.).- Sea A una matriz de orden n. Entonces A
es diagonalizable si y sólo si se cumplen las condiciones:
a) Las n raı́ces de la ecuación caracterı́stica de A son todas reales. Es decir, |A − λI| = (λ1 −
λ)n1 · · · (λm − λ)nm con n1 + n2 + · · · + nm = n.
b) Si V (λi ) es el espacio caracterı́stico de A correspondiente a λi , 1 ≤ i ≤ m, y ni es la multiplicidad
de λi en la ecuación caracterı́stica de A, entonces dim V (λi ) = ni .
Matemáticas I
28
4.3 Diagonalización ortogonal.
4.3.
m
at
Diagonalización ortogonal.
Teorema 90.- Sea A una matriz de orden n, entonces son equivalentes:
a) A es diagonalizable ortogonalmente.
b) A tiene un conjunto de n vectores propios ortonormales.
Demostración:
En efecto, A es diagonalizable ortogonalmente ⇐⇒ existe P ortogonal tal que P t AP = D (con
D diagonal) ⇐⇒ existe P ortogonal tal que AP = P D.
Si llamamos p1 , p2 , . . . , pn a los vectores columnas de P , éstos vectores son ortonormales ylo
λ1 0 · · · 0


 0 λ2 · · · 0 

anterior es lo mismo que escribir Ap1 = λ1 p1 , . . . , Apn = λn pn , supuesto que D =  .. .. . . .. 
,
. . 

 . .
0 0 · · · λn
y como al ser P inversible se tiene que p1 , p2 , . . . , pn son linealmente independientes y por tanto no
nulos ⇐⇒ A tiene n vectores propios ortonormales.
Teorema 91.- Una matriz A de orden n es diagonalizable ortogonalmente si y sólo si A es simétrica.
Teorema 92.- Si A es una matriz simétrica, entonces los vectores propios que pertenecen a valores
propios distintos son ortogonales.
Demostración:
Sean λ1 y λ2 valores propios distintos de una matriz simétrica A y sean u y v vectores propios
correspondientes a λ1 y λ2 respectivamente.
Tenemos que probar que ut v = 0. (Notar que ut Av es un escalar).
Se tiene que
ut Av = (ut Av)t = v t Au = v t λ1 u = λ1 v t u = λ1 ut v,
y por otra parte que ut Av = ut λ2 v = λ2 ut v,
por tanto λ1 ut v = λ2 ut v ⇒ (λ1 − λ2 )ut v = 0 y como λ1 − λ2 6= 0, entonces ut v = 0.
Matemáticas I
29
Índice general
1. Matrices, Sistemas y Determinantes.
1.1. Matrices. . . . . . . . . . . . . . . . . . . . . . .
1.1.1. Definiciones básicas . . . . . . . . . . . .
1.1.2. Operaciones en las matrices . . . . . . . .
1.1.3. Matrices elementales . . . . . . . . . . . .
1.2. Lenguaje matricial de los sistemas de ecuaciones
1.2.1. Método de Gauss . . . . . . . . . . . . . .
1.2.2. Método de Gauss-Jordan . . . . . . . . .
1.3. Matriz transpuesta. Inversa de una matriz . . . .
1.3.1. Matriz transpuesta . . . . . . . . . . . . .
1.3.2. Matrices inversibles . . . . . . . . . . . .
1.3.3. Determinante de una matriz cuadrada . .
1.4. Rango de una matriz. Teorema de Rouché . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
1
1
2
3
3
5
5
5
6
7
8
2. Espacios vectoriales reales.
2.1. Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Subespacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . .
2.3. Base y dimensión. . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4. El espacio vectorial IRn . . . . . . . . . . . . . . . . . . . . . . .
2.5. Espacios de las filas y las columnas de una matriz. Coordenadas.
2.6. Cambios de base. . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.7. Espacios vectoriales con producto interior. . . . . . . . . . . . . .
2.7.1. Producto interior. Norma. Distancia . . . . . . . . . . . .
2.7.2. El espacio euclı́deo n-dimensional: IRn . . . . . . . . . . .
2.7.3. Bases ortonormales. Proceso de Gram-Schmidt . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
10
10
11
11
12
14
15
15
15
16
17
3. Aplicaciones lineales
3.1. Propiedades de las aplicaciones lineales. Núcleo e imagen.
3.2. Aplicaciones matriciales . . . . . . . . . . . . . . . . . . .
3.3. Matrices que representan aplicaciones lineales . . . . . . .
3.3.1. Aplicaciones lineales de IRn en IRm . . . . . . . . .
3.3.2. Aplicaciones lineales entre espacios cualesquiera . .
3.4. Composición de aplicaciones lineales . . . . . . . . . . . .
3.5. Teorema de Semejanza . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
19
20
21
21
22
23
23
4. Diagonalización
4.1. Introducción. Valores y vectores propios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3. Diagonalización ortogonal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
25
28
29
.
.
.
.
.
.
.
.
.
.
.
.
30
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Descargar