Subido por gustavo alfonseca

Algebra Lineal para estudiantes de Ingenie - Juan Carlos Del Valle Sotelo

Anuncio
1
·-~
l ·0._.---.
•
•
•
.•
.. .:jj
"'.'..
'
.. . ..
'\•
'
T.
·,¿'-~
/·
·~ . /
~.
.L -. i'·
' .
•
er
- 'V
.
d-·
•
•
•••
.. . .
A-· .
•
PARA ESTUDIANTES DE
INGENIERÍA Y CIENCIAS
PARA ESTUDIANTES DE
INGENIERÍA Y CIENCIAS
Juan Carlos Del Valle Sotelo
Instituto Tecnológico y de Estudios Superiores
de Monterrey, Campus Estado de México
˜
Director General México: Miguel Ángel Toledo Castellanos
Editor sponsor: Pablo Eduardo Roig Vázquez
Coordinadora editorial: Marcela I. Rocha Martínez
Supervisor de producción: Zeferino García García
ÁLGEBRA LINEAL PARA ESTUDIANTES DE INGENIERÍA Y CIENCIAS
Prohibida la reproducción total o parcial de esta obra,
por cualquier medio, sin la autorización escrita del editor.
DERECHOS RESERVADOS © 2011 respecto a la primera edición por
McGRAW-HILL/INTERAMERICANA EDITORES, S.A. DE C.V.
A Subsidiary of The McGraw-Hill Companies, Inc.
Edificio Punta Santa Fe
Prolongación Paseo de la Reforma 1015, Torre A
Piso 17, Colonia Desarrollo Santa Fe,
Delegación Álvaro Obregón
C.P. 01376, México, D. F.
Miembro de la Cámara Nacional de la Industria Editorial Mexicana, Reg. Núm. 736
ISBN: 978-970-10-6885-4
1234567890
1098765432101
Impreso en México
Printed in Mexico
Page (PS/TeX): 1 / 4, COMPOSITE
A la memoria de Esther, mi amada madre;
a mi hermano Manuel;
a mis hijas Miriam y Samantha
En un universo quizá infinito
inconcebiblemente antiguo
es una dicha saber que tengo mi origen
en una amorosa madre y en un hermano
que me cuidó como a un hijo
y por eso es mi padre
y percibir una infinitésima parte de mı́
en la mirada de dos pequeños seres
que en momentos difı́ciles
han sido tan grandes.
Page (PS/TeX): 5 / 5, COMPOSITE
Page (PS/TeX): 6 / 6, COMPOSITE
Contenido
Agradecimientos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Prólogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
XIII
XV
PARTE I
MATRICES, SISTEMAS Y DETERMINANTES
CAPÍTULO 1 Matrices y sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1.1
1.1
1.1
1.1
1.1
1.1
1.2
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.3
1.1
1.1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
2.1
1.1
1.1
1.1
1.1
1.1
2.2
1.1
1.1
1.1
1.1
1.1
2.3
1.1
1.1
Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.1 Definiciones y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.2 Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.3 Matrices especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.4 Propiedades de las operaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.5 Matrices con números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Definiciones, soluciones y forma matricial de sistemas lineales . . . . . . . . . . . . . . . . .
1.2.2 Matrices escalonadas y sistemas escalonados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.3 Operaciones de renglón para matrices, equivalencia por filas y soluciones
1.2.3 de sistemas escalonados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.4 Método de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.5 Método de Gauss-Jordan y sistemas con solución única . . . . . . . . . . . . . . . . . . . . . . .
1.2.6 Sistemas homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.7 Estructura de las soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.8 Sistemas lineales con números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ejercicios resueltos y ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
CAPÍTULO 2 Matrices invertibles y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Matrices invertibles y sus inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Definición y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.2 Matrices invertibles y sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.3 Método de Gauss-Jordan para hallar la inversa de una matriz . . . . . . . . . . . . . . . . . . .
2.1.4 Matrices elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.5 Inversas de matrices con componentes complejas . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1 Desarrollo por cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.2 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.3 Método de la adjunta para hallar la inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.4 Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.5 Determinantes de matrices con componentes complejas . . . . . . . . . . . . . . . . . . . . . . .
Ejercicios resueltos y ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
3
3
4
7
9
12
14
15
20
22
24
28
31
32
34
35
35
55
63
63
63
65
68
71
74
75
75
80
83
84
85
86
86
102
VII
Page (PS/TeX): 7 / 7, COMPOSITE
VIII CONTENIDO
PARTE II
ESPACIOS VECTORIALES, PRODUCTO INTERIOR, NORMAS,
VALORES Y VECTORES PROPIOS
CAPÍTULO 3 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
113
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
3.1
1.1
1.1
1.1
1.1
3.2
1.1
1.1
1.1
1.1
3.3
1.1
3.4
1.1
1.1
1.1
3.5
3.6
1.1
1.1
113
113
117
119
123
131
131
138
139
143
151
156
158
158
160
169
173
175
175
207
CAPÍTULO 4 Espacios con producto interior y espacios normados . . . . . . . . . . . . . . . . . . . . . . . ..
235
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
4.1
1.1
1.1
1.1
1.1
1.1
4.2
1.1
1.1
1.1
1.1
1.1
1.1
1.1
4.3
1.1
1.1
235
236
247
252
263
283
303
303
309
317
324
334
337
341
347
347
383
CAPÍTULO 5 Transformaciones lineales, valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . .
415
1
1
1
1
1
1
1
1
5.1
1.1
1.1
5.2
1.1
1.1
1.1
1.1
415
416
422
433
433
441
447
452
Geometrı́a de los espacios Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1 El plano cartesiano R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.2 Interpretación geométrica del determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.3 El espacio vectorial Rn , geometrı́a y propiedades algebraicas . . . . . . . . . . . . . . . . . .
3.1.4 La desigualdad de Schwarz, ángulos entre vectores y ortogonalidad . . . . . . . . . . . .
Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1 Definiciones y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.2 Propiedades elementales de los espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.3 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.4 Combinaciones lineales y subespacios generados . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.3.1 Criterios de independencia lineal en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.1 Definiciones y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4.2 Dimensión, extracción de bases y compleción de un conjunto L.I. a una base . . . .
3.4.3 Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Espacios vectoriales sobre los números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ejercicios resueltos y ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.6.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Espacios con producto interior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1 Definiciones, ejemplos y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.2 Ortogonalidad y norma inducida por el producto interior . . . . . . . . . . . . . . . . . . . . . .
4.1.3 Desigualdad de Schwarz y ángulo entre vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.4 Proyecciones, proceso de ortogonalización, factorización QR . . . . . . . . . . . . . . . . . .
4.1.5 Aproximación óptima de un vector por elementos de un subespacio . . . . . . . . . . . .
Espacios vectoriales normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.1 Definiciones y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.2 Distancia en espacios vectoriales normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.3 Normas que provienen de productos interiores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.4 Normas equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.5 Construcción de normas en espacios de dimensión finita a partir de normas en Rn
4.2.6 Aproximaciones óptimas en espacios normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.7 ¿Qué norma utilizar? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Ejercicios resueltos y ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.1 Definición, ejemplos y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.2 Núcleo e imagen de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Representaciones matriciales de transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1 Vectores de coordenadas, cambio de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.2 Representaciones matriciales de un operador lineal . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.3 Representaciones matriciales de transformaciones lineales . . . . . . . . . . . . . . . . . . . . .
5.2.4 Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Page (PS/TeX): 8 / 8, COMPOSITE
CONTENIDO
1
1
1
1
1
1
1
1
5.3
1.1
1.1
1.1
1.1
5.4
1.1
1.1
Valores y vectores propios, diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3.1 Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3.2 Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3.3 Valores propios complejos y diagonalización sobre C . . . . . . . . . . . . . . . . . . . . . . . . .
5.3.4 Operadores autoadjuntos y matrices simétricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ejercicios resueltos y ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.4.1 Ejercicios resueltos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.4.2 Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
IX
457
457
471
482
491
497
497
539
PARTE III
APLICACIONES, USO DE TECNOLOGÍA, MÉTODOS NUMÉRICOS
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
CAPÍTULO 6 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
581
6.1
6.2
1.1
1.1
1.1
6.3
1.1
1.1
1.1
1.1
1.1
6.4
1.1
1.1
1.1
1.1
6.5
1.1
1.1
1.1
1.1
1.1
1.1
1.1
6.6
6.7
6.8
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
6.9
581
589
590
591
595
596
596
602
604
Page (PS/TeX): 9 / 9, COMPOSITE
Matrices de incidencia y teorı́a de grafos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Redes de conducción y principios de conservación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.1 Flujo vehicular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.2 Circuitos eléctricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.3 Balance quı́mico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Análisis insumo-producto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3.1 Modelo para economı́a abierta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3.2 Modelo para economı́a cerrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3.3 Singularidad de la matriz de Leontief para el modelo de economı́a cerrada . . . . . .
6.3.4 Inversa de la matriz de Leontief para el modelo de economı́a abierta y método de
6.3.4 aproximación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Programación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.4.1 Enfoque geométrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.4.2 Método simplex para el problema estándar de programación lineal . . . . . . . . . . . . .
6.4.3 Restricciones generales y método simplex de dos fases . . . . . . . . . . . . . . . . . . . . . . . .
6.4.4 Dualidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Teorı́a de juegos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.5.1 Juegos estrictamente determinados y puntos silla . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.5.2 Estrategias y pagos esperados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.5.3 Estrategias óptimas y valor esperado para juegos matriciales con matriz de pagos
6.3.4 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.5.4 Estrategias óptimas y valor esperado con programación lineal para juegos
6.3.4 matriciales con matriz de pagos m × n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.5.5 Filas y columnas recesivas o dominantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cadenas de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Sistemas lineales de ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
Optimización de funcionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.8.1 Problemas fı́sicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.8.2 Cálculo diferencial en espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.8.3 Cálculo diferencial para funcionales en Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.8.4 Extremos locales de funcionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.8.5 Extremos locales y valores propios de la matriz hessiana . . . . . . . . . . . . . . . . . . . . . .
6.8.6 Condiciones necesarias para que cierto tipo de funcionales en espacios de
6.3.4 dimensión infinita alcancen valores extremos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.8.7 Dinámica de un monopolista . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.8.8 Epı́logo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
605
613
613
620
631
641
644
645
646
648
652
657
658
666
671
672
679
698
706
709
716
725
727
728
X CONTENIDO
CAPÍTULO 7 Uso de tecnología . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
761
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
7.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
7.2
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
1.1
7.3
1.1
1.1
1.1
7.4
761
761
763
764
765
766
768
771
772
773
CAPÍTULO 8 Álgebra lineal numérica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
819
1
1
1
1
1
1
1
1
1
1
8.1
8.2
1.1
1.1
1.1
1.1
8.3
1.1
1.1
1.1
819
822
822
827
829
838
848
848
862
877
La calculadora HP 50g y álgebra lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.1.1 Teclado y sus funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.1.2 La pantalla y comandos de decisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.1.3 Modos de operación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.1.4 Cálculo simbólico vs numérico y almacenamiento de objetos algebraicos . . . . . .
17.1.5 Escritura de vectores y matrices en la Hp 50g . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.1.6 Operaciones con vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.1.7 Operaciones con matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.1.8 Factorización QR y ortogonalización, factorización LU . . . . . . . . . . . . . . . . . . . . . ..
17.1.9 Forma escalonada y forma escalonada reducida con la HP 50g, sistemas lineales
7.1.10 Métodos de Gauss y Gauss-Jordan paso a paso en forma automática con la
7.1.10 HP 50g . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.1.11 Inversa de una matriz paso a paso de manera automática con la calculadora
7.1.10 HP 50g . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.1.12 Métodos de Gauss y Gauss-Jordan con operaciones de renglón ejecutadas por el
7.1.10 usuario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.1.13 Inversa de una matriz por el método de Gauss-Jordan con operaciones de renglón
7.1.10 ejecutadas por el usuario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.1.14 Transformaciones lineales, núcleo e imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.1.15 Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.1.16 Números complejos con la HP 50g . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
M ATLAB y álgebra lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.2.1 Interacción con M ATLAB y almacenamiento de información . . . . . . . . . . . . . . . . . .
17.2.2 Escritura de matrices y operaciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.2.3 Formatos y modo simbólico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.2.4 Matrices especiales, información básica y edición de matrices . . . . . . . . . . . . . . . .
17.2.5 Operaciones de renglón con M ATLAB . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.2.6 Funciones programadas por el usuario, programación en M ATLAB y operaciones
7.1.10 de renglón . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.2.7 Traza, determinante, rango, inversa y transpuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.2.8 Forma escalonada reducida, solución de sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.2.9 Valores y vectores propios, polinomio caracterı́stico . . . . . . . . . . . . . . . . . . . . . . . . .
7.2.10 Factorización QR y factorización LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Excel, la herramienta Solver y programación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.3.1 Activación de Solver en Excel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.3.2 La función SUMAPRODUCTO de Excel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17.3.3 Resolución de problemas de programación lineal con Solver . . . . . . . . . . . . . . . . .
Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Aritmética de la computadora y errores de redondeo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Métodos directos para resolver sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18.2.1 Método de Gauss para sistemas lineales de orden n con sustitución regresiva . . .
18.2.2 Método de Gauss para hallar la inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . .
18.2.3 Factorización LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18.2.4 Estrategias para pivotar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Métodos iterativos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18.3.1 La teorı́a de punto fijo y normas matriciales naturales . . . . . . . . . . . . . . . . . . . . . . . .
18.3.2 Método iterativo de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18.3.3 Planteamiento general para un método iterativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Page (PS/TeX): 10 / 10, COMPOSITE
774
775
775
777
779
780
780
781
781
783
785
786
789
790
797
798
800
802
803
803
805
806
813
CONTENIDO
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
1
A
1
1
1
A
1
1
1
A
1.1
1.1
1.1
8.4
1.1
1.1
1.1
1.1
8.5
1.1
1.1
1.1
1.1
1.1
1.1
8.6
XI
8.3.4 Método iterativo de Richardson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3.5 Método iterativo de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3.6 Series de Neumann y método iterativo para aproximar la inversa de una matriz . .
Transformaciones de Householder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.1 Definiciones y transformaciones básicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.2 Factorización QR de Householder y sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.3 Reducción de Householder-Hessenberg . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4.4 Rotaciones y reflexiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Aproximación de valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5.1 Método de la potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5.2 Deflación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5.3 Iteración inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5.4 Método QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5.5 Método QR con reducción de Hessenberg y desplazamientos . . . . . . . . . . . . . . . . . .
8.5.6 Método de Jacobi para aproximar valores y vectores propios de matrices simétricas
Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
880
887
896
901
902
908
913
917
923
923
931
937
939
946
950
956
A Conjuntos, demostraciones e inducción matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
985
A.1 Conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 985
1.1 A.1.1 Conjuntos, elementos y subconjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 985
1.1 A.1.2 Operaciones con conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 988
1.1 A.1.3 Reuniones e intersecciones de familias de conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . 992
A.2 Demostraciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 993
1.1 A.2.1 El método deductivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 993
1.1 A.2.2 Métodos de demostración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 995
1.1 A.2.3 Bicondicional y definiciones, lemas y corolarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 999
A.3 Inducción matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1002
B Números complejos, campos y espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1011
B
B
B
1
1
B
B
B.1 Números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ..
B.2 Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
B.3 Polinomios sobre campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1 B.3.1 Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1 B.3.2 Raı́ces y teorema fundamental del álgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
B.4 Espacios vectoriales sobre otros campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
B.5 Aplicación a la teorı́a de detección y corrección de errores en códigos . . . . . . . . . . . . . . .
1011
1017
1021
1021
1025
1026
1030
C Demostraciones que fueron diferidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1037
D Formas canónicas de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1055
E Respuestas a ejercicios seleccionados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1073
Lista de símbolos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1105
Alfabeto griego . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1108
Lista de aplicaciones adicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1109
Lista de programas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1110
Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1111
Índice analítico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1113
Page (PS/TeX): 11 / 11, COMPOSITE
Page (PS/TeX): 12 / 12, COMPOSITE
Agradecimientos
Deseo primeramente agradecer a Miguel Ángel Toledo y a Ramón Orduña, quienes me invitaron a realizar este proyecto con McGraw-Hill, por el gran apoyo y paciencia que tuvieron desde el inicio hasta la
culminación de la obra, sin ellos hubiera sido imposible terminarla. Este libro lo escribı́ en el procesador
de texto matemático y cientı́fico LATEX y el trabajo editorial para su formación fue considerable; deseo
dar las gracias a Marcela Rocha y a Pablo Roig por todo el esfuerzo que hicieron para que el proyecto
pudiera editarse en ese formato y por toda la ayuda que me brindaron en el transcurso de su elaboración.
La mayorı́a de la las figuras las construı́ utilizando los programas LaTeXPiX, TeXCad, GNUPLOT,
TeXCad32 o LaTeX-CAD; deseo dar crédito y reconocimiento a los autores de estos paquetes —de
distribución gratuita— por la magnı́fica tarea que han realizado en esas herramientas de dibujo en el
ambiente LATEX, las cuales facilitaron enormemente el trabajo gráfico en este libro. También quiero
reconocer la excelente labor de maquetación por parte de Mercè Aicart Martı́nez.
Las imágenes 3D —la máquina de la página 416 y los depósitos interconectados de la figura
6-20—, fueron diseñadas por Ernesto Byas Lizardo y Ramón Nuñez Serrania. Todos los dibujos de
los circuitos eléctricos y los digrafos del capı́tulo 6 los realizaron Miriam Del Valle y Samantha Del
Valle. Los planos en tres dimensiones de la figura 1-2 los construyó Elién Rodrı́guez Del Valle. Ernesto
y Miriam hicieron la revisión, en computadora, de las respuestas numéricas de muchos de los ejercicios
propuestos y Miriam leyó el texto en su totalidad para localizar erratas. Mi más sincero agradecimiento
a todos ellos por la desinteresada ayuda que me brindaron.
Doy gracias a las autoridades del campus Estado de México, del Instituto Tecnológico y de Estudios
Superiores de Monterrey, por las facilidades que me dieron para la realización de esta obra; y a Enrique
Ortiz, de HP Calculators Latin America, por el soporte otorgado para la realización de la sección 7.1.
El doctor Francisco Delgado Cepeda, profesor del campus Estado de México, leyó por completo el
primer capı́tulo; le agradezco mucho su colaboración y valiosos comentarios.
El doctor Fermı́n Acosta Magallanes, profesor del campus Estado de México y de la UPIITA del
IPN, sacrificó mucho de su tiempo al leer casi en su totalidad el libro. Sus comentarios, observaciones y
correcciones fueron de un enorme valor. Obviamente cualquier error técnico en el texto es absolutamente
mi responsabilidad. El interés constante que mantuvo Fermı́n en la realización de esta obra fue un gran
estı́mulo para su culminación y estaré siempre agradecido con él.
Cuando estaba escribiendo este trabajo, se presentaron algunos problemas serios en mi salud, y
gracias a los cuidados y apoyo de mis hermanas Rosa Marı́a y Gabriela, mi hermano Manuel, mi cuñado
José Manuel Lara, mi doctora de cabecera Daniela Lara Del Valle, mis sobrinos Emmanuel Lara, Etzel
Rodrı́guez, Rosa Marı́a Lara, Noemı́ Del Valle, Alejandro Urban, y mis hijas Samantha y Miriam, ahora
estoy escribiendo estas últimas lı́neas. Espero que ellos sepan que pueden contar siempre conmigo como
yo conté con ellos.
XIII
Page (PS/TeX): 13 / 13, COMPOSITE
XIV AGRADECIMIENTOS
Escribir un libro, especialmente uno como éste, es una labor en la que hay gran sacrificio no sólo
del autor, sino también de los que son más cercanos a él: su familia; en este caso mis hijas Samantha
y Miriam. Su paciencia, amor y comprensión fueron el principal incentivo para llegar al final de este
proyecto.
Finalmente quiero agradecer a Rubén Dario Santiago Acosta, director del Departamento de Matemáticas y Fı́sica del campus Estado de México, por su valiosa cooperación para la realización de este
libro. En la vida de todo ser humano existen periodos en que los avatares son más intensos y frecuentes;
el lapso para realizar esta obra fue una de esas etapas para mı́. Rubén fue en todo momento un apoyo y,
aunque la suerte no siempre está de mi lado, soy muy afortunado por tener a un gran amigo como él.
Page (PS/TeX): 14 / 14, COMPOSITE
Prólogo
Este libro tiene su germen en las notas del curso semestral de álgebra lineal que he impartido a lo largo
de varios años en el Instituto Tecnológico y de Estudios Superiores de Monterrey, campus Estado de
México, las cuales son el esqueleto de lo que ahora pretendo mostrar como un cuerpo ya con piel y
completo, que se desarrolló gracias a la experiencia adquirida a través de todos esos años.
El objetivo principal es presentar a detalle y profundidad los principales temas del álgebra lineal,
mostrando la utilidad de esta materia por medio de una gran variedad de aplicaciones a otros campos y a
las propias matemáticas. Integrando la teorı́a, la práctica, el uso de tecnologı́a y los métodos númericos
de esta disciplina.
El libro está diseñado de tal manera que se puede usar para un curso de uno o dos semestres, dependiendo de los programas de estudio de cada institución y de la profundidad con la que se desee tratar
cada tema. En el primer caso conviene cubrir las partes I y II, exceptuando los apartados 4.2, 5.3.3 y
5.3.4. Para el segundo caso, se recomiendan todos los temas de las partes I y II, las formas canónicas
de Jordan del apéndice D y el material adicional que se incluye en el sitio web del libro. En ambas
modalidades se pueden incluir las secciones que se consideren adecuadas de la parte III, especialmente
las aplicaciones del capı́tulo 6.
Como su nombre lo indica, Álgebra lineal para estudiantes de ingenierı́a y ciencias está orientado
para ser utilizado tanto en escuelas de ingenierı́a como en escuelas de ciencias, ya sea a nivel licenciatura
o posgrado. Los requisitos académicos para la comprensión del material son las matemáticas elementales que se cubren a nivel medio superior (álgebra, geometrı́a analı́tica y cálculo diferencial e integral).
La mayorı́a de los estudiantes que toman un curso de álgebra lineal, salvo los que cursan la carrera de matemáticas, se enfrentan por primera vez a una materia en la que se tienen que hacer demostraciones de teoremas y proposiciones matemáticas utilizando el método lógico-deductivo; es la
principal dificultad que entraña un curso de esta naturaleza para el lector profano en el campo del
rigor matemático. Sin embargo, en álgebra lineal la mayorı́a de las demostraciones son constructivas; es decir, la prueba de un teorema es en sı́ un algoritmo para resolver una serie de importantes problemas; lo cual representa una ventaja didáctica para poder iniciarse en el rigor lógico de las
matemáticas. Aun tomando en consideración esa ventaja, aprender en qué consiste probar rigurosamente proposiciones matemáticas no es fácil. Para apoyar al estudiante en esta tarea, el apéndice A.2
contiene una breve introducción al método deductivo y a los métodos de demostración en matemáticas —diseñada para que el lector pueda estudiarla por cuenta propia o con un poco de ayuda de
su profesor—, a través de casos concretos y con un mı́nimo de conocimientos previos que seguramente todo estudiante, a este nivel, posee. En estos tiempos, donde la credulidad y las pseudociencias son estimuladas mediáticamente como instrumentos de mercadotecnia para vender productos que
“curan” todos los males —incluyendo los polı́ticos y sociales—, el escepticismo, como una cultura de lo que se afirma se demuestra, deberı́a ser cultivado por el Homo sapiens moderno y el álgebra lineal es una excelente oportunidad para iniciarse, al menos en la parte matemática, en esa cultura.
XV
Page (PS/TeX): 15 / 15, COMPOSITE
XVI PRÓLOGO
He dividido el libro en tres partes que, desde mi punto de vista, conforman lo que es el álgebra lineal.
Las primeras dos contienen el núcleo teórico de la materia. La parte I —matrices, sistemas lineales, determinantes e inversas de matrices— es la más elemental y es la columna vertebral en la que se apoya el
resto del libro; mientras que la II —espacios vectoriales, producto interior, normas, valores y vectores
propios— es el corpus de ese núcleo que incluye los temas más relevantes del álgebra lineal. Estos dos
segmentos constituyen los primeros cinco capı́tulos de la obra, y en ellos he intentado exponer el significado matemático del álgebra lineal. En la parte III —que contiene los últimos tres capı́tulos del texto—,
a través de diversas aplicaciones en el capı́tulo 6, he tratado de hacer patente la utilidad práctica que
tiene esta importante materia. Los cálculos numéricos en álgebra lineal pueden llegar a ser muy complejos aritméticamente y tomar demasiado tiempo realizarlos; afortunadamente en esta época contamos
con tecnologı́a para apoyarnos en esta tarea. En el capı́tulo 7, incluı́ el uso de la tecnologı́a en el álgebra
lineal, especı́ficamente con M ATLAB y la calculadora HP 50g; y EXCEL, para programación lineal. Sin
embargo, una exposición del álgebra lineal que no muestra las dificultades inherentes que se presentan
al hacer cálculos numéricos en esta materia y cómo resolverlas matemáticamente, es incompleta. Por
esta razón, el capı́tulo final contiene una introducción relativamente profunda de los principales métodos
numéricos que se utilizan en álgebra lineal; con más de 32 programas en M ATLAB de esos algoritmos
para ser utilizados o modificados, en este u otro lenguaje, por el estudiante a su conveniencia.
Al escribir esta obra intenté tener siempre presentes los obstáculos a los que se enfrentan la mayorı́a
de los estudiantes de álgebra lineal, el principal es el alto nivel de abstracción de la materia. Para soslayar
esta dificultad, el libro contiene más de 200 figuras con el propósito de crear imágenes que puedan
ayudar al lector a visualizar fı́sica y geométricamente entes abstractos y convertirlos en conceptos más
concretos. Además, a lo largo de sus 8 capı́tulos y 5 apéndices, incluı́ más de 450 ejemplos para apoyarlo
a comprender la materia. Sin embargo, pensé que esto no era suficiente, pues el estudiante necesita
ver cómo se resuelven ejercicios en álgebra lineal, sobre todo aquellos que tienen contenidos altos de
abstracción; por esta razón incorporé, en la última sección de cada uno de los primeros cinco capı́tulos
—que conforman el núcleo principal del libro— un grupo de ejercicios resueltos con detalle; en total
forman un conjunto de más de 230 ejercicios de cálculos directos, demostraciones, etc., que junto con
los ejemplos del texto suman un total de más de 680 problemas completamente resueltos que el lector
puede consultar según lo necesite. Naturalmente, no basta con “ver”, se necesita “hacer” y, para ello,
el libro contiene —al final de cada capı́tulo— una sección de ejercicios propuestos al estudiante —con
respuestas a los ejercicios seleccionados en el apéndice E— para que practique a discreción o de acuerdo
con las instrucciones de su profesor; en total el libro cuenta con más de 2300 ejercicios propuestos.
Con el propósito de no interrumpir la exposición de la teorı́a en el texto y para facilitar su consulta,
coloqué aparte, en el capı́tulo 6, las aplicaciones. Al principio de cada una de ellas se hacen explı́citos
los requisitos —del material del texto y de otras disciplinas— que se necesitan para su estudio. El nivel
de las aplicaciones aumenta gradualmente desde el muy elemental hasta un nivel que demanda mucho
más esfuerzo para su comprensión; sin embargo, confı́o que la utilidad final que el estudiante encuentre
en ellas bien valdrá la pena el tiempo invertido para su estudio. De hecho, este capı́tulo se puede abordar
inmediatamente después de que se cumplan los requisitos que señala la aplicación correspondiente; por
ejemplo, las aplicaciones de las secciones 6.1, 6.2, 6.4, 6.5 y 6.6, se pueden tratar en seguida que se
ha cubierto el material de matrices y sistemas lineales (o en forma simultánea). Sin embargo, en el
texto hay algunas aplicaciones que en realidad están concatenadas a la teorı́a —por ejemplo, el tema de
aproximación óptima en espacios normados, o la interesante teorı́a de detección y corrección de errores
en códigos binarios que está al final del apéndice B—, esas no las incluı́ en el capı́tulo 6 y se encuentran
dispersas a lo largo del libro; en la página 1109 hay una lista de ellas con referencias al lugar donde se
Page (PS/TeX): 16 / 16, COMPOSITE
PRÓLOGO
XVII
localizan en el texto. Una función semejante cumple el listado de la página 1110, que es una descripción
de los principales programas en M ATLAB que contiene el libro y señala su ubicación.
Además, esta obra cuenta con una página donde el estudiante tendrá acceso a diversos recursos:
www.mhhe.com/uni/delvalleag1e.
Espero que Álgebra lineal para estudiantes de ingenierı́a y ciencias cumpla con los propósitos para
los que fue creado, sirva de apoyo a la labor docente de los profesores que trabajan educando en esta
materia y que vosotros, estudiantes, encuentren en él no sólo dónde aprender álgebra lineal, sino que
también disfruten de ese proceso como yo lo hice al escribir cada una de las lı́neas de este libro (también
sufrı́, ojalá ustedes no).
México D.F., primavera de 2011
J UAN C ARLOS D EL VALLE S OTELO
Page (PS/TeX): 17 / 17, COMPOSITE
Page (PS/TeX): 18 / 18, COMPOSITE
I
Matrices, sistemas y
determinantes
Page (PS/TeX): 1 / 1, COMPOSITE
Page (PS/TeX): 2 / 2, COMPOSITE
1
Matrices y
sistemas lineales
En este capı́tulo se introducen los conceptos básicos que se requieren para estudiar álgebra lineal. Comenzamos en la primera sección con el tema fundamental de matrices. Las matrices se crearon para
operar ciertos arreglos numéricos que aparecen tanto en aplicaciones como en las propias matemáticas. Continuamos en la segunda sección con el estudio general de sistemas de ecuaciones lineales. Los
sistemas de ecuaciones lineales tienen una gran variedad de aplicaciones en ciencias e ingenierı́a y seguramente el lector ya tuvo algún contacto con ellos en forma elemental en secundaria y bachillerato;
aquı́ nos abocamos a un estudio general y profundo de este importante tema. La tercera sección contiene un compendio de ejercicios resueltos de las dos secciones precedentes para que el lector consulte
el mayor número de ejemplos resueltos y un conjunto de ejercicios propuestos para que los resuelva el
estudiante.
1.1 Matrices
1.1.1 Definiciones y ejemplos
Definición 1.1 Una matriz A es un arreglo de
reales:
⎡
a11
⎢ a21
⎢
A=⎢ .
⎣ ..
am1
m-renglones o filas y n-columnas de m × n números
a12 · · · a1n
a22 · · · a2n
.
.. . .
. ..
.
am2 · · · amn
⎤
⎥
⎥
⎥.
⎦
Se dice entonces que A es una matriz de tamaño m × n y simbólicamente se escribe
A = [ai j ] ,
i = 1, 2, ..., m; j = 1, 2, ..., n. Esto es, ai j representa el número que se encuentra en la fila i y en la
columna j. A los elementos ai j se les llaman las componentes (entradas) de la matriz A.
P Nota 1.1
1. Los paréntesis rectangulares se pueden suplir por paréntesis circulares en notaciones matriciales.
En este libro emplearemos paréntesis rectangulares.
3
Page (PS/TeX): 3 / 3, COMPOSITE
4 CAPÍTULO 1
Matrices y sistemas lineales
2. En el caso particular de que una matriz tenga tamaño 1 × 1 escribiremos simplemente a en lugar
de [a]; es decir, identificaremos toda matriz [a] con el número real a.
Ejemplo 1.1 Si
A=
−2 3 5
−4 2 1
,
A es una matriz 2 × 3 y, para este caso, a11 = −2, a12 = 3, a13 = 5, a21 = −4, a22 = 2, a23 = 1.
P Nota 1.2 Al conjunto de matrices de tamaño m × n lo denotaremos, en este libro, por Mm×n .
Definición 1.2 Dos matrices A = [ai j ], B = [bi j ] son iguales (A = B) si y sólo si:
• A y B tienen el mismo tamaño y
• ai j = bi j ∀i , j.
Ejemplo 1.2 De acuerdo con la definición precedente
1 3 9
5 7 2
=
Ejemplo 1.3 Determinar el valor de a para que las matrices A =
sean iguales.
1 3 9
5 6 2
a
1
−1 2a
.
yB=
2 1
−1 4
Solución
Dado que ambas matrices tienen el mismo tamaño ellas serán iguales si y sólo si coinciden
componente a componente; para lo cual es suficiente que a = 2 y 2a = 4; esto es, para a = 2. a 0
1 0
Ejemplo 1.4 Resolver el ejemplo anterior si A =
yB=
.
3 3a
3 4
Para que las matrices sean iguales se requiere, en este caso, que a = 1 y 3a = 4, luego se
debe tener simultáneamente a = 1 y a = 4/3; lo cual es imposible. Por tanto A = B para cualquier valor
de a. Solución
1.1.2 Operaciones con matrices
1. Multiplicación de un escalar1 con una matriz. Si λ ∈ R y A = [ai j ] ∈ Mm×n se define λA =
[λai j ]. Es decir, el resultado de multiplicar una matriz con un escalar es la matriz que tiene como
componentes cada una de las entradas de la matriz original multiplicada por dicho escalar.
2. Suma de matrices. Si A , B ∈ Mm×n , A = [ai j ], B = [bi j ]; se define la suma de A con B como
A + B = [ci j ], con ci j = ai j + bi j ∀i , j. Ası́, la suma de dos matrices sólo se puede realizar cuando
éstas tienen el mismo tamaño y el resultado es también una matriz m × n.
11 Diremos que todo número real es un escalar.
Page (PS/TeX): 4 / 4, COMPOSITE
SECCIÓN 1.1
Matrices 5
3. Multiplicación de una matriz fila por matriz columna.2
⎡
a11
a12
···
a1n
⎢
⎢
⎢
⎢
⎢
⎣
b11
b21
·
·
·
bn1
⎤
⎥
⎥
⎥
⎥ = a11 b11 + a12 b21 + · · · a1n bn1 .
⎥
⎦
De acuerdo con esta definición, el producto de una matriz fila con una matriz columna sólo se puede llevar a cabo cuando la primera tiene tamaño 1 × n y la segunda n × 1 (las dos tienen el mismo
número de componentes) y el resultado de la operación será una matriz 1 × 1 (un número real).
4. Producto de una matriz m × n con una matriz n × p. Si A = [ai j ] ∈ Mm×n y B = [bi j ] ∈ Mn×p ,
el producto de A con B se define como AB = [ci j ] donde
ci j =
n
∑ aik bk j ,
k=1
para i = 1, 2, . . . , m y j = 1, 2, . . . , p. Es decir, la componente ci j del producto AB es el resultado
de multiplicar la i-ésima fila de A con la j-ésima columna de B. Además, para poder efectuar el
producto, la primera matriz debe tener el mismo número de columnas que de filas la segunda y la
matriz AB tiene entonces tamaño m × p. En forma equivalente, si Fi , i = 1, . . . , m, son las filas de A
y C j , j = 1, . . . , p, son las columnas de B, entonces
⎡
⎢
⎢
AB = ⎢
⎣
Ejemplo 1.5 Hola
⎡
−1
0 −1
√
1
• 2 ⎣ √2 −4
2 −4
0
• Si A =
−2 −4
5 −2
−1 0 −2
4
F1C2
F2C2
..
.
···
···
..
.
F1Cp
F1Cp
..
.
FmC1
F2C2
···
FmCp
⎤
⎥
⎥
⎥
⎦
(1.1)
√
√ ⎤
⎤ ⎡ √
2
−√2
√0 −√ 2 2√ 2
3 ⎦ = ⎣ 2 2 −4 2
2 3√2 ⎦
√
5
0 5 2
2 −4 2
−1
0
y
⎡
•
F1C1
F2C1
..
.
5
⎢
⎢
⎢
⎢
⎣
2
−1
0
0
−4
B=
−4
−1
−5
2
0 −1
, entonces A + B =
−6
4
−9
−2
1
−1
.
⎤
⎥
⎥
⎥ = (−1)(2) + (0)(−1) + (−2)(0)
⎥
⎦
+ (4)(0) + (5)(−4)
= −22.
Note que en este caso la matriz fila tiene tamaño 1 × 5 y la columna 5 × 1 (las dos tienen el mismo
número de componentes).
12 Una matriz fila es una matriz que tiene solamente un renglón y una matriz columna es una matriz que tiene una sola columna
(cfr. inciso 3 de la pág. 8).
Page (PS/TeX): 5 / 5, COMPOSITE
6 CAPÍTULO 1
Matrices y sistemas lineales
Ejemplo 1.6 Si
A=
⎡
−1 −2
0
2
4
1
y
1
B=⎣ 0
−1
⎤
−2 4 5
−1 0 2 ⎦ ,
0 0 1
A ∈ M2×3 , B ∈ M3×4 ; el producto AB está definido (el número de columnas de A es igual al número de
filas de B, en este caso 3) y el producto AB será una matriz 2 × 4, dos filas y cuatro columnas (tantas filas
como A y tantas columnas como B). Para obtener las componentes ci j de las filas de la matriz producto
AB procedemos de la manera siguiente.
La primera fila de AB: Los elementos de la primera fila de AB se obtienen multiplicando, sucesivamente, la primera fila de A con la primera, segunda, tercera y cuarta columas de B:
⎤
1
⎣ 0 ⎦ = −5,
−1
⎤
⎡
−2
⎣ −1 ⎦ = 4,
0
⎡ ⎤
4
⎣ 0 ⎦ = −4,
0
⎡ ⎤
5
⎣ 2 ⎦ = −5.
1
⎡
c11 =
−1
−2 4
c12 =
−1
−2 4
c13 =
−1
−2 4
c14 =
−1
−2 4
La segunda fila de AB: Los elementos de la segunda fila de AB se obtienen multiplicando, sucesivamente, la segunda fila de A con la primera, segunda, tercera y cuarta columas de B:
⎤
1
⎣ 0 ⎦ = −1,
−1
⎤
⎡
−2
⎣ −1 ⎦ = −2,
0
⎡ ⎤
4
⎣ 0 ⎦ = 0,
0
⎡ ⎤
5
⎣ 2 ⎦ = 5.
1
⎡
c21 =
0
2
1
c22 =
0
2
1
c23 =
0
2
1
c24 =
0
2
1
Luego,
AB =
Page (PS/TeX): 6 / 6, COMPOSITE
−5
−1
4
−2
−4 −5
0
5
.
SECCIÓN 1.1
Matrices 7
En realidad, la notación matricial está diseñada para ejecutar mecánica y mentalmente los cálculos
cuando el tamaño de las matrices no es muy grande; por eso el lector debe procurar, en la medida de
lo posible, aprovechar esta ventaja para efectuar las operaciones de esta manera. De hecho, a partir de
aquı́, el lector ya no encontrará un producto de matrices realizado con el detalle con el que se hizo en el
ejemplo precedente; pues utilizaremos sistemáticamente (1.1) para producto de matrices y haremos los
cálculos sin hacer explı́citas las operaciones.
Ejemplo 1.7
⎡
−1
⎣ 2
3
⎤
⎤⎡
0 −1
1
0 1
1 −1 ⎦ =
1 1 ⎦⎣ 1
0
1
2
−2 0
⎡
F1C1 F1C2
⎣ F2C1 F2C2
F3C1 F3C2
⎡
0
2 1
0 3
= ⎣ 1
−2 −5 5
⎤
F1C3
F2C3 ⎦
F3C3
⎤
⎦ .
1.1.3 Matrices especiales
1. Matriz cero. La matriz cero de tamaño m × n se define como aquella que tiene las m × n componentes nulas; esto es,
O = [ai j ]
donde ai j = 0 ∀i , j. Ası́, por ejemplo,
O=
0 0 0
0 0 0
es la matriz cero 2 × 3.
2. Matriz identidad n × n:
⎡
⎢
⎢
In = ⎢
⎣
1
0
..
.
0
0 ···
1 ···
.. . .
.
.
0 ···
0
0
..
.
1
es decir, In = [ai j ], donde
ai j =
1, si i = j;
0, si i = j.
Ası́, por ejemplo,
⎤
⎡
1 0 0
I3 = ⎣0 1 0⎦
0 0 1
es la matriz identidad 3 × 3.
Page (PS/TeX): 7 / 7, COMPOSITE
⎤
⎥
⎥
⎥;
⎦
8 CAPÍTULO 1
Matrices y sistemas lineales
3. Como mencionamos en el inciso 3 de la subsección 1.1.2, a las matrices que tienen sólo una fila o
sólo una columna les llamaremos, respectivamente, matrices fila y matrices columna. Además,
en este libro utilizaremos una notación especial en el caso de las matrices columna (cuando tengan
más de un elemento) análoga a la notación vectorial
⎡
⎢
b = ⎢
⎢
⎣
a11
a21
..
.
⎤
⎥
⎥
⎥.
⎦
an1
La razón de esta notación se verá más adelante cuando se estudie el espacio vectorial Rn en el
capı́tulo 3.
A las matrices de tamaño n × n les llamaremos matrices cuadradas de orden n y al conjunto formado por éstas lo denotaremos por Mn . Si A = [ai j ] es una matriz cuadrada de orden n se dice que los
elementos a11 , a22 , a33 ,..., ann forman o están en la diagonal de la matriz A. Y si A = [ai j ] ∈ Mm×n ,
diremos que los elementos ai j con i = j forman la diagonal principal de la matriz A.
Ejemplo 1.8 Si
⎡
−1
⎢ 7
M=⎢
⎣ 3
1
⎤
5
0 2
3 −1 1 ⎥
⎥
0
4 2 ⎦
−5
9 7
entonces m11 = −1, m22 = 3, m33 = 4, m44 = 7 son los elementos de la diagonal de la matriz cuadrada M.
Definición 1.3 Una matriz cuadrada A de orden n es triangular superior si las componentes que
están por debajo de la diagonal son todas nulas. La matriz es triangular inferior si las componentes
que están por arriba de la diagonal son todas iguales a cero.
Ejemplo 1.9 Si
⎡
−1
⎢ 0
⎢
A=⎣
0
0
⎤
5
0 2
3 −1 1 ⎥
⎥
0
4 2 ⎦
0
0 7
⎡
y
−1
⎢ −5
⎢
B=⎣
2
6
0
3
0
0
0
0
4
4
⎤
0
0 ⎥
⎥,
0 ⎦
0
entonces A es una matriz triangular superior y B es una matriz triangular inferior.
Definición 1.4 Sea A una matriz cuadrada de orden n. Se dice que A es una matriz diagonal si todas
las componentes fuera de su diagonal son nulas. Si aii = λi , i = 1, 2, . . . , n, son las componentes de la
diagonal de esta matriz se escribe
A = diag(λ1 , λ2 , . . . , λn )
para representar a la matriz diagonal A.
Page (PS/TeX): 8 / 8, COMPOSITE
SECCIÓN 1.1
Matrices 9
⎤
4 0 0
Ejemplo 1.10 La matriz cuadrada ⎣ 0 3 0 ⎦ es diagonal. Esto es,
0 0 8
⎡
A = diag(4, 3, 8).
Definición 1.5 Si A = [ai j ] ∈ Mm×n se define la matriz transpuesta de A como At = [bi j ], donde
bi j = a ji para i = 1, 2, ..., n y j = 1, 2, ..., m.
De la definición 1.5 se desprende que At tiene tamaño n × m y que en la matriz transpuesta la primera
columna es la primera fila de A, la segunda columna es la segunda fila de A, etcétera.
Definición 1.6 Una matriz A es simétrica cuando At = A.
La definición 1.6 entraña que una matriz simétrica es necesariamente cuadrada; pues si A ∈ Mm×n y
A es simétrica, entonces A = At ∈ Mn×m , de donde m = n; ya que dos matrices que son iguales deben
tener el mismo tamaño.
Ejemplo 1.11 Si
A=
1 2 3 4
,
5 6 7 8
⎡
1
⎢
2
At = ⎢
⎣3
4
⎤
5
6⎥
⎥ .
7⎦
8
Ejemplo 1.12 La matriz
A=
−1
2
2
3
es simétrica pues claramente A = At .
1.1.4 Propiedades de las operaciones
A continuación enunciamos las principales propiedades de las operaciones con matrices, las cuales son,
en general, fáciles de probar y su comprobación se deja como ejercicio al lector.
1. Si A , B ,C ∈ Mm×n y λ , β ∈ R:
(a) A + B ∈ Mm×n .
(b) A + (B +C) = (A + B) +C.
Page (PS/TeX): 9 / 9, COMPOSITE
10 CAPÍTULO 1
Matrices y sistemas lineales
(c) A + B = B + A.
(d) A + O = A, donde O es la matriz cero m × n.
(e) Existe una matriz −A ∈ Mm×n tal que A + (−A) = O. De hecho, si A = [ai j ], −A = [−ai j ].
(f) λA ∈ Mm×n .
(g) λ(βA) = (λβ)A.
(h) (λ + β)A = λA + βA.
(i) λ(A + B) = λA + λB.
(j)3 1A = A.
2. (a) Si A, B, C son matrices tales que los productos A(BC) y (AB)C están definidos, entonces
A(BC) = (AB)C.
(b) Si AB está definido se tiene: λ(AB) = (λA)B = A(λB).
(c) Si A ∈ Mm×n , AIn = Im A = A.
(d) En general AB = BA.
(e) Si A ∈ Mm×n y B,C ∈ Mn×p , entonces
A(B +C) = AB + AC.
3. (a) Si A y B son matrices del mismo tamaño (A + B)t = At + B t .
(b) Si A, B son matrices tales que el producto AB está definido, entonces (AB)t = B t At .
(c) (At )t = A ∀A ∈ Mm×n .
Es conveniente que el lector tenga siempre presente la propiedad 2(d); es decir, la no conmutatividad
del producto de matrices. Pues es claro que en principio el hecho de que el producto AB esté definido,
no garantiza que ni siquiera el producto BA esté definido; por ejemplo, si A es una matriz 2 × 3 y B es
una matriz 3 × 4, el producto AB está definido y el producto BA no. Más aún, aunque los productos AB
y BA estén definidos éstos, en general, serán distintos como ilustramos en el siguiente ejemplo.
Ejemplo 1.13
1 1
3 2
1 0
2 4
1 0
2 4
=
1 1
3 2
=
3 4
7 8
1 1
14 10
,
;
esto es,
1 1
3 2
1 0
2 4
=
1 0
2 4
1 1
3 2
Finalizamos este apartado con las demostraciones, en los siguientes dos ejemplos, de un par de
propiedades simples del producto de matrices que serán utilizadas más adelante.
13 Más adelante, en el tema de espacios vectoriales, se verá la importancia de esta aparentemente inocua propiedad.
Page (PS/TeX): 10 / 10, COMPOSITE
SECCIÓN 1.1
⎡
⎢
⎢
Ejemplo 1.14 Sean A = [ai j ] ∈ Mm×n y C = [bi j ] ∈ Mn×p . Si ck = ⎢
⎣
Esto es,
DEMOSTRACIÓN
AC =
Ac2
Ac1
⎤
⎥
⎥
⎥ es la columna k de C y
⎦
bnk
dk es la columna k de AC, k = 1, 2, . . . , p, demostrar que
dk = Ack
b1k
b2k
..
.
Matrices 11
∀k.
···
Ac p (1.2)
Q Sean αi j las componentes del producto AC, entonces, para cada k = 1, 2, . . . , p,
⎡
⎤
α1k
⎢ α2k ⎥
⎢
⎥
dk = ⎢ . ⎥ ;
⎣ .. ⎦
αmk
⎡
pero
ai1 ai2 · · · ain
αik =
⎤
b1k
⎢ b2k ⎥
⎢
⎥
⎢ .. ⎥
⎣ . ⎦
bnk
=
n
∑ ai j b jk ;
j=1
por tanto,
⎡
n
∑ a1 j b jk
⎢ j=1
⎢ n
⎢ ∑a b
2 j jk
⎢
j=1
dk = ⎢
⎢
..
⎢
.
⎢
⎣ n
∑ am j b jk
⎤
⎥
⎥
⎥
⎥
⎥.
⎥
⎥
⎥
⎦
(1.3)
j=1
Por otra parte,
⎡
⎤⎡
⎤
a11 a12 · · · a1n
b1k
⎢ a21 a22 · · · a2n ⎥ ⎢ b2k ⎥
⎢
⎥⎢
⎥
Ack = ⎢ .
.. . . .. ⎥ ⎢ .. ⎥
⎣ ..
. . ⎦⎣ . ⎦
.
am1 am2 · · · amn
bnk
⎤
⎡ n
∑ a1 j b jk
⎥
⎢ j=1
⎥
⎢ n
⎢ ∑a b ⎥
2 j jk ⎥
⎢
j=1
⎥.
= ⎢
⎥
⎢
..
⎥
⎢
.
⎥
⎢
⎦
⎣ n
∑ am j b jk
j=1
De (1.3) y (1.4) se tiene Ack = dk ∀k.
Page (PS/TeX): 11 / 11, COMPOSITE
Q
(1.4)
12 CAPÍTULO 1
Matrices y sistemas lineales
⎡
⎢
⎢
Ejemplo 1.15 Supongamos ahora que A = [ai j ] ∈ Mm×n y c = ⎢
⎣
x1
x2
..
.
⎤
⎥
⎥
⎥, entonces,
⎦
xn
⎡
⎢
⎢
x1 ⎢
⎣
a11
a21
..
.
⎤
⎡
⎥
⎢
⎥
⎢
⎥ + x2 ⎢
⎦
⎣
am1
a12
a22
..
.
⎤
⎡
⎥
⎢
⎥
⎢
⎥ + · · · + xn ⎢
⎦
⎣
am2
a1n
a2n
..
.
⎡
⎤
⎥ ⎢
⎥ ⎢
⎥=⎢
⎦ ⎣
amn
a11
a21
..
.
a12
a22
..
.
···
···
..
.
a1n
a2n
..
.
am1
am2
···
amn
⎤⎡
⎥⎢
⎥⎢
⎥⎢
⎦⎣
x1
x2
..
.
⎤
⎥
⎥
⎥.
⎦
(1.5)
xn
En efecto:
⎡
a11
⎢ a21
⎢
x1 ⎢ .
⎣ ..
am1
⎤
⎡
a12
⎥
⎢ a22
⎥
⎢
⎥ + x2 ⎢ ..
⎦
⎣ .
am2
⎤
⎡
⎡
⎤ ⎡
⎤
⎤
x1 a11
x2 a12
xn a1n
⎢ x1 a21 ⎥ ⎢ x2 a22 ⎥
⎢ xn a2n ⎥
⎥
⎢
⎢
⎥
⎥ ⎢
⎥
⎥
⎥ = ⎢ .. ⎥ + ⎢ .. ⎥ + · · · + ⎢ .. ⎥
⎣ . ⎦ ⎣ . ⎦
⎣ . ⎦
⎦
amn
x1 am1
x2 am2
xn amn
a1n
⎥
⎢ a2n
⎥
⎢
⎥ + · · · + xn ⎢ ..
⎦
⎣ .
⎤
⎡
⎡
⎢
⎢
=⎢
⎣
a11 x1 + a12 x2 + · · · + a1n xn
a21 x1 + a22 x2 + · · · + a2n xn
..
.
⎤
⎥
⎥
⎥
⎦
am1 x1 + am2 x2 + · · · + amn xn
= Ac.
1.1.5 Matrices con números complejos
En este apartado se introduce, por primera vez en este libro, el uso de números complejos en álgebra
lineal; especı́ficamente en el tema de matrices con componentes complejas. El ápendice B contiene
un breve estudio de este importante campo numérico y de sus principales propiedades, y el lector que
no esté habituado a trabajar con números complejos, o necesite repasar este tema, deberı́a consultar la
sección B.1 de este apéndice cuanto antes. A lo largo de este texto se incluyen apartados que contienen el
uso de números complejos en temas que ya se han tratado con números reales. En general, la transición
en cada caso será muy sencilla, pues una vez que se dominan los temas de álgebra lineal con números
reales los cambios para tratar éstos con números complejos son mı́nimos y, en realidad, las dificultades
tienen que ver más con la familiaridad que tenga el lector con el uso de números complejos que con
aspectos áridos de generalización. De hecho, el uso de este campo numérico en álgebra lineal se va
haciendo cada vez más necesario en la medida que se avanza en la materia, tanto en la teorı́a como en
las aplicaciones. Se han incluido este tipo de subsecciones para ir acostumbrando al lector al uso de los
números complejos en álgebra lineal. Obviamente, el lector que no desee en este momento abordar estos
temas puede omitirlos y regresar a ellos cuando lo juzgue pertinente.
Recordemos (cfr. apéndice B) que los números complejos tienen la forma
a + bi
Page (PS/TeX): 12 / 12, COMPOSITE
SECCIÓN 1.1
Matrices 13
donde a, b son números reales e i es la unidad imaginaria. Al conjunto de estos números se les representa
por C y este campo incluye de manera natural a los números reales mediante la identificación del número
real a con el número complejo a + 0i. Estos números se operan algebraicamente de manera análoga a
los números reales, utilizando todas las propiedades de éstos y conviniendo en que la unidad imaginaria
en este sistema satisface4
i2 = −1.
De esta manera, operar algebraicamente matrices con componentes complejas es un proceso completamente análogo al que se utiliza cuando éstas tienen entradas que son números reales. Es decir, se
suman, restan, multiplican, etc., en la misma forma que las matrices reales, pero operando sus componentes con las reglas algebraicas de los números complejos. Al conjunto de matrices de tamaño
m × n con componentes complejas lo denotaremos por Mm×n (C). Todas las propiedades acerca de matrices con componentes reales que vimos en esta sección siguen siendo válidas para las matrices con
entradas complejas.
Ejemplo 1.16 Sean A, B ∈ M2×3 (C) las matrices definidas por
A=
1 − 2i
3 − 5i
−4i
4 + 6i
Entonces
A+B =
1.
=
2
−9i
y
5 − 4i 2 − 9i
7 − 6i 1 + i
4 − 9i 5 − 8i 4 − 9i
.
3
11 1 − 8i
=
1 − 2i −4i 2
3 − 5i 4 + 6i −9i
5 − 10i −20i
10
.
15 − 25i 20 + 30i −45i
(3 + 2i)B = (3 + 2i)
3.
3 − 7i
5i
3 − 7i 5 − 4i 2 − 9i
1 − 2i −4i 2
+
5i 7 − 6i 1 + i
3 − 5i 4 + 6i −9i
5A = 5
2.
B=
=
1 − 2i −4i 2
3 − 5i 4 + 6i −9i
7 − 4i 8 − 12i 6 + 4i
.
19 − 9i 26i 18 − 27i
Aquı́ hemos realizado las operaciones
(3 + 2i)(1 − 2i) = 3 − 6i + 2i − 4i2
= 3 − 4i − 4(−1)
= 3 − 4i + 4
= 7 − 4i,
14 En la sección B.1 del apéndice B se hace un estudio más detallado y formal de los números complejos.
Page (PS/TeX): 13 / 13, COMPOSITE
.
14 CAPÍTULO 1
Matrices y sistemas lineales
para obtener la componente c11 de (3 + 2i)B;
(3 + 2i)(−4i) = −12i − 8i2
= −12i − 8(−1)
= 8 − 12i,
para obtener la componente c12 de (3 + 2i)B; etcétera.
Ejemplo 1.17 Sean
A=
1+i
−i
2
2 − 3i
y
B=
−i
2i
3
1−i
2 + 5i
0
,
entonces
AB =
=
=
1+i 2
−i 2 − 3i
−i 3 2 + 5i
2i 1 − i 0
(1 + i)(−i) + 2(2i)
(1 + i)(3) + 2(1 − i)
(1 + i)(2 + 5i) + 2(0)
(−i)(−i) + (2 − 3i)(2i) (−i)(3) + (2 − 3i)(1 − i) (−i)(2 + 5i) + (2 − 3i)(0)
1 + 3i 5 + i −3 + 7i
.
5 + 4i −1 − 8i 5 − 2i
1.2 Sistemas lineales
y
x−y = 1
x
x+y = 3
Page (PS/TeX): 14 / 14, COMPOSITE
Seguramente el lector está familiarizado, por cursos
más elementales, con sistemas simultáneos de dos o
tres ecuaciones lineales con dos o tres incógnitas. Se
les llama sistemas lineales porque, para el caso de dos
incógnitas, digamos x, y, las ecuaciones tienen la forma ax +by = c, cuyos lugares geométricos corresponden a lı́neas rectas en el plano. Cuando se resuelve
un sistema lineal de dos ecuaciones con dos incógnitas, se busca el punto de intersección de dos lı́neas
rectas (si es que éstas no son paralelas). Aquı́ estudiaremos sistemas lineales generales de m ecuaciones con n incógnitas siendo m y n cualquier par de
números enteros no negativos. Los sistemas lineales
tienen una gran variedad de aplicaciones en ingenierı́a
y ciencias; veremos algunas de estas aplicaciones en
el capı́tulo seis.
SECCIÓN 1.2
Sistemas lineales 15
1.2.1 Definiciones, soluciones y forma matricial de sistemas lineales
Definición 1.7 Un sistema de m-ecuaciones con n-incógnitas que tiene la forma
a11 x1
a21 x1
·
·
·
am1 x1
+
+
·
·
·
+
+ ···
+ ···
· ···
· ···
· ···
+ ···
a12 x2
a22 x2
·
·
·
am2 x2
+
+
·
·
·
+
a1n xn
a2n xn
·
·
·
amn xn
=
=
·
·
·
=
b1
b2
·
·
·
bm
(1.6)
donde los ai j , bi ∈ R, i = 1, 2, . . . , m, j = 1, 2, . . . , n, están dados, es lineal. Una solución de este
sistema de ecuaciones es una n-ada ordenada (α1 , α2 , . . . , αn ) de números reales, tales que al hacer
las sustituciones
x1 = α1
x2 = α2
..
.
xn = αn
en cada una de las m-ecuaciones las convierte en identidades.
Ejemplo 1.18 El sistema de dos ecuaciones con tres incógnitas
2x1 − 3x2 − x3 = −4
(1.7)
x1 + x2 + x3 = −3
(1.8)
es lineal y (−1, 2, −4) es una solución del mismo. En efecto, al sustituir x1 = −1, x2 = 2 y x3 = −4 en
la primera ecuación (1.7) se tiene
2(−1) − 3(2) − (−4) = −4
y al hacer las mismas sustituciones en la segunda ecuación (1.8),
(−1) + (2) + (−4) = −3.
Ejemplo 1.19 El sistema de dos ecuaciones con dos incógnitas
x12 − 3x2 = 1
1/2
x1
+ x2 = π
no es lineal (¿por qué?).
Si se tiene el sistema lineal (1.6) a
⎡
⎢
⎢
A=⎢
⎣
Page (PS/TeX): 15 / 15, COMPOSITE
a11
a21
..
.
a12
a22
..
.
···
···
..
.
a1n
a2n
..
.
am1
am2
···
amn
⎤
⎥
⎥
⎥
⎦
16 CAPÍTULO 1
Matrices y sistemas lineales
se le llama la matriz de coeficientes del sistema. En tal caso, si ponemos
⎡
⎢
⎢
⎢
x = ⎢
⎢
⎣
x1
x2
·
·
·
xn
⎡
⎤
⎢
⎥
⎢
⎥
⎥ ⎢
⎥yb=⎢
⎢
⎥
⎣
⎦
⎤
b1
b2
·
·
·
bm
⎥
⎥
⎥
⎥,
⎥
⎦
entonces el sistema lineal se puede escribir en forma matricial como
Ax = b ,
pues al hacer el producto se obtiene
⎡
⎢
⎢
⎢
⎢
⎢
⎣
a11 x1
a21 x1
·
·
·
am1 x1
+
+
·
·
·
+
a12 x2
a22 x2
·
·
·
am2 x2
+
+
·
·
·
+
···
···
·
···
+
+
·
·
·
+
a1n xn
a2n xn
·
·
·
amn xn
⎤
⎡
⎥ ⎢
⎥ ⎢
⎥ ⎢
⎥=⎢
⎥ ⎢
⎦ ⎣
b1
b2
·
·
·
bm
⎤
⎥
⎥
⎥
⎥
⎥
⎦
que equivale, por definición de igualdad de matrices, al sistema (1.6).
Ejemplo 1.20 Para el sistema 3 × 3
x1
2x1
3x1
+
+
+
x2
4x2
6x2
+
−
−
2x3
3x3
5x3
=
=
=
9
1
0
la matriz de coeficientes es
⎤
1 1
2
A = ⎣ 2 4 −3 ⎦
3 6 −5
⎡
y la ecuación matricial correspondiente es
⎤⎡
⎤ ⎡ ⎤
x1
1 1
2
9
⎣ 2 4 −3 ⎦ ⎣ x2 ⎦ = ⎣ 1 ⎦ .
3 6 −5
0
x3
⎡
Definición 1.8 El sistema m × n Ax = b es:
• Consistente: si tiene al menos una solución.
• Inconsistente: si no tiene soluciones.
En la figura 1-1 se ilustran los lugares geométricos de cuatro sistemas lineales en el plano: con solución
única (a), inconsistentes (b) y (c) y con una infinidad de soluciones (d).
Page (PS/TeX): 16 / 16, COMPOSITE
SECCIÓN 1.2
(a)
(b)
(c)
(d)
Sistemas lineales 17
Figura 1-1 • (a) dos lı́neas que se intersecan en un solo punto, (b) dos lı́neas paralelas que no se intersecan,
(c) tres lı́neas que no se intersecan simultáneamente y (d) dos lı́neas que coinciden.
De manera análoga, una ecuación lineal con tres incógnitas, ax + by + cz = d, corresponde al lugar geométrico de puntos que están en un plano en el espacio tridimensional. También en este caso,
cuando se resuelven sistemas lineales con tres incógnitas, se buscan intersecciones de los correspondientes planos. Nuevamente los planos pueden no intersecarse, intersecarse en una infinidad de puntos
o intersecarse en un único punto. La figura 1-2 ilustra estas posibilidades.
Figura 1-2 • Planos que se intersecan, respectivamente, en una lı́nea recta, en un único punto y que no tienen
intersección simultánea.
Definición 1.9 Dos sistemas lineales del mismo tamaño, Ax = b, Hx =c, son equivalentes si tienen
el mismo conjunto de soluciones.
En el siguiente ejemplo resolveremos un sistema lineal de manera análoga a como el lector, seguramente, ya lo ha hecho en cursos de bachillerato; sin embargo, lo haremos con un método que introducirá el importante algoritmo de Gauss; el cual consiste, esencialmente, en ir haciendo “pivotes” para
eliminar variables (incógnitas) y obtener un sistema equivalente en forma “escalonada” y finalmente
resolverlo por sustitución regresiva.
Page (PS/TeX): 17 / 17, COMPOSITE
18 CAPÍTULO 1
Matrices y sistemas lineales
Ejemplo 1.21 Resolvamos el sistema lineal
x1 + x2 + 2x3 = 9
(1.9)
2x1 + 4x2 − 3x3 = 1
(1.10)
3x1 + 6x2 − 5x3 = 0
(1.11)
Para ello, con la ecuación (1.9), eliminemos la variable x1 de las ecuaciones (1.10) y (1.11) multiplicando5 (1.9) por −2 y sumando con (1.10); luego multiplicando (1.9) por −3 y sumando con (1.11);
obteniendo el sistema equivalente:
x1 + x2 + 2x3 = −19
2x2 − 7x3 = −17
(1.12)
3x2 − 11x3 = −27
(1.13)
De manera análoga, multiplicando (1.12) por −3, (1.13) por 2 y sumando los resultados, habremos
hecho un “pivote” con la variable x2 de la ecuación (1.12) para eliminar la variable x2 de la ecuación
(1.13), produciendo el sistema equivalente “escalonado”
x1
+
x2
2x2
+
−
−
x3
7x3
x3
=
=
=
9
−17
−27
Finalmente, haciendo sustitución regresiva, es decir, despejando y sustituyendo variables de este
último sistema de abajo hacia arriba, tenemos
x3 = 3;
−17 + 7(x3 )
x2 =
2
−17 + 7(3)
=
2
= 2;
x1 = 9 − x2 − 2x3
= 9 − (2) − 2(3)
= 1.
Ası́, el sistema es consistente con solución única
⎡ ⎤
1
x = ⎣ 2 ⎦ .
3
Podemos sintetizar el método del ejemplo precedente de la siguiente manera. Denotemos por Ri
la i-ésima ecuación de un sistema lineal; la notación Ri ↔ αRi + βR j significa que la ecuación Ri se
sustituye por la ecuación que se obtiene de sumar α veces la ecuación Ri con β veces la ecuación R j .
Las operaciones algebraicas que hicimos en el ejemplo anterior se resumen en el siguiente esquema.
15 Cuando se multiplica una ecuación por un número, significa que ambos lados de la igualdad en dicha ecuación se multiplican
por ese número; y cuando se suman dos ecuaciones, quiere decir que se suman miembro a miembro los correspondientes lados de
la igualdad.
Page (PS/TeX): 18 / 18, COMPOSITE
SECCIÓN 1.2
Sistemas lineales 19
x1 + x2 + 2x3 = 9
x1 + x2 + 2x3 =
9
−−−−−−→
2x1 + 4x2 − 3x3 = 1 ←
2x2 − 7x3 = −17
R2 ↔ −2R1 + R2
3x1 + 6x2 − 5x3 = 0 R3 ↔ −3R1 + R3
3x2 − 11x3 = −27
x1 + x2 + 2x3 =
9
2x2 − 7x3 = −17
−x3 = −3
←−−−−−−−→
R3 ↔ −3R2 + 2R3
En cada paso del proceso anterior se obtiene un sistema equivalente; es decir, con las mismas soluciones pero más sencillo, hasta que el último sistema equivalente está escalonado y se puede resolver
haciendo sustitución regresiva.
Es claro que en el ejemplo 1.21 y en la discusión anterior sólo se trabajó con los coeficientes, y que
de las variables x1 , x2 y x3 únicamente se utiliza la posición que tienen en el arreglo. Se ve entonces
que para resolver un sistema lineal Ax = b, basta trabajar con la matriz de coeficientes A y el término
independiente b.6 Para ello, a continuación damos el siguiente concepto.
Definición 1.10 Para el sistema lineal
a11 x1
a21 x1
·
·
·
am1 x1
+
+
·
·
·
+
a12 x2
a22 x2
·
·
·
am2 x2
o, en forma matricial, Ax = b con
⎡
⎢
⎢
⎢
x = ⎢
⎢
⎣
x1
x2
·
·
·
xn
+ ···
+ ···
· ···
· ···
· ···
+ ···
a1n xn
a2n xn
·
·
·
amn xn
⎡
⎤
⎥
⎥
⎥
⎥y
⎥
⎦
+
+
·
·
·
+
⎢
⎢
b = ⎢
⎢
⎢
⎣
b1
b2
·
·
·
bm
=
=
·
·
·
=
b1
b2
·
·
·
bm
⎤
⎥
⎥
⎥
⎥,
⎥
⎦
se define la matriz aumentada (también se le llama matriz ampliada) del mismo como
⎡
⎢
⎢
⎢
[ A |b ] = ⎢
⎢
⎣
a11
a21
·
·
·
am1
a12
a22
·
·
·
am2
···
···
···
···
···
···
a1n
a2n
·
·
·
amn
b1
b2
·
·
·
bm
⎤
⎥
⎥
⎥
⎥
⎥
⎦
El lado izquierdo en la partición [ A |b ] contiene la matriz de coeficientes [ai j ] y el lado derecho contiene los términos independientes bi del sistema lineal. La definición anterior provee una notación muy
simple para evitar, en un sistema lineal, escribir las variables y únicamente trabajar con los coeficientes.
La primera fila de la matriz ampliada equivale a la ecuación a11 x1 + a12 x2 + · · · + a1n xn = b1 , la segunda
16 Llamaremos término independiente en un sistema lineal Ax = b, a la matriz columna b y términos independientes del mismo
sistema a las respectivas componentes de este vector.
Page (PS/TeX): 19 / 19, COMPOSITE
20 CAPÍTULO 1
Matrices y sistemas lineales
fila equivale a la ecuación a21 x1 + a22 x2 + · · · + a2n xn = b2 , etc., y la última fila equivale a la ecuación
am1 x1 + am2 x2 + · · · + amn xn = bm . La lı́nea vertical en la partición [ A |b ] únicamente sirve para hacer
notoria la columna que contiene los términos independientes bi del sistema lineal; y de hecho se puede
omitir, si ası́ se desea, cuando se conviene en que la última columna de la matriz aumentada contenga el
término independiente b del sistema.
Resolveremos ahora, en el siguiente ejercicio, el ejemplo 1.21 utilizando la matriz aumentada.
Ejemplo 1.22 Para este caso, haciendo las mismas operaciones que en la discusión posterior al ejemplo 1.21, pero esta vez a los renglones de la matriz ampliada se tiene:
⎡
1 1
2
⎣ 2 4 −3
3 6 −5
⎤
9
1 ⎦
0
⎡
←−−−−−−→
R2 ↔ −2R1 + R2
R3 ↔ −3R1 + R3
←−−−−−−−→
R3 ↔ −3R2 + 2R3
1 1
⎣ 0 2
0 3
⎡
1 1
⎣ 0 2
0 0
⎤
9
−17 ⎦
−27
⎤
9
−17 ⎦
−3
2
−7
−11
2
−7
−1
y, al hacer sustitución regresiva como se hizo en ese ejemplo (cfr. pág. 18),
⎡ ⎤ ⎡ ⎤
x1
1
⎣x2 ⎦ = ⎣2⎦ .
3
x3
Hasta aquı́, aunque se ha utilizado en forma intuitiva el significado de sistema escalonado, no se ha
precisado con exactitud. En la siguiente subsección nos abocamos a ello.
1.2.2 Matrices escalonadas y sistemas escalonados
Definición 1.11 La matriz A ∈ Mm×n está en forma escalonada si se cumplen las siguientes dos
condiciones.
• Las filas nulas (si existen)7 están por debajo de las filas no nulas.
• El primer elemento distinto de cero de cada fila no nula está a la derecha del primer elemento
diferente de cero de las filas precedentes.8
Ejemplo 1.23 Si
⎡
⎢
⎢
A=⎢
⎢
⎣
0 −1
2
0
0 −1
0
0
0
0
0
0
0
0
0
⎤
3 −5 3
0
2 4 ⎥
⎥
0
0 1 ⎥
⎥
0
0 0 ⎦
0
0 0
⎡
y
⎢
⎢
B=⎢
⎢
⎣
−1
0
0
0
0
2
1
0
0
0
⎤
4
0 3
2 −3 4 ⎥
⎥
1
0 2 ⎥
⎥,
2 −3 0 ⎦
0
0 0
A está en forma escalonada pero B no.
17 Una fila es nula si todas sus entradas son ceros; una fila es no nula si por lo menos una de sus componentes es distinta de cero.
18 En el caso que el primer elemento distinto de cero esté en la primera fila, se sobreentiende que la condición se cumple por
vacuidad.
Page (PS/TeX): 20 / 20, COMPOSITE
SECCIÓN 1.2
Sistemas lineales 21
Definición 1.12 Al primer elemento distinto de cero de cada fila no nula, de una matriz en forma
escalonada, se le llama pivote.
Definición 1.13 Un sistema Hx = c está escalonado si la matriz ampliada [ H |c ] es una matriz
escalonada. A las variables que correspondan a pivotes en un sistema escalonado se les llamarán
variables ligadas (o principales o básicas) y a las restantes variables libres (o no básicas).
Ejemplo 1.24 En el sistema escalonado 4 × 6
⎡
⎢
⎢
⎢
⎣
1
0
0
0
0
0
0
0
3
5
0
0
−2
0
0
0
1
1
7
0
5
1
6
5
⎤
−2
3 ⎥
⎥,
7 ⎦
0
hay pivotes en las columnas 1, 3, 5 y 6; que corresponden, respectivamente, a las variables x1 , x3 , x5 y
x6 . Ası́ que estas variables son ligadas y x2 , x4 son variables libres.
Entonces, para resolver un sistema escalonado al hacer sustitución regresiva, se despejan las variables ligadas dejándolas en función de las variables libres procediendo de abajo hacia arriba, en
el caso que el sistema tenga variables libres; en caso contrario, simplemente se despejan las variables
ligadas actuando también de abajo hacia arriba.
Ejemplo 1.25 Resolver los siguientes sistemas lineales escalonados.
⎤
3
−5 −1 3
8 ⎦
3 5
1. ⎣ 0
−4
0
0 2
⎡
4
1 −3 0 5 0
⎢ 0
−7
0
1
2
0
2. ⎢
⎣ 0
1
0 0 0 1
0
0
0 0 0 0
⎤
⎡
3
1 −3 5
2 ⎦
1 2
3. ⎣ 0
−1
0
0 0
⎡
⎤
⎥
⎥
⎦
Solución
1. En este caso, x1 , x2 y x3 son todas variables ligadas, el sistema no tiene variables libres y
2 −3x3
2
x3 = −4/2 = −2; x2 = 8−5x
= 6; x1 = 3+x−5
= −3. Es decir,
3
⎤
⎡
⎤ ⎡
x1
−3
⎣ x2 ⎦ = ⎣ 6 ⎦
−2
x3
es la única solución.
Page (PS/TeX): 21 / 21, COMPOSITE
22 CAPÍTULO 1
Matrices y sistemas lineales
2. Para este sistema escalonado x1 , x3 y x5 son las variables ligadas; mientras que x2 y x4 son las variables libres. Entonces x5 = 1, x3 = −7 − 2x4 , x1 = 4 + 3x2 − 5x4 ; lo cual indica que al dar valores
concretos arbitrarios a las variables libres x2 y x4 se obtiene una solución. Ası́, el conjunto de soluciones de este sistema es infinito y está dado por:
{(x1 , x2 , x3 , x4 , x5 ) | x5 = 1, x3 = −7 − 2x4 , x1 = 4 + 3x2 − 5x4 ; x2 , x4 ∈ R} .
Una manera más compacta de expresar las soluciones es:
⎤
⎡
⎤ ⎡
4 + 3s − 5r
x1
⎥
⎢ x2 ⎥ ⎢
s
⎥
⎢
⎥ ⎢
⎢ x3 ⎥ = ⎢ −7 − 2r ⎥;
⎥
⎢
⎥ ⎢
⎦
⎣ x4 ⎦ ⎣
r
1
x5
r, s ∈ R.
Al dar valores concretos a r y s se obtendrá una solución particular; por ejemplo, si r = 0 y s = 0, es
fácil darse cuenta que
⎡
⎤
⎤ ⎡
x1
4
⎢ x2 ⎥ ⎢ 0 ⎥
⎢
⎥
⎥ ⎢
⎢ x3 ⎥ = ⎢ −7 ⎥
⎢
⎥
⎥ ⎢
⎣ x4 ⎦ ⎣ 0 ⎦
1
x5
resuelve el sistema de ecuaciones.
3. Para este sistema no pueden existir números reales x1 , x2 , x3 tales que 0x1 + 0x2 + 0x3 = −1; es decir,
el sistema no tiene solución, es inconsistente. 1.2.3 Operaciones de renglón para matrices, equivalencia por filas y soluciones
1.2.3 de sistemas escalonados
Motivados en los métodos de la subsección precedente para resolver sistemas lineales, definimos las
siguientes operaciones de renglón (fila) para matrices.
Operaciones elementales de renglón para matrices
1. Intercambio de filas: Ri ←→ R j .
2. Cambio de escala: Ri ←→ αRi (α = 0).
3. Suma de filas: Ri ←→ αRi + βR j (α = 0).
Las cuales significan, respectivamente:
• La fila i se intercambia con la fila j.
• La fila i se cambia por la misma fila multiplicada por α.
• La fila i se cambia por la suma de α-veces la fila i con β-veces la fila j.
Page (PS/TeX): 22 / 22, COMPOSITE
SECCIÓN 1.2
Sistemas lineales 23
Matrices equivalentes
Definición 1.14 Sean A , B ∈ Mm×n . B es equivalente por filas a la matriz A (o simplemente equivalente a A), si B se puede obtener de la matriz A al aplicarle una sucesión finita de operaciones
elementales de renglón. Si B es equivalente a A escribiremos B ∼ A o B ↔ A.
Ejemplo 1.26 Si
A=
y
1
2
1
0
B=
2
−3
3
−1
2
3
−7 −7
4 5
0 1
4
−8
5
−9
,
B ∼ A; pues B se obtiene de A mediante la operación de renglón
R2 ←→ −2R1 + R2 No es difı́cil probar el siguiente teorema.
Teorema 1.1 Si A, B ∈ Mm×n , entonces
1. A ∼ A. (Reflexividad)
2. A ∼ B ⇒ B ∼ A. (Simetrı́a)
3. A ∼ B y B ∼ C ⇒ A ∼ C. (Transitividad)
Del teorema precedente inciso 2, se ve que ya no es necesario decir que B es equivalente a A, pues
en tal caso simplemente podremos enunciar que A y B son equivalentes.
Al aplicar operaciones de renglón a un sistema se obtiene un sistema equivalente. Es decir:
Teorema 1.2 Si [ A |b ] ∼ [ H |c ], entonces los sistemas Ax =b y Hx =c tienen las mismas soluciones.
Es claro que siempre se pueden aplicar operaciones de fila a una matriz A, de manera adecuada, para
obtener una matriz escalonada equivalente a ella. Lo cual hacemos patente en la siguiente proposición.
Teorema 1.3 Toda matriz es equivalente por filas al menos a una matriz en forma escalonada.
Soluciones de sistemas escalonados
Del ejemplo 1.25 (cfr. pág. 21) se conjetura el siguiente teorema, cuya demostración es sencilla y se
deja como ejercicio al lector.
Page (PS/TeX): 23 / 23, COMPOSITE
24 CAPÍTULO 1
Matrices y sistemas lineales
Teorema 1.4 Sea un sistema Ax = b y supongamos que [ H |c ] es un sistema (cualquier sistema)
escalonado equivalente; es decir, [A |b ] ∼ [ H |c ], entonces
1. Ax = b es inconsistente si y sólo si [ H |c ] tiene una fila de ceros en el lado izquierdo y un
elemento no nulo en el lado derecho de la partición (ejemplo 1.25 inciso 3).
2. Ax = b tiene solución única si y sólo si es consistente y [ H |c ] tiene pivote en todas las
columnas en el lado izquierdo de la partición (ejemplo 1.25 inciso 1).
3. Ax = b tiene infinidad de soluciones si y sólo si es consistente y [ H |c ] no tiene pivote en
alguna columna en el lado izquierdo de la partición (ejemplo 1.25 inciso 2).
P Nota 1.3 Es claro, del teorema anterior, que
• un sistema consistente tiene solución única cuando una forma escalonada equivalente no tiene
variables libres.
• un sistema consistente tiene una infinidad de soluciones cuando una forma escalonada equivalente
tiene variables libres.
1.2.4 Método de Gauss
El método de Gauss sirve para “llevar” una matriz a una forma escalonada equivalente aplicando operaciones de renglón. Bosquejamos el método por medio del siguiente algoritmo:
Supongamos que A es una matriz m × n no nula (si A es la matriz cero, A está en forma escalonada).
G1: Se busca una fila en A que tenga su primer elemento distinto de cero y se intercambia (si es
necesario) con la primera fila de la matriz A; si no existe una fila de A que tenga su primer elemento
no nulo, entonces se busca una fila de la matriz A que tenga el segundo elemento distinto de cero
y se intercambia (si es necesario) con la primera fila de la matriz A; de no suceder ası́, se busca
una fila de A que tenga el tercer elemento distinto de cero y se intercambia (si es necesario) con la
primera fila de A, etc.; obteniendo finalmente una matriz B1 ∼ A con un primer elemento no nulo
en la primera fila que llamaremos pivote (en este caso de la primera fila).
Por ejemplo, si
⎤
⎡
0 −4 −1 3
4
0 7 ⎦,
A=⎣ 3
1
1
3 5
entonces una operación de renglón para llevar a cabo este paso puede ser R1 ↔ R3 , resultando la
equivalencia de matrices
⎡
A
0 −4 −1
⎣ 3
4
0
1
1
3
⎤ ⎡
3
1
7 ⎦∼⎣ 3
5
0
B1
1
4
−4
El pivote de la primera fila de la matriz B1 es b111 = 1.
Page (PS/TeX): 24 / 24, COMPOSITE
⎤
3 5
0 7 ⎦.
−1 3
SECCIÓN 1.2
Sistemas lineales 25
G2: Con el pivote de la primera fila de B1 se transforman en ceros los elementos que están por debajo
de él mediante la operación suma de filas, obteniendo una matriz B2 ∼ B1 ∼ A, que tendrá todas
las componentes nulas debajo del pivote de la primera fila.
Por ejemplo, con el caso particular ilustrado en el paso anterior podemos hacer ceros los elementos debajo del pivote 1 de la primera fila de la matriz B1 mediante la operación R2 ↔ −3R1 +R2
para obtener la matriz B2 ; es decir,
⎡
1
⎣ 3
0
B1
⎤ ⎡
1
1
3 5
⎦
⎣
0
∼
4
0 7
0
−4 −1 3
B2
⎤
1
3
5
1 −9 −8 ⎦
−4 −1
3
G3: Ahora se repiten los pasos G1 y G2 con la segunda fila de la matriz B2 , produciendo una matriz
B3 ∼ B2 ∼ B1 ∼ A cuyas componentes serán nulas debajo del pivote de su segunda fila.
Para el caso particular ilustrado, el pivote de la segunda fila de la matriz9 B2 es b222 = 1. Se
pueden hacer ceros los elementos debajo del mismo mediante la operación R3 ↔ 4R2 + R3 , esto es
⎡
1
⎣ 0
0
B2
⎤ ⎡
B3
⎤
1
3
5
1 1
3
5
1 −9 −8 ⎦∼⎣ 0 1 −9 −8 ⎦
0 0 −37 −29
−4 −1
3
G4: Se repiten los pasos G1, G2 y G3 con las filas subsecuentes de las matrices equivalentes que
resulten, hasta obtener una matriz H en forma escalonada de acuerdo a la definición 1.11.
Para el caso ilustrado previamente, la matriz B3 ya está en forma escalonada; con lo que
⎡
A
⎤ ⎡
B3 =H
⎤
0 −4 −1 3
1 1
3
5
⎣ 3
4
0 7 ⎦∼⎣ 0 1 −9 −8 ⎦
1
1
3 5
0 0 −37 −29
terminarı́a el proceso para este ejemplo particular.
P Nota 1.4
1. El lector debe tener en mente que el propósito fundamental del método de Gauss es obtener una
matriz en forma escalonada equivalente a una matriz dada, mediante el uso de las operaciones
elementales de renglón en cualquier combinación. Ası́ que el algoritmo anterior sólo es una guı́a
para este propósito. Cualquier modificación es válida siempre y cuando se empleen únicamente
las operaciones de renglón para matrices y se alcance el objetivo de obtener una matriz en forma
escalonada equivalente por filas a la matriz inicial.
2. A lo largo de este texto haremos uso de oraciones informales como “llevar la matriz A a forma escalonada”. Este tipo de oraciones en realidad deben interpretarse como “obtener una forma
19 El número 2 en b222 de esta notación juega el papel de un supraı́ndice, haciendo referencia a la matriz B2 y no de un exponente.
Page (PS/TeX): 25 / 25, COMPOSITE
26 CAPÍTULO 1
Matrices y sistemas lineales
escalonada equivalente a la matriz A”, que serı́a la manera apropiada de expresar este tipo de instrucciones; pero, ya que esa forma escalonada equivalente se obtiene a partir de la matriz A, nos
permitiremos ese tipo de frases sacrificando rigor en aras de brevedad en el lenguaje. Sin embargo, es conveniente que el lector tenga siempre presente el significado preciso de esas oraciones
coloquiales.
Ejemplo 1.27 Obtener una matriz equivalente por filas a la matriz
⎤
⎡
2 −4
2 −2
⎢ 2 −4
3 −4 ⎥
⎥
A=⎢
⎣ 4 −8
3 −2 ⎦
0
0 −1
2
que esté en forma escalonada.10 ⎤
2 −4 2 −2
⎢ 2 −4 3 −4 ⎥
⎥
A= ⎢
⎣ 4 −8 3 −2 ⎦
0 0 −1 2
⎡
Solución
⎤
1 −2 1 −1
⎢ 2 −4 3 −4 ⎥
⎥
⎢
⎣ 4 −8 3 −2 ⎦
0
0 −1 2
⎡
←−−−−−−−−→
R1 ↔ (1/2)R1
⎤
1 −2 1 −1
⎢ 0 0 1 −2 ⎥
⎥
⎢
⎣ 0 0 −1 2 ⎦
0 0 −1 2
⎡
←−−−−−−−−−−→
R2 ↔ −2R1 + R2
R3 ↔ −4R1 + R3
⎤
1 −2 1 −1
⎢ 0 0 1 −2 ⎥
⎥
⎢
⎣0 0 0 0⎦
0 00 0
⎡
←−−−−−−−→
R3 ↔ R2 + R3
R4 ↔ R2 + R4
=
H
La matriz resultante, H, está en forma escalonada y es equivalente a la matriz A.
Método de Gauss para resolver sistemas lineales
Ejemplo 1.28 Resolver el siguiente sistema de ecuaciones por el método de Gauss.
x1
2x1
3x1
−x1
−
−
−
+
2x2
3x2
5x2
x2
+
+
+
−
x3
2x3
3x3
x3
−
−
−
+
x4
3x4
4x4
2x4
=
=
=
=
4
−1
3
5
Solución
Para resolver el problema llevaremos la matriz aumentada a una forma escalonada y haremos
sustitución regresiva.11
1Hemos marcado en color rojo los pivotes en cada paso para que el lector recuerde que el propósito es ir haciendo ceros, mediante
las operaciones de renglón indicadas, los elementos debajo de ellos.
11
1De aquı́ en adelante, salvo algunas excepciones, ya no indicaremos las operaciones de renglón que se requieren para obtener
una forma escalonada equivalente a una matriz, pues el objetivo es utilizar la notación matricial para auxiliarse y hacer todos los
cálculos mecánica y mentalmente.
10
Page (PS/TeX): 26 / 26, COMPOSITE
SECCIÓN 1.2
⎤
⎡
1
4
⎢ 0
−1 ⎥
⎥ ←→ ⎢
⎣ 0
3 ⎦
0
5
⎡
1
⎢ 0
⎢
←→ ⎣
0
0
⎡
1 −2
1 −1
⎢ 2 −3
2 −3
⎢
⎣ 3 −5
3 −4
−1
1 −1
2
−2
1
1
−1
1 −1
0 −1
0 −1
0
1
−2
1
0
0
1 −1
0 −1
0
0
0
0
Sistemas lineales 27
⎤
4
−9 ⎥
⎥
−9 ⎦
9
⎤
4
−9 ⎥
⎥.
0 ⎦
0
Ası́, las variables ligadas son x1 , x2 y las libres x3 , x4 . Y x2 = −9 + x4 ; x1 = 4 + 2x2 − x3 + x4 = −14 +
3x4 − x3 . La solución está dada entonces por:
⎤
⎡ ⎤ ⎡
−14 + 3r − s
x1
⎢x2 ⎥ ⎢ −9 + r ⎥
⎥; r, s ∈ R. ⎢ ⎥=⎢
⎦
⎣x3 ⎦ ⎣
s
r
x4
Sistemas con la misma matriz de coeficientes
Es frecuente en la práctica tener que resolver sistemas con la misma matriz de coeficientes pero con
distintos términos independientes; por ejemplo, los sistemas
x − 2y + 3z
−x + 4y + 5z
=
=
−2
7
(1.14)
r − 2s + 3t
−r + 4s + 5t
=
1
= −4
(1.15)
y
1 −2 3
−2
1
, y términos independientes
y
,
−1
4 5
7
−4
respectivamente. En lugar de resolverlos cada uno por separado, podemos solucionarlos simultáneamente colocando en el lado derecho de la partición de la matriz ampliada las dos columnas que contienen
los dos términos independientes, llevar a forma escalonada y resolver por sustitución regresiva para la
primera columna y después para la segunda:
−2
1
1 −2 3
1 −2 3
−2
1
↔
.
(1.16)
7 −4
0
2 8
−1
4 5
5 −3
tienen la misma matriz de coeficientes,
Resolviendo para la primera columna tenemos y = 52 − 4z, x = −2 + 2y − 3z = 3 − 11z; ası́ que
⎤
⎡ ⎤ ⎡
3 − 11α
x
⎣ y ⎦ = ⎣ 5 − 4α ⎦,
2
z
α
α ∈ R, es la solución para el sistema (1.14). Resolviendo ahora para la segunda columna de (1.16)
obtenemos s = − 23 − 4t, r = 1 + 2s − 3t = −2 − 11t; es decir,
⎤
⎡ ⎤ ⎡
−2 − 11β
r
⎣ s ⎦ = ⎣ − 3 − 4β ⎦,
2
t
β
β ∈ R, es la solución del sistema (1.15).
Page (PS/TeX): 27 / 27, COMPOSITE
28 CAPÍTULO 1
Matrices y sistemas lineales
1.2.5 Método de Gauss-Jordan y sistemas con solución única
Definición 1.15 Una matriz está en forma escalonada reducida si:
1. Está en forma escalonada.
2. Arriba de cada pivote las componentes (si hay) son nulas.
3. Todos los pivotes son unos.
⎡
1
⎢ 0
Ejemplo 1.29 La matriz ⎢
⎣ 0
0
0
1
0
0
2
8
0
0
⎤
0
0 ⎥
⎥ está en forma escalonada reducida.
1 ⎦
0
Método de Gauss-Jordan
Para llevar una matriz a forma escalonada reducida se procede de la manera siguiente:
1. Se lleva la matriz a forma escalonada mediante el método de Gauss.
2. Se hacen ceros todos los elementos arriba de cada pivote utilizando el método de Gauss de abajo
hacia arriba.
3. Se convierten en unos todos los pivotes mediante la operación de renglón cambio de escala.
Empleando el método de Gauss-Jordan se puede probar el teorema que enunciamos a continuación.
Teorema 1.5 Toda matriz es equivalente por filas a una y sólo una matriz en forma escalonada
reducida.12
Ejemplo 1.30 Obtener la forma escalonada reducida equivalente a la matriz A por el método de
Gauss-Jordan si
⎤
⎡
−2 −1 0
3 −4
0
3 ⎦ .
A = ⎣ 3 −1 2
5 −4 0 −1
2
Solución
⎤
⎤
⎡
−2 −1 0 3 −4
−2 −1 0 3 −4
(1)
⎣ 3 −1 2 0 3 ⎦ ←→ ⎣ 0 −5 4 9 −6 ⎦
0 −13 0 13 −16
5 −4 0 −1 2
⎤
⎡
−2 −1
0
3 −4
(2)
4
9 −6 ⎦
←→ ⎣ 0 −5
0 0 −52 −52 −2
⎡
1Compare con el teorema 1.3, página 23.
12
Page (PS/TeX): 28 / 28, COMPOSITE
SECCIÓN 1.2
Sistemas lineales 29
⎤
−2 −1
0
3 −4
4
9 −6 ⎦
←→ ⎣ 0 −5
0 0 −26 −26 −1
⎡
(3)
⎤
−2 −1
0
3 −4
0 65 −80 ⎦
←→ ⎣ 0 −65
0
0 −26 −26 −1
⎡
(4)
⎤
−2 −1
0
3 −4
0 13 −16 ⎦
←→ ⎣ 0 −13
0
0 −26 −26 −1
⎡
(5)
⎤
−26
0
0 26 −36
0 13 −16 ⎦
←→ ⎣ 0 −13
0
0 −26 −26 −1
⎡
(6)
⎤
1 0 0 −1 18/13
←→ ⎣ 0 1 0 −1 16/13 ⎦.
0 0 1 1 1/26
⎡
(7)
Donde, para facilitar su comprensión, esta vez hemos indicado las operaciones de renglón en cada
paso del (1) al (7), señalando los pivotes en azul más claro cuando se hacen ceros los elementos por
debajo de los mismos y en rojo cuando se hacen ceros los elementos por encima de los pivotes. (1): R2 ↔
3R1 + 2R2 , R3 ↔ 5R1 + 2R3 ; (2): R3 ↔ −13R2 + 5R3 ; (3): R3 ↔ (1/2)R3 ; (4): R2 ↔ 2R3 + 13R2 ; (5):
R2 ↔ (1/5)R2 ; (6): R1 ↔ 13R1 − R2 ; (7): R1 ↔ (−1/26)R1 , R2 ↔ (−1/13)R2 , R3 ↔ (−1/26)R3 . P Nota 1.5 A diferencia de la forma escalonada reducida de una matriz, que es única, es claro que al
hacer operaciones de renglón a una matriz A para obtener una matriz en forma escalonada equivalente,
se pueden obtener diferentes matrices. Sin embargo, para cualquier par de matrices en forma escalonada
equivalentes a la matriz A se cumple:
1. Las dos matrices tienen el mismo número de pivotes.
2. Los pivotes se encuentran en las mismas posiciones en ambas matrices; es decir, si una matriz
tiene un pivote en la componente i j la otra también tiene un pivote en esta componente.
Ilustramos la nota 1.5 en el siguiente ejemplo.
⎡
2
Ejemplo 1.31 Sea A = ⎣ 4
1
⎡
2
⎣ 4
1
Page (PS/TeX): 29 / 29, COMPOSITE
−3
−1
−2
1
0
3
⎤
−3 1 1 5
−1 0 1 2 ⎦, entonces
−2 3 1 1
1
1
1
⎤
5
2 ⎦ ∼
1
⎡
2
⎣ 0
0
⎡
2
∼ ⎣ 0
0
⎤
−3
1
1
5
5 −2 −1 −8 ⎦
1 −5 −1
3
⎤
−3
1
1
5
5 −2 −1 −8 ⎦ = H1
0 23
4 −23
30 CAPÍTULO 1
Matrices y sistemas lineales
y
⎤
2 −3 1 1 5
⎣ 4 −1 0 1 2 ⎦
1 −2 3 1 1
⎡
⎡
∼
1
⎣ 4
2
⎤
⎤ ⎡
1 −2
3
1
1
−2 3 1 1
7 −12 −3 −2 ⎦
−1 0 1 2 ⎦ ∼ ⎣ 0
0
1 −5 −1
3
−3 1 1 5
⎤
1
3 ⎦
−2
⎡
∼
1 −2
3
1
⎣ 0
1 −5 −1
0
7 −12 −3
⎡
∼
1
⎣ 0
0
−2
3
1
1 −5 −1
0 23
4
⎤
1
3 ⎦ = H2 .
−23
Ası́ A ∼ H1 , A ∼ H2 ; H1 y H2 están en forma escalonada, H1 = H2 ; ambas matrices tienen el mismo
número de pivotes y se encuentran en las mismas posiciones en las dos matrices.
Sistemas lineales y método de Gauss-Jordan
Los sistemas lineales también se pueden resolver utilizando el método de Gauss-Jordan para llevar la
matriz ampliada a forma escalonada reducida y realizar sustitución regresiva, como hacemos patente en
el siguiente ejemplo.
Ejemplo 1.32 Resolver el siguiente sistema mediante el método de Gauss-Jordan
x1
−x1
2x1
Solución
−
+
−
2x2
x2
x2
+
x3
+
x3
+
+
+
3x4
2x4
5x4
=
=
=
−1
2
1 Llevemos la matriz ampliada a la forma escalonada reducida:
⎡
1
⎣ −1
2
−2 1 3
1 0 2
−1 1 5
⎤
−1
2 ⎦ ∼
1
⎡
1
⎣ 0
0
⎡
∼
1
⎣ 0
0
⎡
∼
1
⎣ 0
0
⎡
∼
1
⎣ 0
0
⎡
∼
Page (PS/TeX): 30 / 30, COMPOSITE
⎤
−1
1 ⎦
3
−2
1
3
−1
1
5
3 −1 −1
⎤
−1
1 ⎦
6
−2 1 3
−1 1 5
0 2 14
⎤
−1
−1 ⎦
3
−2
1
3
1 −1 −5
0
1
7
−2 0 −4
1 0
2
0 1
7
1 0 0 0
⎣ 0 1 0 2
0 0 1 7
⎤
−4
2 ⎦
3
⎤
0
2 ⎦.
3
SECCIÓN 1.2
Sistemas lineales 31
Al hacer sustitución regresiva tenemos x3 = 3 − 7x4 , x2 = 2 − 2x4 y x1 = 0; luego la solución viene
dada por
⎤
⎡
⎤ ⎡
0
x1
⎢ x2 ⎥ ⎢ 2 − 2r ⎥
⎥
⎢
⎥ ⎢
⎣ x3 ⎦ = ⎣ 3 − 7r ⎦; r ∈ R. r
x4
Sistemas con solución única
En este breve apartado damos criterios para determinar cuándo hay solución única en un sistema utilizando la forma escalonada reducida, los cuales son fáciles de probar utilizando el teorema 1.4.
Sea A ∈ Mm×n :
1. Caso m > n. Sea Ax = b un sistema lineal consistente, entonces las dos condiciones siguientes son
equivalentes ((a) ⇔ (b)):
(a) El sistema Ax = b tiene solución única.
(b) La forma escalonada reducida equivalente a A consiste de la identidad n × n seguida de
(b) m − n filas nulas.
2. Caso m < n. Supongamos que el sistema Ax = b es consistente y tiene menos ecuaciones que
incógnitas. Entonces tiene una infinidad de soluciones.
3. Caso m = n. Ax = b tiene solución única para todo b si y sólo si A es equivalente a la identidad; es
decir, la forma escalonada reducida equivalente a A es In .
P Nota 1.6 Para determinar que una matriz cuadrada sea equivalente a la identidad, basta revisar que
al llevarla a una forma escalonada toda columna en ésta tenga pivote (por su definición, éste debe
ser distinto de cero); ya que entonces, por el método de Gauss-Jordan, su forma escalonada reducida
equivalente será la identidad.
1.2.6 Sistemas homogéneos
⎡
⎢
⎢
Definición 1.16 Un sistema lineal con la forma Ax = 0, donde 0 = ⎢
⎣
0
0
..
.
⎤
⎥
⎥
⎥, se llama homogéneo.
⎦
0
Todo sistema homogéneo es consistente pues x = 0 es solución del mismo; la llamada solución
trivial.
De los casos 1 y 2, de criterios de solución única de la subsección precedente, deducimos el siguiente
teorema.
Page (PS/TeX): 31 / 31, COMPOSITE
32 CAPÍTULO 1
Matrices y sistemas lineales
Teorema 1.6 Sea A ∈ Mm×n . Entonces
1. Si m = n, el sistema homogéneo cuadrado Ax = 0 tiene solución no trivial si y sólo si A no es
equivalente a la identidad.
2. Todo sistema homogéneo Ax =0 con menos ecuaciones que incógnitas (m < n) tiene soluciones
no triviales.
Observemos que para resolver un sistema homogéneo Ax = 0, no es necesario poner ceros en la
última columna de la ampliación; pues todos los términos independientes son nulos y al hacer las operaciones de renglón no se verán afectados. Ası́ que bastará llevar a forma escalonada la matriz A y hacer
sustitución regresiva recordando que los términos independientes son nulos.
Ejemplo 1.33 Para el sistema homogéneo
1
1 −1
1 −1 −3
de aquı́,
x1 + x2 − x3
=
0
x1 − x2 − 3x3
=
0,
↔
1
0
1 −1
−2 −2
⎤
⎤ ⎡
x1
2r
⎣ x2 ⎦ = ⎣ −r ⎦;
r
x3
↔
1 1 −1
;
0 1
1
⎡
r ∈ R.
1.2.7 Estructura de las soluciones
El teorema a continuación describe la estructura de las soluciones de los sistemas no homogéneos en
relación con los homogéneos y, de paso, nos muestra que es posible resolver al mismo tiempo el sistema
no homogéneo Ax = b y el sistema homogéneo asociado Ax = 0.
Teorema 1.7 Sea A ∈ Mm×n .
1. Si h1 , h2 son soluciones particulares del sistema homogéneo Ax = 0 y α ∈ R, entonces
(a) h1 +h2 es también solución.
(b) αh1 es solución del sistema.
2. Sea p una solución particular del sistema no homogéneo Ax = b.
(a) Si h es cualquier solución del sistema homogéneo asociado Ax = 0, entonces p +h es
solución del sistema no homogéneo Ax = b.
(b) Si p es una solución particular del no homogéneo Ax = b, entonces toda solución u de
este sistema tiene la forma p +h, para alguna solución h del sistema lineal homogéneo
asociado Ax = 0.
Page (PS/TeX): 32 / 32, COMPOSITE
Sistemas lineales 33
SECCIÓN 1.2
DEMOSTRACIÓN
Q 1. (a) Como h1 , h2 son soluciones, Ah1 = 0 y Ah2 = 0. Luego,
A(h1 +h2 ) = Ah1 + Ah2 = 0.
(a) Por tanto, h1 +h2 es también solución.
(b) A(αh1 ) = α(Ah1 ) = α0 = 0; lo cual nos dice que αh es solución.
2. (a) A(p +h) = Ap + Ah =b +0 = b; pues p es solución de Ax = b y h es solución del homogéneo.
(b) Sea u una solución de Ax = b. Entonces, si h = u − p, Ah = A(u − p) = Au − Ap = b −b = 0;
y u = p +h. Q
Ejemplo 1.34 Resolver el sistema
x1
2x1
3x1
−x1
−
−
−
+
2x2
3x2
5x2
x2
+
+
+
−
x3
2x3
3x3
x3
−
−
−
+
x4
3x4
4x4
2x4
=
=
=
=
4
−1
3
5
y encontrar la solución del sistema homogéneo asociado.
Solución
⎡
1 −2
1 −1
⎢ 2 −3
2 −3
⎢
⎣ 3 −5
3 −4
−1
1 −1
2
⎤
4
−1 ⎥
⎥
3 ⎦
5
⎡
↔
1 −2 1
⎢ 0
1 0
⎢
⎣ 0
1 0
0 −1 0
⎡
1 −2 1
⎢ 0
1 0
⎢
↔ ⎣
0
0 0
0
0 0
−1
−1
−1
1
⎤
4
−9 ⎥
⎥
−9 ⎦
9
−1
−1
0
0
⎤
4
−9 ⎥
⎥.
0 ⎦
0
Ası́, la solución del sistema es
⎤
⎤ ⎡
⎤ ⎡
⎡ ⎤ ⎡
3r − s
−14
3r − s − 14
x1
⎢x2 ⎥ ⎢ r − 9 ⎥ ⎢ −9 ⎥ ⎢ r ⎥
⎥;
⎥+⎢
⎥=⎢
⎢ ⎥=⎢
⎦ ⎣
⎣x3 ⎦ ⎣
0 ⎦ ⎣ s ⎦
s
r
0
r
x4
r, s ∈ R.
De donde observamos que para este caso
⎤
⎤ ⎡
3r − s
−14
⎢ −9 ⎥ ⎢ r ⎥
⎥;
⎥y⎢
⎢
⎣
0 ⎦ ⎣ s ⎦
r
0
⎡
r, s ∈ R
son, respectivamente, una solución particular del no homogéneo y la solución del homogéneo asociado. Page (PS/TeX): 33 / 33, COMPOSITE
34 CAPÍTULO 1
Matrices y sistemas lineales
1.2.8 Sistemas lineales con números complejos
Nuevamente, como en la sección 1.1.5 (cfr. pág. 12), haremos uso de números complejos en álgebra
lineal; esta vez en sistemas lineales. Para resolver sistemas lineales con coeficientes complejos simplemente aplicaremos las mismas técnicas que hemos desarrollado en esta sección, pero realizando las
operaciones con números complejos. Todas las propiedades y teoremas relativos a sistemas lineales
sobre el campo de los números reales de esta sección siguen siendo válidos cuando los coeficientes y
términos independientes son números complejos.13
Ejemplo 1.35 Resolvamos el sistema
x1
ix1
x1
+ (1 + i)x2
−
2ix2
+ (1 − i)x2
−
+
+
ix3
x3
2ix3
=
=
=
2i
1 − 2i
1 + i.
Para ello aplicamos el método de Gauss empleando el álgebra de números complejos en las operaciones.14
⎤
⎤
⎡
⎡
2i
2i
1 1 + i −i
1 1 + i −i
(1)
⎣ i −2i 1
3 − 2i ⎦
1 − 2i ⎦ ←→ ⎣ 0 1 − 3i 0
1−i
1+i
0 −2i
3i
1 1 − i 2i
⎤
⎡
2i
1 1 + i −i
(2)
1−i ⎦
3i
←→ ⎣ 0 −2i
3 − 2i
0 1 − 3i 0
⎤
⎡
2i
1 1+i
−i
(3)
1/2 + 1/2i ⎦
1
−3/2
←→ ⎣ 0
3 − 2i
0 1 − 3i
0
⎤
⎡
2i
1 1+i
−i
(4)
1/2 + 1/2i ⎦.
1
−3/2
←→ ⎣ 0
1−i
0
0
3/2 − 9i/2
De donde, al hacer sustitución regresiva,
x3 =
=
x2 =
=
=
1−i
3
9
2 − 2i
4
2
15 + 15 i ,
1
1
3
2 + 2 i + 2 x3
1
1
2
1
2 + 2i+ 5 + 5i
9
7
10 + 10 i ,
y
x1 = 2i − (1 + i)x2 + ix3
9
7
4
2
= 2i − (1 + i)( 10
+ 10
i) + i( 15
+ 15
i)
= − 13 + 23 i .
1Cfr. B.1 del apéndice B y la subsección 1.1.5.
1(1): R2 ↔ −iR1 + R2 , R3 ↔ −R1 + R2 ; (2): R2 ↔ R3 ; (3): R2 ↔ (−1/2i)R2 ; (4): R3 ↔ −(1 − 3i)R2 + R3 .
13
14
Page (PS/TeX): 34 / 34, COMPOSITE
SECCIÓN 1.3
Ejercicios resueltos y ejercicios propuestos 35
Ejemplo 1.36 Resolver el sistema
x1 + ix2 − x3 = 5
x1 − 2ix2 + 5x3 = 5 + 6i .
Solución
y al hacer sustitución regresiva
Finalmente, dado que
1
1
i
−1
−2i 5
5
5 + 6i
∼
1
0
i
−1
−3i 6
5
6i
⎡
⎤
⎤ ⎡
x1
5 + 2i − α
⎣ x2 ⎦ = ⎣ −2 − 2iα ⎦ ;
α
x3
α ∈ C.
⎤
⎤ ⎡
⎤ ⎡
−α
x1
5 + 2i
⎣ x2 ⎦ = ⎣ −2 ⎦ + ⎣ −2iα ⎦ ,
α
0
x3
⎡
se desprende que la solución del sistema homogéneo asociado está dada por
⎤
⎡
−α
⎣ −2iα ⎦, α ∈ C. α
1.3 Ejercicios resueltos y ejercicios propuestos
1.3.1 Ejercicios resueltos
11 Determinar los
⎡
1 −2
a
B=⎣ 3
4 −5
Solución
⎤
1 −2 a
2 2 ⎦ y
valores de a y b, si es que existen, para que las matrices A = ⎣ 3
4 −5 1
⎤
2b
2 ⎦ sean iguales.
1
⎡
Matrices
Las matrices A y B serán iguales si a = 2b y a = 2, y esto sucede si a = 2 y b = 1.
12 Calcular
−1 0
1
2 3 −4
−3
−3
1
8
.
⎤
−1 1
0
−2 3 −1
⎦
⎣
0 1
1 +
(b)
2 6 −5
2 3 −1
.
(a)
+
2
−5
(c) −4
−2
0
3 −1 1
−1
1 2
.
⎡
Solución
(a)
−1 0
1
2 3 −4
Page (PS/TeX): 35 / 35, COMPOSITE
+
2
−5
−3
−3
1
8
=
−1 + 2
2−5
0−3
1+1
3 − 3 −4 + 8
=
1
−3
−3 2
0 4
.
36 CAPÍTULO 1
Matrices y sistemas lineales
(b) La suma de estas matrices no está definida porque tienen distintos tamaños; la primera tiene tamaño
3 × 3 mientras que la segunda tiene tamaño 2 × 3.
−4
(c)
−2 3 −1 1
0 −1 1 2
=
=
(−4)(−2) (−4)(3) (−4)(−1) (−4)(1)
(−4)(0) (−4)(−1) (−4)(1) (−4)(2)
8 −12 4 −4
0
4 −4 −8
13 Calcular
⎤
⎤
−1
2
0 ⎡
2 −3
⎥
⎢ 1
2
1
⎥⎣ 1
2 ⎦.
(a) ⎢
⎣ −2
2 −3 ⎦
−3
2
1 −2
4
⎡
⎡
(b) ⎣
2
1
−3
⎤
⎡
−1
−3 ⎢
1
2 ⎦⎢
⎣ −2
2
1
⎤
2
0
2
1 ⎥
⎥.
2 −3 ⎦
−2
4
Recordemos que el producto de dos matrices, A ∈ Mm×n y B ∈ Mr×s , está definido sólo si
n = r; en tal caso la matriz producto, AB, tiene entonces tamaño m × s. Una forma de recordar esto es
que en el “producto” (m × n)(r × s) los “medios” deben ser iguales; esto es, n = r; y la matriz producto
tiene tamaño el producto de los “extremos”: m × s. Finalmente, si el producto está definido, la i-ésima
fila del mismo se obtiene multiplicando la fila Fi de la matriz A con cada una de las columnas C j de la
matriz B como se indica en (1.1) de la página 5.
Solución
(a) En este caso se tiene (4 × 3) (3 × 2), los “medios” son iguales ası́ que el producto está definido y el
tamaño de la matriz producto es (4 × 2), el producto de los “extremos”.
⎡
⎤
⎡
⎤
⎤
F1C1 F1C2
−1
2
0 ⎡
2
−3
⎢ F2C1 F2C1 ⎥
⎢ 1
2
1 ⎥
⎥⎣ 1
⎢
⎥
2 ⎦ = ⎢
⎣ F3C1 F3C1 ⎦
⎦
⎣ −2
2 −3
−3
2
1 −2
4
F3C1 F3C1
⎤
−2 + 2 + 0
3+4+0
⎢ 2 + 2 − 3 −3 + 4 + 2 ⎥
⎥
⎢
⎣ −4 + 2 + 9
6+4−6 ⎦
2 − 2 − 12 −3 − 4 + 8
⎡
=
⎡
0
⎢
1
= ⎢
⎣
7
−12
⎤
7
3 ⎥
⎥.
4 ⎦
1
(b) En este caso se tiene (3×2)(4×3), que tiene “medios” distintos, ası́ que el producto no está definido.
En los ejercicios 4 a 13 sean
A=
−5
−3
⎡
−1 3
7 0
4
C=⎣ 2
−1
⎤
−1
3 ⎦
3
y
Efectuar la operación indicada si es que está definida.
Page (PS/TeX): 36 / 36, COMPOSITE
−2 1
1 1
⎡
−1
D=⎣ 2
−2
B=
,
4
,
−1
⎤
1
3 ⎦.
5
SECCIÓN 1.3
14 4A.
Solución
4A = 4
−5
−3
−1 3
7 0
15 −5A + 2B.
(4)(3)
(4)(0)
=
−20 −4 12
−12 28 0
.
⎤
⎤
⎡
−1 1
4 −1
3C − 4D = 3 ⎣ 2 3 ⎦ − 4 ⎣ 2 3 ⎦
−2 5
−1 3
⎤
⎤ ⎡
⎡
4 −4
12 −3
= ⎣ 6 9 ⎦ + ⎣ −8 −12 ⎦
8 −20
−3 9
⎤
⎡
16 −7
= ⎣ −2 −3 ⎦ . 5 −11
⎡
Solución
17 AC.
AC =
=
=
Solución
(4)(−1)
(4)(7)
−5 −1 3
−2 1 4
−5A + 2B = −5
+2
−3 7 0
1 1 −1
25 5 −15
−4 2 8
=
+
15 −35 0
2 2 −2
21 7 −7
=
. 17 −33 −2
16 3C − 4D.
18 (3B)(5C).
(4)(−5)
(4)(−3)
Solución
Solución
=
Ejercicios resueltos y ejercicios propuestos 37
⎤
⎡
4 −1
−5 −1 3 ⎣
FC FC
2 3⎦= 1 1 1 2
−3 7 0
F2C1 F2C2
−1 3
(−5)(4) + (−1)(2) + (3)(−1) (−5)(−1) + (−1)(3) + (3)(3)
(−3)(4) + (7)(2) + (0)(−1) (−3)(−1) + (7)(3) + (0)(3)
−25 11
.
2 24
⎤⎞
⎛ ⎡
4 −1
−2 1 4
⎝5 ⎣ 2 3 ⎦⎠
(3B)(5C) = 3
1 1 −1
−1 3
⎤
⎡
4 −1
−2 1 4 ⎣
2 3⎦
= 15
1 1 −1
−1 3
−10 17
−150 255
= 15
=
. 7 −1
105 −15
19 CD.
El producto CD no está definido porque la matriz C tiene tamaño 2 × 3 y la matriz D tiene
tamaño 2 × 3; el número de columnas de C (tres) es distinto del número de filas de D (dos). Solución
Page (PS/TeX): 37 / 37, COMPOSITE
38 CAPÍTULO 1
Matrices y sistemas lineales
10 At A.
⎤
⎡
−5 −3 −5 −1 3
−5
−1
3
= ⎣ −1 7 ⎦
At A =
−3 7 0
−3 7 0
3 0
⎤
⎡
34 −16 −15
= ⎣ −16 50 −3 ⎦ . −15 −3
9
Solución
11 (2B − 3A)D.
t
⎤
⎡
−1 1
−2 1 4
−5 −1 3
⎣ 2 3⎦
(2B − 3A)D = 2
−3
1 1 −1
−3 7 0
−2 5
⎤
⎡
−1 1
−4 2 8
15
3 −9
⎣ 2 3⎦
=
+
2 2 −2
9 −21 0
−2 5
⎤
⎡
−1 1
11
5 −1 ⎣
2 3⎦
=
11 −19 −2
−2
5
1 21
=
. −45 −56
Solución
12 (AD)B.
⎛
⎤⎞
⎡
−1 1
−5
−1
3
−2 1 4
⎝
⎦
⎠
⎣
2 3
(AD)B =
−3 7 0
1 1 −1
−2 5
−3 7
−2 1 4
=
17 18
1 1 −1
13 4 −19
=
. −16 35 50
Solución
13 CC t .
⎤t ⎡
⎤⎡
⎤
4 −1
4 −1
4 −1 4 2 −1
⎣ 2 3 ⎦⎣ 2 3 ⎦ = ⎣ 2 3 ⎦
−1 3 3
−1 3
−1 3
−1 3
⎤
⎡
17 5 −7
⎣ 5 13 7 ⎦ . −7 7 10
⎤
−1
1 ⎦. Calcular:
2
⎡
CC t =
Solución
=
⎡
14 Sean A =
−5 −1 3
−3 7 0
−1
2
3
y b = ⎣
(a) Ab.
(b) bA.
⎤
−1
⎣ 1 ⎦ = 9.
2
⎡
Solución
(a) Ab =
Page (PS/TeX): 38 / 38, COMPOSITE
−1 2 3
Ejercicios resueltos y ejercicios propuestos 39
SECCIÓN 1.3
⎤
⎤
⎡
(−1)(−1) (−1)(2) (−1)(3)
−1
bA = ⎣ 1 ⎦ −1 2 3 = ⎣ (1)(−1) (1)(2) (1)(3) ⎦
(2)(−1) (2)(2) (2)(3)
2
⎤
⎡
1 −2 −3
= ⎣ −1 2 3 ⎦ . −2 4 6
⎡
(b)
2
2
15 Sea A una matriz cuadrada; se define A = AA y en general A = AA
· · · A. Calcular A si A =
n
n factores
Solución
2
A = AA =
1 1
1 1
1
1
1
1
=
2 2
2 2
.
1 1
1 1
.
16 Demostrar que la suma de matrices es una operación conmutativa; esto es, si A, B ∈ Mm×n , entonces
A + B = B + A.
DEMOSTRACIÓN
Q Si A = [ai j ] y B = [bi j ] , entonces A + B = [ai j + bi j ] = [bi j + ai j ] = B + A (porque la suma de números
reales es una operación conmutativa). Q
17 Probar que si X es una matriz fila con n componentes y Y es una matriz columna con igual número de
componentes, entonces XY = Y t X t .
⎡
DEMOSTRACIÓN
Q Sean X = [ a1
···
⎤
b1
⎢
⎥
an ] y Y = ⎣ ... ⎦. Entonces XY = ∑ni=1 ai bi y
bn
⎡
⎤
a1
n
⎢
⎥
Y t X t = [ b1 · · · bn ] ⎣ ... ⎦ = ∑ bi ai
an
=
i=1
n
∑ ai bi = XY.
Q
i=1
18 Demostrar la propiedad 3(b) de la sección 1.1.4; es decir, que (AB) t = B t At ∀A ∈ Mm×n , ∀B ∈ Mn×p .
DEMOSTRACIÓN
Q Sean Ai , i = 1, . . . , m, las filas de la matriz A; B j , j = 1, . . . , p, las columnas de la matriz B. Entonces
⎡
⎤t
A 1 B 1 A 1 B 2 · · · A1 B p
⎢ A 2 B 1 A 2 B 2 · · · A2 B p ⎥
⎢
⎥
(AB)t = ⎢ .
⎥
⎣ ..
⎦
A m B1 Am B2 · · · A m B p
⎡
⎤
A1 B1 A2 B1 · · · Am B1
⎢ A1 B2 A2 B2 · · · Am B2 ⎥
⎢
⎥
=⎢ .
. ⎥
.. . .
⎣ ..
. .. ⎦
.
A 1 B p A2 B p · · · A m B p
Page (PS/TeX): 39 / 39, COMPOSITE
40 CAPÍTULO 1
Matrices y sistemas lineales
y
⎡
=
B t At
⎤
B1t
⎢ B2t ⎥
⎢ ⎥ t t
⎢ .. ⎥ A1 A2 · · · Atm
⎣ . ⎦
B pt
⎡
B1t At1 B1t At2 · · ·
⎢ B2t At1 B2t At2 · · ·
⎢
=
⎢ ..
.. . .
⎣ .
.
.
B pt At1 B pt At2 · · ·
⎡
A 1 B1 A2 B1 · · ·
⎢
(ejercicio anterior) ⎢ A1 B2 A2 B2 · · ·
=
⎢ ..
.. . .
⎣ .
.
.
⎤
B1t Atm
B2t Atm ⎥
⎥
.. ⎥
. ⎦
B pt Atm
⎤
Am B1
Am B2 ⎥
⎥
.. ⎥ .
. ⎦
A 1 B p A2 B p · · · A m B p
Con lo que se tiene (AB)t = B t At .
Q
19 Suponer que A y B son matrices cuadradas del mismo orden, ¿es cierto que (A + B)2 = A2 + 2AB + B2
para todo par de matrices A y B?
Solución
10
0 1
1 1
2 2
2
Si A =
yB=
, entonces (A + B) =
=
y
01
1 0
1 1
2 2
A2 + 2AB + B2 =
1 0
1 0
0 1
1 0
2 2
+2
+
=
.
0 1
0 1
1 0
0 1
2 2
2
0 −1
−2 −2
−1 0
2
=
, pero
Sin embargo, si A =
y B=
, entonces (A + B) =
2 2
4 2
1 1
2
2
1 −1
1 −1
−1 0
−1 0
−3 −4
+2
+
=
.
A2 + 2AB + B2 =
1 1
1 1
1 1
1 1
2 3
1 −1
1 1
Es decir, en general A2 + 2AB + B2 = (A + B)2 .
20 ¿Qué condición deben cumplir dos matrices cuadradas del mismo orden, A y B, para que (A + B)2 =
A2 + 2AB + B2 ?
Del ejercicio precedente se puede inferir que la condición que se requiere es que las matrices
conmuten; es decir, que AB = BA. En efecto, si éste es el caso, entonces
Solución
(A + B)2 = (A + B)(A + B) = A(A + B) + B(A + B)
= A2 + AB + BA + B2 = A2 + AB + AB + B2
= A2 + 2AB + B2 .
21 Determinar, si es que existe, el valor que debe tener x para que las matrices A =
B=
3 −4
conmuten; esto es, para que AB = BA.
−2 x
Page (PS/TeX): 40 / 40, COMPOSITE
−3 2
1 4
y
Ejercicios resueltos y ejercicios propuestos 41
SECCIÓN 1.3
Solución
Para que AB = BA se debe tener
−3 2
1 4
3 −4
3 −4
−3 2
=
;
−2 x
−2 x
14
es decir,
−13 12 + 2x
−13
−10
=
;
−5 −4 + 4x
6 + x −4 + 4x
por tanto, se debe cumplir
12 + 2x = −10
y
6 + x = −5.
Lo cual sucede únicamente si x = −11. 22 ¿Qué condición debe cumplir una matriz cuadrada A =
Solución
a b
para que sea simétrica?
cd
Para que A sea simétrica se debe tener A = At ; esto es,
y esto sucede si y sólo si b = c.
a b
a c
=
c d
b d
23 Demostrar que si A ∈ Mm×n , entonces la matriz B = AAt es simétrica.
DEMOSTRACIÓN
Q B t = (AAt )t = (At )t At = AAt = B. Por tanto, B es simétrica (cfr. propiedades de la pág. 10). Q
En los ejercicios 24 a 26 sean
⎤
−1 + i 3i
B = ⎣ −5 + 3i 8 ⎦ ,
7 − 2i 9i
⎡
−i 1 + i
2
A=
,
1 − i 2i 4 + i
⎤
−1 3 + 2i −5i
C = ⎣ 3 −4i 0 ⎦
2 −1 1
⎡
24 Calcular
(a) 2iA,
(b) A − 3B t ,
(c) −3iB t + 2A.
Solución
(a)
2iA = 2i
=
=
Page (PS/TeX): 41 / 41, COMPOSITE
−i 1 + i
2
1 − i 2i 4 + i
(2i)(−i) (2i)(1 + i)
(2i)(2)
(2i)(1 − i) (2i)(2i) (2i)(4 + i)
2 −2 + 2i
4i
.
2 + 2i
−4 −2 + 8i
⎤
−1
y u = ⎣ 2 − 2i ⎦ .
0
⎡
42 CAPÍTULO 1
Matrices y sistemas lineales
A − 3B t =
(b)
=
=
=
⎤t
−1 + i 3i
−i 1 + i
2
− 3 ⎣ −5 + 3i 8 ⎦
1 − i 2i 4 + i
7 − 2i 9i
⎡
−i 1 + i
2
1 − i 2i 4 + i
−1 + i −5 + 3i 7 − 2i
−3
3i
8
9i
−i 1 + i
2
1 − i 2i 4 + i
3 − 3i 15 − 9i −21 + 6i
+
−9i −24
−27i
3 − 4i 16 − 8i −19 + 6i
.
1 − 10i −24 + 2i 4 − 26i
⎤t
−1 + i 3i
−i 1 + i
2
−3iB t + 2A = −3i ⎣ −5 + 3i 8 ⎦ + 2
1 − i 2i 4 + i
7 − 2i 9i
−1 + i −5 + 3i 7 − 2i
−i 1 + i
2
= −3i
+2
3i
8
9i
1 − i 2i 4 + i
3 + 3i 9 + 15i −6 − 21i
−2i 2 + 2i
4
=
+
9 −24i
27
2 − 2i
4i 8 + 2i
3 + i 11 + 17i −2 − 21i
=
. 11 − 2i
−20i 35 + 2i
⎡
(c)
25 Encontrar
(a) Au,
(b) Bu,
(c) Cu.
Solución
Au =
(a)
=
=
⎤
−1
−i 1 + i
2 ⎣
2 − 2i ⎦
1 − i 2i 4 + i
0
⎡
(−i)(−1) + (1 + i)(2 − 2i) + (2)(0)
(1 − i)(−1) + (2i)(2 − 2i) + (4 + i)(0)
4+i
.
3 + 5i
(b) La matriz B tiene tamaño 3 × 2 y la matriz u tiene tamaño 3 × 1, ası́ que el producto Bu no está definido; pues el número de columnas de B es distinto al número de filas de A. (Los “medios” en
(3 × 2)(3 × 1) son distintos.)
⎤
⎤⎡
−1
−1 3 + 2i −5i
Cu = ⎣ 3 −4i 0 ⎦ ⎣ 2 − 2i ⎦
0
2 −1 1
⎤
⎤ ⎡
⎡
11 − 2i
(−1)(−1) + (3 + 2i)(2 − 2i) + (−5i)(0)
⎦ = ⎣ −11 − 8i ⎦ .
(3)(−1) + (−4i)(2 − 2i) + (0)(0)
=⎣
−4 + 2i
(2)(−1) + (−1)(2 − 2i) + (1)(0)
⎡
(c)
Page (PS/TeX): 42 / 42, COMPOSITE
SECCIÓN 1.3
Ejercicios resueltos y ejercicios propuestos 43
26 Hallar
(a) AB,
(b) AC,
Solución
(c) BC.
(a) De acuerdo con (1.1) (cfr. pág. 5)
AB =
=
=
⎤
−1 + i 3i
−i 1 + i
2 ⎣
−5 + 3i 8 ⎦
1 − i 2i 4 + i
7 − 2i 9i
⎡
F1C1 F1C2
F2C1 F2C2
7 − 5i 11 + 26i
.
24 − 9i −6 + 55i
(b) Por (1.1)
AC =
=
=
⎤
−1 3 + 2i −5i
−i 1 + i
2 ⎣
3 −4i 0 ⎦
1 − i 2i 4 + i
2 −1 1
⎡
F1C1 F1C2 F1C3
F2C1 F2C2 F2C3
7 + 4i 4 − 7i
−3
.
7 + 9i 9 − 2i −1 − 4i
(c) El producto no está definido; pues en (3 × 2)(3 × 3) los “medios” son distintos (el número de columnas de B es distinto al número de filas de C). Sistemas lineales
27 Indicar si el sistema dado es lineal o no.
(a)
x1 − 3x2 + x3 = −3
x1 − 4x2 − 3x32 = 5
(b) x1 − cos(x2 )x2 = 0
x1 + x2 = 1
(c) x1 + x2 + x3 = 3
x1 − x2 + x3 = 2
Solución
(a) El sistema no es lineal porque no tiene la forma (1.6) (cfr. pág. 15) al estar la variable x3
en la segunda ecuación elevada al cuadrado.
(b) El sistema no es lineal porque no tiene la forma (1.6) pues en la primera ecuación el segundo término
contiene la evaluación de cos(x2 ).
(c) El sistema sı́ es lineal pues tiene la forma (1.6); con a11 = a12 = a13 = 1, a21 = a23 = 1, a22 = −1,
b1 = 3 y b2 = 2 (un sistema de dos ecuaciones con tres incógnitas). 28 Determinar si u = (−1, 2, 1, −2) es solución del sistema
−8x1 + 5x2 − 3x3 − 3x4 = 21
7x1 + 5x2 + 7x3 + 6x4 = −2
4x1 + 3x2 + 7x3 − 5x4 = 19
Solución
Al sustituir u en la primera, segunda y tercera ecuación se obtiene:
−8(−1) + 5(2) − 3(1) − 3(−2) = 21
7(−1) + 5(2) + 7(1) + 6(−2) = −2
4(−1) + 3(2) + 7(1) − 5(−2) = 19
Page (PS/TeX): 43 / 43, COMPOSITE
por lo que u sı́ es solución del sistema.
44 CAPÍTULO 1
Matrices y sistemas lineales
29 Determinar si v = (−3, 0, 0, 1) es solución del sistema del ejemplo anterior.
Solución
Al sustituir v en la primera y segunda ecuación se obtiene:
−8(−3) + 5(0) − 3(0) − 3(1) = 21
7(−3) + 5(0) + 7(0) + 6(1) = −15.
Puesto que −15 = −2, v no es solución del sistema.
30 Escribir el sistema del ejercicio 28 en la forma matricial Ax =b y resolver los ejercicios 28 y 29 mediante
multiplicación de matrices.
⎡
⎤
x1
−8 5 −3 −3
⎢ x2 ⎥
⎥
Solución
La matriz de coeficientes (cfr. pág. 15) de este sistema es A = ⎣ 7 5 7 6 ⎦, x = ⎢
⎣ x3 ⎦
4 3 7 −5
x4
⎤
⎡
21
y el término independiente es ⎣ −2 ⎦; ası́ que el sistema en forma matricial está dado por
19
⎡ ⎤
⎤
⎤ x
⎡
⎡
21
−8 5 −3 −3 ⎢ 1 ⎥
⎣ 7 5 7 6 ⎦ ⎢ x2 ⎥ = ⎣ −2 ⎦ .
⎣ x3 ⎦
19
4 3 7 −5
x4
⎤
⎡
Puesto que
⎤
⎡
⎤
⎡
⎤ −1
21
−8 5 −3 −3 ⎢
⎥
2
⎥ ⎣
⎦
⎣ 7 5 7 6 ⎦⎢
⎣ 1 ⎦ = −2
19
4 3 7 −5
−2
⎡
y
⎤
⎡
⎤
⎡
⎤ −3
21
−8 5 −3 −3 ⎢
⎥
⎣ 7 5 7 6 ⎦ ⎢ 0 ⎥ = ⎣ −15 ⎦ = b,
⎣ 0⎦
−17
4 3 7 −5
1
⎡
u = (−1, 2, 1, −2) es solución del sistema Ax = b, mientras que v = (−3, 0, 0, 1) no es solución del
sistema Ax = b. 31 Indicar las matrices que están en forma escalonada. Para las que estén en forma escalonada, determinar
los pivotes de cada fila, y para las que no están en forma escalonada, mencionar la propiedad que no
cumplen para este efecto.
⎤
−1 2 1 5 0
(a) ⎣ 0 2 −3 1 2 ⎦,
0 0 0 1 0
⎡
⎤
0 1 −3 2 1
(b) ⎣ 0 0 0 0 2 ⎦,
0 0 0 00
⎡
⎤
1 2 −2 7 9
(c) ⎣ 0 0 1 −1 3 ⎦
0 1 −1 0 1
⎤
−7 2 3 −5 9
(d) ⎣ 0 0 0 0 0 ⎦.
0 2 −3 1 1
⎡
⎡
y
Solución
(a) La matriz está en forma escalonada; los pivotes para la primera, segunda y tercera fila
son, respectivamente, −1, 2 y 1.
(b) La matriz está en forma escalonada; el pivote para la primera fila es 1 y para la segunda es 2.
Page (PS/TeX): 44 / 44, COMPOSITE
SECCIÓN 1.3
Ejercicios resueltos y ejercicios propuestos 45
(c) La matriz no está en forma escalonada; el primer elemento distinto de cero de la tercera fila no está a
la derecha del primer elemento distinto de cero de la segunda fila.
(d) La fila nula en esta matriz no está por debajo de las filas no nulas; por lo que no está en forma
escalonada. Para cada uno de los sistemas de los ejercicios 32 y 33:
(a) Escribir la matriz aumentada correspondiente.
(b) Utilizar el inciso (a) para determinar si el sistema está en forma escalonada.
x1 − 3x2 + x4 − 5x5 = −5
−5x2 + 4x3 + x5 = −3
−x3 + x4 = −7
32
Solución
(a) La matriz ampliada es en este caso
⎤
⎡
1 −3 0 1 −5 −5
⎣ 0 −5 4 0 1 −3 ⎦ .
0 0 −1 1 0 −7
(b) Puesto que la matriz aumentada está en forma escalonada, el sistema está escalonado.
2x1 − x2 + 3x4 − 5x5 = 2
x2 + 4x3 − x5 = −4
−2x1 + 3x4 = −3
33
Solución
(a) Para este sistema la matriz ampliada correspondiente es
⎤
⎡
2
2 −1 0 3 −5
⎣ 0 1 4 0 −1 −4 ⎦ .
−2 0 0 3 0 −3
(b) Dado que en este sistema la matriz aumentada no está en forma escalonada, el sistema no está escalonado. En los ejercicios 34 a 36, determinar si el sistema escalonado dado tiene solución única, tiene una infinidad de soluciones o es inconsistente, sin resolver dicho sistema; y en los sistemas que sean consistentes
indicar las variables libres y las variables ligadas.
⎤
1
3 −1 −1 −3 5
⎣ 0 2 −4 0 2 −2 ⎦
0 0 0 3 0 −3
⎡
34
El sistema es consistente porque no tiene una fila nula a la izquierda de la partición con un
correspondiente registro distinto de cero a la derecha. Variables libres: x3 y x5 (que corresponden a las
columnas sin pivote). Variables ligadas x1 , x2 y x4 (que corresponden a columnas con pivote). Como el
sistema es consistente y tiene variables libres (equivalentemente columnas con pivote), tiene entonces
una infinidad de soluciones. ⎤
⎡
8
1 −1 2 4 −5
⎣ 0 1 −2 0 3 −5 ⎦
35
4
0 0 0 0 0
Solución
Page (PS/TeX): 45 / 45, COMPOSITE
46 CAPÍTULO 1
Matrices y sistemas lineales
El sistema es inconsistente porque tiene una fila nula a la izquierda de la partición con un
registro correspondiente distinto de cero a la derecha. Solución
⎡
⎢
⎢
⎢
⎢
⎢
⎣
36
1
0
0
0
0
0
−1
−3
0
0
0
0
0
2
2
0
0
0
2
4
−3
1
0
0
2
6
5
0
1
0
8
9
9
2
1
0
⎤
⎥
⎥
⎥
⎥
⎥
⎦
Solución
El sistema es consistente porque la fila nula a la izquierda de la partición tiene registro
también nulo a la derecha de la partición. Variables ligadas: x1 , x2 , x3 , x4 y x5 (las que corresponden a
columnas con pivote). No tiene variables libres. Puesto que el sistema es consistente y no tiene variables
libres tiene solución única. 37 Resolver el sistema escalonado del ejercicio 34 haciendo sustitución regresiva.
La última fila de la matriz ampliada equivale a 3x4 = −3; por tanto, x4 = −1. La segunda
fila de la matriz ampliada equivale a 2x2 − 4x3 + 2x5 = −2 (con x3 y x5 variables libres), que al despejar
la variable ligada x2 produce x2 = −1 − x5 + 2x3 . La primera fila de la matriz ampliada equivale a
3x1 − x2 − x3 − 3x4 + 5x5 = 1, con x3 y x5 variables libres; que al despejar la variable ligada x1 produce
x1 = (1+x2 +x3 +3x4 −5x5 )/3 = (1−1−x5 +2x3 +x3 −3−5x5 )/3 = x3 −2x5 −1. Entonces la solución
está dada por
Solución
⎤
⎤ ⎡
s − 2r − 1
x1
⎢ x2 ⎥ ⎢ −1 − r + 2s ⎥
⎥
⎢ ⎥ ⎢
⎥;
⎢ x3 ⎥ = ⎢
s
⎥
⎢ ⎥ ⎢
⎦
⎣ x4 ⎦ ⎣
−1
r
x5
⎡
r, s ∈ R.
38 Resolver el sistema escalonado del ejercicio 36 haciendo sustitución regresiva.
Solución
La quinta fila de la ampliación equivale a x5 = 1; la cuarta fila de la ampliación equivale
a x4 = 2; la tercera fila de la ampliación equivale a 2x3 − 3x4 + 6x5 = 9, que al despejar la variable
ligada x3 produce x3 = (9 + 3x4 − 5x5 )/2 = (9 + 6 − 5)/2 = 5; la segunda fila de la matriz ampliada
equivale a −3x2 + 2x3 + 4x4 + 6x5 = 9, que al despejar la variable ligada x2 produce x2 = (9 − 2x3 −
4x4 − 6x5 )/(−3) = (9 − 10 − 8 − 6)/(−3) = 5; la primera fila de la matriz ampliada equivale a x1 − x2 +
2x4 + 2x5 = 8, que⎡al despejar
⎤ ⎡ la⎤variable ligada x1 produce x1 = 8 + x2 − 2x4 − 2x5 = 8 + 5 − 4 − 2 = 7.
7
x1
⎢ x2 ⎥ ⎢ 5 ⎥
⎢ ⎥ ⎢ ⎥
⎥ ⎢ ⎥
Ası́ la solución es ⎢
⎢ x3 ⎥ = ⎢ 5 ⎥. ⎣ x4 ⎦ ⎣ 2 ⎦
1
x5
39 Encontrar una matriz H que esté en forma escalonada y que sea equivalente por filas a la matriz
⎡
−3
⎢ 2
A=⎢
⎣ 7
1
Page (PS/TeX): 46 / 46, COMPOSITE
2
−1
2
−1
1
5
1
2
4
6
−1
3
⎤
4
−3 ⎥
⎥
5 ⎦
4
por medio del método de Gauss.
SECCIÓN 1.3
⎡
Solución
−3
⎢ 2
⎢
⎣ 7
1
2
−1
2
−1
1
5
1
2
4
6
−1
3
⎤
4
−3 ⎥
⎥
5 ⎦
4
Ejercicios resueltos y ejercicios propuestos 47
⎡
1
⎢ 2
←−−−−→
⎢
R1 ↔ R4
⎣ 7
−3
⎡
1
⎢ 0
←−−−−−−−−−−→ ⎢
R2 ↔ −2R1 + R2 ⎣ 0
R3 ↔ −7R1 + R3
0
R4 ↔ 3R1 + R4
⎡
1
⎢ 0
←−−−−−−−−−−→ ⎢
R3 ↔ −9R2 + R3 ⎣ 0
R4 ↔ R2 + R4
0
⎡
1
⎢ 0
←−−−−−−−−−→ ⎢
R3 ↔ (1/22)R3 ⎣ 0
0
⎡
1
⎢ 0
←−−−−−−−−−−−→ ⎢
R4 ↔ 8R3 + R4 ⎣ 0
0
−1
−1
2
2
2
5
1
1
−1
1
9
−1
2
1
−13
7
−1
1
0
0
2
1
−22
8
−1
1
0
0
2
1
−1
8
−1
1
0
0
2
1
−1
0
La matriz H está en forma escalonada y es equivalente a la matriz A.
⎤
4
−3 ⎥
⎥
5 ⎦
4
3
6
−1
4
⎤
4
−11 ⎥
⎥
−23 ⎦
16
⎤
3
4
0 −11 ⎥
⎥
−22
76 ⎦
13
5
⎤
3
4
0
−11 ⎥
⎥
−1 38/11 ⎦
13
5
⎤
3
4
0
−11 ⎥
⎥ =H
−1
38/11 ⎦
5 359/11
3
0
−22
13
40 Resolver por el método de Gauss el sistema
x1 − x2 + 3x3 + 5x4 − 6x5
3x1 − 4x2 + 5x3 − 2x4 + x5
−2x1 + 3x2 − x3 + 3x4 − 5x5
−x1 − x2 + 2x3 − 2x4 + 3x5
5x1 − 3x2 + x3 − 4x4 + 7x5
4x1 − 5x2 + 8x3 + 3x4 − 5x5
Solución
⎡
⎢
⎢
⎢
⎢
⎢
⎣
1
3
−2
−1
5
4
Page (PS/TeX): 47 / 47, COMPOSITE
=
=
=
=
=
=
−15
−43
17
−13
−20
−58
Primero se lleva la matriz ampliada del sistema a forma escalonada.
⎡
⎤
1 −1
3
5
−15
−1
3
5 −6
−4 −17
−43 ⎥
−4
5 −2
1
⎢ 0 −1
⎢
⎥
1
5
13
17 ⎥
3 −1
3 −5
⎢ 0
⎥ ∼ ⎢
5
3
−13 ⎥
−1
2 −2
3
⎢ 0 −2
⎣ 0
2 −14 −29
−20 ⎦
−3
1 −4
7
0 −1
−4 −17
−58
−5
8
3 −5
⎡
1 −1
3
5
−4 −17
⎢ 0 −1
⎢
0
1
−4
⎢ 0
∼ ⎢
0
13
37
⎢ 0
⎣ 0
0 −22 −63
0
0
0
0
⎡
1 −1
3
5
−17
⎢ 0 −1 −4
⎢
0
1
−4
⎢ 0
∼ ⎢
0
0
89
⎢ 0
⎣ 0
0
0 −151
0
0
0
0
−6
19
−17
−3
37
19
−6
19
2
−41
75
0
−6
19
2
−67
119
0
⎤
−15
2 ⎥
⎥
−13 ⎥
⎥
−28 ⎥
55 ⎦
2
⎤
−15
2 ⎥
⎥
−11 ⎥
⎥
−32 ⎥
59 ⎦
0
⎤
−15
2 ⎥
⎥
−11 ⎥
⎥
111 ⎥
−183 ⎦
0
48 CAPÍTULO 1
Matrices y sistemas lineales
⎡
∼
⎢
⎢
⎢
⎢
⎢
⎣
1
0
0
0
0
0
−1
−1
0
0
0
0
3
−4
1
0
0
0
5
−17
−4
89
0
0
−6
19
2
−67
474
0
−15
2
−11
111
474
0
⎤
⎥
⎥
⎥
⎥.
⎥
⎦
Después se hace sustitución regresiva:
x5 = 1; x4 = (111 + 67x5 )/89 = 2;
x3 = −11 + 4x4 − 2x5 = −5;
x2 = −2 − 4x3 − 17x4 + 19x5 = 3; x1 = −15 + x2 − 3x3 − 5x4 + 6x5 = −1
⎤
⎡ ⎤ ⎡
−1
x1
⎢ x2 ⎥ ⎢ 3 ⎥
⎥
⎢ ⎥ ⎢
⎥
⎥ ⎢
El sistema tiene solución única: ⎢
⎢ x3 ⎥ = ⎢ −5 ⎥. ⎣ x4 ⎦ ⎣ 2 ⎦
1
x5
41 Resolver el sistema
x1 + x2 + 2x3 − x4
x1 − x2 + x3 − x4
x1 + x2 − x3 − x4
−x1 − 2x2 + x3 + x4
Solución
=
=
=
=
10
9
1
2
por el método de Gauss.
Se lleva la matriz aumentada del sistema a forma escalonada
⎤
⎡
⎤
⎡
1 1 2 −1 −10
1 1 2 −1 10
⎥
⎢
⎢ 1 −1 1 −1 9 ⎥
⎥ ∼ ⎢ 0 −2 −1 0 −1 ⎥
⎢
⎣ 0 0 −3 0 −9 ⎦
⎣ 1 1 −1 −1 1 ⎦
12
0 −1 3 0
−1 −2 1 1 2
⎤
⎡
10
1 1 2 −1
⎢ 0 −2 −1 0 −1 ⎥
⎥
∼⎢
⎣ 0 0 −3 0 −9 ⎦
0 0 −7 0 −25
⎤
⎡
10
1 1 2 −1
⎢ 0 −2 −1 0 −1 ⎥
⎥
∼⎢
⎣0 0 1 0
3⎦
0 0 −7 0 −25
⎤
⎡
1 1 2 −1 −10
⎢ 0 −2 −1 0 −1 ⎥
⎥
∼ ⎢
⎣0 0 1 0
3⎦
0 0 0 0 −4
y se observa que el sistema es inconsistente porque, en la forma escalonada equivalente, la última fila
del lado izquierdo de la partición es nula y el registro correspondiente del lado derecho es distinto de
cero. 42 Resolver el sistema
x1 + 2x2 − 3x3 + x4
−3x1 + 5x2 − x3 + 2x4
4x1 + 3x2 + −5x3 − x4
−7x1 + 19x2 − 9x3 + 8x4
Page (PS/TeX): 48 / 48, COMPOSITE
=
=
=
=
1−2
−16
−11
−14
mediante el método de Gauss.
Ejercicios resueltos y ejercicios propuestos 49
SECCIÓN 1.3
Solución
Primero se obtiene una forma escalonada de la matriz ampliada del sistema.
⎤
⎡
⎤
⎡
−2
1
2
−3
1
−2
1
2 −3
1
⎢
⎢ −3
0 ⎥
5
6 ⎥
5 −1
2
⎥
⎥ ∼ ⎢ 0 11 −10
⎢
⎣
⎦
⎣ 4
−3 ⎦
0 −5
7 −5
−11
3 −5 −1
0
0 33 −30 15
14
−7 19 −9
8
⎤
⎡
−2
1
2
−3
1
⎢ 0
−6 ⎥
1
4 −5
⎥
∼ ⎢
⎣ 0 −5
−3 ⎦
7 −5
0
0 11 −10
5
⎡
⎤
1 2
−3
1
−2
⎢ 0 1
−6 ⎥
4
−5
⎥
∼ ⎢
⎣ 0 0
−33 ⎦
27 −30
66
0 0 −54
60
⎤
⎡
−2
1 2
−3
1
⎢ 0 1
−6 ⎥
4
−5
⎥
∼ ⎢
⎦
⎣ 0 0
−33
27 −30
66
0 0 −54
60
⎤
⎡
−2
1 2 −3
1
⎢ 0 1
−6 ⎥
4
−5
⎥
∼ ⎢
⎣ 0 0 27 −30
−33 ⎦
0
0 0
0
0
⎡
⎤
1 2 −3
1
−2
⎢ 0 1
−6 ⎥
4
−5
⎥
∼ ⎢
⎣ 0 0
−11 ⎦
9 −10
0
0 0
0
0
Después se hace sustitución regresiva:
x3 = (−11/9) + (10/9)x4 ;
es decir,
x2 = −6 − 4x3 + 5x4 = (−10/9) + (5/9)x4 ;
⎡
⎤
⎡
11
− 31
9 + 9 r
⎤
x1
⎢
⎥
⎢ x2 ⎥ ⎢ − 10
+ 5r ⎥
⎢ ⎥ = ⎢ 9 9 ⎥,
⎣ x3 ⎦ ⎢ − 11 + 10 r ⎥
⎣ 9
9 ⎦
x4
r
r ∈ R.
43 Resolver los siguientes sistemas que tienen la misma matriz de coeficientes.
(a)
3x1 − x2 + 5x3 + 2x4 + x5 = 17
−x1 + x2 − 2x3 − x4 + 3x5 = −2
2x1 + 2x2 + 4x3 + x4 − 4x5 = −4
(b)
3y1 − y2 + 5y3 + 2y4 + y5 = 7
−y1 + y2 − 2y3 − y4 + y5 = −6
2y1 + 2y2 + 4y3 + y4 − 4y5 = 10
(c)
3z1 − z2 + 5z3 + 2z4 + z5 = 6
−z1 + z2 − 2z3 − z4 + 3z5 = −5
2z1 + 2z2 + 4z3 + z4 − 4z5 = 12
Solución
Page (PS/TeX): 49 / 49, COMPOSITE
Se lleva a forma escalonada la matriz ampliada del sistema.
x1 = (−31/9) + (11/9)x4 ;
50 CAPÍTULO 1
Matrices y sistemas lineales
⎡
3
⎣ −1
2
⎡
−1
⎣ 3
2
⎡
−1
⎣ 0
0
⎡
−1
⎣ 0
0
⎤
−1 5 2 1 17 7 6
1 −2 −1 3 −2 −6 −5 ⎦
2 4 1 −4 −4 10 12
⎤
1 −2 −1 3 −2 −6 −5
−1 5 2 1 17 7 6 ⎦
2 4 1 −4 −4 10 12
⎤
1 −2 −1 3 −2 −6 −5
2 −1 −1 10 11 −11 −9 ⎦
4 0 −1 2 −8 −2 2
∼
∼
∼
⎤
1 −2 −1
3 −2 −6 −5
2 −1 −1 10
11 −11 −9 ⎦ .
0 2 1 −18 −30 20 20
Se hace sustitución regresiva de cada término independiente.
(a) x3 = (−30 − x4 + 18x5 )/2 = −15 − (1/2)x4 + 9x5 ; x2 = (11 + x3 + x4 − 10x5 )/2 = −2 + (1/4)x4 −
(1/2)x5 ; x1 = 2 + x2 − 2x3 − x4 + 3x5 = (1/4)x4 − (31/2)x5 . Con lo que
⎤
⎡
⎡ ⎤
30 + 14 s − 31
2 s
x1
⎥
⎢
⎢ x2 ⎥ ⎢ −2 + 14 s − 12 r ⎥
⎥
⎢ ⎥ ⎢
⎥
⎢ x3 ⎥ = ⎢
⎢ ⎥ ⎢ −15 − 12 s + 9r ⎥; r, s ∈ R.
⎥
⎣ x4 ⎦ ⎢
⎦
⎣
s
x5
r
(b) y3 = (20 − y4 + 18y5 )/2 = 10 − 12 s + 9r; y2 = (−11 + y3 + y4 − 10y5 )/2 = − 12 + 14 s − 12 r;
1
31
y1 = 6 + y2 − 2y3 − y4 + 3y5 = − 29
2 + 4 s − 2 r. Por lo que
⎤
⎡ 29 1
⎡ ⎤
− 2 + 4 s − 31
r
2
y1
⎥
⎢
⎢ y2 ⎥ ⎢ − 21 + 14 s − 12 r ⎥
⎥
⎢ ⎥ ⎢
⎥
⎢ y3 ⎥ = ⎢
⎢ ⎥ ⎢ 10 − 12 s + 9r ⎥; r, s ∈ R.
⎥
⎣ y4 ⎦ ⎢
⎦
⎣
s
y5
r
(c) z3 = (20 − z4 + 18z5 )/2 = 10 − 12 s + 9r; z2 = (−9 + z3 + z4 − 10z5 )/2 = 12 + 14 s − 12 r; z1 = 5 + z2 −
1
31
2z3 − z4 + 3z5 = − 29
2 + 4 s − 2 r. Por tanto
⎤
⎡ 29 1
⎡ ⎤
− 2 + 4 s − 31
2 r
z1
⎥
⎢
⎢ z2 ⎥ ⎢ 12 + 14 s − 12 r ⎥
⎥
⎢ ⎥ ⎢
⎥
⎢ z3 ⎥ = ⎢
⎢ ⎥ ⎢ 10 − 12 s + 9r ⎥; r, s ∈ R. ⎥
⎣ z4 ⎦ ⎢
⎦
⎣
s
z5
r
44 Encontrar la matriz en forma escalonada reducida equivalente a la matriz
⎡
1 −1 2
⎢ 2 −1 3
A=⎢
⎣ −1 1 2
3 2 −1
por el método de Gauss-Jordan.
Page (PS/TeX): 50 / 50, COMPOSITE
⎤
3 1
4 −1 ⎥
⎥
5 3⎦
1 2
SECCIÓN 1.3
⎡
Solución
1 −1 2
⎢ 2 −1 3
⎢
⎣ −1 1 2
3 2 −1
⎤
3 1
4 −1 ⎥
⎥
5 3⎦
1 2
Ejercicios resueltos y ejercicios propuestos 51
⎡
←−−−−−−−−−−→
R2 ↔ −2R1 + R2
R3 ↔ R1 + R3
R2 ↔ −3R1 + R3
←−−−−−−−−−−→
R4 ↔ −5R2 + R4
←−−−−−−−−→
R3 ↔ (1/4)R3
←−−−−−−−−→
R4 ↔ 2R3 + R4
←−−−−−−−−→
R4 ↔ (1/6)R4
←−−−−−−−−−−→
R3 ↔ −2R4 + R3
R2 ↔ 2R4 + R2
R1 ↔ −3R4 + R1
1
⎢0
⎢
⎢
⎣0
0
⎡
1
⎢0
⎢
⎢
⎣0
0
⎡
1
⎢0
⎢
⎢
⎣0
0
⎡
1
⎢0
⎢
⎢
⎣0
0
⎡
1
⎢0
⎢
⎢
⎣0
0
⎡
1
⎢0
⎢
⎢
⎣0
⎡
←−−−−−−−−−−→
R2 ↔ R3 + R2
R1 ↔ −2R3 + R1
0
0
0
0 0 1
8
3
0 1
5 ⎤
1 −1 0 0
3
⎢ 0 1 0 0 −2 ⎥
⎢
⎥
⎢
⎥
13
⎣0 0 1 0 − 3 ⎦
⎡
←−−−−−−−→
R1 ↔ R2 + R1
⎤
−1 2 3 1
1 −1 −2 −3 ⎥
⎥
⎥
0 4 8 4⎦
5 −7 −8 −1
⎤
−1 2 3 1
1 −1 −2 −3 ⎥
⎥
⎥
0 4 8 4⎦
0 −2 2 14
⎤
−1 2 3 1
1 −1 −2 −3 ⎥
⎥
⎥
0 1 2 1⎦
0 −2 2 14
⎤
−1 2 3 1
1 −1 −2 −3 ⎥
⎥
⎥
0 1 2 1⎦
0 0 6 16
⎤
−1 2 3 1
1 −1 −2 −3 ⎥
⎥
⎥
0 1 2 1⎦
0 0 1 83
⎤
−1 2 0 −7
7 ⎥
1 −1 0
3 ⎥
⎥
⎦
0 1 0 − 13
3
8
3
⎤
1 0 0 0 − 13
⎢ 0 1 0 0 −2 ⎥
⎢
⎥
⎢
⎥ = H.
⎣ 0 0 1 0 − 13
⎦
3
0 0 0 1
8
3
La matriz H está en forma escalonada reducida y A ∼ H. 45 Resolver el siguiente sistema por el método de Gauss-Jordan.
x1 − x2 + 2x3
2x1 − x2 + x3
−x1 + 3x2 − 2x3
x1 + x2 + 2x3
=
=
=
=
−0
−2
−2
−2
Solución
Se lleva primero la matriz ampliada del sistema a forma escalonada reducida mediante el
método de Gauss-Jordan:
Page (PS/TeX): 51 / 51, COMPOSITE
52 CAPÍTULO 1
Matrices y sistemas lineales
⎤
⎤ ⎡
⎤
⎡
0
1 −1 2
0
1 −1 2
0
1 −1 2
⎥
⎥ ⎢
⎢
⎢ 2 −1 1 −2 ⎥
⎥ ∼ ⎢ 0 1 −3 −2 ⎥ ∼ ⎢ 0 1 −3 −2 ⎥
⎢
⎣0 2 0
⎣ −1 3 −2
6⎦
2⎦ ⎣0 0 6
2⎦
6
0 0 6
2
0 2 0
2
1 1 2
⎤
⎤ ⎡
⎡
0
0
1 −1 2
1 −1 2
⎢ 0 1 −3 −2 ⎥ ⎢ 0 1 −3 −2 ⎥
⎥
⎥∼⎢
∼⎢
⎣0 0 6
1⎦
6⎦ ⎣0 0 1
0
0
0 0 0
0 0 0
⎡
⎤
⎤ ⎡
1 −1 0 −2
1 0 0 −1
⎢0 1 0
⎥ ⎢0 1 0
1⎥
1
⎥.
⎥∼⎢
∼⎢
⎣0 0 1
⎦
⎣
1⎦
0 0 1
1
0
0 0 0
0
0 0 0
⎡
Después se hace sustitución regresiva.
⎡
⎤
⎤ ⎡
x1
−1
⎣ x2 ⎦ = ⎣ 1 ⎦ .
0
x3
46 Resolver el siguiente sistema homogéneo por el método de Gauss.
7x1 − x2 + x3 − x4 = 0
15x1 + 3x2 − x3 + x4 = 0
4x1 − 2x2 + 7x3 − 5x4 = 0
Solución
Se lleva la matriz de coeficientes del sistema a forma escalonada utilizando el método de
Gauss:
⎤
⎤ ⎡
⎤
⎡
1 5 −3 3
7 −1 1 −1
7 −1 1 −1
⎣ 15 3 −1 1 ⎦ ∼ ⎣ 1 5 −3 3 ⎦ ∼ ⎣ 7 −1 1 −1 ⎦
4 −2 7 −5
4 −2 7 −5
4 −2 7 −5
⎡
⎤ ⎡
1
5 −3
1
5 −3
3
⎢
⎥ ⎢
∼ ⎣ 0 −36 22 −22 ⎦ ∼ ⎣ 0
1 − 11
18
⎡
0 −22 19 −17
3
11
18
⎤
⎥
⎦
0 −22 19 −17
⎤
⎡
1 5 −3
3
1
5 −3
3
⎢
⎢
11 ⎥
11 ⎥
0 1 − 11
∼ ⎣0
1 − 11
18
18 ⎦
18
18 ⎦ ∼ ⎣
32
0 −22 19 −17
0 0 50
−
9
9
⎡
⎤
Se hace sustitución regresiva (igualando las ecuaciones a 0 porque el sistema es homogéneo):
x3 =
Por tanto,
Page (PS/TeX): 52 / 52, COMPOSITE
16
x4 ;
25
11
11
11
1
x3 − x4 = − x4 ; x1 = −5x2 + 3x3 − 3x4 = x4 .
18
18
50
50
⎡ 1 ⎤
⎡ ⎤
50 r
x1
⎢ 11 ⎥
⎢− r⎥
⎢ x2 ⎥
⎢ ⎥ = ⎢ 50 ⎥; r ∈ R. O, equivalentemente,
⎢ 16 ⎥
⎣ x3 ⎦
⎣ 25 r ⎦
x4
r
⎤
⎡ ⎤
⎡
x1
s
⎥
⎢ x2 ⎥
⎢
⎢ ⎥ = ⎢ −11s ⎥; s ∈ R. ⎣ x3 ⎦
⎣ 32s ⎦
50s
x4
x2 =
SECCIÓN 1.3
Ejercicios resueltos y ejercicios propuestos 53
47 Resolver el siguiente sistema y de manera simultánea encontrar la solución del sistema homogéneo
asociado.
x1 − 2x2 + 3x3 − 4x4
−x1 + 3x2 − 5x3 + x4
2x1 − x2 + 2x3 − 3x4
4x1 − 5x2 + 8x3 − 11x4
= −1
= 2
= 3
= 1
Se resuelve el sistema no homogéneo por el método de Gauss llevando la matriz ampliada a
forma escalonada.
⎤
⎡
⎤
⎡
1 −2 3 −4 −1
1 −2 3 −4 −1
⎢
⎢ −1 3 −5
1⎥
2⎥
1
⎥
⎥ ∼ ⎢ 0 1 −2 −3
⎢
⎣ 0 3 −4 5
⎣ 2 −1 2 −3
5⎦
3⎦
5
0 3 −4 5
1
4 −5 8 −11
⎤
⎡
1 −2 3 −4 −1
⎢ 0 1 −2 −3
1⎥
⎥
∼⎢
⎣ 0 3 −4 5
5⎦
0
0 0 0 0
⎡
⎤
1 −2 3 −4 −1
⎢ 0 1 −2 −3
1⎥
⎥
∼⎢
⎣ 0 0 2 14
2⎦
0
0 0 0 0
Solución
Se hace sustitución regresiva: x3 = 1 − 7x4 ; x2 = 1 + 2x3 + 3x4 = 3 − 11x4 ; x1 = −1 + 2x2 − 3x3 + 4x4 =
2 + 3x4 . Por tanto,
⎤
⎡ ⎤ ⎡
2 + 3r
x1
⎢ x2 ⎥ ⎢ 3 − 11r ⎥
⎥
⎢ ⎥=⎢
⎣ x3 ⎦ ⎣ 1 − 7r ⎦; r ∈ R,
r
x4
es la solución para el sistema Ax =0. Para encontrar la solución del sistema homogéneo asociado Ax =0
se escribe la solución precedente como (cfr. 1.2.7, pág. 32)
⎤
⎡ ⎤ ⎡ ⎤ ⎡
3r
x1
2
⎢ x2 ⎥ ⎢ 3 ⎥ ⎢ −11r ⎥
⎥
⎢ ⎥ = ⎢ ⎥+⎢
⎣ x3 ⎦ ⎣ 1 ⎦ ⎣ −7r ⎦; r ∈ R,
r
0
x4
y se obtiene una solución particular del sistema no homogéneo y la solución del sistema homogéneo
asociado
⎡ ⎤ ⎡
⎤
x1
3r
⎢ x2 ⎥ ⎢ −11r ⎥
⎢ ⎥=⎢
⎥
⎣ x3 ⎦ ⎣ −7r ⎦; r ∈ R. r
x4
48 Determinar los valores de α para que el sistema
x1 − x2 + αx3 = −2
−x1 + 2x2 − αx3 = 3
αx1 + x2 + x3 = 2
tenga solución única.
Page (PS/TeX): 53 / 53, COMPOSITE
54 CAPÍTULO 1
Matrices y sistemas lineales
Solución
Al llevar la matriz ampliada del sistema a forma escalonada se obtiene
⎤
⎡
⎤
⎡
1 −1
α
−2
1 −1 α −2
⎣ −1 2 −α
0
3⎦ ∼ ⎣0 1
1 ⎦
2
2
α 1 1
0 α + 1 1 − α 2 + 2α
⎡
⎤
1 −1 α
−2
0
1 ⎦
∼ ⎣0 1
0 0 1 − α2 1 + α
ası́ que el sistema tiene solución única para toda α = ±1. (Si α = 1, el sistema es inconsistente; y si
α = −1, el sistema tiene una infinidad de soluciones.) 49 Determine los valores de α para que el sistema homogéneo
αx − y + z = 0
x + 2y − αz = 0
x + 2y − z = 0
tenga soluciones distintas de cero.
⎤ ⎡
⎤ ⎡
⎤
⎡
1
2
−α
1 2 −α
α −1 1
⎣ 1 2 −α ⎦ ∼ ⎣ α −1 1 ⎦ ∼ ⎣ 0 −2α − 1 α2 + 1 ⎦.
Solución
1 2 −1
1 2 −1
0
0
α−1
Dado que el sistema homogéneo es cuadrado, tiene solución no trivial si la matriz de coeficientes no es
equivalente a la identidad (cfr. teorema 1.6); y esto sucede si α = 1 o α = −1/2. 50 Resolver el sistema
Solución
iz1 − iz2 + (3 + i)z3 = 4 + 2i
(1 + i)z1 − z2 + z3 = 2
3iz1 + z2 − 3z3 = −3 + 4i
⎤
⎤
⎡
⎡
1 −1 1 − 3i 2 − 4i
i −i 3 + i 4 + 2i
⎦
⎦ ∼ ⎣ 1 + i −1 1
⎣ 1 + i −1 1
2
2
3i 1 −3 −3 + 4i
3i 1 −3 −3 + 4i
⎤
⎡
2 − 4i
1 −1
1 − 3i
−3 + 2i −4 + 2i ⎦
∼ ⎣0 i
0 1 + 3i −12 − 3i −15 − 2i
⎡
⎤
1 −1
1 − 3i
2 − 4i
2 + 4i ⎦
2 + 3i
∼ ⎣0 1
0 1 + 3i −12 − 3i −15 − 2i
⎤
⎡
2 − 4i
1 −1 1 − 3i
2 + 4i ⎦
∼ ⎣ 0 1 2 + 3i
0 0 −5 − 12i −5 − 12i
de donde, al hacer sustitución regresiva,
⎡
⎤ ⎡ ⎤
z1
1
⎣ z2 ⎦ = ⎣ i ⎦
1
z3
es la solución del sistema.
Page (PS/TeX): 54 / 54, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 55
SECCIÓN 1.3
1.3.2 Ejercicios propuestos
El lector encontrará la respuesta a los ejercicios en cursiva en el apéndice E al final del libro.
Matrices (respuestas en páginas 1073-1074)
En los ejercicios 1 a 3 sean
A=
−1 2
2 5
(a) AB,
3 Encontrar
B=
,
(a) A + B,
1 Calcular
2 Hallar
−3
−4
(b) A +C,
(b) AC,
(a) A ,
t
(d) BC,
(c) D A ,
t t
(b) A C,
En los ejercicios 4 a 7 sean
−8 −5 −7
A=
−3
9
5
(a) −2A,
(b) A + B,
(a) 3C − E,
5 Calcular
6 Encontrar
7 Calcular
(a) At B,
(e) BD,
B=
9 Encontrar
(d) AAt .
(b) B t A,
(c) BB t ,
(e) At A.
10 Hallar
(b) D − E,
(a) −A + 3C,
(a) 14 C t − 12 A,
12 Calcular
(a) AB,
13 Hallar
(a) A(BC),
14 Encontrar
(b) 3E − 5D,
t
11 Calcular
t
(b) B t − B,
(b) BA,
(b) CC t ,
(a) (3D t − E)A,
3
−2
C=
,
⎤
9 0 8
E = ⎣ −3 8 4 ⎦.
7 1 7
⎡
y
(c) −4(D + 3E),
(c) (D − E) ,
t
(c) 4E t − 3D t ,
(c) (2E)D,
(c) (DA)t ,
−1 4 8
−6 2 −4
(d) C −C.
(d) B + 4C t .
t
(d) (3E t − 2D t )t .
(d) (AB)C.
(d) (C t B)At .
(b) (5B)C + 3B,
(c) (−AC)t + 5D t .
(a) (BAt − 4C)t , (b) B t (CC t − At A), (c) D t E t − (ED)t .
⎤
0 0 −3
0 ⎦: (a) Hallar A2 ; (b) Calcular A8 .
16 Sea A = ⎣ 0 2
4 0
0
15 Calcular
Page (PS/TeX): 55 / 55, COMPOSITE
⎡
−8
2
,
−2
.
4
(d) −8C.
(c) 4A,
(b) E − D ,
t
4
−3
(c) CB.
(c) E t B,
(a) B − 2C,
E=
y
C=
,
(c) B − 2A.
(b) AC,
(a) D + E,
(f) DD t .
7 5
4
3 5 −5
3 −6
7
6
En los ejercicios 8 a 15 sean
⎤
⎡
5 −5
−8
⎦
⎣
, B=
A = 9 −1
−6
0 −12
⎤
⎡
1 −4 −1
4 ⎦
D = ⎣ −4 1
−8 −9 5
8 Calcular
y
(f) CD.
(e) D t D,
(d) B A,
(b) EB,
(a) CD,
⎤
2
D = ⎣ 3 ⎦.
−6
⎡
(d) 6D.
t
,
D=
4 Hallar
,
(c) 3A − 5B,
(c) AD,
t
⎤
−1
0 −2 4
7 −3 2 ⎦
C=⎣ 3
4 −6 −3 2
⎡
5 0 −1
−2 3 −4
,
56 CAPÍTULO 1
Matrices y sistemas lineales
−1
17 Sea A = ⎣ 0
0
0
3
0
⎤
0
0 ⎦:
2
−1
0
5
⎡
18 Sean A =
(a) Calcular A2 ;
(b) Encontrar A7 .
⎤
2
y x = ⎣ −3 ⎦. Calcular
4
⎡
(b) xA.
(a) Ax,
0
1
, encontrar todas las matrices B ∈ M2×2 tales que
0 −2
(c) AB = O y BA = O.
19 Si A =
20 Encontrar los valores de α, β, γ y δ tales que
⎡
1 0 2
α β γ δ ⎢
⎢ 0 0 1
1 4 9 2 ⎣ 0 1 0
0 0 1
21 Encontrar los valores de α y β tales que las matrices
⎤
⎡
−2 0 0
A=⎣ 0 1 0 ⎦ y
α 0 β
⎤
0
1 ⎥
⎥= 1
0 ⎦
1
0
0
4
(a) AB = O;
3
9
3
2
(b) BA = O;
.
⎤
3 0 3
B=⎣ 0 1 0 ⎦
3 0 3
⎡
conmuten; es decir, AB = BA.
1 1
22 Sea A =
: (a) Calcular A2 . (b) Encontrar A3 . (c) Determinar An para todo n ∈ N.
0 1
cos θ − sen θ
23 Si A =
, hallar A2 y calcular An para todo n ∈ N.
sen θ
cos θ
24 Sea
⎤
⎡
1 1 1
A=⎣ 0 1 1 ⎦:
0 0 1
(a) Calcular A2 . (b) Encontrar A3 .
demostrarla por inducción.
(c) Hallar A4 .
(d) Conjeturar una fórmula para An , n ∈ N, y
25 Encontrar todas las matrices A ∈ M2×2 tales A2 = O.
26 Probar que una matriz A de tamaño 2 × 2 conmuta con toda matriz B del mismo tamaño (AB = BA) si y
sólo si A conmuta con las matrices
1 0
,
0 0
0 1
0 0
,
0 0
1 0
y
0
0
0
.
1
Encontrar todas esas matrices A.
27 Encontrar todas las matrices A de tamaño 2 × 2 tales que A2 = I2 , donde I2 es la matriz identidad de
orden 2.
28 Llenar las entradas vacı́as de la matriz 4 × 4
⎡
2
−3
⎢
⎢ 1 −2
⎢
⎢
⎢ −1
4
⎣
1
1
de tal manera que se obtenga una matriz simétrica.
Page (PS/TeX): 56 / 56, COMPOSITE
1
1
−2
5
4
⎤
⎥
5 ⎥
⎥
⎥
1 ⎥
⎦
7
Ejercicios resueltos y ejercicios propuestos 57
SECCIÓN 1.3
29 Llenar las entradas vacı́as de la matriz 4 × 4
⎡
1
⎢
⎢ 1
⎢
⎢
⎢ 1
⎣
1
−2
1
3
1
−2
4
1
1
3
⎤
⎥
6 ⎥
⎥
⎥
1 ⎥
⎦
5
de tal manera que se obtenga una matriz simétrica.
30 Probar que si A ∈ Mm×n , entonces B = A + At es una matriz simétrica.
31 Demostrar que si A es una matriz cuadrada, entonces (A2 )t = (At )2 y (A3 )t = (At )3 . (Indicación: Utilizar
la propiedad 3(b) de la pág. 10.)
En los ejercicios 32 a 39 las afirmaciones dadas son falsas o verdaderas; si la afirmación es verdadera
se debe demostrar con rigor su validez y si es falsa se debe dar un contraejemplo para mostrar que no
es cierta. En cada caso se supone que las matrices involucradas A, B y C tienen los tamaños adecuados
para efectuar las correspondientes operaciones.
32 A = B ⇒ AC = BC.
33 A = B ⇒ CA = BC.
34 A = B ⇒ CA = CB.
35 A2 = In ⇒ A = In o A = −In .
36 AB = O ⇒ A = O o B = O.
37 C + A = B + A ⇒ C = B.
38 A2 = In ⇒ Am = In ∀n ≥ 2 (n entero).
39 Si A es una matriz cuadrada simétrica, B = [bi j ] y B = A2 , entonces bii ≥ 0 ∀i.
Sistemas lineales (respuestas en páginas 1072-1075)
40 Determinar cuáles de los siguientes sistemas de ecuaciones son lineales.
√
(a) x1 − x2 + 2x3 = π
−x1 + x2 + ex3 = e
(b) cos(x1 ) + x1 x2 − x3 = 5
x1 + x2 − x3 = 6
cos(x1 ) + x1 x2 − x3
41 Sea el sistema
(c) x1 + 3x2 − 5x3 = 1
2x1 + x2 − x3 = 7
−3x12 + x2 − x3 = 2
(d)
x1 − 3x2 − 4x4 = 2
2x1 − 3x2 − 2x3 = 3
x1 + x2 − x3 = −5
x1 − x2 + 2x3 + x4 + x5 + 3x6 = −1
−3x1 + 2x2 + 4x3 − x4 + x5 + 2x6 = −2
−2x1 + x2 + x3 + 2x4 − x5 + x6 = −1
x1 − x2 + x3 − x4 + x5 − x6 = −1
Determinar si (a) (−1, −1, 0, −1, 0, 0); (b) (−10, −14, −2, −6, −4, 3); (c) (−13, −16, −4, −5, 0, 3);
(d) (1, 1, 2, 1, 1, −2) son soluciones.
Page (PS/TeX): 57 / 57, COMPOSITE
58 CAPÍTULO 1
Matrices y sistemas lineales
42 Indicar las matrices que están en forma escalonada. Para las que sı́ lo están, señalar los pivotes de cada
fila; y para las que no, mencionar las propiedades que no se cumplen para ese fin.
⎤
⎡
−1 1 2
⎤
⎡
⎢ 0 1 2 ⎥
2 0 −2
1 2
⎥
⎢
⎥
⎦
⎣
0 0
0 −1 1
(c) ⎢
(a)
⎢ 0 0 0 ⎥
⎣
0 0 0 ⎦
0 0
0
0 2
0 0 0
⎤
⎡
−1 1 0
0 0
⎤
⎡
(b) ⎣ 0 0 2 −1 3 ⎦
0 1 2
⎢ 0 1 0 ⎥
0 3 0
0 0
⎥
⎢
⎥
(d) ⎢
⎢ 0 0 0 ⎥
⎣ 0 0 0 ⎦
0 0 0
De los ejercicios 43 a 46:
(a) Escribir la matriz aumentada correspondiente.
(b) Utilizar el inciso (a) para determinar si el sistema está en forma escalonada.
(c) Para los sistemas que estén en forma escalonada indicar cuáles son las variables libres y cuáles las
ligadas.
43
44
x1 + 2x2 − x3 + x4 + 2x5 = −8
x1 − x3 + x5 = −8
x3 + 2x4 = 4
45 x1 − x2 + x3 − x4 − x5 = −6
3x1 − x2 + x3 = 14
x2 − x3 = 16
x3 = −4
46 x1 − 4x2 + 5x3 − x4 + x5 = −7
x2 − x3 + x5 = −3
2x5 = −8
x4 − 5x5 = 12
3x5 = −4
En los ejercicios 47 a 50, determinar si el sistema escalonado tiene solución única, tiene una infinidad de
soluciones o es inconsistente, sin resolverlo; y en los sistemas que son consistentes, indicar las variables
libres y las variables ligadas.
⎤
⎤
⎡
⎡
0 −1 2 −1
0 3 −3
2 −1 −2 3
0 −3 3
⎢ 0
⎢ 0
2⎥
0 1
0 −1 1
2
1 0 −1
1 4⎥
⎥
⎥
47 ⎢
49 ⎢
⎣ 0
⎣ 0
1⎦
0 0
0
0 2
0 −1 0
0
2 6⎦
0
0
0 0
0
0 0
0
0
0 0
0
0 2
⎤
⎤
⎡
⎡
2
1 −1
2 1
1
1 2 −1
⎢ 0 −1 1
⎢ 0
0 −2 4 −1 ⎥
2⎥
⎥
⎥
⎢
50 ⎢
⎥
⎢
⎣
4⎦
0
0
0 2
0⎥
0 4
48 ⎢ 0
⎣ 0
0
0
0
0 0
0⎦
0 0
0
0
0 0
51 Resolver mediante sustitución regresiva.
escalonado del ejercicio 49;
(a) el sistema escalonado del ejercicio 47;
(c) el sistema escalonado del ejercicio 50.
(b) el sistema
En los ejercicios 52 a 59 utilizar el método de Gauss para encontrar una matriz H equivalente a la matriz
dada que esté en forma escalonada.
⎤
⎡
⎤
⎡
3 −2 1 1 4
0 1 −1 2 1 0
⎢ 2 −1 1 2 3 ⎥
⎥
1 1 1 3 ⎦
52 ⎣ 0 2
53 ⎢
⎣ −2
1 1 0 1 ⎦
0 4 −1 2 1 6
5 −2 3 1 1
Page (PS/TeX): 58 / 58, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 59
SECCIÓN 1.3
54
⎡
−1
3
⎡
55
0
⎣ 0
0
⎡
56
⎢
⎢
⎢
⎢
⎣
2
4
3
1
2
2
−6
0
1
2
−3
−2
−1
−1
1
1
4
1
−2
3
−5
57
⎤
4
−3 ⎦
4
2
1
2
2
−1
−1
⎢ 2
⎢
⎣ 3
4
⎡
4
−1
1
3
0
−5
2
0
−1
1
2
1
1
1
1
1
0
0
2
1
⎤
58
⎥
⎥
⎥
⎥
⎦
⎢
⎢
⎢
⎢
⎢
⎣
⎡
59
⎢
⎢
⎢
⎢
⎢
⎣
2
4
−1
7
3
3
2
−4
−1
−1
1
2
1
2
1
2
2
−3
2
−2
2
−1
−3
2
−1
3
−4
1
1
1
1
4
6
2
5
1
2
3
7
−3
5
−5
−3
−1
3
1
−1
1
6
1
−2
1
1
0
2
2
5
2
1
1
⎤
0
1 ⎥
⎥
8 ⎦
4
1
2
1
−2
⎤
⎥
⎥
⎥
⎥
⎥
⎦
3
1
2
1
1
−2
4
0
6
0
2
3
⎤
⎥
⎥
⎥
⎥
⎥
⎦
En los ejercicios 60 a 71, resolver el sistema por medio del método de Gauss.
60
3x1 + x2 + x3 − x4 + 2x5 = 1
2x1 − x2 + 2x3 − x4 + x5 = 2
3x1 + x2 − 2x3 − x4 − 2x5 = 1
61
x1 + 5x2 + 4x3 − 13x4 = 5
3x1 − x2 + 2x3 + 5x4 = −3
2x1 + 2x2 + 3x3 − 4x4 = 1
62
2x1 + x2 − 3x3 = −5
3x1 − 2x2 + 2x3 = 9
5x1 − 3x2 − x3 = 6
63
x1 + 2x2 − 3x3 + x4 + x5 + 3x6
2x1 − x2 + 2x3 + x4 + 3x5 − 4x6
3x1 − 2x2 + 4x3 + 2x4 + x5 + x6
−3x1 + x2 − x3 + 2x4 + x5 + x6
64
2x1 + 3x2 − 2x3 = −6
x1 − 2x2 + 3x3 = 8
4x1 − x2 + 4x3 = 2
65
x1 + 2x2 − 3x3 + 2x4 = −1
2x1 + 5x2 − 8x3 + 5x4 = −4
3x1 + 4x2 − 5x3 + 2x4 = −1
66
x1 + 2x2 + 2x3
3x1 − 2x2 − x3
2x1 − 5x2 + 3x3
x1 + 4x2 + 6x3
= −1
= 4
= −1
= −5
67
x1 − x2 + x3 + 2x4
−x1 + x2 + x3 + 3x4
x1 − x2 + 3x3 + 7x4
−x1 + x2 + x3 − 2x4
68
2x1 − x2 + x3
−x1 + x2 + 2x3
−2x1 + x2 + x3
6x1 − 2x2 + 8x3
4x1 − 3x2 + 3x3
69
3x1 − 4x2 + 3x3 − x4
2x1 − x2 + 3x3 − 5x4
x1 + x2 + x3 − x4
−2x1 + 3x2 − x3 + 2x4
70
x1 − 2x2 + x3 + 3x4 + 2x5
2x1 − 3x2 + 5x3 + 7x4 + 3x5
−x1 − 7x3 − 5x4
4x1 − 5x2 + 13x3 + 15x4 + 5x5
71
2x1 − x2 + 3x3 − x4
−x1 + 2x2 + x3 + 2x4
4x1 − 2x2 + x3 + x4
2x1 + 3x2 − 4x3 − 2x4
−x1 + 9x2 − x3 − 4x4
= 1
= 3
= 18
= −1
= 8
= 4
= 2
= −6
= −1
= 6
= 5
= 8
= −1
=
0
= −11
=
2
=
9
=
8
= 21
= −18
= 47
= 16
=
6
= 13
= −25
= −23
Los ejercicios 72 a 75 contienen sistemas lineales que tienen la misma matriz de coeficientes pero
distintos términos independientes, resolverlos por el método de Gauss.
Page (PS/TeX): 59 / 59, COMPOSITE
60 CAPÍTULO 1
Matrices y sistemas lineales
72
x1 − 2x2 = 5, −1, −7
2x1 − 3x2 = 8, −1, −11
73
x1 − 2x2 + x3 = 3, −4, 1
3x1 − x2 + 2x3 = 7, −3, −4
2x1 − x2 + x3 = 4, −3, −3
76
77
78
79
80
74
x1 + x2 − 2x3 + x4 + 2x5 = −1, −6, −4
−x1 + x2 − 2x3 + x4 − x5 = −2, −10, −1
2x1 + 3x2 − x3 + 2x4 + x5 = −2, −4, −3
75
x1 − x2 + x3 + 4x4 = 6, 3, −6
2x1 + x2 + 5x3 + 2x4 = 3, 0, −3
x1 + x2 + 5x3 = 0, −3, 0
En los ejercicios 76 a 85, encontrar la forma escalonada reducida que es equivalente a cada matriz por
medio del método de Gauss-Jordan.
⎤
⎤
⎡
⎡
3 6 −3
6 3
2 4 −2
⎣ 2 4
1 −2 3 ⎦
3 ⎦
81 ⎣ 4 8
3 6
2 −6 5
1 1 −2
⎤
⎤
⎡
⎡
2
3 −2 5 1
0 2 −1 3
⎢ −1 1
⎣ 9 −1
2 0 4 ⎦
2 0 ⎥
⎥
82 ⎢
⎣
4 −5
6 5 7
−1 3
1 3 ⎦
1 5
5 9
⎤
⎡
1
3 −1
2
⎤
⎡
⎢ 4 −10
6
2 ⎥
0 0 2 −4
⎥
⎢
⎣ 8
2
2 10 ⎦
2 ⎦
83 ⎣ 0 0 1
0 −11
5 −3
1 3 2 −4
⎤
⎤
⎡
⎡
0 −2 −6
4
−1
3 0 1
4
⎢ 0
⎢ 1 −3 0 0 −1 ⎥
4 −1
3 ⎥
⎥
⎥
⎢
84 ⎢
⎣ 0
⎣ 3 −9 2 4 −1 ⎦
0 −6 −3 ⎦
0
5 −3
4
0
0 1 3 −4
⎤
⎤
⎡
⎡
2 1
4
0 0
1 2 −1
4
⎣ 1 3
2 ⎦
0 1 −1
3 ⎦
85 ⎣ 0 0
5 0 10
2 4 −2 1
3 −5
En los ejercicios 86 a 91 resolver los sistemas por el método de Gauss-Jordan.
86
x1 − 2x3 + x4 = 4
2x1 − x2 + x3 − 3x4 = −2
9x1 − 3x2 − x3 − 7x4 = 3
87
x1 + 2x2 − 3x3 + x4 = −7
3x1 + 6x2 − 8x3 − 2x4 = −9
88
89
−2x3 − x4
2x1 + 5x2 − 6x3
−x1 − 2x2 + x3 − x4
4x1 + 10x2 − 9x3 + x4
= −1
= 3
= −2
= 7
90
x1 − 3x2 + x3 + 2x4
x1 − 2x2 + 2x3 + 4x4
−x1 − 6x2 − 3x3 − 4x4
2x1 − 6x2 − 3x3 − 2x4
=
=
=
=
91
x1 − x2 + 2x3 + x4 − 2x5
x1 − x2 − 2x3 + x4 − 2x5
−x1 + x2 − 6x3 − x4 + 2x5
2x1 − 2x2 − 12x3 + 2x4 − 4x5
2x1 + 5x2 − 4x3 = −2
2x1 + 4x2 − x3 = 1
4x1 − 2x2 + 5x3 = 9
En los ejercicios 92 a 95 resolver los sistemas homogéneos.
92
x1 − x2 + x3 − 4x4 + 2x5
2x1 − 3x2 + x3 − x4 − x5
−3x1 − 2x2 − x3 + 3x4 + x5
−x1 − 4x2 + x3 − 5x4 + 5x5
Page (PS/TeX): 60 / 60, COMPOSITE
=
=
=
=
0
0
0
0
93
x1 + x2 + x3 = 0
−x1 + x2 − x3 = 0
3x1 + 2x2 − 2x3 = 0
−12
−14
−9
−7
=
=
=
=
3
7
1
22
SECCIÓN 1.3
94
2x1 + x2 + 3x3 = 0
2x1 + 4x2 = 0
x2 + x3 = 0
Ejercicios resueltos y ejercicios propuestos 61
195
4x2 + 4x3 + 2x4 = 0
x1 + 3x2 + x4 = 0
x1 − 2x2 − x3 + x4 = 0
En los ejercicios 96 a 101, resolver el sistema Ax = b y, simultáneamente, encontrar la solución del
sistema homogéneo asociado Ax = 0 escribiendo la solución del sistema Ax = b en la forma p +h,
donde p es una solución particular del sistema no homogéneo y h es la solución del sistema homogéneo
asociado.
⎤
⎡
4
2
1
3 0
⎢ 1 −1
1 ⎥
2 1
⎥
1 −1 2 3 4 |4]
96
099 ⎢
⎣ 4 −1
6 ⎦
7 2
−1 −2 −1 1 −3
4 −2 2
0 −6
97
⎤
⎡
1
4
2 0 −1
−8
1 2 −1
2 1
⎤
⎡
−9 ⎦
1 −2 3
100 ⎣ 2 4
5
1 −2
1
1
3 6
2 −6 5 −11
−4 ⎦
1 −3 −1
98 ⎣ 2
⎤
⎡
1 −7 −6
2 −13
1
3 −1 2 2
⎢ 0 11 −5 3 4 ⎥
⎥
101 ⎢
⎣ 2 −5
3 1 0⎦
4
1
1 5 4
102 Determinar los valores de α para que el sistema
x + 2y − 3z = 4
3x − y + 5z = 2
4x + y + (α2 − 14) = a + 2
tenga solución única.
103 Encontrar los valores de α para los que el sistema del ejercicio 104 sea inconsistente.
104 ¿Para qué valores de α el sistema del ejercicio 104 tiene una infinidad de soluciones?
En los ejercicios 105 a 107 determinar los valores de α para que el sistema dado tenga (a) solución
única, (b) sea inconsistente, (c) tenga una infinidad de soluciones.
105
106
x1 + αx2 + x3 = 1
αx1 + x2 + x3 = 1
2x1 + (α + 1)x2 + (α + 1)x3 = 2
107
x1 − 3x3 = −3
2x1 + αx2 − x3 = −2
2x1 + 2x2 + (α − 3)x3 = −2
x1 + x2 + αx3 =
2
3x1 + 4x2 + 2x3 =
α
x1 + x2 + 3x3 = α − 1
En los ejercicios 108 a 109 determinar las condiciones que deben cumplir los parámetros α, β y γ para
que el sistema dado sea consistente.
108
x1 − 2x2 + 3x3 = α
2x1 − x2 + 2x3 = β
−x1 + 5x2 − 7x3 = γ
Page (PS/TeX): 61 / 61, COMPOSITE
109
x1 − x2 + x3 = α
2x1 − x2 − 2x3 = β
−3x1 + x2 + 2x3 = γ
62 CAPÍTULO 1
Matrices y sistemas lineales
110 Encontrar los valores de α tales que el sistema homogéneo
x1 + 3x2 + (1 − α)x3 = 0
x1 + αx2 − x3 = 0
(2 − α)x1 + 3x2 = 0
tenga solución no trivial.
111 Resolver el sistema
z1 − iz2 + z3 + iz3 + 4iz4 = 5 + 2i
−2z1 + 2z2 + 3z3 − 2iz4 = 1 − 2i
3iz1 − z2 + 2z3 + z4 − iz4 = −2 − i
112 Encontrar las soluciones del sistema
z1 + iz2 − iz3 =
3
2iz1 + z2 − iz3 = 1 + i
−3z1 + iz2 − iz3 = −1
113 Resolver el sistema
z1 − z2 + z3 = −i
2z1 − z2 + z3 = −2i
−2z1 + z2 + z3 = 4i
114 Hallar las soluciones del sistema
z1 − z2 + z3 + z4
iz1 − z2 + z3 + 2z4
−2z1 + iz2 − z3 + z4
−z1 − z2 + iz3 + 2z4
Page (PS/TeX): 62 / 62, COMPOSITE
= 1+i
=
0
= −3i
= 1 − 2i
2
Matrices invertibles
y determinantes
En este capı́tulo trataremos dos importantes conceptos de la teorı́a de matrices cuadradas. El primero
involucra el estudio de cierto tipo de matrices que, análogamente a los números reales distintos de cero,
poseen un inverso multiplicativo; el segundo, estrechamente relacionado con el primero, versa sobre un
número llamado determinante que se le asocia a cada matriz cuadrada y que tiene importantes y variadas
aplicaciones en álgebra lineal. Al finalizar estos temas se incluye una sección de ejercicios resueltos y
propuestos.
2.1 Matrices invertibles y sus inversas
Ya vimos que las operaciones algebraicas con matrices tienen propiedades análogas a las de los números
reales; en esta sección daremos una más, que corresponde a la existencia de inversos multiplicativos.
2.1.1 Definición y propiedades
Definición 2.1 Una matriz cuadrada A de orden n es invertible,1 si existe una matriz C del mismo
tamaño tal que
AC = CA = In .
Ejemplo 2.1 Si A =
2 9
1 4
−4
9
1 −2
yC=
AC =
2 9
1 4
, la matriz A es invertible, pues,
−4
9
1 −2
=
1 0
0 1
y
CA =
−4
1
9
−2
2 9
1 4
=
1
0
0
1
.
El teorema siguiente garantiza que, de existir, la matriz C de la definición 2.1 es única.
11 Si una matriz es invertible, se acostumbra decir que es no singular; y en caso contrario que es singular.
63
Page (PS/TeX): 1 / 63, COMPOSITE
64 CAPÍTULO 2
Matrices invertibles y determinantes
Teorema 2.1 Si A ∈ Mn×n es invertible y C, B ∈ Mn×n son tales que
y AB = BA = In ,
AC = CA = In
entonces
B = C.
DEMOSTRACIÓN
Q En efecto, AB = In ⇒ C(AB) = CIn ⇒ (CA)B = C ⇒ In B = C ⇒ B = C. Q
Definición 2.2 Si A ∈ Mn×n es invertible, a la única matriz C ∈ Mn×n tal que AC = CA = In se le
llama la matriz inversa2 de A y se le denota como A−1 ; es decir, C = A−1 .
Ejemplo 2.2 Del ejemplo precedente
2 9
1 4
−1
=
−4
1
9
−2
.
P Nota 2.1 De la demostración del teorema 2.1 se desprende que basta probar AC = In o CA = In para
que C = A−1 .
Teorema 2.2 (Propiedades)
1. Si A, B ∈ Mn×n son matrices invertibles, entonces la matriz AB es invertible y además
(AB)−1 = B−1 A−1 .
2. Si A ∈ Mn×n es una matriz invertible, A−1 es también invertible y (A−1 )−1 = A.
3. Si A es una matriz cuadrada invertible, entonces At es también invertible y además
(At )−1 = (A−1 )t .
4. Si α = 0 y A es una matriz cuadrada invertible, entonces αA es invertible y (αA)−1 = (1/α)A−1 .
DEMOSTRACIÓN
Q 1. (AB)(B−1 A−1 ) = A((BB−1 )A−1 )
= A(In A−1 )
= AA−1
= In .
Por tanto, (AB)−1 = B−1 A−1 .
2. A−1 A = In , por tanto, (A−1 )−1 = A.
3. Puesto que (cfr. propiedad 3(b) en la pág. 10) (MN)t = N t M t , las siguientes implicaciones son
válidas.
(AA−1 )t = Int = In ⇒ (A−1 )t At = In
⇒ (At )−1 = (A−1 )t .
4. Se deja como ejercicio al lector.
Q
12 El lector debe tener siempre presente que los conceptos de matriz invertible y de su inversa sólo se definen en matrices cuadradas.
Page (PS/TeX): 1 / 64, COMPOSITE
Matrices invertibles y sus inversas 65
SECCIÓN 2.1
2.1.2 Matrices invertibles y sistemas lineales
Supongamos que la matriz cuadrada A ∈ Mn×n es invertible, entonces el sistema cuadrado Ax = b tiene
solución única para todo b. En efecto,
Ax = b ⇒ A−1 (Ax) = A−1b ⇒ A−1 A x = A−1b ⇒ Inx = A−1b;
por tanto
x = A−1b.
Ejemplo 2.3 Utilizar el ejemplo 2.1 para resolver el sistema
2x1 + 9x2 = 4
x1 + 4x2 = −5 .
Solución
Si A es la matriz de coeficientes del sistema, por el mencionado ejemplo (cfr. pág. 63) A es
invertible y
A−1 =
−4
1
9
−2
,
entonces
x1
x2
=
−4
9
1 −2
4
−5
=
−61
14
.
En el ejemplo 2.1 mostramos que la matriz
C=
−4
1
9
−2
es la inversa de la matriz
A=
2 9
1 4
,
pero no indicamos cómo encontramos C = A−1 . Resolvamos esta cuestión en el siguiente ejemplo.
Ejemplo 2.4 Encontrar la inversa de la matriz A del ejemplo 2.1; es decir, hallar
Solución
Busquemos una matriz C =
2 9
1 4
x
z
−1
2 9
1 4
y
w
.
, tal que AC = I2 ; esto es,
x
y
z
w
=
1 0
0 1
.
Como
Page (PS/TeX): 3 / 65, COMPOSITE
2 9
1 4
x
z
y
w
=
2x + 9z
x + 4z
2y + 9w
y + 4w
,
66 CAPÍTULO 2
Matrices invertibles y determinantes
se debe cumplir
2x + 9z
x + 4z
2y + 9w
y + 4w
=
1 0
0 1
;
por tanto,
2x + 9z
x + 4z
=
=
1
0
(2.1)
2y + 9w
y + 4w
=
=
0
1.
(2.2)
y
Ambos sistemas tienen la misma matriz de coeficientes. Trabajemos simultáneamente los dos sistemas
como lo hicimos en el capı́tulo anterior (cfr. pág. 27).
1 4 0 1
2 9 1 0
↔
2 9 1 0
1 4 0 1
1
1 4 0
(2.3)
↔
0 1 1 −2
Resolviendo por sustitución regresiva para el sistema (2.1), encontramos z = 1 y x = −4; mientras que
para el sistema (2.2) tenemos w = −2 y y = 1 − 4w = 9; con lo que la matriz buscada es
−4
9
C=
(2.4)
1 −2
que es la matriz propuesta en el ejemplo 2.1. Apliquemos ahora el método de Gauss-Jordan a la matriz
ampliada (2.3) para resolver los sistemas (2.1) y (2.2).
1 4 0 1
2 9 1 0
↔
2 9 1 0
1 4 0 1
1
1 4 0
↔
0 1 1 −2
9
1 0 −4
(2.5)
↔
0 1 1 −2
Donde nuevamente encontramos z = 1, x = −4, y = 9 y w = −2; es decir, la matriz C de (2.4); pero ésta
es precisamente la matriz que está en el lado derecho de la partición en (2.5). Ya probamos que si A ∈ Mn×n es una matriz cuadrada invertible, entonces el sistema lineal Ax = b
tiene solución única ∀b (cfr. pág. 65). Recı́procamente, supongamos que el sistema Ax =b tiene solución
k
única ∀b; en particular para cadab =ek = [ 0 · · · 0 1 0 · · · 0 ]t , k = 1, 2, . . . , n. Sea, para cada k = 1, . . . , n,
ck = [ c1k c2k · · · cnk ]t , la única solución del sistema Ax =ek . Por tanto,
Ack =ek
para cada k = 1, . . . , n. Sea la matriz C cuyas columnas son las solucionesck ; es decir, C = [cik ], 1 ≤ i ≤ n,
1 ≤ k ≤ n. Entonces, por lo probado en el ejemplo 1.14 (cfr. (1.2) pág. 11), tenemos
Page (PS/TeX): 4 / 66, COMPOSITE
Matrices invertibles y sus inversas 67
SECCIÓN 2.1
AC = [ Ac1 Ac2 · · · Acn ] = [e1 e2 · · · en ] ;
es decir,
AC = In
y, por ende, la matriz A es invertible. Finalmente, del inciso 3 de los criterios para solución única de la
página 31, sabemos que el sistema Ax = b tiene solución única para todo b si y sólo si la matriz A es
equivalente a la identidad In . Hemos probado ası́ el siguiente teorema.
Teorema 2.3 Si A ∈ Mn×n , las siguientes condiciones son equivalentes a pares:3
1. El sistema Ax = b tiene solución única ∀b.
2. A ∼ In .
3. A es invertible.
Ejemplo 2.5 Hallar los valores de r tales que la matriz
⎡
1
A=⎣ 1
2
2
r
1
⎤
0
3 ⎦
3
sea invertible.
Por el teorema anterior, es suficiente que la matriz A sea equivalente a la identidad para que
sea invertible. Entonces, si llevamos A a forma escalonada y r es tal que en cada columna hay pivote,4
por el método de Gauss-Jordan A será, efectivamente, equivalente a la identidad. Llevemos entonces A
a forma escalonada.
⎤
⎤ ⎡
⎤ ⎡
⎤ ⎡
⎡
1 2
0
1
2
0
1
2
0
1 2 0
⎣ 1 r 3 ⎦ ↔ ⎣ 0 r−2 3 ⎦ ↔ ⎣ 0
1
−1 ⎦ ↔ ⎣ 0 1 −1 ⎦ .
0 0 r+1
0 r−2
3
0 −3 3
2 1 3
Solución
Ası́, para cualquier valor r = −1, la matriz A será invertible.
Ejemplo 2.6 Determine cuáles de las siguientes matrices son invertibles.
1. A =
⎡
1 1
0 0
1
2. B = ⎣ −1
2
.
⎤
1 −1
0
2 ⎦ .
−2
3
13 Que las condiciones sean equivalentes a pares significa que si se cumple una, cualquiera de ellas, se cumplen también todas las
demás; esto es: (1) ⇔ (2) ⇔ (3) ⇔ (4).
14 Véase la nota 1.6, página 31.
Page (PS/TeX): 5 / 67, COMPOSITE
68 CAPÍTULO 2
Matrices invertibles y determinantes
1 1
Solución
1. La matriz A =
está en forma escalonada y no tiene pivote en la segunda co0 0
lumna, por tanto no es equivalente a I2 , por el teorema 2.3 no es una matriz invertible.
2. Llevemos la matriz B a forma escalonada mediante el método de Gauss.
⎤
⎤ ⎡
⎤ ⎡
⎡
1 1 −1
1
1 −1
1
1 −1
⎣ −1
1 ⎦.
1
1 ⎦∼⎣ 0 1
0
2 ⎦∼⎣ 0
0 0
9
0 −4
5
2 −2
3
Dado que todas las columnas en la forma escalonada tienen pivote, la matriz es equivalente a la
identidad I3 , por el teorema 2.3 la matriz B es invertible. 2.1.3 Método de Gauss-Jordan para hallar la inversa de una matriz
Podemos generalizar el procedimiento empleado para encontrar la inversa de una matriz dado en el
ejemplo 2.4 (pág. 65). Sea A una matriz cuadrada de orden n y busquemos una matriz X = [xi j ] tal que
AX = In . Lo cual equivale a resolver los sistemas lineales con la misma matriz de coeficientes Axk =ek ,
k
donde xk = [ x1k x2k · · · xnk ]t y ek = [ 0 · · · 0 1 0 · · · 0 ]t es la k-ésima columna de la identidad In ,
k = 1, 2, . . . , n; pues (cfr. ejemplo 1.14, pág. 11)
AX = [ Ax1 Ax2 · · · Axn ] = In ⇔ Axk =ek .
Recordemos (cfr. pág. 27) que para resolver los sistemas [A |ek ] formamos la matriz ampliada
[ A |e1 e2 . . . en ] = [A | In ] y aplicamos el método de Gauss. Pero esta vez utilicemos mejor el método de Gauss-Jordan como lo hicimos en el ejemplo 2.4. Si a la mitad del proceso, cuando [A | In ] se
ha llevado a una forma escalonada equivalente [H | J], todas las columnas de H tienen pivote, entonces
todos los sistemas [A |ek ] tendrán solución única y A será equivalente a la identidad; al continuar con el
proceso de Gauss-Jordan eventualmente se llegará a la equivalencia [A | In ] ∼ [In | B], donde la k-ésima
columna de B será la única solución del sistema [A |ek ]; es decir, B es la solución de la ecuación matricial
AX = In . Por lo que la matriz A será invertible y B = A−1 . Si a la mitad del proceso, cuando [A | In ] se
ha llevado a una forma escalonada [H | J], existe una columna de H que no tiene pivote, entonces A In
y por ende A no será invertible o, equivalentemente, alguno de los sistemas [A |ek ] será inconsistente y
entonces AX = In no tendrá solución. Resumimos la información precedente a continuación.
Método de Gauss-Jordan para hallar la inversa de una matriz
Para determinar si una matriz A es invertible y hallar su inversa, en tal caso, se procede de la siguiente
manera:
1. Formamos la matriz aumentada [A | I]. Donde I es la identidad del mismo tamaño de A.
2. Se lleva A mediante el método de Gauss-Jordan a la identidad, aplicando simultáneamente las
mismas operaciones de renglón en el lado derecho de la partición.
3. Al llegar a [I | B], B = A−1 .
4. Si A no se puede llevar a I, significa que A no es invertible.5
15 Recordemos que para esto basta que en una forma escalonada equivalente, obtenida con el método de Gauss, no haya pivote en
alguna columna.
Page (PS/TeX): 6 / 68, COMPOSITE
SECCIÓN 2.1
Matrices invertibles y sus inversas 69
Ejemplo 2.7 Hallar, si es que existe, la inversa de la matriz
⎤
1 2 3
A = ⎣ 2 5 3 ⎦ .
1 0 8
⎡
⎡
1 2 3
⎣ 2 5 3
1 0 8
Solución
⎤
1 0 0
0 1 0 ⎦
0 0 1
⎡
←−−−−−−−−−→
R2 ↔ −R1 + R2
R3 ↔ −R1 + R3
←−−−−−−−−−−→
R3 ↔ −2R2 − R3
←−−−−−−−−−−→
R2 ↔ 3R3 + R2
R1 ↔ −3R3 + R1
←−−−−−−−−−−→
R1 ↔ −2R2 + R1
1
⎣ 0
0
⎡
1
⎣ 0
0
⎡
1
⎣ 0
0
⎡
1
⎣ 0
0
2
3
1 −3
−2
5
2
3
1 −3
0
1
2 0
1 0
0 1
0 0
1 0
0 1
⎤
1 0 0
−2 1 0 ⎦
−1 0 1
⎤
0
0 ⎦
−1
⎤
−14
6
3
13 −5 −3 ⎦
5 −2 −1
⎤
−40 16
9
13 −5 −3 ⎦ .
5 −2 −1
1
0
−2
1
5 −2
Por tanto, tenemos
⎤
−40 16
9
A−1 = ⎣ 13 −5 −3 ⎦ .
5 −2 −1
⎡
Comprobación:
⎤
⎤ ⎡
⎤⎡
1 0 0
−40 16
9
1 2 3
⎣ 2 5 3 ⎦ ⎣ 13 −5 −3 ⎦ = ⎣ 0 1 0 ⎦ .
0 0 1
5 −2 −1
1 0 8
⎡
Ejemplo 2.8 Encontrar, si es que existe, la inversa de la matriz
⎡
1
A=⎣ 2
−1
⎡
Solución
1
⎣ 2
−1
⎤
1
1
1 −3 ⎦ .
−2 −6
⎤
1
1 1 0 0
1 −3 0 1 0 ⎦ ∼
−2 −6 0 0 1
⎡
1
⎣ 0
0
⎡
1
∼ ⎣ 0
0
⎤
1
1 1 0 0
−1 −5 −2 1 0 ⎦
−1 −5 1 0 1
⎤
0 0
1
1 1
1 0 ⎦
−1 −5 −2
3 −1 1
0
0
(2.6)
La forma escalonada (2.6) equivalente a [A | I3 ] no tiene pivote en la tercera columna a la izquierda de la
partición; por tanto la matriz A no es invertible (pues no es equivalente a I3 ). Page (PS/TeX): 7 / 69, COMPOSITE
70 CAPÍTULO 2
Matrices invertibles y determinantes
Ejemplo 2.9 Hallar, si es que existe, la inversa de la matriz
⎡
1
⎢ −3
⎢
A=⎣
0
−1
−2
5
1
2
⎤
1
0
0
2 ⎥
⎥ .
2 −4 ⎦
4 −1
Solución
⎡
1 −2
⎢ −3
5
⎢
⎣ 0
1
−1
2
1
0 1
0
2 0
2 −4 0
4 −1 0
0
1
0
0
⎤
0
0 ⎥
⎥
0 ⎦
1
0
0
1
0
⎤
1 −2 1
0 1 0 0 0
⎢ 0 −1 3
2 3 1 0 0 ⎥
⎥
⎢
⎣ 0
1 2 −4 0 0 1 0 ⎦
0
0 5 −1 1 0 0 1
⎤
⎡
1 −2 1
0 1 0 0 0
⎢ 0 −1 3
2 3 1 0 0 ⎥
⎥
⎢
⎣ 0
0 5 −2 3 1 1 0 ⎦
0
0 5 −1 1 0 0 1
⎡
⎤
0
0 0
1 −2 1
0 1
⎢ 0 −1 3
2 3
1
0 0 ⎥
⎢
⎥
⎣ 0
0 5 −2 3
1
1 0 ⎦
0
0 0
1 −2 −1 −1 1
⎤
⎡
0
0
0
1 −2 1 0 1
⎢ 0 −1 3 0 7
3
2 −2 ⎥
⎥
⎢
⎣ 0
2 ⎦
0 5 0 −1 −1 −1
1
0
0 0 1 −2 −1 −1
⎤
⎡
1
0
0
0
1 −2 1 0 ⎢ 0 −1 3 0 7
3
2 −2 ⎥
⎥
⎢
⎣ 0
0 1 0 −1/5 −1/5 −1/5 2/5 ⎦
−1
−1
1
0
0 0 1 −2
⎡
1 −2 0 0 6/5
1/5
1/5 −2/5
⎢ 0 −1 0 0 38/5 18/5 13/5 −16/5
⎢
⎣ 0
2/5
0 1 0 −1/5 −1/5 −1/5
−1
−1
1
0
0 0 1 −2
⎡
−7
−5
6
1
0 1 0 −14
⎢ 0 −1 0 0 38/5 18/5 13/5 −16/5
⎢
⎣ 0
2/5
0 1 0 −1/5 −1/5 −1/5
−2
−1
−1
1
0
0 0 1 ⎡
−14
−7
−5
6
1 0 1 0 ⎢ 0 1 0 0 −38/5 −18/5 −13/5 16/5
⎢
⎣ 0 0 1 0 −1/5 −1/5 −1/5
2/5
0 0 0 1 −2
−1
−1
1
⎡
∼
∼
∼
∼
∼
∼
∼
∼
De donde A es invertible y
⎤
−14
−7
−5
6
⎢ −38/5 −18/5 −13/5 16/5 ⎥
⎥.
A−1 = ⎢
⎣ −1/5
−1/5 −1/5 2/5 ⎦
−2
−1
−1
1
⎡
Page (PS/TeX): 8 / 70, COMPOSITE
⎤
⎥
⎥
⎦
⎤
⎥
⎥
⎦
⎤
⎥
⎥.
⎦
Matrices invertibles y sus inversas 71
SECCIÓN 2.1
Comprobando:
⎤ ⎡
⎤⎡
1
−14
−7
−5
6
1 −2 1
0
⎥ ⎢ −38/5 −18/5 −13/5 16/5 ⎥ ⎢ 0
⎢ −3
5
0
2
⎥=⎢
⎥⎢
⎢
⎣ 0
−1/5 −1/5 2/5 ⎦ ⎣ 0
1 2 −4 ⎦ ⎣ −1/5
0
−2
−1
−1
1
−1
2 4 −1
⎡
0
1
0
0
0
0
1
0
⎤
0
0 ⎥
⎥.
0 ⎦
1
2.1.4 Matrices elementales
Definición 2.3 Una matriz cuadrada de orden m es elemental si se obtiene a partir de la identidad
Im mediante una sola operación de renglón.
⎤
1 0 0
Ejemplo 2.10 La matriz E1 = ⎣ 0 2 0 ⎦ es elemental, pues se obtiene de I3 mediante la opera0 0 1
ción de renglón R2 ↔ 2R2 . Análogamente las matrices
⎡
⎤
0 1 0
E2 = ⎣ 1 0 0 ⎦
0 0 1
⎡
⎡
y
1
E3 = ⎣ 0
−1
0
1
0
⎤
0
0 ⎦
1
son elementales; pues resultan de I3 al aplicarle las operaciones R1 ↔ R2 y R3 ↔ −R1 + R3 , respectivamente (¡chéquelo!).
⎡
2
Ejemplo 2.11 Si A = ⎣ 2
0
ración de renglón R2 ↔ R3 y
misma operación; es decir,
⎡
⎤
−3 0 −1
−1 0
2 ⎦, sea B la matriz que se obtiene de A al aplicarle la ope−1 2
3
sea E1 la matriz elemental que resulta de la identidad I3 al aplicarle la
2
B=⎣ 0
2
−3 0
−1 2
−1 0
⎤
−1
3 ⎦
2
⎤
1 0 0
E1 = ⎣ 0 0 1 ⎦ .
0 1 0
⎡
y
Entonces,
⎤⎡
2
1 0 0
E1 A = ⎣ 0 0 1 ⎦ ⎣ 2
0
0 1 0
⎡
−3
−1
−1
⎤ ⎡
2
0 −1
0
2 ⎦=⎣ 0
2
2
3
⎤
−3 0 −1
−1 2
3 ⎦ = B.
−1 0
2
Del ejemplo anterior deducimos el siguiente teorema, que no es difı́cil de probar y cuya demostración
se deja como ejercicio al lector.
Teorema 2.4 (Efecto de matrices elementales) Si a una matriz A de tamaño m × n se le aplica una
operación de renglón, la matriz resultante es el producto EA, donde E es la matriz elemental m × m
que se obtiene de la identidad Im al aplicarle la misma operación de renglón.
Page (PS/TeX): 9 / 71, COMPOSITE
72 CAPÍTULO 2
Matrices invertibles y determinantes
Supongamos ahora que E1 , E2 , E3 son las matrices elementales n × n que se obtienen de la identidad
al aplicarle, respectivamente, las operaciones de renglón Ri ↔ R j , Ri ↔ αRi , Ri ↔ αRi + βR j . Entonces,
si E1 , E2 y E3 son las matrices elementales que resultan de la identidad al aplicarle las operaciones de
fila R j ↔ Ri , Ri ↔ (1/α)Ri y Ri ↔ (1/α)Ri − (β/α)R j , respectivamente, es claro que al aplicar a E1 , E2 ,
E3 sendas operaciones se obtendrá, en cada caso, nuevamente la identidad (¡compruébelo!). Ası́, por el
efecto que tienen las matrices elementales se tiene: E1 E1 = In , E2 E2 = In y E3 E3 = In . Lo cual demuestra
la siguiente afirmación.
Teorema 2.5 Toda matriz elemental es invertible y su inversa es también una matriz elemental.
Ejemplo 2.12 Sean las matrices elementales
⎤
1 0 0
E1 = ⎣ 0 0 1 ⎦ ,
0 1 0
⎡
⎡
1
E2 = ⎣ 0
0
⎤
0 0
−3 0 ⎦
0 1
⎡
y
1
E3 = ⎣ 0
2
⎤
0
0
1
0 ⎦;
0 −3
las cuales se obtienen de I3 mediante las operaciones R2 ↔ R3 , R2 ↔ −3R2 , R3 ↔ −3R3 + 2R1 , respectivamente. Entonces, para este caso
⎡
1
E1 = ⎣ 0
0
0
0
1
⎤
0
1 ⎦,
0
⎡
1
E2 = ⎣ 0
0
0
−1/3
0
⎤
0
0 ⎦,
1
⎡
1
E3 = ⎣ 0
−2/3
⎤
⎤ ⎡
⎤⎡
1 0 0
1 0 0
0
1 ⎦⎣ 0 0 1 ⎦ = ⎣ 0 1 0 ⎦,
0 0 1
0 1 0
0
⎤ ⎡
⎤⎡
1 0 0
1
0 0
0 0
−3 0 ⎦ ⎣ 0 −3 0 ⎦ = ⎣ 0 1 0
0 0 1
0
0 1
0 1
⎤ ⎡
⎤⎡
1
1 0
0
1
0
0
0 ⎦=⎣ 0
1
0 ⎦⎣ 0 1
E3 E3 =⎣ 0
0
2 0 −3
−2/3 0 −1/3
⎡
1
E1 E1 =⎣ 0
0
⎡
1
E2 E2 =⎣ 0
0
⎡
⎤
0
0
1
0 ⎦
0 −1/3
y
0
0
1
⎤
⎦,
⎤
0 0
1 0 ⎦ .
0 1
Ejemplo 2.13 Hallar una matriz C, si es que existe, tal que la matriz CA sea triangular superior si
⎤
0 1 −3
A = ⎣ 2 3 −1 ⎦ .
4 5 −2
⎡
Solución
Llevemos A, mediante el método de Gauss, a forma triangular superior:
⎤ ⎡
⎤ ⎡
⎤ ⎡
4
4
5 −2
4 5 −2
0 1 −3
⎣ 2 3 −1 ⎦ ↔ ⎣ 2 3 −1 ⎦ ↔ ⎣ 0 −1
0 ⎦↔⎣ 0
0
0
1 −3
0 1 −3
4 5 −2
⎡
⎤
5 −2
−1
0 ⎦.
0 −3
Las matrices elementales correspondientes a la sucesión de estas operaciones son, respectivamente,
Page (PS/TeX): 10 / 72, COMPOSITE
Matrices invertibles y sus inversas 73
SECCIÓN 2.1
⎤
0 0 1
E1 = ⎣ 0 1 0 ⎦ ,
1 0 0
⎡
⎤
0 0
−2 0 ⎦
0 1
⎡
1
E2 = ⎣ 1
0
⎡
y
1
E3 = ⎣ 0
0
0
1
1
⎤
0
0 ⎦.
1
Luego,
⎤
4
5 −2
0 ⎦.
E3 (E2 (E1 A)) = ⎣ 0 −1
0
0 −3
⎡
Y como E3 (E2 (E1 A)) = (E3 E2 E1 )A, si hacemos C = E3 E2 E1 ; es decir,
⎡
1
C=⎣ 0
0
0
1
1
⎤
⎡
⎤⎡
⎤⎡
1
0 0
0 0 1
1
0 0
0
0 ⎦ ⎣ 1 −2 0 ⎦ ⎣ 0 1 0 ⎦ = ⎣ 1 −2 0
1 −2 1
1 0 0
0
0 1
1
⎡
0
0 1
= ⎣ 0 −2 1
1 −2 1
⎤
0 0 1
⎦⎣ 0 0 1 ⎦
1 0 0
⎤
⎤⎡
⎦,
tenemos que
⎡
0
CA = ⎣ 0
1
⎤ ⎡
⎤⎡
4
0 1 −3
0 1
−2 1 ⎦ ⎣ 2 3 −1 ⎦ = ⎣ 0
0
4 5 −2
−2 1
⎤
5 −2
−1
0 ⎦
0 −3
es una matriz triangular superior. Ya vimos que un sistema cuadrado Ax = b tiene solución única ∀b si y sólo si la matriz A es
equivalente a la identidad I. Ahora supongamos que efectivamente A es equivalente a I, entonces podemos llevar A mediante operaciones de renglón a la identidad; luego, por el efecto que tienen las
matrices elementales, existen Ek , Ek−1 , . . . , E1 , matrices elementales del mismo orden de A, tales que
(Ek Ek−1 · · · E1 )A = I. Es decir, la matriz A es invertible con inversa Ek Ek−1 · · · E1 . Por otro lado, de la
igualdad (Ek Ek−1 · · · E1 )A = I se desprende
−1 −1
Ek .
A = E1−1 · · · Ek−1
Lo cual nos dice que A es producto de matrices elementales (pues la inversa de una matriz elemental es
también elemental). Recı́procamente si A es producto de matrices elementales, entonces A es invertible.
De lo precedente podemos añadir una condición más de equivalencia al teorema 2.3 (cfr. pág. 67).
Teorema 2.6 Si A ∈ Mn×n , las siguientes condiciones son equivalentes a pares:
1.
2.
3.
4.
Page (PS/TeX): 11 / 73, COMPOSITE
El sistema Ax = b tiene solución única ∀b.
A ∼ In .
A es invertible.
A es producto de matrices elementales.
74 CAPÍTULO 2
Matrices invertibles y determinantes
2.1.5 Inversas de matrices con componentes complejas
La identidad multiplicativa en el sistema de números complejos6 coincide con la identidad multiplicativa
en los números reales, el número z = 1. Esto implica que la matriz identidad en Mn (C), el conjunto de
matrices cuadradas de orden n con componentes complejas, es la matriz identidad In con la que hemos
trabajado en matrices con entradas reales; es decir, In = [akl ], donde
akl =
1 si k = l
0 si k = l
y satisface (como en el caso real)
AIn = A
In B = B
para toda A ∈ Mm×n (C) y para toda B ∈ Mn×m (C). La definición de matriz invertible es exactamente la
misma para Mn (C) que para el caso real (cfr. definición 2.1, pág. 63). Nuevamente todas las propiedades
y teoremas acerca de las matrices invertibles y sus inversas dados en esta sección son también válidos
para el caso de componentes complejas. Entonces, para determinar si una matriz en Mn (C) es invertible
y en tal caso calcular su inversa, se utilizan las mismas técnicas que en el caso real pero se trabaja con
el álgebra de números complejos.
Ejemplo 2.14 Determinar si la matriz
⎡
1 1+i
A = ⎣ i −2i
1 1−i
⎤
−i
1 ⎦
2i
es invertible. De ser ası́, hallar A−1 .
Apliquemos el método de Gauss-Jordan.7
Solución
⎤
1 1 + i −i 1 0 0
⎣ i −2i 1 0 1 0 ⎦
1 1 − i 2i 0 0 1
⎡
⎡
1 1+i
(1)
←→ ⎣ 0 1 − 3i
0 −2i
⎡
1 1+i
(2)
←→ ⎣ 0 −2i
0 1 − 3i
⎡
1 1+i
(3)
1
←→ ⎣ 0
0 1 − 3i
−i 3i 0 ⎤
0
0 ⎦
1
⎤
1 0 0
−1 0 1 ⎦
−i 1 0
⎤
1
0 0
−i −3/2 −i/2 0 i/2 ⎦
1 0
0 −i
−i
0
3i
1
−i
−1
0
1
0
16 Cfr. B.1 del apéndice B.
17 (1) R2 ↔ −iR1 +R2 , R3 ↔ −R1 +R2 , (2) R2 ↔ R3 , (3) R2 ↔ (−1/2i)R2 , (4) R3 ↔ −(1−3i)R2 +R3 , (5) R3 ↔ (3/2−(9/2)i)−1 R3 ,
(6) R2 ↔ (3/2)R3 + R2 , R1 ↔ iR3 + R1 , (7) R1 ↔ −(1 + i)R2 + R1 .
Page (PS/TeX): 12 / 74, COMPOSITE
SECCIÓN 2.2
⎡
Determinantes 75
⎤
1
0
0
−i
−i/2 0
i/2 ⎦
−3/2
3/2 − 9i/2 32 − 2i 1 − 32 − 2i
⎤
1
0
0
−i 0
i/2 ⎥
−3/2 −i/2
⎦
1 1 + 4 i 1 + 1i −1i
5
15
15
5
3
⎤
1
11 + 1 i − 1 + 1 i
15
5
5
15
3
0 ⎥
3
1
1
3
0 10
− 10
i 10
+ 10
i
0 ⎥
⎦
1 1 4
1
1
1
+
i
+
i
−
i
5
15
15
5
3
⎤
1
1
1
−3i
3
3
1 0 0 ⎥
3
1
1
3
0 1 0 10 − 10 i 10 + 10
i
0 ⎥
⎦.
0 0 1 1 4
1
1
− 31 i
5 + 15 i
15 + 5 i
1 1+i
1
←→ ⎣ 0
0
0
⎡
1 1+i
(5)
⎢
1
←→ ⎣ 0
0
0
⎡
⎢ 1 1+i
(6)
1
←→ ⎢
⎣ 0
0
0
(4)
⎡
⎢
(7)
←→ ⎢
⎣
Por tanto,
⎡
⎢
A−1 = ⎢
⎣
1
3
− 13 i
1
3
3
1
10 − 10 i
1
4
5 + 15 i
1
3
10 + 10 i
1
1
15 + 5 i
0
⎤
⎥
⎥.
⎦
− 13 i
2.2 Determinantes
En este sección estudiaremos uno de los principales conceptos del álgebra lineal. A cada matriz cuadrada
se le puede asignar cierto número real llamado el determinante de la misma; el cual tiene diversas e
importantes aplicaciones en esta materia y otras áreas como, por citar algunos ejemplos, el cálculo
del polinomio caracterı́stico para encontrar los valores y vectores propios, método de la adjunta para
hallar la inversa de una matriz, regla de Cramer, cálculo de volúmenes e integrales, etc. Utilizaremos
un método de recurrencia para definir y calcular determinantes de orden n a partir de determinantes
de orden menor. Hacemos énfasis en que, como en el caso de la inversa de una matriz, el concepto de
determinante sólo es aplicable a matrices cuadradas.
2.2.1 Desarrollo por cofactores
Definición 2.4
1. Si A = [a] es una matriz 1 × 1 el determinante de A se denota y define como
2. Si A =
Page (PS/TeX): 13 / 75, COMPOSITE
a b
c d
det(A) = a.
76 CAPÍTULO 2
Matrices invertibles y determinantes
es una matriz 2 × 2 se define y denota el determinante de A como
det(A) = ad − bc.
También usaremos la notación
a b
c d
= ad − bc
para el determinante de la matriz A.
3. Supongamos que n es un entero mayor a 2 y que los determinantes para matrices de orden
menor o igual a n − 1 ya han sido definidos. Si A es una matriz n × n, entonces:
(a) Se define el menor del elemento ai j de A (o simplemente el menor i j) como el determinante
que se obtiene de la matriz que resulta de eliminar la fila i y la columna j de A. A este
número lo denotamos por Mi j .
(b) El cofactor del elemento ai j de A (o simplemente el cofactor i j), se define y denota como
ci j = (−1)i+ j Mi j .
Ejemplo 2.15 Si
entonces
⎤
1 0 2
A = ⎣ −4 3 1 ⎦ ,
0 2 1
⎡
−4 1 = −4
M12 = det 0 1 y
c12 = (−1)1+2 M12 = (−1)3 (−4) = 4.
A continuación enunciamos el teorema básico para definir y calcular inductivamente los determinantes. Este teorema es conocido como desarrollo de Laplace o desarrollo por cofactores de la función
determinante. La demostración de este teorema es larga y remitimos al lector al apéndice C para que la
consulte. Únicamente nos limitamos, en los dos siguientes ejemplos, a ilustrar este importante teorema
para los casos n = 2 y n = 3, e inmediatamente pasamos al cálculo de determinantes utilizando este
resultado en los ejemplos subsecuentes.
Teorema 2.7 Sea A ∈ Mn×n .
1. Sean f1 , f2 , . . . , fn los elementos de una fila, Fi , cualquiera de A, con c1 , c2 , . . . , cn sus respectivos
cofactores y
ΔFi = c1 f1 + c2 f2 + · · · + cn fn .
2. Sean g1 , g2 , . . . , gn los elementos de una columna, G j , cualquiera de A, con d1 , d2 , . . . , dn sus
respectivos cofactores y
ΔG j = d1 g1 + d2 g2 + · · · + dn gn .
Page (PS/TeX): 14 / 76, COMPOSITE
SECCIÓN 2.2
Determinantes 77
Entonces:
• ΔFi = ΔFk para todo par de filas Fi y Fk de A.
• ΔG j = ΔGl para todo par de columnas G j y Gl de A.
• ΔFi = ΔG j para toda fila Fi y toda columna G j de A.
Definición 2.5 Al número real común que se calcula en los incisos 1 y 2 del teorema anterior se le
llama el determinante de la matriz A y se denota como det(A) o |A|.8 Es decir,
1. |A| = ΔF para cualquier fila F de A y
2. |A| = ΔG para cualquier columna G de A.
En el caso 1 se dice que el determinante se ha desarrollado por cofactores en la fila F y, en el caso
2, que se ha desarrollado por cofactores en la columna G.
a b , entonces c11 = (−1)1+1 M11 = det [d] = d; c12 = (−1)1+2 M12 =
Ejemplo 2.16 Sea A = c d − det ([c]) = −c; c21 = (−1)2+1 M21 = − det ([b]) = −b; y c22 = (−1)2+2 M22 = det ([a]) = a. Por tanto,
ΔF1 = ac11 + bc12 = ad + b(−c) = ad − bc = det (A) ,
ΔF2 = cc21 + dc22 = c (−b) + da = ad − bc = det (A) ,
ΔG1 = ac11 + cc21 = ad + c(−b) = ad − bc = det (A) ,
ΔG2 = bc12 + dc22 = b (−c) + d(a) = ad − bc = det (A) .
⎡
a11
Ejemplo 2.17 Sea A = ⎣ a21
a31
a12
a22
a32
⎤
a13
a23 ⎦.
a33
Entonces
ΔF1 = a11 c11 + a12 c12 + a13 c13
a a a a a a = (−1)1+1 a11 22 23 + (−1)1+2 a12 21 23 + (−1)1+3 a13 21 22 a32 a33
a31 a33
a31 a32
= a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 )
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 ,
ΔF2 = a21 c21 + a22 c22 + a23 c23
a12 a13 a11 a13 a11 a12 2+1
2+2
2+3
+ (−1) a22 + (−1) a23 = (−1) a21 a32 a33 a31 a33 a31 a32 = −a21 (a12 a33 − a13 a32 ) + a22 (a11 a33 − a13 a31 ) − a23 (a11 a32 − a12 a31 )
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 ,
18 El lector debe tener cuidado de no confundir esta notación con el valor absoluto de un número real. En realidad la notación |A|
quedará clara en contexto; pues si A es una matriz, entonces se refiere al determinante de la misma; mientras que si A es un número
real representará, como es usual, su valor absoluto. Por esta razón, el lector debe tener siempre en mente que el determinante de
una matriz puede ser un número real positivo, negativo o cero.
Page (PS/TeX): 15 / 77, COMPOSITE
78 CAPÍTULO 2
Matrices invertibles y determinantes
ΔF3 = a31 c31 + a32 c32 + a33 c33
a a a a a a = (−1)3+1 a31 12 13 + (−1)3+2 a32 11 13 + (−1)3+3 a33 11 12 a22 a23
a21 a23
a21 a22
= a31 (a12 a23 − a13 a22 ) − a32 (a11 a23 − a13 a21 ) + a33 (a11 a22 − a12 a21 )
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 ,
ΔG1 = a11 c11 + a21 c21 + a31 c31
a22 a23 a12 a13 a12 a13 1+1
2+1
3+1
+ (−1) a21 + (−1) a31 = (−1) a11 a32 a33 a32 a33 a22 a23 = a11 (a22 a33 − a23 a32 ) − a21 (a12 a33 − a13 a32 ) + a31 (a12 a23 − a13 a22 )
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 ,
ΔG2 = a12 c21 + a22 c22 + a32 c23
a21 a23 a11 a13 a11 a13 2+1
2+2
3+2
+ (−1) a22 + (−1) a32 = (−1) a12 a31 a33 a31 a33 a21 a23 = −a12 (a21 a33 − a23 a31 ) + a22 (a11 a33 − a13 a31 ) − a32 (a11 a23 − a13 a21 )
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 ,
ΔG3 = a13 c13 + a23 c23 + a33 c33
a a a a a a = (−1)1+3 a13 21 22 + (−1)2+3 a23 11 12 + (−1)3+3 a33 11 12 a31 a32
a31 a32
a21 a22
= a13 (a21 a32 − a22 a31 ) − a23 (a11 a32 − a12 a31 ) + a33 (a11 a22 − a12 a21 )
= a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 .
De donde se ve que ΔFi = ΔFk para todo par de filas de A, ΔG j = ΔGl para todo par de columnas de A,
y ΔFi = ΔG j para cualquier fila y para cualquier columna de A.
Ejemplo 2.18
−1 0 2
2 1 3
−2 1 1
= 0 · c12 + c22 + c32
2+2 −1 2
= (−1) −2 1
+ (−1)3+2 −1 2
2 3
= −1 − (−4) − (−3 − 4) = 3 − (−7)
= 10.
El determinante de una matriz 3 × 3, si se agrupan los términos de ΔFi = ΔG j del ejemplo 2.17,
puede escribirse como
a11
a21
a31
a12
a22
a32
a13
a23
a33
=
(a11 a22 a33 + a21 a32 a13 + a31 a23 a12 )
−(a13 a22 a31 + a23 a32 a11 + a33 a21 a12 )
(2.7)
Ésta es la llamada regla de Sarrus y un ardid nemotécnico para tenerla siempre en mente es mediante el
esquema contenido en la figura 2-1, que seguramente es familiar al lector de cursos en educación básica.
Page (PS/TeX): 16 / 78, COMPOSITE
SECCIÓN 2.2
a11
a12
a13
a21
a22
a23
a31
a32
a33
Figura 2-1 •
Determinantes 79
Los términos del primer sumando en la regla de Sarrus se obtienen multiplicando las componentes de la matriz siguiendo las flechas azules y los
del segundo sumando multiplicando las componentes siguiendo las flechas
rojas. Desafortunadamente esta regla sólo funciona para matrices 3 × 3 y su
generalización ya no es válida para matrices de orden mayor que 3. El lector puede confirmar esta afirmación fácilmente si calcula un determinante
4 × 4 por la “generalización” de la regla de Sarrus y verifica el resultado
desarrollando por cofactores.
Es posible hacer un poco más eficiente el desarrollo por cofactores. Si A es una matriz cuadrada
de orden n y vamos a calcular su determinante, por ejemplo, desarrollando por cofactores en la fila Fi ,
entonces
|A| =
n
∑ (−1)i+k aik Mik
k=1
donde Mik es el menor del elemento aik de la matriz A; es decir, Mik es el determinante de la matriz
(n − 1) × (n − 1) que resulta de eliminar la fila i y la columna k de la matriz A. Dado que (−1)i+k es 1 o
−1 si j + k es par o impar, podemos desarrollar las siguientes matrices de signos para evitar calcular la
potencia (−1)i+ j :
⎤
⎡
⎤
⎡
+ − + −
+ − +
⎢ − + − + ⎥
+ −
⎥
, ⎣ − + − ⎦, ⎢
⎣ + − + − ⎦,
− +
+ − +
− + − +
etc., que nos indican el signo de la potencia (−1)i+k , únicamente viendo la posición i, k para cada matriz
del tamaño correspondiente; como fácilmente puede comprobarlo el lector. Entonces para calcular el
determinante anteponemos, para cada k = 1, 2, . . . , n, el signo que corresponde al elemento i, k al producto aik Mik en la matriz de signos del mismo tamaño de A y se suman algebraicamente estos términos
desde k = 1 hasta k = n. Ilustraremos lo anterior en el ejemplo 2.19.
P Nota 2.2 Para formar una matriz de signos se observa lo siguiente:
• Se comienza con el signo + en la primera componente de la primera fila.
• Los signos + y − se van alternando en cada fila y en cada columna.
• Si se han hecho correctamente los dos pasos anteriores, todos los signos en la diagonal serán
positivos.
Ejemplo 2.19
1
3
1
−1
Page (PS/TeX): 17 / 79, COMPOSITE
−1
0 2 1 −1
2 −1 1 1
2
=
−(−1)
2
4 3 −1 −2
−2
0 5 2 3 −1
−
= −2 5 −2
2
3
5
1 −1
+ (4) 3
2
−1 −2
2
5
−1 2
−
2 3
2
1
5
80 CAPÍTULO 2
Matrices invertibles y determinantes
3
2 1 3 1 + 2 +
+4 −1
−1 5
−2 5
2 −2 = 16 + 1 + 7 + 4 [12 + 16 − 8]
= 104.
Donde hemos utilizado la matriz de signos 4 × 4 y la de 3 × 3 para saber el signo que debe anteceder al
menor cuando se desarrolla el determinante por una fila o columna conveniente.9 Calcular el determinante de una matriz por medio de cofactores puede convertirse en un trabajo
increı́blemente laborioso. Por ejemplo, si una computadora de esta época se utiliza para calcular el
determinante de una matriz de tamaño 50 × 50, nuestro sistema solar habrá desaparecido antes que
la computadora dé el resultado final. Por esta razón necesitamos procedimientos que nos auxilien a
minimizar los cálculos para encontrar el determinante de una matriz. Nuevamente el método de Gauss
será la base para alcanzar ese objetivo y en el siguiente apartado nos abocamos a ese fin.
2.2.2 Propiedades
Enunciamos las siguientes propiedades de los determinantes e invitamos al lector a consultar las correspondientes demostraciones en el apéndice C.
Teorema 2.8 (Propiedades de los determinantes) Sean A y B matrices cuadradas de orden n, entonces:
|AB| = |A||B|.
|At | = |A|.
1
Si A es una matriz invertible, entonces |A−1 | = 0 y además |A−1 | = |A|
.
Si A es triangular superior o triangular inferior, el determinante de A es el producto de los
elementos de la diagonal.
5. Supongamos que B es equivalente a la matriz A al aplicarle una operación de renglón:
(a) Si B se obtiene de A mediante la operación de renglón Ri ↔ R j , entonces |A| = −|B|.
(b) Si B resulta de A al aplicarle la operación Ri ↔ Ri + αR j , entonces |B| = |A|.
(c) Si B se obtiene de A con la operación Ri ↔ αRi , α = 0, entonces |A| = (1/α)|B|.
1.
2.
3.
4.
P Nota 2.3 De manera análoga a las operaciones de renglón se definen las operaciones de columnas:
Gi ↔ G j , Gi ↔ αGi (α = 0), Gi ↔ αGi + βG j (α = 0), que significan, respectivamente, la columna Gi
se intercambia con la columna G j , la columna Gi se cambia por α-veces la columna Gi , la columna Gi
se cambia por α-veces la columna Gi más β-veces la columna G j . Debido a que |At | = |A|, las propiedades de los determinantes que involucran operaciones en renglones se pueden traducir a propiedades
de operaciones en columnas:
19 Se entiende por fila o columna conveniente, una fila o columna de la matriz que minimice los cálculos; si es que la matriz
contiene alguna con esta caracterı́stica.
Page (PS/TeX): 18 / 80, COMPOSITE
SECCIÓN 2.2
Determinantes 81
1. Si B es la matriz que se obtiene de una matriz A mediante la operación de columna Gi ↔ G j ,
entonces |A| = −|B|.
2. Si B es la matriz que se obtiene de una matriz A mediante la operación de columna Gi ↔ αG j ,
entonces |A| = (1/α)|B|.
3. Si B es la matriz que resulta de una matriz A al aplicarle la operación de columna Gi ↔ Gi + βG j ,
entonces |A| = |B|.
Ejemplo 2.20 Sean A =
−1 3
4 7
yB=
2 1
1 3
; entonces |A| = −19, |B| = 5 y
1 8 |AB| = 15 25 = 25 − 120
= −95
= (−19) (5)
= |A| |B| .
Ejemplo 2.21 Mostrar la propiedad 3.
DEMOSTRACIÓN
Q Sea A una matriz de orden n invertible, entonces AA−1 = In . Luego, por la propiedad 4, |In | = 1 y, por
la propiedad 1, AA−1 = |A| A−1 ; luego
1 = |In |
= AA−1 = |A| A−1 ;
de donde |A| = 0 y A−1 = 1/ |A|. Q
Ejemplo 2.22 Por la propiedad 4
−1 3
0 2
0 0
0 0
4 −1 −2
3 = (−1) (2) (3) (4) = −24.
3 −7 0
4 Ejemplo 2.23 Por las propiedades 5(a) y 4
−1 3
2
0 0
1
0 3 −5
−1 3
2 = − 0 3 −5 = − (−3) = 3.
0 0
1 Comprobación:
−1 3
2
0 0
1
0 3 −5
Page (PS/TeX): 19 / 81, COMPOSITE
= − (1) −1 3
0 3
= −3.
82 CAPÍTULO 2
Matrices invertibles y determinantes
Ejemplo 2.24 Por las propiedades 5(b) y 4
1 −2
1 1
−5
5 −1 = 0
0
0
3 0
Ejemplo 2.25 Por la propiedad 5(c)
4 −4 8 1 −1 2 =
1
1 3 1
1 1
1/4 1
−2 1 −5 4 = −15.
0 3 1 −2 2 −2 2 −1 2 = 4 1 −1 2 1
1 3 1 3 y por la propiedad 5(b)
4
1
1
1
−8 8 −1 2 = 4 1
1
1 3 1
= 4 0
1
= 4(1) = 4.
−2 2 −1 2 1 3 −2 2 1 0 1 3 1 2 1 3 Ejemplo 2.26 Calcular el determinante de la matriz
⎡
3 −6
3
⎢ 2
1
−2
⎢
⎣ 3
2 −4
5
1
2
⎤
9
1 ⎥
⎥
2 ⎦
3
llevándola a la forma triangular superior mediante el método de Gauss y haciendo uso de las propiedades
5(a), (b), (c) y 4.
1 −2
3 −6
1 3 3 9 2 −1 −2 1 2
1 −2 1 Solución
= 3 3
3
2 −4 2 2
−4
2
5
5
1
2 3 1
2 3 1 −2
1
3 0
5 −4 −5 = 3 0 −8 −7 −7 0 11 −3 −12 1 −2
1
3 0
5 −4 −5 = 3 8 −7 −7 0
0
1
5 −2 1 −2
1
3 0
1
5 −2 = −3 0
8
−7
−7 0
5 −4 −5 Page (PS/TeX): 20 / 82, COMPOSITE
SECCIÓN 2.2
= −3 1 −2
1
0
1
5
0
0 −47
0
0 −29
1 −2
0
1
= (−3)(−47) 0
0
0
0
1 −2
0
1
= (−3)(−47) 0
0
0
0
3
−2
9
5
Determinantes 83
1
3 5
−2 1 −9/47 −29
5 1
3 5
−2 1
−9/47 0 −26/47 = (−3)(−47)(−26/47)
= −78.
2.2.3 Método de la adjunta para hallar la inversa
A continuación daremos un método alternativo para hallar la inversa de una matriz. Debemos aclarar
que, en comparación con el método de Gauss-Jordan, resulta ser muy ineficiente; pues para llevarlo a
efecto se tienen que calcular varios determinantes. Sin embargo, las implicaciones teóricas y prácticas
de dicho método justifican muy bien su estudio.
Definición 2.6 Sea A una matriz cuadrada de orden n. Se definen:
• La matriz de cofactores de A como Cof(A) = [ci j ], donde ci j es el cofactor del elemento i j de
A.
• La matriz adjunta de A por Adj(A) = [Cof(A)]t ; es decir, la matriz adjunta de A es la transpuesta de la matriz de cofactores.
Vimos en el inciso 3 de las propiedades de los determinates (cfr. teorema 2.8, pág. 80), que si una
matriz es invertible su determinante es diferente de cero; el recı́proco es cierto y está contenido en el
teorema 2.9; y se invita al lector a consultar su demostración en el apéndice C.
Teorema 2.9 (Método de la adjunta) Si A ∈ Mn×n , entonces
A Adj(A) = det(A)In .
Luego, A es invertible si y sólo si det(A) = 0 y en tal caso
A−1 =
Page (PS/TeX): 21 / 83, COMPOSITE
1
Adj(A).
|A|
84 CAPÍTULO 2
Matrices invertibles y determinantes
⎤
−1
1 2
Ejemplo 2.27 Sea A = ⎣ 2 −1 1 ⎦, entonces c11 = −1, c12 = −10, c13 = −8, c21 = −10,
−2 −3 4
c22 = 0, c23 = −5, c31 = 3, c32 = 5, c33 = −1; por tanto,
⎡
⎤
−10 −8
0 −5 ⎦ ,
5 −1
⎤
−10
3
0
5 ⎦,
−5 −1
⎡
−1
Cof(A) = ⎣ −10
3
⎡
−1
Adj(A) = ⎣ −10
−8
y |A| = −25. Luego,
⎡
−1 −10
1
1 ⎣
−10
0
A−1 = |A|
Adj(A) = − 25
−8 −5
⎤
⎤ ⎡
1/25 2/5 −3/25
3
0
−1/5 ⎦ .
−5 ⎦ = ⎣ 2/5
8/25 1/5 1/25
−1
Con el teorema 2.9 es posible añadir una condición más de equivalencia a los teoremas 2.3 y 2.6 (cfr.
págs. 67 y 73) que involucra ahora el determinante.
Teorema 2.10 Si A ∈ Mn×n las siguientes condiciones son equivalentes a pares:
1. El sistema Ax = b tiene solución única ∀b.
2. A ∼ In .
3. A es invertible.
4. A es producto de matrices elementales.
5. det(A) = 0.
2.2.4 Regla de Cramer
En este breve apartado explicamos un algoritmo que al lector le será familiar de sus cursos de bachillerato; el cual da un método para hallar la solución de un sistema cuadrado utilizando determinantes.
Nuevamente cabe señalar que su utilidad práctica directa es muy raquı́tica para sistemas con más de
cuatro variables, pero su conocimiento es de gran interés teórico e histórico y tiene importantes implicaciones indirectas de valor práctico.10
Teorema 2.11 Sea A una matriz cuadrada de orden n. Sea, para cada i = 1, 2, ..., n, Δi el determinante
que resulta de la matriz que se obtiene de A al sustituir la i-ésima columna por b. Entonces, si
Δ = |A| = 0 el sistema Ax = b tiene solución única
xi =
Δi
,
Δ
para i = 1, 2, ..., n.
1Para una demostración del teorema 2.11, consulte el apéndice C.
10
Page (PS/TeX): 22 / 84, COMPOSITE
SECCIÓN 2.2
Determinantes 85
Ejemplo 2.28 Resolver el sistema
3x1 − 5x2 = −2
En este caso, A =
3
−2
−2x1 + x2 = −3.
−5 −2
;b=
.
1
−3
3 −5 = −7,
Δ=
−2
1 −2 −5 = −17,
Δ1 = −3
1 3 −2 = −13.
Δ2 = −2 −3 Luego,
x1 =
17
Δ1
= ,
Δ
7
x2 =
13
Δ2
= .
Δ
7
P Nota 2.4 Si Δ = 0, un sistema cuadrado Ax = b puede o no tener solución. Por ejemplo, en los
sistemas
x1 + x2 = 1
2x1 + 2x2 = 2
y
x1 + x2 = 1
2x1 + 2x2 = 0
Δ = 0, pero el primero tiene una infinidad de soluciones y el segundo es inconsistente.
2.2.5 Determinantes de matrices con componentes complejas
Para calcular determinantes de matrices con componentes complejas, como hemos hecho antes en estos
casos, aplicaremos todas las técnicas que estudiamos en esta sección para el caso de determinantes de
matrices reales pero utilizando el álgebra de los números complejos.11 Otra vez toda la teorı́a que desarrollamos para determinantes de matrices reales es también válida para el caso de matrices en Mn (C).
Ejemplo 2.29 Calcular el determinante de la matriz
⎡
1−i
0
⎢ 3 + 2i −1 − 4i
A=⎢
⎣ −i
2
0
−1
1Cfr. B1 del apéndice B, 1.1.5, 1.2.8, 2.1.5.
11
Page (PS/TeX): 23 / 85, COMPOSITE
2i
0
3 − 3i
3
⎤
0
1 ⎥
⎥ .
−5i ⎦
4
86 CAPÍTULO 2
Matrices invertibles y determinantes
Desarrollemos el determinante por la primera fila mediante cofactores.
Solución
3 + 2i −1 − 4i
−1 − 4i
0
1 2
2
3 − 3i −5i + (2i) −i
|A| = (1 − i) 0
−1
−1
3
4 2
3 − 3i −5i 3 − 3i = (1 − i) (−1 − 4i) + (1) −1 3
3
4
3 + 2i 1
+ (4) 3 + 2i −1 − 4i +2i −(−1) −i
2
−i
−5i 1
−5i
4
= (1 − i) [(−1 − 4i)(12 − 12i + 15i) + 6 + 3 − 3i]
+2i [10 − 14i + 4(6 + 4i + 4 − i)]
= (1 − i) [(−1 − 4i)(12 + 3i) + 9 − 3i] + 2i [10 − 14i + 40 + 12i]
= (1 − i)(9 − 54i) + 2i(50 − 2i)
= −45 − 63i + 4 + 100i
= −41 + 37i .
Ejemplo 2.30 Calcular la inversa de la matriz A =
2+i
−i
3i
1 + 4i
por medio de la adjunta.
det(A) = (2 + i)(1 + 4i) − (3i)(−i)
Solución
= −2 + 9i − 3
= −5 + 9i
luego,
A
−1
1
1 + 4i −3i
=
2+i
−5 + 9i i
1
31 − 29i −27 + 15i
.
=
9 − 5i
−1 − 23i
106
2.3 Ejercicios resueltos y ejercicios propuestos
2.3.1 Ejercicios resueltos
Matrices invertibles y sus inversas
11 Comprobar si la matriz C es la matriz inversa de la matriz A en cada caso.
(a) A =
⎡
−2
.
−1
⎤
⎡
−2
2 −1
1
0 ⎦, C = ⎣ 0
1
−1
2
−1 2
−2 3
−1
(b) A = ⎣ 0
1
Page (PS/TeX): 24 / 86, COMPOSITE
,C=
3
2
⎤
3 −1
1
0 ⎦.
−1
1
Ejercicios resueltos y ejercicios propuestos 87
SECCIÓN 2.3
⎡
1
⎢ 2
(c) A = ⎢
⎣ 0
0
(d) A =
Solución
(a)
⎤
⎤
⎡
−1 1
0 −1
2 1
⎢
1 −3 ⎥
3 2 ⎥
⎥.
⎥, C = ⎢ −2 1
⎣ 0 0
1 −3 ⎦
4 3 ⎦
0 0 −1
4
1 1
−1
−1
0
0
2 3
1 1
,C=
−1
1
−3
−2
.
Si AC = I, se tiene C = A−1 .
−1
−2
2
3
−2
−1
3
2
=
1 0
0 1
.
Por tanto, C = A−1 .
⎡
−1
⎣ 0
1
(b)
⎤
⎤ ⎡
⎤⎡
1 0 0
−2
3 −1
2 −1
1
0 ⎦ = ⎣ 0 1 0 ⎦.
1
0 ⎦⎣ 0
0 0 1
1 −1
1
−1
2
Por tanto, C = A−1 .
⎡
1
⎢ 2
⎢
⎣ 0
0
(c)
−1 2
−1 3
0 4
0 1
⎤ ⎡
⎤⎡
1
−1 1
0 −1
1
⎥ ⎢ 0
⎢ −2 1
1
−3
2 ⎥
⎥=⎢
⎥⎢
1 −3 ⎦ ⎣ 0
3 ⎦⎣ 0 0
0
0 0 −1
4
1
0
1
0
0
⎤
0
0 ⎥
⎥.
0 ⎦
1
0
0
1
0
Por tanto, C = A−1 .
(d)
Por tanto, C = A−1 .
2 3
1 1
−1
1
−3
−2
=
1
0
−12
−5
=
1 0
0 1
.
12 Utilizar las matrices A y C del ejercicio 1 para resolver los sistemas lineales.
(a)
−x + 2y = −1
−2x + 3y = 3
(b) −x + 2y − z = −2
y= 4
x − y + 2z = −3
(c)
x1 − x2 + 2x3 + x4
2x1 − x2 + 3x3 + 2x4
4x3 + 3x4
x3 + x4
Solución
−1
=
=
=
=
−1
4
−6
2
Si una matriz cuadrada es invertible, entonces el sistema Ax = b tiene solución única
x = A b.
(a) La matriz de coeficientes para este sistema es
A=
Page (PS/TeX): 25 / 87, COMPOSITE
−1 2
−2 3
88 CAPÍTULO 2
Matrices invertibles y determinantes
y, por el primer inciso del ejercicio 1, A
x =
−1
3
2
=
−2
−1
3
2
−2
−1
−1
3
; por tanto,
=
−9
−5
.
⎤
−1
2 −1
1
0 ⎦ y, por el segundo inciso del
(b) Para este sistema la matriz de coeficientes es A = ⎣ 0
1 −1
2
⎤
⎡
−2
3 −1
1
0 ⎦; ası́ que,
ejercicio 1, A−1 = ⎣ 0
1 −1
1
⎡
⎡
−2
x = ⎣ 0
1
⎤
⎤ ⎡
⎤⎡
19
−2
3 −1
1
0 ⎦⎣ 4 ⎦ = ⎣ 4 ⎦.
−9
−3
−1
1
(c) En este caso la matriz de coeficientes es
⎡
1 −1
⎢ 2 −1
⎢
A=⎣
0
0
0
0
⎤
2 1
3 2 ⎥
⎥
4 3 ⎦
1 1
y por el tercer inciso del ejercicio 1
⎡
−1 1
⎢ −2 1
x = ⎢
⎣ 0 0
0 0
⎤⎡
0 −1
−1
⎢ 4
1 −3 ⎥
⎥⎢
1 −3 ⎦ ⎣ −6
−1 4
2
⎤
3
⎥ ⎢ −6 ⎥
⎥
⎥=⎢
⎦ ⎣ −12 ⎦ .
14
⎤
⎡
En los ejercicios 3 y 4, determinar si la matriz dada es invertible.
⎤
1 −2 3
13 A = ⎣ 3 −4 5 ⎦.
−2
1 6
⎡
Solución
Una matriz es invertible si es equivalente (por filas) a la identidad (cfr. teorema 2.3)
⎡
1
A=⎣ 3
−2
⎤ ⎡
⎤ ⎡
1
1 −2
3
−2 3
2 −4 ⎦ ∼ ⎣ 0
−4 5 ⎦ ∼ ⎣ 0
0
0 −3 12
1 6
⎤
−2
3
2 −4 ⎦ .
0 12
Puesto que todas las columnas en la última matriz en forma escalonada equivalente a A tienen pivote, se
deduce que A es equivalente a la identidad y, por tanto, es invertible (cfr. nota 1.6). ⎤
1 −2
3 −1
⎢ −2
1
2
1 ⎥
⎥
14 B = ⎢
⎣ 3 −3
2
4 ⎦
1
1 −4
6
⎡
Page (PS/TeX): 26 / 88, COMPOSITE
SECCIÓN 2.3
Solución
Ejercicios resueltos y ejercicios propuestos 89
Una matriz es invertible si es equivalente a la identidad.
⎤
⎤ ⎡
1 −2
3 −1
1 −2
3 −1
⎢
⎢ −2
8 −1 ⎥
1
2
1 ⎥
⎥
⎥ ∼ ⎢ 0 −3
B=⎢
⎦
⎣
⎣ 3 −3
0
3 −7
7 ⎦
2
4
0
3 −7
7
1
1 −4
6
⎤
⎤ ⎡
⎡
1 −2 3 −1
1 −2
3 −1
⎥ ⎢ 0 −3 8 −1 ⎥
⎢ 0 −3
8
−1
⎥ = F.
⎥∼⎢
∼⎢
⎣ 0
0 1
6 ⎦
3 −7
7 ⎦ ⎣ 0
0
0 0
0
0
0
0
0
⎡
Dado que la última columna de la matriz en forma escalonada F equivalente a B no tiene pivote, se
deduce que B no puede ser equivalente a la identidad. Por tanto, B no es invertible. ⎤
⎡
1 −2 −2
r
1 ⎦ sea invertible.
15 Encontrar los valores de r para que la matriz A = ⎣ −2
3 −1
r
Solución
Para que la matriz A sea invertible es necesario y suficiente que sea equivalente a la identidad.
Ya que
⎤ ⎡
1
1 −2 −2
r
1 ⎦∼⎣ 0
A = ⎣ −2
0
3 −5
r
⎡
⎤
1 −2
−2
⎦
1
6+r
∼⎣ 0
0
0 21 − 2r − r2
⎡
⎤ ⎡
1
−2
−2
r−4
−3 ⎦ ∼ ⎣ 0
0
1 6+r
⎤
−2
−2
1 6+r ⎦
r−4
−3
y la última matriz (que está en forma escalonada equivalente a A) es equivalente a la identidad si 21 −
√
2r − r2 = 0, A es invertible si r = −1 ± 22. En los ejercicios 6 y 7 calcular la inversa, si existe, de cada matriz por el método de Gauss-Jordan.
⎤
⎡
−1
2
1
2 −1 ⎦
16 ⎣ 3
5 −1
2
⎤
⎤
⎡
⎡
−1
2
1 1 0 0
−1 2 1 1 0 0
−−−−−−−−→ ⎣
⎣ 3
2 −1 0 1 0 ⎦ ←R−−↔
0 8 2 3 1 0 ⎦
Solución
3R1 + R2
2
5 −1
2 0 0 1
0
9 7 5 0 1
R3 ↔ 5R1 + R3
⎤
⎡
−1 2 1 1
0 0
←−−−−−−−→
⎣ 0 1 5 2 −1 1 ⎦
R2 ↔ R3 − R2
0 9 7 5
0 1
⎤
⎡
−1 2
1
1
0
0
←−−−−−−−−−−→ ⎣
0 1
5
2 −1
1 ⎦
R3 ↔ −9R2 + R3
0 0 −38 −13
9 −8
⎡
⎤
0 0
1 −2 −1 −1
←−−−−−−−−−→
⎣ 0
1
5
2 −1 1 ⎦
R1 ↔ −R1
4
13
9
0
0
1
− 38
1
38
19
R3 ↔ − 38 R3
Page (PS/TeX): 27 / 89, COMPOSITE
90 CAPÍTULO 2
Matrices invertibles y determinantes
⎡
←−−−−−−−−−−−−→
R2 ↔ −5R3 + R2
R1 ↔ R3 + R1
⎢
⎣ 0
−2 0
− 25
38
9
− 38
1 0
11
38
13
38
7
38
9
− 38
0
⎡
←−−−−−−−−→
R1 ↔ 2R2 + R1
1
0 1
1 0 0
3
− 38
0 0 1
11
38
13
38
⎢
⎣ 0 1 0
5
38
7
38
9
− 38
4
19
1
− 19
4
19
⎤
⎥
⎦
⎤
2
19
1
− 19
4
19
⎥
⎦
Entonces,
⎡
−1
⎣ 3
5
⎤−1 ⎡ − 3
38
2
1
⎢
2 −1 ⎦ = ⎣ 11
38
−1
2
13
5
38
7
38
9
− 38
38
2
19
1
− 19
4
19
⎤
⎥
⎦.
Comprobación:
⎤⎡ − 3
38
2
1
⎢ 11
2 −1 ⎦ ⎣ 38
−1
2
13
⎡
−1
⎣ 3
5
⎡
⎢
17 ⎢
⎣
2
3
5
−7
38
2
19
1
− 19
4
19
⎤
⎤
⎡
1 0 0
⎥ ⎣
⎦ = 0 1 0 ⎦.
0 0 1
⎤
1 −1
1
2 ⎥
⎥
−1
3 ⎦
1
2
1
−1
2
2
⎡
Solución
5
38
7
38
9
− 38
2
1
1 −1
⎢ 3 −1
1
2
⎢
⎣ 5
2 −1
3
−7
2
1
2
Page (PS/TeX): 28 / 90, COMPOSITE
1
0
0
0
0
1
0
0
0
0
1
0
⎤ ⎡
1 −2
0 3 −1 1 0
0
⎢ 3 −1
1
2
0 ⎥
0 1 0
⎥∼⎢
2 −1 3
0 ⎦ ⎣ 5
0 0 1
−7
2
1 2
1
0 0 0
⎡
1
1 −2
0
3 −1
⎢ 0
5
1
−7
3
−2
∼⎢
⎣ 0
12 −1 −12
5 −5
0 −12
1
23 −7
7
⎡
1
1 −2
0
3 −1
⎢ 0
5
1
−7
3
−2
∼⎢
⎣ 0 12 −1 −12
5 −5
0
0
0
11 −2
2
⎡
−1
1
1 −2
0
3
⎢ 0
5
1
−7
3
−2
∼⎢
⎣ 0
0 −17 24 −11 −1
0
0
0 11
−2
2
⎡ 1 −2 0
3 −1
1
⎢ 0
⎢
∼⎢
⎣ 0
1
1
5
0
1
− 75
− 24
17
0
0
0
1
3
5
11
17
2
− 11
− 25
1
17
2
11
⎤
0
0 ⎥
⎥
0 ⎦
1
0
0
1
0
0
0
1
1
0
0
5
1
0
0
5
− 17
1
11
⎤
0
0 ⎥
⎥
0 ⎦
1
⎤
0
0 ⎥
⎥
0 ⎦
1
⎤
0
0 ⎥
⎥
0 ⎦
1
0 ⎤
0 ⎥
⎥
⎥
0 ⎦
1
11
Ejercicios resueltos y ejercicios propuestos 91
SECCIÓN 2.3
⎡
1
⎢
⎢ 0
∼⎢
⎢ 0
⎣
0
⎡
1
⎢
⎢ 0
∼⎢
⎢ 0
⎣
0
0 0
5
− 11
1
1
5
0
1 0
0
0 1
19
55
73
187
2
− 11
−2
0
0
0
0
1
0
0
0
1
0
0
0
1
15
187
50
187
73
187
2
− 11
5
11
8
− 55
59
187
2
11
7
187
39
− 187
59
187
2
11
3
− 11
3
− 11
7
55
31
− 187
1
11
7
55
24
187
1
11
13
− 187
9
187
30
187
31
− 187
1
11
19
187
24
187
1
11
⎤
⎥
⎥
⎥
⎥
⎦
⎤
⎥
⎥
⎥.
⎥
⎦
Por tanto,
⎡
⎢
⎢
⎣
⎤−1
2
1
1 −1
3 −1
1
2 ⎥
⎥
5
2 −1
3 ⎦
−7
2
1
2
⎡
⎢
⎢
=⎢
⎢
⎣
15
187
50
187
73
187
2
− 11
7
187
39
− 187
59
187
2
11
9
187
30
187
31
− 187
1
11
13
− 187
9
187
30
187
31
− 187
1
11
13
− 187
19
187
24
187
1
11
⎤
⎥
⎥
⎥.
⎥
⎦
Comprobación:
⎡
2
1
⎢ 3 −1
⎢
⎣ 5
2
−7
2
⎤
⎡
1 −1 ⎢
⎢
1
2 ⎥
⎥⎢
⎦
−1
3 ⎢
⎣
1
2
7
187
39
− 187
59
187
2
11
15
187
50
187
73
187
2
− 11
19
187
24
187
1
11
⎤
⎡
1 0 0
⎥
⎥ ⎢ 0 1 0
⎥=⎢
⎥ ⎣ 0 0 1
⎦
0 0 0
⎤
0
0 ⎥
⎥.
0 ⎦
1
En los ejercicios 8 a 10, calcular la inversa de cada matriz elemental utilizando la explicación dada antes
del teorema 2.5 (cfr. pág. 72).
⎡
1
⎢ 0
18 E = ⎢
⎣ 0
0
0
1
0
0
0
0
0
1
⎤
0
0 ⎥
⎥.
1 ⎦
0
La matriz E se obtuvo de la identidad I4 al aplicarle la operación de renglón R3 ↔ R2 .
Entonces la matriz inversa de E se obtiene aplicando a I4 la operación de renglón R2 ↔ R3 ; por tanto,
E −1 = E. ⎤
⎡
1
0 0 0
⎢ 0 −3 0 0 ⎥
⎥
19 E = ⎢
⎣ 0
0 1 0 ⎦
0
0 0 1
Solución
Solución
La matriz E se obtuvo de I4 aplicándole la operación de renglón R2 ↔ −3R2 ; por tanto, la
matriz inversa de E se calcula aplicando la operación de renglón R2 ↔ (−1/3)R2 a I4 ; esto es,
⎡
1
0 0
1
⎢
0
−
0
3
E −1 = ⎢
⎣ 0
0 1
0
0 0
Page (PS/TeX): 29 / 91, COMPOSITE
⎤
0
0 ⎥
⎥.
0 ⎦
1
92 CAPÍTULO 2
Matrices invertibles y determinantes
⎡
1
⎢ 0
10 E = ⎢
⎣ 0
0
0
−2
0
0
0
3
1
0
⎤
0
0 ⎥
⎥.
0 ⎦
1
Solución
La matriz elemental E es el resultado de aplicar la operación de renglón R2 ↔ −2R2 + 3R3
a la matriz I4 ; por ende, la matriz inversa de E se obtiene aplicando la operación R2 ↔ (−1/2)R2 +
(3/2)R3 a I4 ; o sea
⎡
1
⎢
⎢ 0
E −1 = ⎢
⎣ 0
0
0
− 21
0
0
0 0
⎤
⎥
0 ⎥
⎥.
1 0 ⎦
0 1
3
2
⎤
1 −1 1
1 1 ⎦ y escribir A−1 como producto de matrices ele11 Encontrar la inversa de la matriz A = ⎣ 2
2 −1 2
mentales.
⎡
⎡
1 −1 1
Solución ⎣
2
1 10
2 −1 2
1
1
0
⎤
⎡
1
0 0
⎦ ←−−−−−−−−−−−−→ ⎣ 0
0
R2 ↔ −2R1 + R2
0
0 1
R3 ↔ −2R1 + R3
⎡
1
←−−−−−−→
⎣ 0
R3 ↔ R2
0
⎡
1
←−−−−−−−−−−−−→ ⎣ 0
R3 ↔ −3R2 + R3
0
⎡
1
←−−−−−−−−−→ ⎣ 0
R1 ↔ R 3 + R 1
0
⎡
1
←−−−−−−−−−→ ⎣ 0
R1 ↔ R 2 + R 1
0
⎡
1
←−−−−−−−→
⎣ 0
R3 ↔ −R3
0
−1
1
3 −1
1
0
−1
1
1
0
3 −1
⎤
1 0 0
−2 1 0 ⎦
−2 0 1
⎤
1 0 0
−2 0 1 ⎦
−2 1 0
⎤
1 0
0
−2 0
1 ⎦
4 1 −3
⎤
−1
0
5 1 −3
1
0 −2 0
1 ⎦
0 −1
4 1 −3
⎤
0
0
3 1 −2
1
0 −2 0
1 ⎦
0 −1
4 1 −3
⎤
0 0
3
1 −2
1 0 −2
0
1 ⎦
0 1 −4 −1
3
−1
1
1
0
0 −1
⎤
3
1 −2
0
1 ⎦.
A−1 = ⎣ −2
−4 −1
3
⎡
Con lo que
Las matrices elementales que corresponden a cada operación de renglón (cfr. teorema 2.4) son las que se
obtienen al aplicar las mismas
en forma
⎤ de fila a I3 que las que se aplican
⎤ sucesiva a la matriz
⎡ operaciones
⎡
1 0 0
1 0 0
A para obtener A−1 : E1 = ⎣ −2 1 0 ⎦ ( R2 ↔ −2R1 +R2 ); E2 = ⎣ 0 1 0 ⎦ (R3 ↔ −2R1 +R3 );
0 0 1
−2 0 1
Page (PS/TeX): 30 / 92, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 93
SECCIÓN 2.3
⎤
⎡
1 0 0
1
E3 = ⎣ 0 0 1 ⎦ (R3 ↔ R2 ); E4 = ⎣ 0
0 1 0
0
⎤
⎤
⎡
0 0
1 0 1
1 0 ⎦ (R3 ↔ −3R2 + R3 ); E5 = ⎣ 0 1 0 ⎦
−3 1
0 0 1
⎡
⎤
⎤
⎡
1 1 0
1 0
0
0 ⎦ (R3 ↔ −R3 ).
(R1 ↔ R3 + R1 ); E6 = ⎣ 0 1 0 ⎦ (R1 ↔ R2 + R1 ); E7 = ⎣ 0 1
0 0 1
0 0 −1
⎡
Entonces, E7 E6 E5 E4 E3 E2 E1 = A−1 como fácilmente se puede comprobar realizando el producto de las
matrices elementales. ⎤
1 −2 1
1 2 ⎦. Encontrar, si es que existe, una matriz B tal que AB = A2 + 3A.
12 Sea A = ⎣ −1
1 −2 3
⎡
Solución
Si la matriz A es invertible, entonces
AB = A2 + 3A ⇒ A−1 (AB) = A−1 (A2 + 3A) = (A−1 A)A + 3A−1 A
⇒ I3 B = I3 A + 3I3 ⇒ B = A + 3I3 .
Luego, el problema tiene solución si A es invertible; y puesto que
⎡
1
⎣ −1
1
⎤ ⎡
1
−2 1
1 2 ⎦∼⎣ 0
0
−2 3
−2
−1
0
⎤
1
3 ⎦,
2
A es equivalente a la identidad y, por tanto, es invertible. Ası́ que la solución existe y está dada por
⎡
−2
4
−2
4
B = A + 3I3 = ⎣ −1
1
13 Resolver el ejercicio 12 con la matriz A =
0 1
0 0
⎤
1
2 ⎦.
6
.
Solución
En este caso no se puede proceder como en el ejercicio 12, pues la matriz A no es invertible
(está en forma escalonada y no tiene pivote en la primera columna). Sin embargo,
0
0
2
A + 3A =
3
0
2
por lo que es fácil encontrar solución a la ecuación A + 3A = AB por inspección: B =
efecto,
AB =
Page (PS/TeX): 31 / 93, COMPOSITE
0 3
0 0
.
0 0
0 3
. En
94 CAPÍTULO 2
Matrices invertibles y determinantes
14 Determinar si la siguiente matriz es invertible y de ser ası́ calcular su inversa.
⎡
Se aplica el método de Gauss-Jordan:
Solución
⎡
⎢
⎢
⎢
⎣
⎡
⎢
⎢
⎢
⎣
⎡
⎢
⎢
⎢
⎣
⎡
⎢
⎢
⎢
⎣
⎡
⎢
⎢
⎢
⎣
⎡
⎢
⎢
⎢
⎣
⎡
1
i
1+i
−2
1
0
0
0
−i
i
0
0
3 − 48i
0
0
0
−i
2
i
i
1+i
2i
−1
3
1+i
−1 + i
3 + 2i
4 + 3i
−2
4
1
4
1
0
0
0
−2
−2 + 4i
4 + 11i
−2 + 4i
−48 − 3i
48 + 3i
0
0
⎤
−2
4 ⎥
⎥.
1 ⎦
4
−i 1 + i
2
2i
i
−1
i
3
1
⎢ i
A=⎢
⎣ 1+i
−2
0
1
0
0
0
0
1
0
1
1
2 − 3i
3
51 − 45i
45 + 51i
105 − 138i
0
0
0
0
1
⎤
⎡
⎥ ⎢
⎥ ⎢
⎥∼⎢
⎦ ⎣
0
i
2+i
i
0
0
i
0
1
0
0
0
0
0
0
1
−i
1+i
−21
i
−1 + i
−2 + 4i1
−1 + 2i −1 − 2i 3 + 2i − 1 − i
−i
−i
0
⎤ ⎡
1 −i
1+i
−2
⎥ ⎢ 0
i −1 + i −2 + 4i
⎥ ⎢
⎥∼⎢
⎦ ⎣ 0 0
3 + 2i
4 + 11i
0 0
0
−3 + 48i
0
0
0
−3 + 48i
−13 − 24i
35 + 8i
26 − 65i
8 − 12i
−14 + 14i
6 + 17i
5 + 12i
7 + 7i
6 − 8i
−10 − 20i
−8 − 14i
−3 + 4i
0
i
0
2
0
0
1
0
0
0
0
0
⎤
⎥
⎥
⎥∼
⎦
1
1
0
1
i
2 − 3i
2+i
8 − 12i 7 + 7i
⎤
6 + 4i
14 − 8i ⎥
⎥
⎥∼
10 − 41i ⎦
−3 − 2i
6309 + 5454i
0
0
0
5454 − 6309i
−5454 + 6309i
0
0
0
0
105 − 138i
0
0
0
0
−3 + 48i
3078 − 3759i
−294 + 2391i
26 − 65i
8 − 12i
4197 − 75i
−3363 − 162i
5 + 12i
7 + 7i
−564 + 1314i
4164 − 318i
−8 − 14i
−3 + 4i
6309 + 5454i
0
0
0
0
−5454 + 6309i
0
0
0
0
105 − 138i
0
0
0
0
−3 + 48i
2784 − 1368i
−294 + 2391i
26 − 65i
8 − 12i
834 − 237i
−3363 − 162i
5 + 12i
7 + 7i
3600 + 996i
4164 − 318i
−8 − 14i
−3 + 4i
6309 + 5454i
0
0
0
0
−5454 + 6309i
0
0
0
0
105 − 138i
0
0
0
0
−3 + 48i
2784 − 1368i
−294 + 2391i
26 − 65i
8 − 12i
834 − 237i
−3363 − 162i
5 + 12i
7 + 7i
3600 + 996i
4164 − 318i
−8 − 14i
−3 + 4i
1 0 0 0
112
771
88
− 257
i
44
771
67
− 771
i
1 0 0
185
771
− 124
771 i
64
257
+ 245
771 i
0 1 0
100
257
83
− 771
i
⎢
⎢
⎢ 0
⎢
⎢
⎢ 0
⎢
⎣
0 0 0 1
116
− 200
771 − 771 i
104
257
− 119
771 i
28
771
22
− 257
i
67
771
44
+ 771
i
⎡
Con lo que
A
−1
22
28
− 257
− 771
i
⎢
⎢
⎢
=⎢
⎢
⎣
172
771
⎤
⎥
⎥
⎥.
⎦
112
771
88
− 257
i
44
771
67
− 771
i
185
771
− 124
771 i
64
257
+ 245
771 i
100
257
83
− 771
i
29
50
− 771
+ 771
i
35
257
− 119
771 i
104
257
− 148
771 i
22
28
− 257
− 771
i
⎤
⎥
272
31
239 ⎥
− 274
771 − 771 i − 771 − 771 i ⎥
⎥.
28
22
172
25
⎥
771 − 257 i
771 − 257 i ⎦
67
771
44
+ 771
i
⎤
⎥
⎥
⎥∼
⎦
⎤
−2517 − 2133i
2175 + 1437i ⎥
⎥
⎥∼
10 − 41i
⎦
−3 − 2i
⎤
−342 − 696i
2175 + 1437i ⎥
⎥
⎥∼
10 − 41i
⎦
−3 − 2i
⎤
−342 − 696i
2175 + 1437i ⎥
⎥
⎥∼
10 − 41i
⎦
−3 − 2i
25
− 257
i ⎥
⎥
29
50
− 771
+ 771
i
116
− 200
771 − 771 i
Page (PS/TeX): 32 / 94, COMPOSITE
0
0
0
−3 − 2i
272
31
239 ⎥
− 274
771 − 771 i − 771 − 771 i ⎥
29
50
− 771
+ 771
i
35
257
− 148
771 i
0
0
i
−3 + 4i
29
50
− 771
+ 771
i
SECCIÓN 2.3
Ejercicios resueltos y ejercicios propuestos 95
Determinantes, adjunta y regla de Cramer
⎤
−1
1
2 3
⎢ 0
1 −1 2 ⎥
⎥, hallar los cofactores
15 Para la matriz A = ⎢
⎣ 3
0 −1 1 ⎦
4 −5
1 2
⎡
(a)
Solución
c11
(a) c11 ,
(b) c31
y
(c) c41 .
1 −1 2 = (−1)1+1 0 −1 1 −5
1 2 = (1)(−1)1+1 M11 + (0)(−1)2+1 M21 + (−5)(−1)3+1 M31
−1 1 − 5 −1 2 = −1 1 1 2
= −3 − 5 = −8.
(b)
(c)
c31
c41
1
2
3+1 = (−1) 1 −1
−5
1
−1 2
= (1)(−1)1+1 1 2
2
+(−5)(−1)3+1 −1
3 2 2 + (1)(−1)2+1 2 3 1 2 3 = −40.
2 1
2 3
= (−1)4+1 1 −1 2
0 −1 1
−1
1+1
= − (−1) (1) −1
2
1
+ (−1)2+1 (1) 2 3 = 4.
−1 1 16 Utilizar los cofactores de la matriz A calculados en el ejercicio anterior para hallar el determinante de
esa matriz.
Solución
El determinante se puede calcular desarrollando por cofactores en la primera columna:
|A| = a11 c11 + a21 c21 + a31 c31 + a41 c41
= (−1)(−8) + 0c21 + (3)(−40) + (4)(4)
= −96. 17 Calcular el determinante de la matriz A desarrollando por cofactores en una fila o columna que minimice
los cálculos si
⎡
⎢
⎢
A=⎢
⎢
⎣
Page (PS/TeX): 33 / 95, COMPOSITE
2 −1
3 0 2
0
2
2 1 1
1
0 −1 0 1
3
0
2 0 1
−0
4
1 2 0
⎤
⎥
⎥
⎥.
⎥
⎦
96 CAPÍTULO 2
Matrices invertibles y determinantes
Solución
Se desarrolla por cofactores por la columna o fila que tenga más ceros:
2 −1
3
0
2
2
1
0 −1
3
0
2
0
4
1
0
1
0
0
2
2
1
1
1
0
=
2 −1
3 2 2 −1
3 2 0
2
2 1 1
0 −1 1 − 2 1
0
−1
1 3
0
2 1 3
0
2 1 0
4
1 0 2
1 −1 1 3 2 2 1 + 4 1 −1 1 = −(−1) 3
3
0
2 1 1 0 ⎛
0
2
2 1 3 2
⎝
−2 −(−1) 1 −1 1 + (2) 1 −1 1
3
3
2 1
2 1 1 1 1 −1
1 1 + −2 −2 = −(1) 3 1 + 3
2
3 1 = −16. ⎞
⎠
18 Calcular el determinante de la matriz A del ejercicio resuelto 17 utilizando las propiedades del inciso
5 del teorema 2.8 para “hacer ceros los elementos en la primera columna” hasta que se obtenga un
determinante 3 × 3 y entonces calcularlo por cofactores o por la regla de Sarrus.
Solución
Page (PS/TeX): 34 / 96, COMPOSITE
2
0
1
3
0
−1
3 0
2
2 1
0 −1 0
0
2 0
4
1 2
2
1
1
1
0
0
1
2
0
= − 2 −1
0
3
0
4
0
1
2
0
= − 0 −1
0
3
0
4
0
1
2
0
= − 0 −1
0
0
0
4
2 2
−1 5
= − 0 5
4 1
−1 5 0
2 2 1
= 0 5 0
4 1 2
1 −5
2
2
= − 0
5
4
1
−1
2
3
2
1
0
1
0
0
2
1
1
2
1
0
−1
2
5
2
1
0
1
0
0
2
1
1
0
1
0
0
1 1
1 0
0 0 −2 2
0 1
1 0
0 0 −2 2
0 0 1 −2 0 0
0 1
1 0 −2 2
0 −1
2
5
5
1
SECCIÓN 2.3
=
=
=
=
1 −5
0 12
− 5
0
4
1
1 −5
0 12
− 5
0
0 21
12 1
− 5 0
21 2
1
− −5 2
Ejercicios resueltos y ejercicios propuestos 97
0
0 1
1 0 −2 2
0 0
0 1
1 0 −2 2
0 1 −2 0 12 1 1 = −16. +2
21 2 0 19 Calcular el determinante de la matriz A del ejercicio 17 llevando esta matriz a forma triangular superior
utilizando la propiedades 5 y 4 del teorema 2.8 (cfr. pág. 80).
Solución
Por el ejercicio precedente se tiene
2
0
1
3
0
−1
3 0 2
2
2 1 1
0 −1 0 1
0
2 0 1
4
1 2 0
1
0
= − 0
0
0
1
0
= − 0
0
0
= −
1
0
0
0
0
= −12 = −12 Page (PS/TeX): 35 / 97, COMPOSITE
0 −1 0
1 2
2 1
1 −1
5 0
0 0
5 0 −2 4
1 2
0 0 −1 0
1 1 −5 0
0 2
2 1
1 0
5 0 −2 4
1 2
0 0 −1 0
1 1 −5 0
0 0 12 1
1 0
5 0 −2 0 21 2
0 1 0 −1
0 1 −5
0
0 0
1
1
12
0 0
5
0
0 0
21
2
1 0 −1
0 1 −5
0 0
1
0 0
0
0 0
0
1 0 1 12 −2 0 0
0
0
1
12
5
− 12
1
4
1 0 1 12 − 29
12 − 21 12
98 CAPÍTULO 2
Matrices invertibles y determinantes
5 = (−12) − 12 1 0 −1
0 1 −5
1
= 5 0 0
0 0
0
0 0
0
1
= 5 4 1 0 −1
0 1 −5
0 0
1
0 0
0
0 0
0
0
1 0
0 1
1 12
12 29 1
5 1
21 − 12
4
1 0 −1
0 1 −5
0 0
1
0 0
0
1 0
0 1 1
12
12 29 1
5 1
− 21 0
4
12
1 0
0 1 1
12
12 1 29
5 1 −7 1 0 1 12 29 5 64 −5
0
0 0
0
1 0 −1 0
0 1 −5 0
1
1 12
= 54 0 0
0 0
0 1
0 0
0 0
5
64
=
−
= −16. 4
5
20 Calcular el determinante de la siguiente matriz llevando la misma a forma triangular superior utilizando
las propiedades 5 y 4 del teorema 2.8 (cfr. pág. 80).
⎡
⎢
⎢
A=⎢
⎢
⎣
Solución
Page (PS/TeX): 36 / 98, COMPOSITE
1 −2
−3
2
4
−3
−8
5
7 −18
1
2
−3
5
7
−2
3 4
−3
2 1
4 −6 1
−8 12 15
−18 16 12
3 4 −5 1
2 1 −4 0
−6 1
3 = 0
12 15 −20 0
0
16 12 −30
1
0
= 0
0
0
−5
−4
3
−20
−30
⎤
⎥
⎥
⎥.
⎥
⎦
−2
3
1 −4
−2
3
2 −3
−4 −5
−2
3
1 −4
0 −5
0
5
0 −21
4
−5 −7
6 13 −12 −5
5 −16
5 4 −5 −7
6 −1
0 9 −7 −44 29 SECCIÓN 2.3
= Ejercicios resueltos y ejercicios propuestos 99
4 −5 −7
6 −1
0 9 −7 −8
1 −2
3
1 −4
0 −5
0
5
0 −1
1
0
0
0
0
= −
1
0
0
0
0
−2
3
1 −4
0 −1
0
5
0 −5
= −
1
0
0
0
0
−2
3
4 −5
1 −4 −7
6
0 −1 −8
1
0
0 −31 −2
0
0
39 −5
1
−2
1 = 31
1 = 31
3
4 −5 −7
6 −8
1 9 −7 −1
0 −5 −7
6 −8
1 2 1 31
39 −5 4
0
1 −4
0
0 −1
0
0
0
0
0
0
1
−2
3
4
0
1 −4
−7
0
0 −1
−8
0
0
0
1
0
0
0
0
−5 6 1 = 233. 2 31 233 −
31
21 Calcular la matriz adjunta de la matriz
⎡
1
A = ⎣ −i
−1
⎤
−i 1 + i
2i
2 ⎦.
1 2 + 3i
⎤
+ − +
La matriz de signos correspondiente es ⎣ − + − ⎦; ası́ que
+ − +
⎡
Solución
⎡
⎢
⎢
⎢
⎢
⎢
Cof(A) = ⎢
⎢
⎢
⎢
⎣
⎡
= ⎣
Page (PS/TeX): 37 / 99, COMPOSITE
−i 2i −i
2i
2 2 −1 1 1 2 + 3i − −1 2 + 3i 1 1+i 1 −i −i
1 + i −
−1 2 + 3i − −1
1 1 2 + 3i 1 −i 1 1+i −i 1 + i −
−i 2i 2i
−i
2 2 ⎤
−8 + 4i −5 + 2i
i
−2 + 3i 3 + 4i −1 + i ⎦ ;
2 − 4i
−1 − i 1 + 2i
⎤
⎥
⎥
⎥
⎥
⎥
⎥=
⎥
⎥
⎥
⎦
100 CAPÍTULO 2
Matrices invertibles y determinantes
por tanto,
⎡
−8 + 4i
Adj(A) = ⎣ −5 + 2i
i
⎤
−2 + 3i 2 − 4i
3 + 4i −1 − i ⎦ .
−1 + i 1 + 2i
22 Calcular la inversa de la matriz A del ejercicio anterior por medio de la adjunta.
Solución
Al desarrollar por cofactores en la tercera fila de A se tiene
det(A) = (−1)(2 − 4i) + (1)(−1 − i) + (2 + 3i)(1 + 2i)
= −7 + 10i.
1
Adj(A)
det(A)
⎤
⎡
−8 + 4i −2 + 3i 2 − 4i
1
⎥
⎢
=
⎣ −5 + 2i 3 + 4i −1 − i ⎦
−7 + 10i
i
−1 + i 1 + 2i
⎡ 96
⎤
52
44
1
54
8
149 + 149 i
149 − 149 i − 149 + 149 i
⎢ 55
⎥
36
19
58
3
17
⎥
= ⎢
⎣ 149 + 149 i 149 − 149 i − 149 + 149 i ⎦ .
A−1 =
Entonces,
10
149
7
− 149
i
17
149
3
+ 149
i
13
149
24
− 149
i
23 Calcular el determinante de la matriz A utilizando las propiedades 5 y 4 del teorema 2.8 (cfr. pág. 80) y
desarrollar por cofactores o regla de Sarrus si
⎡
⎢
⎢
A=⎢
⎢
⎣
Solución
1
−i
−3
−1 + i
2
Page (PS/TeX): 38 / 100, COMPOSITE
1
−i
−3
−1 + i
2
−1
2
i
2+i 3
−1
1
−1
2
−1
1
2
2i
−i 2 + 3i
−1
2+i
1
−1
2i
1−i
2
i
−3i
i
2
i
3
−1
−1
2
1
2
−i 2 + 3i
1
0
= 0
0
0
1
0
= 0
0
0
1
0
= i 0
0
0
1−i
2
i
−3i
i
⎤
⎥
⎥
⎥.
⎥
⎦
−1
2
2
3 + 2i
−2
5
−2 + i 3 − 2i
2 + 2i −4 − i
−1
2
0
i
3i
2
3 + 2i
8 + 2i
6
−1 − 3i
−1
2
2
3 + 2i
0
8 + 2i
1
−6i
3i −1 − 3i
i
1−i
−2
3+i
2 + 3i 3 − 2i
3+i
−5i
2 + i −2 + 3i
i
1−i 3+i −2
3i
6−i 1+i
3 − 4i 5 + 2i −2 − 2i i
−2
3i
1−i
5 + 2i
1−i
3+i
6−i
−4 − 3i
−2 − 2i
SECCIÓN 2.3
= −i 1
0
0
0
0
= −i 1 −1
0 1
0 0
0 0
0 0
−1
2
1
−6i
0
8 + 2i
2
3 + 2i
3i −1 − 3i
Ejercicios resueltos y ejercicios propuestos 101
i
1−i
3i
−2
5 + 2i
1−i
−4 − 3i
6−i
3+i
−2 − 2i
i
1−i
1−i
−4 − 3i
3i
6−i
−4 + 2i
11 + 7i
2−i
−11 + 10i
8 + 2i
3i
6−i
11 + 7i = −i 3 + 14i −4 + 2i
−19 − 3i
2−i
−11 + 10i ⎞ ⎫
⎧ ⎛
(8 + 2i)(−4 + 2i)(−11 + 10i)
⎪
⎪
⎪
⎪
⎪
⎟ ⎪
⎜
⎪
⎪
⎪
⎪
+(3
+
14i)(2
−
i)(6
−
i)
⎠
⎝
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎬
⎨
+(−19 − 3i)(11 + 7i)(3i)
= −i
⎞
⎛
⎪
⎪
⎪
⎪
(6 − i)(−4 + 2i)(−19 − 3i)
⎪
⎪
⎪
⎪
⎪ ⎜
⎟ ⎪
⎪
⎪
+(11
+
7i)(2
−
i)(8
+
2i)
⎪
⎪
−
⎠
⎝
⎪
⎪
⎪
⎪
⎭
⎩
+(−11 + 10i)(3 + 14i)(3i)
2
−6i
8 + 2i
3 + 14i
−19 − 3i
= −i ((959 − 882i) − (1064 − 675i))
= −207 + 105i. 24 Calcular la solución del sistema
(1 + 2i)x − iy + z = 2 + i
2x + (3 − i)y + iz = 5
(−2 − i)x + (2 + i)y − 2z = −2
mediante la regla de Cramer.
Solución
1 + 2i
−i
1 2
3 − i i Δ = −2 − i 2 + i −2 −2(1 + 2i)(3 − i) + 2(2 + i) + (−2 − i)(i)(−i)
=
− ((3 − i)(−2 − i) + i(2 + i)(1 + 2i) + 4i)
!
= −8 − 9i − (−12 + 3i)
= 4 − 12i;
2+i
Δ1 = 5
−2
−i
1
3−i i
2 + i −2
= (−2(2 + i)(3 − i) + 10 + 5i − 2) − (−6 + 2i) + (2 + i)2 i + 10i
= −6 + 3i − (−10 + 15i)
= 4 − 12i;
Page (PS/TeX): 39 / 101, COMPOSITE
102 CAPÍTULO 2
Matrices invertibles y determinantes
1 + 2i 2 + i 1 2
5
i Δ2 = −2 − i −2 −2 = −10 − 20i − 4 − i(2 + i)2
− (−10 − 5i + 4 − 2i − 8 − 4i)
= −10 − 23i − (−14 − 11i)
= 4 − 12i;
1 + 2i
−i 2 + i 2
3−i
5 Δ3 = −2 − i 2 + i −2 = (−2 − 4i)(3 − i) + 2(2 + i)2 − 5 + 10i − −(2 + i)2 (3 − i) + 5(1 + 2i)(2 + i) + 4i
= −9 + 8i − (−13 + 20i)
= 4 − 12i.
Δ1
= 1,
Δ
Δ1
y =
= 1,
Δ
Δ1
z =
= 1.
Δ
x =
Por tanto,
2.3.2 Ejercicios propuestos
El lector encontrará la respuesta a los ejercicios en cursiva en el apéndice E al final del libro.
Matrices invertibles y sus inversas (respuestas en páginas 1075-1076)
En los ejercicios 1 a 7 encontrar, si existe, la inversa de la matriz dada mediante el método de GaussJordan.
1
12
1
0
1
−1
−2
1
1 −1
.
⎤
1 −1
1
1
1 ⎦.
3 ⎣ 0
0
1 −1
⎤
⎡
2 3
0
14 ⎣ 1 2 −1 ⎦ .
4 5
1
⎡
⎤
1 1 −1
3 ⎦.
5 ⎣ 2 0
−3 1 −7
⎤
⎡
−1
2
3
16 ⎣ 2 −3 −1 ⎦ .
1 −1
1
⎤
⎡
1
0 0
7 ⎣ 2 −1 0 ⎦ .
−1
1 1
⎡
.
8 Escriba las matrices de los ejercicios 1 a 7, donde sea posible, como producto de matrices elementales.
En los ejercicios 9 a 13 utilizar las matrices inversas encontradas en los problemas 1, 2, 3, 4 y 6 para
resolver los sistemas lineales.
Page (PS/TeX): 40 / 102, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 103
SECCIÓN 2.3
9
10
1
0
1
−1
−2
1
1 −1
x
y
x
y
=
1
−2
=
5
−4
⎤
⎤⎡ ⎤ ⎡
−3
x
3
0
2 −1 ⎦ ⎣ y ⎦ = ⎣ −4 ⎦ .
−2
z
5
1
⎡
2
12 ⎣ 1
4
.
⎡
.
−1
13 ⎣ 2
1
⎤
⎤⎡ ⎤ ⎡
1
x
2
3
−3 −1 ⎦ ⎣ y ⎦ = ⎣ −2 ⎦ .
−1
z
−1
1
⎤
⎤⎡ ⎤ ⎡
6
x
−1
1
1
1 ⎦⎣ y ⎦ = ⎣ 2 ⎦.
−4
z
1 −1
a b
14 Demostrar que una matriz
es invertible si y sólo si ad − bc = 0 y que en ese caso
c d
⎡
1
11 ⎣ 0
0
a b
c d
−1
1
=
ad − bc
−b
a
d
−c
.
(Sugerencia: Utilizar el método de Gauss-Jordan.)
Utilizar el ejercicio 14 para determinar si las matrices de los ejercicios 15 a 18 son invertibles y calcular
en tal caso las matrices inversas.
15
16
−1
2
3 −8
2
5
−3
7
.
17
.
18
3
−1
6
−2
α
−β
β
α
.
, α, β ∈ R − {0}.
En los ejercicios 19 a 37, encontrar la inversa de la matriz dada (si existe) por el método de GaussJordan.
⎤
−1
2
2 −2 ⎦ .
−3
5
⎡
1
19 ⎣ −1
3
⎤
1 −2 −1
3
2 ⎦.
20 ⎣ −2
−2
1
1
⎡
⎤
−2
5
3
21 ⎣ 3 −1 −2 ⎦ .
−1
1
1
⎡
⎤
40
19
−26 −13 ⎦ .
−17 −8
⎡
7
22 ⎣ −4
−3
⎡
2
23 ⎣ 3
2
⎤
−1 3
−1 4 ⎦ .
−1 1
Page (PS/TeX): 41 / 103, COMPOSITE
⎡
⎤
−3 2
6 3 ⎦.
−1 3
⎡
⎤
−2
4
−10
17 ⎦ .
5 −12
5
24 ⎣ −3
4
1
25 ⎣ 5
−3
⎡
3
26 ⎣ 1
1
⎡
1
⎢ −2
27 ⎢
⎣ 3
4
⎡
2
⎢ 1
28 ⎢
⎣ 3
−1
⎤
1 0
−1 2 ⎦ .
1 1
⎤
−2
1
3
5 −2 −5 ⎥
⎥.
−6
4
9 ⎦
−8
4 11
−3
1
2
3
−1
4
2 −1
⎤
2
3 ⎥
⎥.
5 ⎦
4
104 CAPÍTULO 2
Matrices invertibles y determinantes
⎤
−1
2 −1
1
⎢ 3 −5
3 −3 ⎥
⎥.
29 ⎢
⎣ −2
4 −3
2 ⎦
2 −4 −2 −1
⎤
⎡
1 2 1 3
⎢ 2 6 1 6 ⎥
⎥
30 ⎢
⎣ 4 2 6 12 ⎦ .
7 14 7 20
⎤
⎡
1 −1 2 −3
⎢ 2 −2 1 −1 ⎥
⎥.
31 ⎢
⎣ −1
9 1
1 ⎦
0 −1 1 −2
⎤
⎡
1
−1 2 −3
⎢ 2 −2 1 −1 ⎥
⎥.
32 ⎢
⎣ −1 −25 1
1 ⎦
−2 −1 1 −2
⎤
⎡
1 1
1 5
⎢ 1 3
2 9 ⎥
⎥
33 ⎢
⎣ 1 1 −1 1 ⎦ .
1 2
1 6
⎤
1
1
1 1
⎢ 1
2 −1 3 ⎥
⎥.
34 ⎢
⎣ 1 −1
2 1 ⎦
1
2
1 2
⎡
1 −1
2
3
⎢ 2 −1
4
6
⎢
−2
2
−3
−6
35 ⎢
⎢
⎣ 3 −3
6
8
5 −5 10 15
⎡
1 −2
1
1
⎢ 3 −5
3
4
⎢
−2
−4
−1
−3
36 ⎢
⎢
⎣ −1
2 −1 −2
2 −4
2
2
⎡
0 1
0
0 0
0 0
⎢ 2 0 −2
⎢
0 −1 0
⎢ 0 3
37 ⎢
1
0 2
⎢ 0 0
⎣ 0 0
0 −3 0
0 0
0
0 2
⎡
⎡
4
8
−8
12
19
⎤
⎥
⎥
⎥.
⎥
⎦
⎤
−1
−2 ⎥
⎥
3 ⎥
⎥.
2 ⎦
−3
⎤
0
0 ⎥
⎥
0 ⎥
⎥.
0 ⎥
1 ⎦
0
38 Sea
⎡
⎤
−2 1
−2 0 ⎦ .
2 1
⎡
⎤
1
2 ⎦.
−1
1
A−1 = ⎣ 3
0
Hallar, si es posible, una matriz C tal que
1
AC = ⎣ −1
2
⎤
2 −1
1
1
2 ⎦. Encontrar, si es posible, una matriz B tal que
39 Sea A−1 = ⎣ −2
1
1 −2
⎡
⎤
1 0
1
3 ⎦.
ABA = ⎣ −1 2
0 1 −1
⎡
⎡
1 −1
40 Sea A = ⎣ 2 −1
2
1
41 Sea A =
1
2
−1 −1
⎤
1
0 ⎦. Hallar, si es que existe, una matriz B tal que A2 − A = AB.
0
. Resolver la ecuación matricial
2
A X −A =
Page (PS/TeX): 42 / 104, COMPOSITE
2 3
−1 1
.
SECCIÓN 2.3
Ejercicios resueltos y ejercicios propuestos 105
42 Encontrar los valores de α tales que la matriz
⎡
1
⎣ 2
3
⎤
−1
2
α −1 ⎦
−2
2
sea invertible.
43 Hallar los valores de α tales que la matriz
⎡
1
⎣ 2
−1
⎤
2 −1
3
α ⎦
−1
1
sea invertible.
44 Mostrar que dos matrices A, B ∈ Mm×n son equivalentes si y sólo si existen matrices elementales
E1 , E2 , . . . , Ek de orden m tales que
B = Ek · · · E2 E1 A.
45 Demostrar que dos matrices A, B de tamaño m × n son equivalentes si y sólo si existe una matriz cuadra-
da, C, de orden m e invertible tal que B = CA.
46 Si una matriz cuadrada satisface A2 = O, demostrar que entonces A − I es una matriz invertible. ¿Cuál
es su inversa? (Donde I es la matriz identidad).
Los ejercicios 47 a 58 contienen afirmaciones que son falsas o verdaderas. Si la afirmación es verdadera
se debe demostrar con rigor su validez y si es falsa se tiene que exhibir un contraejemplo para mostrar
que no es cierta. En cada caso se supone que las matrices involucradas tienen los tamaños adecuados
para efectuar las correspondientes operaciones.
47 C invertible, AC = BC ⇒ A = B.
48 C invertible, AC = CB ⇒ A = B.
49 C invertible, AC = O ⇒ A = O.
50 Si AC = B y dos de estas matrices son invertibles, entonces la tercera también es invertible.
51 Si AC = B y dos de estas matrices son singulares (no invertibles), entonces la tercera también es singular.
52 A invertible ⇒ A2 invertible.
53 A2 invertible ⇒ A invertible.
54 A3 invertible ⇒ A invertible.
55 A, B invertibles ⇒ A + B invertible.
56 A invertible ⇒ A + A invertible.
57 A invertible ⇒ A + At invertible.
Page (PS/TeX): 43 / 105, COMPOSITE
106 CAPÍTULO 2
Matrices invertibles y determinantes
58 A, B no singulares (invertibles) ⇒ A + B no singular.
59 Una matriz cuadrada A tiene potencia nula si Ak = O para algún entero positivo k.
(a) Dar un ejemplo de una matriz no cero de orden 2 que tenga potencia nula.
(b) Probar que toda matriz invertible no puede tener potencia nula.
60 Si A es una matriz cuadrada y A2 = A, probar que si A es invertible entonces A = I.
En los ejercicios 61 a 62 determinar si la matriz es invertible y en tal caso calcular la inversa mediante
el método de Gauss-Jordan.
⎡
1
⎢
2
⎢
61 ⎣
−1 + i
i
1+i
2+i
−2
−1 + i
⎤
−1
2
⎥
−2
4
⎥.
1 −2 + 2i ⎦
−i
i
⎡
6 + 2i
13 + 3i
⎢ 13 + 3i
27 + 4i
⎢
62 ⎣
−8 + 3i −16 + 8i
−2 + 4i −3 + 9i
⎤
−8 + 3i −2 + 4i
−16 + 8i −3 + 9i ⎥
⎥.
5 − 10i −1 − 6i ⎦
−1 − 6i −3 − 2i
Determinantes, adjunta y regla de Cramer (respuestas en páginas 1076-1077)
En los ejercicios 63 a 66, calcular los determinantes por medio de la regla de Sarrus (cfr. (2.7), pág. 78).
2
63 4
1
−1 3 −3 2 .
4 6 2
65 3
5
3
1 1 1 2 .
64 −2
2 −1 3 1 1 −2 4 .
−7 2 −5 −5 −3 7
5 .
66 −3
7
5
4 En los ejercicios 67 y 68, calcular los cofactores indicados para la matriz A.
⎤
3
7 −5
4
⎢ −8 −3
2
3 ⎥
⎥.
67 A = ⎢
⎣ −2
7
6
4 ⎦
−5
9 −1 −0
⎡
⎤
−1
2 3
1
⎢ 2 −1 1
1 ⎥
⎥
68 A = ⎢
⎣ 3 −2 1 −3 ⎦ .
2
1 1
4
(a) c13 , (b) c31 , (c) c11 .
⎡
(a) c43 , (b) c22 , (c) c14 .
69 Escribir la generalización natural de la regla de Sarrus para una matriz 4 × 4; calcular con esta regla el
determinante de la matriz
⎡
1
⎢ 0
A=⎢
⎣ −1
0
⎤
−1
2 1
1
2 3 ⎥
⎥
2 −1 1 ⎦
1 −1 3
y encontrar el determinante por medio de cofactores. ¿Se obtiene el mismo resultado?
Page (PS/TeX): 44 / 106, COMPOSITE
SECCIÓN 2.3
Ejercicios resueltos y ejercicios propuestos 107
En los ejercicios 70 a 77, calcular el determinante por medio de cofactores.
2
−1
70 1
2
0 −1
3
3
1
4
0 −1
1
2
1 −1
3
−1
71 2
1
0
1
1
1
−4
0
72 1
0
2
−1
2
1
1
3
0
2
0
5
4
1
.
.
1
3 1
1 .
1 −1 2
3 73 1
2
3
4
2 −1
1 −3
2 −2 .
−1
1 −1 −1
1
2 74 2
0
0
0
0
−1
3 −1 2 2
4 −2 3 1
1
0 5 .
−1
3
0 2 1 −1
1 2 −3
0
0
75 0
0
0
2 −1 −1 −1
4
2
2
2
0
3
3
5
0
0
2 −1
0
0
1
1
0
0
5
3
1
−2
76 3
4
−7
0
1
−1
2
3
2
3
6
1
2
2
.
3
2
0 0 −1 −2 6
1
0 .
0
3
2 0
2
1 2 0 0 0 0
−1 1 0 0 0
0 0 3 1 0
77 0 0 0 2 0
0 0 0 0 1
0 0 0 0 2
0 0 0 0 2
0
0
0
0
−1
−1
1
0
0
0
0
2
3
1
.
78 Las matrices de los ejercicios 75 y 77 tienen componentes nulas excepto en algunas de las entradas de
una submatriz R de tamaño r × r y en las entradas de otra submatriz S de tamaño s × s, cuyas diagonales
están en la diagonal de la matriz original de tamaño n × n y donde, además, r + s = n. Demostrar que si
este es el caso, entonces
det(A) = det(R) det(S).
79 Establecer y demostrar un resultado análogo al del ejercicio anterior, pero suponiendo que las submatri-
ces tienen sus contradiagonales en la contradiagonal de la matriz original.
80 Establecer y demostrar generalizaciones de los dos ejercicios precedentes cuando el número de subma-
trices es mayor a dos.
Utilizar los ejercicios 78, 79 y 80 para calcular los determinantes de las matrices contenidas en los
ejercicios 81 y 82.
⎤
⎡
1 2
0
0 0 0
0
0
0
0 0 0
0
0 ⎥
⎢ 3 1
⎥
⎢
2 3 0
0
0 ⎥
⎢ 0 0 −1
⎥
⎢
2 −1 1 0
0
0 ⎥
⎢ 0 0
81 ⎢
⎥.
3 −3 2 0
0
0 ⎥
⎢ 0 0
⎥
⎢
0
0 0 1 −1
2 ⎥
⎢ 0 0
⎣ 0 0
0
0 0 0
2 −1 ⎦
0 0
0
0 0 0
2
1
Page (PS/TeX): 45 / 107, COMPOSITE
108 CAPÍTULO 2
Matrices invertibles y determinantes
⎡
⎢
⎢
⎢
⎢
⎢
82 ⎢
⎢
⎢
⎢
⎣
0
0
0
0
0
0
0
0
0
0
1 −2
2
2
1 −1
⎤
0
0
0 1 −1 2
0
0
0 0 −2 2 ⎥
⎥
0
0
0 0
0 3 ⎥
⎥
0 −1 −1 0
0 0 ⎥
⎥.
0
2
1 0
0 0 ⎥
⎥
2
0
0 0
0 0 ⎥
0
0
0 0
0 0 ⎦
0
0
0 0
0 0
En los ejercicios 83 a 90, calcular el determinante utilizando la propiedad 5 del teorema 2.8; proceder
como en los ejercicios resueltos 18 y 19 (cfr. pág. 96).
2
4 6 −4 2 −1 2
3 83 .
−3
1
2
1
−2
1 1
1 1
1
2
2
.
3
2 1 2
2 −1 1 2
85 5 −2 1 4
−1
1 2 1
.
1 −3 2
−1
2 1
84 3
−2
5
4 −1 1
5 1 −2
11 2
3
87 3
2
3
4 2
3
−1
2
3
−2
2
3
88 −1
1
2
−1
2
1
3
−1
89 2
3 2 1 −1
2
4 −1 1 −1
1
1 2 .
86 3 −2
1
3 2 2 −1
3
3 −2
1 3 2
3
5
3
2
−1
2
4
−2
1
2
3
3
1
1
1 −1
1
2
2
1
−1
3
4
3
2
1 −1
4 −1
−1
3
2 −2
90 3 −5
−3
2
1 −1
−2
2 −4
.
2
1
1
2
1
5
7 −2 −2 5
3 .
3 −1 2
2 1
3
7 −2 −2 −6 4
2 13 .
2
4 18 1
5
3 −2 −4
3 En los ejercicios 91 a 96, A es una matriz de tamaño 3 × 3 con det(A) = −4.
91 Calcular det(A2 ).
92 Encontrar det(4A).
93 Hallar det(A−1 ).
94 Calcular det(Am ), donde m es cualquier entero positivo.
95 Hallar det(A + A).
96 Calcular det(At ).
97 Sean α1 , α2 y α3 números reales. Mostrar que
1 α1
1 α2
1 α
3
Page (PS/TeX): 46 / 108, COMPOSITE
α12 α22 = (α2 − α1 )(α3 − α1 )(α3 − α2 ).
α2 3
.
SECCIÓN 2.3
Ejercicios resueltos y ejercicios propuestos 109
98 Sean αi , i = 1, . . . , n, números reales. Demostrar que
1
α1
α12
···
1
..
.
α2
..
.
α22
..
.
···
αn
αn2
···
1
..
α1n−1 α2n−1 .. = ∏(α j − αi ).
. i< j
n−1 αn
.
El sı́mbolo ∏i < j (α j − αi ) significa el producto de todos los posibles factores (α j − αi ) con j > i, cuando
i, j varı́an entre 1 y n. A este valor se le conoce como el determinante de Vandermonde.
99 Sean A una matriz 3 × 3 y α ∈ R, probar que
det(αA) = α3 det(A).
100 Sean A una matriz n × n y α ∈ R, probar que
det(αA) = αn det(A).
101 Sea
A=
a b
c d
,
mostrar utilizando el teorema 2.9, que A es invertible si y sólo si ad − bc = 0 y que en tal caso
1
d −b
−1
.
A =
a
ad − bc −c
102 Utilizar el ejercicio precedente para calcular (si existe):
(a)
−1 2
2 1
−1
,
(b)
2 4
−3 2
−1
(c)
3 6
1 2
−1
.
En los ejercicios 103 a 106, calcular la inversa, si existe, de la matriz dada utilizando el método de la
adjunta (teorema 2.9, pág. 83).
⎡
1
103 A = ⎣ 3
2
⎤
−1 2
−2 2 ⎦ .
1 1
⎤
3 −1 2
1 2 ⎦.
104 A = ⎣ −2
3 −1 4
⎡
⎤
1 2 −1
3 ⎦.
105 A = ⎣ 2 2
3 4
2
⎡
⎤
2 −1 1
0 2 ⎦.
106 A = ⎣ 0
1 −1 1
⎡
107 Si A es una matriz cuadrada singular (no invertible) y B es una matriz cuadrada del mismo orden,
demostrar que AB es también una matriz singular.
108 Demostrar que una matriz cuadrada es invertible si y sólo si su adjunta también es una matriz invertible
y que además se tiene, entonces, (Adj(A))−1 = (1/|A|)A.
109 Probar que si A ∈ Mn , entonces |Adj(A)| = |A|n−1 .
Page (PS/TeX): 47 / 109, COMPOSITE
110 CAPÍTULO 2
Matrices invertibles y determinantes
110 Mostrar que si A es una matriz cuadrada de orden n > 1, entonces Adj(Adj(A)) = |A|n−2 A.
En los ejercicios 111 a 114, determinar los valores de λ ∈ R que hacen que la matriz sea singular (no
invertible).
111
λ+3
1
2
λ+2
⎡
1−λ
⎢
112 ⎣ 0
0
⎡
3
2+λ
−1
2
⎢
113 ⎣ λ + 2
λ−3
.
⎤
2
⎥
1 ⎦.
2−λ
⎡
0
⎢
114 ⎣ 4 − λ
4
⎤
−1
⎥
0 ⎦.
0
1
λ
2
0
3
−λ
⎤
2−λ
⎥
−3 ⎦ .
2
Resolver los sistemas de los ejercicios 115 a 117, mediante la regla de Cramer (teorema 2.11, pág. 84).
115 x1 − 3x2 = −7
2x1 − x2 =
116
4
2x1 − 3x2 + x3 = 4
4x1 − 5x2 + 3x3 = 4
−3x1 + 2x2 − 3x3 = 1
x1 − x2 + x3 = −2
2x1 − x2 + 3x3 = −9
5x1 − 3x2 + 4x3 = −11
117
118 Hallar la componente x2 de la solución del sistema lineal.
x1 + x2 − 3x3 + x4
2x1 + x2 + 2x4
x2 − 6x3 − x4
3x1 + x2 + x4
=
=
=
=
−2
3
−8
3
119 Hallar la componente x4 de la solución del sistema del lineal.
x1 − x2 + x3 − x4
x1 + 2x2 − x4
x1 − 3x2 + 2x4
−x1 + 2x2 − 3x3 + x4
=
=
=
=
2
−2
9
−5
En los ejercicios 120 a 124, calcular el determinante de la matriz dada.
⎡
i
⎢
120 ⎣ 2
2−i
⎡
−4i
⎢
121 ⎣ 1 + i
3 + 2i
⎡
⎢
⎢
122 ⎢
⎣
1
−1
4i
−3 + i
2+i
3 + 2i
4+1
2
−2
−2 + i
1+i
1−i
−2i
2i
Page (PS/TeX): 48 / 110, COMPOSITE
⎤
−i
⎥
1+i ⎦.
1
⎡
⎢
⎢
⎢
⎢
123 ⎢
⎢
⎢
⎢
⎣
⎤
1
⎥
1 ⎦.
2
2
1
2
2i
5
2i
−4i 1 + 6i
⎤
⎥
⎥
⎥.
⎦
⎡
⎢
⎢
⎢
124 ⎢
⎢
⎣
i 0 0 0 0
0 −i 0 0 0
0 0 1 0 0
0 0 0 1 i
0 0 0 2 −i
0 0 0 0 1
1
i
i
3i
−2
2i
1+i 1−i
−2 −2i
0
0
0
1 + 2i
4
−1
2i −3i
−2
3
1
−2
−1
i
1
2
4
4i
1
3
1
⎤
⎥
⎥
⎥
⎥
⎥.
⎥
⎥
⎥
⎦
⎤
⎥
⎥
⎥
⎥.
⎥
⎦
II
Espacios vectoriales,
producto interior, normas,
valores y vectores propios
Page (PS/TeX): 1 / 111, COMPOSITE
Page (PS/TeX): 2 / 112, COMPOSITE
3 Espacios
vectoriales
En este capı́tulo estudiaremos el siguiente concepto clave en álgebra lineal. Pero antes, motivaremos las
ideas principales por medio de un repaso de conceptos elementales del plano cartesiano. Después extenderemos estos conceptos de manera natural a espacios de vectores más generales para, posteriormente,
continuar con un estudio abstracto y completo de estos entes que llamaremos espacios vectoriales.
3.1 Geometrı́a de los espacios Rn
En esta sección el objetivo fundamental es generalizar las caracterı́sticas geométricas esenciales que
poseen los vectores en el plano cartesiano y en el espacio de tres dimensiones a espacios cuyos vectores tienen mayor número de coordenadas, los llamados espacios Rn . Para ello comenzamos, en la
primera subsección, con un repaso de estas caracterı́sticas en el plano cartesiano. Bien pudimos emplear
como modelo para este propósito el espacio tridimensional pero, por razones de sencillez en cuanto a
los bosquejos geométricos, hemos preferido utilizar el plano cartesiano; sin embargo, como el lector
podrá constatar fácilmente por sı́ mismo, todo lo que hagamos en el siguiente apartado para el plano
cartesiano es completamente válido cuando se traslada al espacio de tres dimensiones.
3.1.1 El plano cartesiano R2
Definición 3.1 Definimos
R2 = {(x, y) | x, y ∈ R}.
Geométricamente, R2 es el plano cartesiano con el que el lector está familiarizado de sus cursos elementales y que ilustramos en la figura 3-1.
Las caracterı́sticas esenciales, algebraicas y geométricas, de R2 son:
1. Igualdad: Si u = (x1 , y1 ),v = (x2 , y2 ) ∈ R2 , u =v ⇔ x1 = x2 y y1 = y2 .
2. Suma: Si u = (x1 , y1 ), v = (x2 , y2 ),
u +v = (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ).
113
Page (PS/TeX): 3 / 113, COMPOSITE
114 CAPÍTULO 3
Espacios vectoriales
R2
u = (x, y)
y
x
Figura 3-1 • R2 , plano donde cada punto (vector) u se localiza mediante un par ordenado (x, y).
R2
u +v
y1 + y2
u
y1
v
y2
x1
Figura 3-2
vectores.
•
x1 + x2
x2
La suma de dos vectores en el plano es la diagonal del paralelogramo que se genera a partir de esos
3. La suma de dos vectores de R2 se obtiene, geométricamente, por la diagonal del paralelogramo
como se indica en la figura 3-2.
3. Producto de un escalar por un vector. Si λ ∈ R y u = (x, y) ∈ R2 , λu = (λx, λy).
R2
λu (λ > 1)
y
u = (x, y)
λu, (0 < λ < 1)
x
λu (λ < 0)
Figura 3-3 • Producto de un escalar por un vector.
Page (PS/TeX): 4 / 114, COMPOSITE
Geometrı́a de los espacios Rn
SECCIÓN 3.1
115
Ası́, el vector λu es un vector paralelo a u con un cambio de escala y/o de sentido, tal como queda
ilustrado en la figura 3-3.
4. Norma o magnitud de un vector. Si u = (x, y), se define y denota la norma de u como
u =
x2 + y2 .
La norma representa la magnitud o la longitud del vector u (véase la figura 3-4).
R2
y
u = (x, y)
u
x
Figura 3-4 • La norma o magnitud de un vector es la longitud del vector.
5. Distancia entre vectores. Si u y v son vectores de R2 , se define la distancia entre ellos como la
magnitud del vector v −u; esto es,
d(v,u) = v −u .
Note que el vector v −u es el vector que sumado a u da como resultado el vector v tal como se
ilustra en la figura 3-5, y que la distancia de u a v es la misma que la distancia de v a u; es decir,
d(u,v) = d(v,u).
u
v −
u
v
v −u
Figura 3-5 • La distancia entre vectores es la magnitud de la diferencia entre ellos.
6. Producto interior o escalar. El producto interior o escalar (o producto punto) de u con v, como
el lector recordará de sus cursos de fı́sica, está dado por
Page (PS/TeX): 5 / 115, COMPOSITE
116 CAPÍTULO 3
Espacios vectoriales
u
v
θ
θ
cos
u
Figura 3-6 • El producto punto de dos vectores es la magnitud de la proyección del primer vector sobre el segundo
multiplicada por la norma de este último.
u ·v = u v cos θ
(3.1)
donde θ es el ángulo entre u y v; y es la magnitud de la proyección de u sobre v multiplicada por la
norma de v (véase la figura 3-6). Mediante el producto escalar también se define el trabajo fı́sico.
Observe que todas las caracterı́sticas anteriores del espacio R2 están perfectamente determinadas
algebraicamente por las coordenadas (x, y) de los vectores correspondientes, excepto el producto punto.
Nos proponemos dar una fórmula alternativa para calcular el producto punto que no dependa de conocer
el ángulo entre los vectores; especı́ficamente, deseamos hallar una relación del producto interior que
dependa exclusivamente de las componentes de los vectores. Para ello necesitaremos de la llamada ley
de los cosenos, conocida por el lector de sus cursos de trigonometrı́a, que recordamos en la figura 3-7.
C
b
A
a
c
B
c2 = a2 + b2 − 2ab cos(C)
Figura 3-7 • Si se representan por letras mayúsculas las magnitudes de los ángulos y por letras minúsculas las
magnitudes de los correspondientes lados opuestos a cada ángulo, entonces se cumple la relación c2 = a2 + b2 −
2ab cosC, llamada ley de los cosenos, para cualquier triángulo dado.
Ahora sean u = (x1 , y1 ) y v = (x2 , y2 ) un par de vectores en R2 . De la figura 3-8 y la ley de los
cosenos tenemos que
v −u2 = u2 + v2 − 2u v cos θ.
Page (PS/TeX): 6 / 116, COMPOSITE
SECCIÓN 3.1
u
Geometrı́a de los espacios Rn
117
u −
v
u
v
θ
v
Figura 3-8 •
Luego,
2u v cos θ = u2 + v2 − v −u2
= x12 + y21 + x22 + y22 − [(x2 − x1 )2 + (y2 − y1 )2 ]
= x12 + y21 + x22 + y22 − [x22 − 2x1 x2 + x12 + y22 − 2y1 y2 + y21 ].
De donde
2u v cos θ = 2(x1 x2 + y1 y2 )
y, por tanto,
u ·v = x1 x2 + y1 y2
(3.2)
es la relación buscada.
P Nota 3.1 Hola
1. Observe que u =
√
x2 + y2 = u ·u.
2. Por otra parte, ya que −1 ≤ cos θ ≤ 1, ∀θ ∈ R, se tiene
|u ·v| ≤ u v,
a la cual se le llama desigualdad de Schwarz.
3. También, de (3.1) (cfr. pág. 116), el ángulo entre dos vectores u, v no nulos está dado por:
u ·v
θ = arc cos
u v
(3.3)
3.1.2 Interpretación geométrica del determinante
Aunque el determinante es un concepto útil asociado a las matrices, para el estudio de éstas y de otros
aspectos del álgebra lineal, el determinante tiene una interpretación geométrica sumamente importante,
Page (PS/TeX): 7 / 117, COMPOSITE
118 CAPÍTULO 3
Espacios vectoriales
S3
u
S2
S1
v
h
θ
x
Figura 3-9 •
la cual se puede usar, por ejemplo, en la teorı́a de integración, especı́ficamente en la fórmula de cambio
de variables para integrales y en el cálculo de volúmenes y áreas. Es en estas dos últimas en las cuales
enfocaremos nuestra atención.
Sean u = (a, b), v = (c, d) dos vectores de R2 . Calculemos el área S del paralelogramo generado
por estos vectores. Entonces, de acuerdo con la figura 3-9, S = 2S1 + S2 (porque S1 = S3 ). Ahora bien,
S1 = (xh)/2 y h = u sen θ. Entonces,
S =2
xh
+ S2
2
= xh + S2
= xu sen θ + S2
= xu sen θ + (v − x)h
= xu sen θ + hv − xh
= xu sen θ + hv − xu sen θ
= u v sen θ.
Puesto que sen2 θ = 1 − cos2 θ,
S2 = u2 v2 sen2 θ
= u2 v2 (1 − cos2 θ)
= u2 v2 − u2 v2 cos2 θ
= u2 v2 − (u ·v)2
= a2 + b2 c2 + d 2 − (ac + bd)2
= a2 c2 + a2 d 2 + b2 c2 + b2 d 2 − a2 c2 − 2acbd − b2 d 2
= a2 d 2 + b2 c2 − 2acbd
= (ad − bc)2 ,
de donde
S = |ad − bc| .
Page (PS/TeX): 8 / 118, COMPOSITE
Geometrı́a de los espacios Rn
SECCIÓN 3.1
119
z
u
w
v
y
x
Figura 3-10 • El volumen del paralelepı́pedo generado por los vectores u, v y w es el valor absoluto del determinante de la matriz que tiene como filas (o columnas) a estos vectores.
Es decir,
S = |det (M)| ,
donde M es la matriz que tiene como filas (o columnas) a los vectores u y v. De manera análoga, el
determinante de una matriz 3 × 3 (o mejor dicho, su valor absoluto) será el volumen del paralelepı́pedo
determinado por los vectores fila de la propia matriz, como se ilustra en la figura 3-10.
3.1.3 El espacio vectorial Rn , geometrı́a y propiedades algebraicas
En esta subsección nos proponemos generalizar las propiedades algebraicas y geométricas de R2 a espacios de mayor “dimensión”. Es evidente que, tanto en la teorı́a como en la práctica, surgen problemas
que involucran un número de variables mayor a dos (en algunos problemas de importancia netamente
aplicada, este número puede ser de hasta 20 000). Por tanto, es necesario estudiar aquellos conjuntos
cuyos elementos son n-adas ordenadas y tienen cualidades análogas a las de los vectores del plano de
coordenadas.
Definición 3.2 Sea n un número entero positivo. Se define el espacio Rn como
Rn = {u = (x1 , x2 , . . . , xn ) | x1 , x2 , . . . , xn ∈ R} .
A los elementos de Rn también les llamaremos vectores. Al número xi se le dice la i-ésima componente
o coordenada de u. Y al vector u lo denotaremos, indistintamente, como u = (x1 , x2 , . . . , xn ) o como la
matriz columna
⎡ ⎤
x1
⎢x2 ⎥
⎢ ⎥
u = ⎢ . ⎥ .
⎣ .. ⎦
xn
Page (PS/TeX): 9 / 119, COMPOSITE
120 CAPÍTULO 3
Espacios vectoriales
P Nota 3.2 Cuando se emplea la notación u = (x1 , x2 , . . . , xn ), se acostumbra decir que (x1 , x2 , . . . , xn )
es una n-ada ordenada; por ejemplo, (x1 , x2 , x3 ) es una trı́ada ordenada.
Definición 3.3 Sean u,v ∈ Rn , con u = (x1 , x2 , . . . , xn ), v = (y1 , y2 , . . . , yn ) y λ ∈ R.
1. Igualdad. u =v ⇔ xi = yi para cada i = 1, 2, . . . , n.
2. Suma de vectores. Se denota y define la suma de u con v como
u +v = (x1 + y1 , x2 + y2 , . . . , xn + yn ).
3. Producto de un escalar por un vector. Se denota y define el producto del escalar λ con el
vector u como
λu = (λx1 , λx2 , . . . , λxn ).
4. Producto escalar. El producto escalar (o producto punto o producto interior) de u con v se
denota y define como
n
u ·v = ∑ xi yi = x1 y1 + · · · + xn yn .
i=1
5. Norma de un vector. Se define la norma o magnitud del vector u por
u =
1/2
n
∑ xi2
i=1
1/2
= x12 + · · · + xn2
.
6. Distancia entre vectores (puntos) en Rn . Se define la distancia entre los vectores u y v como
d(u,v) = u −v .
P Nota 3.3 Hola
1. La relación entre el producto interior y la norma vuelve a ser, como en el caso de R2 ,
u = (u ·u)1/2 .
(3.4)
2. Existen otras formas de medir magnitudes de vectores; sin embargo, la históricamente más común
es la que hemos usado hasta ahora dada por (3.4). A esta magnitud se le acostumbra llamar norma
euclidiana o norma canónica del vector u por su origen geométrico y natural, respectivamente.
3. Dado que los vectores en Rn los hemos denotado también como matrices columna, el producto
punto se puede ver como producto de matrices; esto es,
u ·v = (u)tv.
En el lado izquierdo de la precedente igualdad los vectores están escritos con la notación de n-adas
ordenadas y en el lado derecho están escritos con la notación de matrices columna.
Page (PS/TeX): 10 / 120, COMPOSITE
SECCIÓN 3.1
Geometrı́a de los espacios Rn
121
Ası́, vemos que todas las definiciones dadas arriba son generalizaciones directas de la manera en que se
opera, se mide y se hace geometrı́a y álgebra en el plano de coordenadas R2 . También debe notarse la
importancia que tuvo dar una fórmula alternativa para el producto interior que dependiera sólo de las
componentes de los vectores (cfr. fórmula (3.2), pág. 117); de no ser ası́, no podrı́amos haber generalizado el producto punto al no tener una forma de “medir ángulos” por medios fı́sicos en estos espacios
cuando n > 3. Sin embargo, el concepto de ángulo entre vectores sı́ lo podremos extender a los espacios
Rn con n > 3 mediante la desigualdad de Schwarz que veremos más adelante.
Ejemplo 3.1 Si n = 3, R3 es el espacio usual de tres dimensiones donde “habitamos”. En este espacio necesitamos de tres números reales (x1 , x2 , x3 ) [o, como tradicionalmente se escribe, (x, y, z)] para
determinar la posición de un punto, como hacemos patente en la figura 3-11.
z
R3
c
u = (a, b, c)
b
y
a
x
Figura 3-11 • En el espacio R3 todo punto (vector) u se localiza mediante una trı́ada ordenada (a, b, c); donde las
dos primeras componentes (a, b) son la proyección vertical de este punto sobre el plano x, y y la tercera, c, es la
proyección horizontal de este punto sobre el eje z.
P Nota 3.4 Es común en textos de matemáticas convenir que cuando se hacen diagramas del espacio
tridimensional R3 , los ejes x, y y z se coloquen como en la figura 3-11. Usted puede recordar esta
convención (algunas veces llamada regla de la mano izquierda) colocando su mano izquierda con la
palma frente a usted, abriendo los dedos medio, ı́ndice y pulgar (cerrando los dedos anular y meñique);
apuntando el dedo medio hacia usted, el ı́ndice hacia su derecha y el pulgar hacia arriba. Ası́, sus dedos
señalarán las direcciones positivas del eje x (dedo medio), eje y (dedo ı́ndice) y eje z (dedo pulgar).
Ejemplo 3.2 Si u = (1, −2, 4) y v = (3, 6, 0), entonces u,v ∈ R3 y:
1. u +v = (4, 4, 4).
√ √
√
√
2. − 2u = (− 2, 2 2, −4 2).
3. u ·v = (1)(3) + (−2)(6) + (4)(0) = 3 − 12 + 0 = −9.
√
4. u = 12 + (−2)2 + 42 = 21.
Page (PS/TeX): 11 / 121, COMPOSITE
122 CAPÍTULO 3
Espacios vectoriales
Ejemplo 3.3 Si u = (−1, 2, 5, 9),v = (2, −4, 0, 3) ∈ R4 :
1. u ·v = −2 − 8 + 27 = 17.
2. u + (−2)v = (−1, 2, 5, 9) + (−4, 8, 0, −6) = (−5, 10, 5, 3).
√
3. v = (4 + 16 + 9)1/2 = 29.
Ejemplo 3.4 Calcular la distancia entre los vectores:
1. u = (1, −2, 1) y v = (−2, 1, 1).
2. u = (−1, 0, 2, 3, 1) y v = (1, 1, −4, 2, 0).
Solución
1. d(u,v) = u −v
= (1, −2, 1) − (−2, 1, 1)
= (3, −3, 0)
√
= 3 2.
2. d(u,v) = u −v
= (−1, 0, 2, 3, 1) − (1, 1, −4, 2, 0)
= (−2, −1, 6, 1, 1)
√
= 43. A continuación enunciamos, sin demostrar, las propiedades algebraicas esenciales de Rn . Utilizando
la conmutatividad, asociatividad, etc. de los números reales y la definición de igualdad de vectores, el
lector puede fácilmente verificarlas. De hecho, como veremos más adelante, dichas propiedades también
se pueden observar en otros conjuntos1 que llamaremos espacios vectoriales.
Propiedades del espacio vectorial de Rn
Si u,v,w ∈ Rn y λ, β ∈ R, entonces:
1. u +v ∈ Rn . (La suma es cerrada)
2. u + (v + w) = (u +v) + w. (Asociatividad de la suma)
3. u +v =v +u. (Conmutatividad de la suma)
4. Si 0Rn = (0, 0, . . . , 0), 0Rn ∈ Rn y u +0Rn = u, ∀u ∈ Rn . (Existencia del neutro aditivo)
n
5. Dado u = (x1 , x2 , . . . , xn ) ∈ Rn , existe −u ∈ Rn tal que u + (−u) = 0Rn .
De hecho, −u = (−x1 , −x2 , . . . , −xn ). (Existencia del inverso aditivo)
6. λu ∈ Rn . (El producto por un escalar es cerrado)
7. λ(βu) = (λβ)u. (Asociatividad del producto con escalares)
11 Compare con las propiedades 1(a) a 1( j) de la subsección 1.1.4, páginas 9 y 10.
Page (PS/TeX): 12 / 122, COMPOSITE
SECCIÓN 3.1
Geometrı́a de los espacios Rn
123
8. (λ + β)u = λu + βu. (Distributividad del producto con respecto a la suma de escalares)
9. λ(u +v) = λu + λv. (Distributividad del producto con respecto a la suma de vectores)
10. 1u = u, ∀u ∈ Rn . (Preservación de la escala)
El producto escalar tiene las siguientes importantes propiedades que son sencillas de probar y cuya
demostración se deja al lector.
Propiedades del producto punto
Sean u,v,w ∈ Rn y λ ∈ R, entonces:
1. u ·v =v ·u. (Simetrı́a)
2. u · (λv) = λ (u ·v). (Homogeneidad)
3. u · (v + w) = u ·v +u · w. (Distributividad)
4. u ·u ≥ 0 y u ·u = 0 ⇔ u = 0. (Positividad)
3.1.4 La desigualdad de Schwarz, ángulos entre vectores y ortogonalidad
Es claro que la generalización natural de ángulo entre vectores en Rn debe estar dada por la fórmula2
u ·v
.
θ = arc cos
u v
Pero, para que se pueda evaluar la función arc cos, es necesario que
−1 ≤
u ·v
≤1
u v
lo cual evidentemente equivale a
|u ·v | ≤ u v.
Afortunadamente, esta desigualdad es cierta y la probaremos en el teorema 3.1. Estaremos entonces
facultados para generalizar el concepto de ángulo entre vectores en Rn para n > 3. Para poder demostrar
dicha desigualdad necesitamos de la sencilla proposición que damos a continuación (lema 3.1).
Lema 3.1 Si a, b son cualquier par de números reales, entonces
2ab ≤ a2 + b2 .
12 Cfr. (3.3), página 117.
Page (PS/TeX): 13 / 123, COMPOSITE
(3.5)
124 CAPÍTULO 3
DEMOSTRACIÓN
Espacios vectoriales
Q En efecto,
0 ≤ (a − b)2
= a2 − 2ab + b2 ;
de donde 2ab ≤ a2 + b2 .
Q
Teorema 3.1 (Desigualdad de Schwarz) Si u = (x1 , x2 , . . . , xn ), v = (y1 , y2 , . . . , yn ) ∈ Rn , entonces
|u ·v | ≤ u v
DEMOSTRACIÓN
(3.6)
Q Si u = 0 o v = 0, claramente (3.6) es cierta. Supongamos que u,v = 0; sea i ∈ {1, 2, . . . , n} arbitrario
y pongamos
xi
yi
a=
yb=
u
v
en el lema 3.1. Entonces, por (3.5), para todo i = 1, 2, . . . , n se tiene
2 2
xi
xi yi
yi
≤
2
+
.
u v
u
v
Luego,
n
n
xi yi
2∑
≤∑
u v i=1
i=1 xi
u
2
yi
+
v
2 ;
esto es,
2 n 2
n
n 2
xi
xi
∑xi yi ≤ ∑ u + ∑ u ,
u v i=1
i=1
i=1
que equivale a
n
2
xi yi
∑
u v i=1
≤
1
n
1
i=1
=
=
n
∑ xi2 + v2 ∑ y2i
u2
1
u2
2
i=1
u2 +
1
v2
v2
de donde
n
∑xi yi ≤ u v .
i=1
Con lo que hemos probado
u ·v ≤ u v
∀u,v
Entonces, por la homogeneidad del producto punto y la precedente desigualdad, tenemos
− (u ·v) = (−u) ·v ≤ −u v = u v ;
Page (PS/TeX): 14 / 124, COMPOSITE
(3.7)
Geometrı́a de los espacios Rn
SECCIÓN 3.1
125
que significa
u ·v ≥ − u v
(3.8)
De (3.7) y (3.8) se deduce
∀u,v ∈ Rn .
|u ·v| ≤ u v
Q
Ahora sı́ podemos definir, con base en la desigualdad de Schwarz (3.6), el ángulo entre vectores de
n componentes; que es una generalización del concepto de ángulo entre vectores en el espacio de tres
dimensiones y en el plano cartesiano.
Definición 3.4 Si u,v ∈ Rn − {0Rn }, se define el ángulo entre estos vectores como:
u ·v
θ = arc cos
u v
(3.9)
Ejemplo 3.5 Hallar el ángulo θ entre los vectores (1, 2, 0, 2) y (−3, 1, 1, 5) de R4 .
Solución
(1, 2, 0, 2) · (−3, 1, 1, 5)
θ = arc cos √
2
2
1 + 2 + 02 + 22 (−3)2 + 12 + 12 + 52
1
9
= arc cos
.
= arc cos
3·6
2
Ası́, θ = 60◦ .
Una vez que se ha definido el concepto de ángulo entre vectores, se puede determinar cuándo un par
de éstos son perpendiculares; la manera de generalizar esta idea a Rn la hacemos patente a continuación.
Notemos, de (3.9), que el ángulo entre dos vectores es de 90◦ si y sólo si su producto punto es cero.
Definición 3.5 .
1. Dos vectores u, v ∈ Rn son ortogonales (perpendiculares) si
u ·v = 0 ;
es decir, si el ángulo entre ellos es de 90◦ . Cuando u y v sean ortogonales lo denotaremos por
u ⊥v.
2. u y v son paralelos (u v) si u ·v = ±u v, lo que equivale a que el ángulo entre ellos sea de
0◦ o 180◦ .
Teorema de Pitágoras
Quizá uno de los más importantes y conspicuos resultados de las matemáticas, conocido y usado en
forma empı́rica desde el inicio de la civilización (Babilonia, Egipto), luego convertido en una afirmación general y probado en forma completamente rigurosa por los griegos, es el teorema de Pitágoras.
Page (PS/TeX): 15 / 125, COMPOSITE
126 CAPÍTULO 3
Espacios vectoriales
Se enseña en educación elemental y, a partir de ahı́, se hace uso sistemático de él. Sin embargo, la
mayor parte de la gente que usa este teorema desconoce alguna demostración porque se requieren varios
resultados elementales de geometrı́a para poder establecer una prueba rigurosa. A continuación daremos
una demostración muy simple de este importante teorema; de hecho es trivial, pues el material que
hemos desarrollado hasta aquı́ nos proporciona una herramienta algebraica muy potente para atacar este
problema geométrico transformándolo en un sencillo cálculo algebraico.
Teorema 3.2 (Teorema de Pitágoras) Sean u,v ∈ Rn un par de vectores ortogonales. Entonces,
u +v2 = u2 + v2 .
Antes de dar la demostración de este teorema explicaremos su relación con el teorema de Pitágoras que
el lector conoce, pues en apariencia no hay una relación directa. Sin embargo, si particularizamos al
caso n = 2 del plano cartesiano R2 , resulta que u +v es la longitud de la hipotenusa del triángulo
rectángulo, cuyos catetos tienen longitudes u y v, como se ilustra en la figura 3-12.
+
u
v
v
u
Figura 3-12 • El teorema de Pitágoras establece que en cualquier triángulo rectángulo la suma de los cuadrados
de los catetos es igual al cuadrado de la hipotenusa.
DEMOSTRACIÓN
Q Dado que u ⊥v, se tiene u ·v = 0; luego
u +v2 = (u +v) · (u +v)
= u ·u +u ·v +v ·u +v ·v
= u2 + 2u ·v + v2
= u2 + 0 + v2
= u2 + v2 .
Q
Propiedades de la norma en Rn
Uno de los conceptos más importantes en matemáticas es el de proximidad; y la forma de medir la
proximidad entre puntos es por medio de la distancia. En R, el valor absoluto es la herramienta usada
para medir la distancia entre números reales. Recordemos que el valor absoluto tiene las siguientes
propiedades:
1. |x| ≥ 0 ∀x ∈ R.
2. |x| = 0 ⇔ x = 0.
Page (PS/TeX): 16 / 126, COMPOSITE
SECCIÓN 3.1
Geometrı́a de los espacios Rn
127
3. |λx| = |λ| |x|.
4. |x + y| ≤ |x| + |y|. (Desigualdad triangular)
Entonces la distancia entre un par de números x y y se define como el valor absoluto de su diferencia. En
Rn , la norma es la manera natural para definir proximidad entre vectores por medio de la distancia entre
ellos. A partir de las propiedades 1, 2, 3 y 4 del valor absoluto, enunciadas arriba, se pueden deducir
todas las demás propiedades que tiene el valor absoluto. De hecho, estas mismas propiedades las tiene
la norma en Rn y cualquier otra propiedad de la norma también se puede deducir a partir de éstas.
Teorema 3.3 (Propiedades de la norma en Rn ) La norma en Rn tiene las siguientes propiedades:
∀u ∈ Rn .
2. u = 0 ⇔ u = 0Rn .
1. u ≥ 0
3. λu = |λ| u
∀u ∈ Rn , ∀λ ∈ R.
4. u +v ≤ u + v
DEMOSTRACIÓN
∀u,v ∈ Rn . (Desigualdad triangular)
Q 1. Si u = (x1 , x2 , . . . , xn ) ∈ Rn , entonces
1/2
n
∑
u =
i=1
xi2
≥ 0.
2. Si u = 0Rn , claramente u = 0. Supongamos inversamente que u = (x1 , x2 , . . . , xn ) ∈ Rn es tal que
u = 0, entonces
n
∑ xi2 = 0;
i=1
de donde xi2 = 0 ∀i = 1, 2, . . . , n; y por tanto u = 0Rn .
3. Si u = (x1 , x2 , . . . , xn ) ∈ Rn y λ ∈ R, entonces
λu = (λx1 , λx2 , . . . , λxn )
1/2
n
∑(λxi )2
=
i=1
n
∑
=
i=1
1/2
λ2 xi2
=
λ
2
n
∑
i=1
= |λ|
1/2
xi2
n
∑
i=1
1/2
xi2
= |λ| u .
Page (PS/TeX): 17 / 127, COMPOSITE
128 CAPÍTULO 3
Espacios vectoriales
4. Si u,v ∈ Rn , entonces
u +v2 = (u +v) · (u +v)
= u ·u +u ·v +v ·u +v ·v
= u2 + 2 (u ·v) + v2 .
De la desigualdad de Schwarz se tiene que
u ·v ≤ u v
y por tanto
u +v2 ≤ u2 + 2 u v + v2 ;
esto es,
u +v2 ≤ (u + v)2 .
De donde,
u +v ≤ u + v .
Q
La desigualdad triangular recibe este nombre porque, en el caso de vectores en R2 (o en R3 ), significa
que en todo triángulo, la longitud de cualquiera de sus lados es inferior a la suma de las longitudes de
los otros dos lados; como ilustramos en la figura 3-13.
v
v
u
u
u +v
u + v
Figura 3-13 • Desigualdad triangular: en todo triángulo, la longitud de cualquiera de sus lados es inferior a la
suma de las longitudes de sus otros dos lados.
Planos en R3
Supongamos que un plano P pasa por el punto u0 = (x0 , y0 , z0 ) y es ortogonal al vector η = (a, b, c); es
decir, η es perpendicular a toda lı́nea recta contenida en el plano P. Sea u = (x, y, z) un punto cualquiera
Page (PS/TeX): 18 / 128, COMPOSITE
SECCIÓN 3.1
Geometrı́a de los espacios Rn
129
del plano P (cfr. figura 3-14). Entonces η es perpendicular al segmento que une a los puntos u0 y u; es
decir, η ⊥ (u −u0 ). Por tanto, η · (u −u0 ) = 0 y, por ende,
a (x − x0 ) + b (y − y0 ) + c (z − z0 ) = 0
(3.10)
es la ecuación que determina el lugar geométrico correspondiente al plano P. Esto significa que todo
punto (x, y, z) que pertenece al plano P satisface la ecuación (3.10). Inversamente, toda solución (x, y, z)
de esta ecuación pertenece al plano P.
η
P
u0
u
η
u −u0
Figura 3-14 • Un plano P que pasa por un punto dado u = (x0 , y0 , z0 ) y es ortogonal a un vectorη = (a, b, c).
Es claro que la ecuación (3.10) equivale3 a
ax + by + cz = d
(3.11)
donde d = ax0 + by0 + cz0 .
Ejemplo 3.6 Encontrar la ecuación del plano que es ortogonal al vector η = (−1, 2, 4) y pasa por el
punto u = (2, 1, 1).
Solución
La ecuación está dada por (3.10):
(−1) (x − 2) + 2 (y − 1) + 4 (z − 1) = 0
que equivale a
−x + 2y + 4z = 4.
13 Es obvio que las ecuaciones (3.10) y (3.11) no son únicas en cuanto a la descripción algebraica de un plano como lugar
geométrico. En realidad, cualquier otra ecuación algebraica que cumpla con ese objetivo será equivalente a (3.10) y (3.11) en el
sentido de que tienen las mismas soluciones y, por ende, describen el mismo lugar geométrico: el plano en cuestión.
Page (PS/TeX): 19 / 129, COMPOSITE
130 CAPÍTULO 3
Espacios vectoriales
Ejemplo 3.7 Encontrar la ecuación del plano P que pasa por los puntos u = (1, 0, 0), v = (0, 1, 0) y
w = (0, 0, 1).
Solución
El plano debe contener los tres puntos y, por la definición geométrica de plano, también debe
contener los segmentos de lı́nea que unen a dichos puntos; dos de ellos son uv y uw. Si η = (a, b, c) es un
vector ortogonal al plano, entonces η debe ser perpendicular a estos dos segmentos. Ası́ que η ⊥ (u −v)
y η ⊥ (u − w), por lo que η · (u −v) = 0 y η · (u − w) = 0. Esto es,
(1, −1, 0) · (a, b, c) = 0
(1, 0, −1) · (a, b, c) = 0;
es decir,
a−b = 0
a − c = 0.
Resolvamos ahora el sistema homogéneo anterior:
1 −1
0
1 −1
0
∼
,
1
0 −1
0
1 −1
que produce las soluciones
⎤ ⎡ ⎤
r
a
⎣ b ⎦ = ⎣ r ⎦ ; r ∈ R.
r
c
⎡
Una solución particular es el vector η = (1, 1, 1) obtenida al hacer r = 1. Ası́, el plano que pasa por
estos puntos es ortogonal al vector η = (1, 1, 1), y contiene al punto (1, 0, 0); por tanto, al utilizar (3.10),
tenemos
(1) (x − 1) + (1) (y − 0) + (1) (z − 0) = 0,
que equivale a
x + y + z = 1.
Este plano viene bosquejado en la figura 3-15. z
P
w
v
y
u
x
Figura 3-15 • Plano que pasa por los puntos u = (1, 0, 0), v = (0, 1, 0) y w = (0, 0, 1).
Page (PS/TeX): 20 / 130, COMPOSITE
SECCIÓN 3.2
Espacios vectoriales 131
3.2 Espacios vectoriales
Hemos visto que las matrices tienen, con la suma y el producto por un escalar usuales, las mismas diez
propiedades4 que las del espacio vectorial5 de Rn . Ası́, las generalizaciones algebraicas del plano y del
espacio tienen un sı́mil con un conjunto aparentemente sin conexión con ellos. Como veremos en esta
sección, el de las matrices no es un caso aislado y, al contrario, existe una gran variedad de conjuntos
en los que se han definido las operaciones suma entre sus elementos y multiplicación de números reales
con estos elementos, que también satisfacen las citadas diez condiciones. Todos estos conjuntos tienen
en común las propiedades mencionadas y, por tanto, lo que se derive de ellas dependerá de las mismas
y no de los elementos que particularmente formen determinada colección. Por ello surge la necesidad
de estudiar este tipo de conjuntos, con sus respectivas operaciones, en abstracto y no caso por caso de
manera aislada. De esta forma, lo que haremos primeramente es abstraer estas diez propiedades como
caracterı́stica esencial de lo que llamaremos espacio vectorial, y entonces podremos derivar, a partir
de las mismas, consecuencias generales en este espacio abstracto que serán entonces válidas, dado que
dependen solamente de las propiedades de las operaciones y no de los elementos de cada colección, en
todos los conjuntos que cumplan con esas diez propiedades.
3.2.1 Definiciones y ejemplos
Definición 3.6 Sea E un conjunto no vacı́o donde se han definido un par de operaciones: suma entre
sus elementos, representada como u ⊕v; y multiplicación (o producto) de escalares (números reales)
con elementos de E, representada como α u. Entonces a E se le llama espacio vectorial (real) si se
cumplen las diez siguientes condiciones (axiomas de espacio vectorial):
1. u ⊕v ∈ E ∀u,v ∈ E. (La suma es cerrada)
2. u ⊕ (v ⊕ w) = (u ⊕v) ⊕ w ∀u,v, w ∈ E. (Asociatividad de la suma)
3. u ⊕v =v ⊕u
∀u,v ∈ E. (Conmutatividad de la suma)
4. Existe un elemento 0E ∈ E tal que u ⊕0E = u ∀u ∈ E. (Existencia del neutro aditivo)
5. Para cada u ∈ E existe −u ∈ E tal que u ⊕ (−u) = 0E . (Existencia del inverso aditivo)
6. λ u ∈ E
∀λ ∈ R, ∀u ∈ E. (La multiplicación con escalares es cerrada)
7. λ (β u) = (λβ) u ∀λ, β ∈ R, ∀u ∈ E. (Asociatividad del producto con escalares)
8. λ (u ⊕v) = (λ u) ⊕ (λ v)
a la suma de vectores)
∀λ ∈ R, ∀u,v ∈ E. (Distributividad del producto con respecto
9. (λ + β) u = (λ u) ⊕ (β u)
a la suma de escalares)
∀λ, β ∈ R, ∀u ∈ E. (Distributividad del producto con respecto
10. 1 u = u
∀u ∈ E. (Preservación de la escala)
A los elementos de E les llamaremos vectores.
14 Cfr. propiedades 1(a) a 1( j), subsección 1.1.4, página 9.
15 Cfr. subsección 3.1.3, página 119.
Page (PS/TeX): 21 / 131, COMPOSITE
132 CAPÍTULO 3
Espacios vectoriales
Ejemplo 3.8 Rn , con la suma usual de vectores y la multiplicación de un escalar por un vector, esto
es, si u = (x1 , x2 , . . . , xn ), v = (y1 , y2 , . . . , yn ) y λ es un número real,
u ⊕v = (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ),
λ u = λ(x1 , x2 , . . . , xn ) = (λx1 , λx2 , . . . , λxn ),
es un espacio vectorial.
Ejemplo 3.9 Sea E = {x ∈ R | x > 0} dotado de las operaciones:
u ⊕ v = uv
λ u = uλ .
Ası́, por ejemplo, 2 ⊕ 3 = 2 · 3 = 6 y 2 3 = 32 = 9.
¿Es E, junto con estas operaciones, un espacio vectorial?
Para contestar afirmativamente debemos probar que se verifican las diez propiedades de la
definición anterior; y para dar una respuesta negativa se tiene que exhibir un caso en el cual una de ellas
(por lo menos) no se cumpla.
Solución
1. Es claro de su definición que u ⊕ v ∈ E ∀u, v ∈ E, pues el producto de dos números positivos es
también positivo.
2. ∀u, v, w ∈ E : (u ⊕ v) ⊕ w = (uv) ⊕ w = (uv)w = u(vw) = u ⊕ (vw) = u ⊕ (v ⊕ w).
3. ∀ u, v ∈ E: u ⊕ v = uv = vu = v ⊕ u.
4. Sea 0E = 1 ∈ E. Entonces ∀ u ∈ E: u ⊕0E = u0E = u1 = u.
5. Si u ∈ E, u > 0, y por tanto 1/u > 0. Sea −u = 1/u. Entonces −u ∈ E y u ⊕ (−u) = u(1/u) = 1 =
0E .
6. Si λ ∈ R y u ∈ E, entonces λ u = uλ > 0 pues u > 0, es decir, λ u ∈ E ∀u, ∀ λ ∈ R.
7. Si λ, β ∈ R y u ∈ E, λ (β u) = λ (uβ ) = (uβ )λ = uβλ = (λβ) u.
8. ∀u, v ∈ E, λ ∈ R: λ (u ⊕ v) = λ (uv) = (uv)λ = uλ vλ = (λ u) ⊕ (λ v).
9. ∀ λ, β ∈ R, ∀ u ∈ E: (λ + β) u = uλ+β = uλ uβ = (λ u) ⊕ (β u).
10. 1 u = u1 = u, ∀u ∈ E.
Como se verifican los diez axiomas de espacio vectorial de la definición 3.6, E es un espacio vectorial. Ejemplo 3.10 (Espacio de matrices) Mm×n , el conjunto de matrices tamaño m × n, con la suma de
matrices y el producto de un escalar por una matriz usuales, es un espacio vectorial.6 16 Cfr. página 9.
Page (PS/TeX): 22 / 132, COMPOSITE
SECCIÓN 3.2
Espacios vectoriales 133
Ejemplo 3.11 (Espacio de polinomios) Si P es el conjunto de polinomios, con la suma y el producto por
un escalar usuales, P es un espacio vectorial; lo cual es fácil de probar y se deja de ejercicio al lector.
P Nota 3.5
1. Observemos que en el ejemplo 3.9 no utilizamos la notación de poner una flecha encima de los
vectores del espacio; pues las operaciones, como fueron definidas, involucraron el producto y la
multiplicación de números reales positivos y el haber denotado a los elementos de esta manera
podrı́a haber causado confusión. En realidad, esto lo haremos cada vez que sea conveniente; ası́,
por ejemplo, las matrices sólo las denotaremos con letras mayúsculas en lugar de emplear notación
vectorial para el espacio Mm×n . También, a partir del final de esta nota, abandonaremos la notaciones ⊕ y para la suma de vectores y la multiplicación de un escalar por un vector y simplemente
escribiremos u +v, λu en lugar de u ⊕v y λ u, respectivamente; pues el contexto de cada caso
evitará cualquier confusión.
2. El axioma 10 de la definición 3.6 es en apariencia una propiedad de la que se podrı́a prescindir; ya
que es una caracterı́stica que a simple vista se cumple “siempre” de manera “natural”. Sin embargo,
esta propiedad es imprescindible; pues existen casos en los que se pueden definir operaciones de
suma de vectores y multiplicación con escalares que cumplen con los primeros 9 axiomas de la
definición 3.6, pero no con el número 10. Por ejemplo, si en Rn se define la suma de vectores
en forma usual, pero el producto por un escalar como λ u = 0Rn , para todo λ ∈ R y para todo
u ∈ Rn , es evidente que se cumplen los 9 primeros axiomas de espacio vectorial pero no el décimo.
También es claro que este último conjunto con esas operaciones no tiene trascendencia alguna
como son los casos de las matrices y el propio espacio Rn con las operaciones usuales. Evitar
casos triviales y de nulo interés en la práctica es la razón de ser del axioma 10 para el concepto de
espacio vectorial.
Ejemplo 3.12 (Espacio de sucesiones) Sea R∞ = u = (an )n∈N |u es una sucesión ; es decir, R∞ es
el conjunto de las sucesiones de números reales u = (a1 , a2 , . . . , an , . . . ). Con la suma de sucesiones y el
producto de un escalar por una sucesión usuales; esto es,
• (a1 , a2 , . . . , an , . . . ) + (b1 , b2 , . . . , bn , . . . ) = (a1 + b1 , a2 + b2 , . . . , an + bn , . . . ),
• λ(a1 , a2 , . . . , an , . . . ) = (λa1 , λa2 , . . . , λan , . . . ).
R∞ es un espacio vectorial como fácilmente puede comprobar el lector.
Espacios de funciones
Definición 3.7 Sean A y B un par de conjuntos no vacı́os. Una función f con dominio A y valores en
B, es una regla que a cada elemento x de A le asigna un único elemento y = f (x) de B. Para denotar
que f es una función con dominio A y valores en B escribiremos
f : A −→ B.
La función o regla de asignación es f y no debe confundirse con el valor de ésta en x: y = f (x). En
esta última notación, a y se le dice la variable dependiente o imagen de x bajo f , x es la variable
independiente o argumento de la función f , y a B se le denomina contradominio de la función.
Page (PS/TeX): 23 / 133, COMPOSITE
134 CAPÍTULO 3
Espacios vectoriales
Definición 3.8 Sean f , g : A −→ B un par de funciones de A en B. Diremos que f = g, si
f (x) = g(x)
∀x ∈ A.
Ejemplo 3.13 Sean A = R − {0}, B = R y f , g : A −→ B las funciones definidas como
f (x) =
y
|x|
x
g(x) =
1, si x > 0;
−1, si x < 0.
f (x) =
|x| x
= = 1 = g(x).
x
x
Si x ∈ A y x > 0,
Si x ∈ A y x < 0,
f (x) =
|x| −x
=
= −1 = g(x).
x
x
Luego f (x) = g(x) ∀x ∈ A, por tanto f = g.
Definición 3.9 Sea A un conjunto no vacı́o. Denotamos por F (A) al conjunto de las funciones
f : A −→ R. Dotamos a F (A) de las siguientes operaciones:
• Si f , g ∈ F (A), definimos la función f + g como ( f + g)(x) = f (x) + g(x) ∀x ∈ A.
• Si f ∈ F (A) y λ ∈ R, definimos la función λ f como (λ f )(x) = λ f (x) ∀x ∈ A.
Diremos, entonces, que éstas son la suma y la multiplicación por un escalar usuales en las funciones
con dominio A y valores reales.
Ejemplo 3.14 Sea A = {x | x es elemento del grupo MA0084302}, y f , g ∈ F (A) las funciones
f (x) = matrı́cula de x; g(x) = calificación de x en el primer examen parcial de la materia de álgebra
lineal. Entonces, si la matrı́cula de Liliana es 447021, Liliana obtuvo 10 en el primer examen parcial,
x = Liliana y λ = .5:
( f + g)(x) = f (x) + g(x) = 447021 + 10 = 447031,
(λg)(x) = λg(Liliana) = .5 · 10 = 5.
Es decir, la función f + g es la regla que asigna la suma de la matrı́cula y la calificación del primer
parcial a cada elemento de la clase de álgebra lineal. Mientras que la función λg asigna a cada elemento
de A el producto de λ con su calificación del primer parcial.
Page (PS/TeX): 24 / 134, COMPOSITE
SECCIÓN 3.2
Espacios vectoriales 135
P Nota 3.6 Sean a, b un par de números reales, a < b y A = [a, b], y sea f : A → R una función. La
letra f , en este caso, representa la regla de asociación entre los elementos x de A y los valores asignados
y = f (x). Una ventaja que tienen las funciones de este tipo es que se pueden identificar con un ente
geométrico que es la gráfica de dicha función. En la figura 3-16 se bosqueja (hipotéticamente) la gráfica
de la función f , ella consiste en los pares ordenados (x, f (x)) con x ∈ [a, b]; que al ubicarlos en el plano
cuando x recorre el intervalo [a, b] forman la curva bosquejada en esta figura. Es conveniente que el
lector tenga siempre presente, cuando trabaje con funciones de este tipo, identificar la función con su
gráfica para fines de tener ideas concretas de la misma y no confundir el valor de la función f en x, que
hemos representado como y = f (x), con la propia función f .
f
f (x)
a
b
x
Figura 3-16 • La gráfica de una función se puede identificar con la propia función.
Sean a, b números reales, con a < b y A = [a, b]. Sean f , g : A → R un par de funciones. Entonces
la función f + g evaluada en x ∈ A, es decir, ( f + g)(x), se obtiene sumando los valores de f en x y g
en x. Esto es,7 ( f + g)(x) = f (x) + g(x). La gráfica de f + g se obtiene entonces sumando las “alturas”
f (x) y g(x) en cada x ∈ A y bosquejando el punto (x, f (x) + g(x)) como se muestra en la figura 3-17.
Ası́ podemos pensar, geométricamente, que la función f + g es la correspondiente curva mostrada en
esta figura.
f +g
f
g
f (x)
f (x) + g(x)
g(x)
a
x
b
Figura 3-17 • Las funciones f , g y f + g representadas por sus respectivas gráficas.
17 El lector debe tener mucho cuidado en no confundirse al pensar que ( f + g)(x) = f (x)+ g(x) es “una distribución de un producto
con la suma de números”; pues esta interpretación evidentemente no tiene sentido.
Page (PS/TeX): 25 / 135, COMPOSITE
136 CAPÍTULO 3
Espacios vectoriales
λf
λ f (x)
f
f (x)
a
x
b
Figura 3-18 • Las funciones f y λ f representadas por sus correspondientes gráficas.
De manera análoga, si λ es un número real y f : A → R, la función λ f se evalúa, en cada x ∈ A, mediante
el producto de números reales λ f (x). De esta forma la gráfica de la función λ f se obtiene, a partir de la
gráfica de la función f , multiplicando cada una de las “alturas” f (x) por λ, en cada x ∈ A, y bosquejando
los puntos (x, λ f (x)) como se ilustra en la figura 3-18.
Ejemplo 3.15 (Espacio de funciones) Si A es cualquier conjunto no vacı́o mostrar que F (A), junto con las operaciones dadas en la definición 3.9, es un espacio vectorial; el llamado espacio de las
funciones con dominio A y valores reales.
DEMOSTRACIÓN
Q 1. Claramente, de la definición de suma de funciones:
f , g ∈ F (A) ⇒ f + g ∈ F (A) .
2. Si f , g, h ∈ F (A) y x es cualquier elemento de A,
[ f + (g + h)](x) = f (x) + (g + h)(x) = f (x) + (g(x) + h(x)) = ( f (x) + g(x)) + h(x),
ası́ que,8 f + (g + h) = ( f + g) + h.
3. Si f , g ∈ F (A) y x ∈ A es cualquier elemento, tenemos
( f + g)(x) = f (x) + g(x) = g(x) + f (x) = (g + f )(x),
y, por ende, f + g = g + f .
4. Sea θ : A −→ R la función en F (A), definida como θ(x) = 0 ∀x ∈ A. Entonces, para toda f ∈ F (A)
y para todo x ∈ A:
( f + θ)(x) = f (x) + θ(x) = f (x) + 0 = f (x),
por ende, f + θ = f .
18 Aquı́ hemos utilizado los hechos de que f (x), g(x), h(x) son números reales y en éstos hay asociatividad. El lector debe notar
que en el transcurso de esta demostración utilizaremos las propiedades de los números reales y que los valores de las funciones
son también reales.
Page (PS/TeX): 26 / 136, COMPOSITE
Espacios vectoriales 137
SECCIÓN 3.2
5. Si f ∈ F (A), sea − f : A −→ R la función definida, para cada x ∈ A, como (− f )(x) = − f (x).
Entonces
( f + (− f ))(x) = f (x) + (− f )(x) = f (x) + (− f (x)) = f (x) − f (x) = 0 = θ(x),
∀x ∈ A; es decir, f + (− f ) = θ.
6. Claramente, λ f ∈ F (A) ∀ f ∈ F (A) y ∀λ ∈ R.
7. Si λ, β ∈ R y f ∈ F (A), para cada x ∈ A,
(λ(β f ))(x) = λ(β f )(x) = λ(β f (x)) = (λβ) f (x),
de donde λ(β f ) = (λβ) f .
8. ∀λ ∈ R, ∀ f , g ∈ F (A) y para cada x ∈ A:
[λ( f + g)](x) = λ( f + g)(x) = λ( f (x) + g(x)) = λ f (x) + λg(x) = (λ f + λg)(x);
es decir, λ( f + g) = λ f + λg.
9. Si λ, β ∈ R y f ∈ F (A), para todo x ∈ A,
((λ + β) f )(x) = (λ + β) f (x) = λ f (x) + β f (x) = (λ f + β f )(x),
lo que implica (λ + β) f = λ f + β f .
10. Si f ∈ F (A), para todo x ∈ A,
(1 f )(x) = 1 f (x) = f (x),
es decir, 1 f = f .
Q
f
θ
a
b
a
b
−f
(i)
(ii)
Figura 3-19 • (i) El espacio vectorial F ([a, b]) consta de todas las funciones cuya gráfica está contenida en la
franja (x, y) con x ∈ [a, b] y y ∈ R, es decir, la franja [a, b] × R. (ii) El neutro aditivo de este espacio, θ , es la función
constante cero (θ (x) = 0 ∀x ∈ [a, b]), cuya gráfica se encuentra en color rojo; y el inverso aditivo de una función f
se encuentra reflejando su gráfica sobre el eje x.
Cuando A = [a, b] es un intervalo, F (A) es el conjunto de todas las funciones cuya gráfica está contenida en la franja [a, b] × R. En la figura 3-19(i) hemos bosquejado algunos de sus elementos. En la
Page (PS/TeX): 27 / 137, COMPOSITE
138 CAPÍTULO 3
Espacios vectoriales
misma figura 3-19(ii) ilustramos la interpretación geométrica del neutro aditivo θ, la función constante
cero (en rojo) del espacio F ([a, b]). También en esta última figura hemos bosquejado el inverso aditivo
para una función dada f ; el cual se obtiene gráficamente reflejando sobre el eje x la gráfica de la función
f , como el lector fácilmente puede comprobar por sı́ mismo recordando la interpretación dada en la
figura 3-17 para la suma usual de funciones.
P Nota 3.7 Cabe hacer notar que la demostración de que F (A) sea un espacio vectorial no depende
de las caracterı́sticas del conjunto A, sino del hecho de que sus elementos son funciones con valores en
R y de que los números reales tienen estructura de espacio vectorial. Por ende, si sustituimos R por un
espacio vectorial arbitrario, F (A) seguirá siendo un espacio vectorial. Lo mismo sucede si ponemos
cualquier conjunto concreto en lugar de A.
3.2.2 Propiedades elementales de los espacios vectoriales
Como ya mencionamos al principio de esta sección, trabajaremos con un espacio vectorial abstracto para
establecer propiedades que se infieran únicamente de los diez axiomas de espacio vectorial dados en la
definición 3.6, y entonces estas deducciones serán válidas para cualquier espacio vectorial concreto.
Llevaremos esto a cabo a través de lo que resta de este libro y no volveremos a hacer más énfasis en esta
estrategia natural. Las primeras propiedades quedan establecidas en el siguiente teorema.
Teorema 3.4 (Propiedades elementales de espacio vectorial) Sea E un espacio vectorial. Entonces:
1. 0E es único. Es decir, sólo existe un elemento en E que al sumarlo con cualquier otro elemento
del espacio da como resultado este último.
2. −u es único para cada u ∈ E. Esto es, cada elemento del espacio tiene exactamente un inverso
aditivo.
3. u +v = u + w ⇒v = w. A esta propiedad se le llama ley de cancelación.
4. 0u = 0E para todo u ∈ E.
5. λ0E = 0E
∀λ ∈ R.
6. (−1)u = −u
7. u +u = 2u
∀u ∈ E.
∀u ∈ E.
8. Si n es un entero, u +u +
· · · +u = nu
∀u ∈ E.
n
9. Si α ∈ R y u ∈ E, entonces
αu = 0E ⇔ α = 0 o
DEMOSTRACIÓN
u = 0E .
Q 1. Sea ϕ ∈ E tal que u + ϕ = u ∀ u ∈ E, entoces ϕ = 0E + ϕ = 0E ; por tanto, ϕ = 0E .
2. Si u ∈ E y u1 ∈ E satisface u +u1 = 0E , entonces
u1 = u1 +0E = u1 + (u + (−u)) = (u1 +u) + (−u) = 0E + (−u) = −u.
Page (PS/TeX): 28 / 138, COMPOSITE
SECCIÓN 3.2
3.
u +v
((−u) +u) +v
0E +v
v
Espacios vectoriales 139
= u + w ⇒
= ((−u) +u) + w ⇒
= 0E + w ⇒
= w.
4. 0u = (0 + 0)u = 0u + 0u, y ya que 0u = 0u +0E , tenemos
0E + 0u = 0u + 0u;
de la propiedad (3) se tiene 0E = 0u.
5. λ0E = λ(00E ) = (λ · 0)0E = 00E = 0E .
6. u + (−1)u = (1 + (−1))u = 0u = 0E , y dado que −u es único, −1u = −u.
7. u +u = (1 + 1)u = 2u.
8. Análoga a la anterior.
9. Se deja de ejercicio al lector. Q
3.2.3 Subespacios vectoriales
Aunque hemos visto varios ejemplos de espacios vectoriales, éstos han sido muy generales y, por lo
mismo, demasiado “grandes” para ser útiles. En realidad, estaremos interesados en subconjuntos particulares de estos espacios que, junto con las mismas operaciones, sean también espacios vectoriales, a
los cuales llamaremos subespacios vectoriales y a su estudio está dedicado este apartado.
Definición 3.10 Sean E un espacio vectorial y S un subconjunto no vacı́o de E. S es un subespacio
vectorial de E, o simplemente un subespacio de E, si S, con las mismas operaciones suma y producto por un escalar restringidas a los elementos de S, es también un espacio vectorial. Usaremos la
notación S < E para indicar que S es un subespacio de E.
Para probar que S < E, se debe mostrar que los elementos de S con la suma y el producto por un
escalar definidos en E satisfacen los diez axiomas de la definición 3.6 de espacio vectorial; sin embargo,
si reflexionamos un poco, vemos que las propiedades de asociatividad para la suma y el producto por
un escalar, las de distributividad, conmutatividad y preservación de la escala son propiedades que se
heredan de E; esto es, puesto que se cumplen para todos los elementos de E y S ⊂ E, también son
válidas para todos los vectores de S. Luego, resta sólo probar que la suma y el producto por un escalar
son operaciones cerradas en S, 0E ∈ S y que para cada u ∈ S, −u también pertenece a S. Pero si la
/ y
multiplicación por escalares es cerrada en S, u ∈ S ⇒ −u = (−1)u ∈ S; también, dado que S = 0,
0u = 0E , se tiene que 0E ∈ S. Con esto hemos demostrado el siguiente teorema.
Teorema 3.5 Sea S un subconjunto de un espacio vectorial E. Para que S sea un subespacio vectorial
de E es necesario y suficiente que se cumplan las siguientes tres condiciones:
1.
2.
3.
0E ∈ S.
u +v ∈ S ∀u,v ∈ S.
λu ∈ S ∀λ ∈ R, ∀u ∈ S.
Page (PS/TeX): 29 / 139, COMPOSITE
140 CAPÍTULO 3
Espacios vectoriales
Ejemplo 3.16 Es claro que si E es un espacio vectorial, entonces E y {0E } son subespacios de E.
P Nota 3.8 Es costumbre llamar a E y {0E } los subespacios triviales del espacio vectorial E; y si
S < E no es E, se dice que S es un subespacio propio de E.
Ejemplo 3.17 Sea S = {u ∈ R2 |u = (x, 2x); x ∈ R}. Entonces:
1. 0R2 = (0, 0) = (0, 2 · 0) ∈ S.
2. Si u,v ∈ S, u = (x, 2x), v = (y, 2y); ası́ que
u +v = (x, 2x) + (y, 2y) = (x + y, 2x + 2y) = (x + y, 2(x + y)) ∈ S.
3. Si λ ∈ R y v = (x, 2x) ∈ S, λu = λ(x, 2x) = (λx, λ2x) = (λx, 2(λx)) ∈ S.
De 1, 2 y 3, S < R2 . Geométricamente, S es la lı́nea recta con pendiente 2 que pasa por el origen.
De hecho, toda lı́nea recta que pasa por el origen es un subespacio de R2 . Inversamente no es difı́cil
probar, lo cual hará el lector en los ejercicios, que todo subespacio propio de R2 es geométricamente
una lı́nea recta que pasa por el origen o el subespacio trivial {(0, 0)}.
Ejemplo 3.18 Cualquier plano que contiene al origen y las lı́neas rectas que pasan por el mismo son
subespacios de R3 (véase la figura 3-20). Más aún, los únicos subespacios no triviales de R3 son estos
conjuntos. (Demuéstrelo.)
S
λw
w
u
u +
v
v
Figura 3-20 • En un plano S que pasa por el origen, la suma de los vectores contenidos en él pertenece a este plano
y la multiplicación de los vectores de este plano por escalares sigue perteneciendo a dicho plano. Ası́, un plano que
pasa por el origen es un subespacio de R3 .
Ejemplo 3.19 Sean a, b, c números reales dados y S = {(x, y, z) ∈ R3 |ax + by + cz = 0}. Es decir, S
es un plano que pasa por el origen con ecuación ax + by + cz = 0.
1. Claramente (0, 0, 0) ∈ S.
2. Si (x1 , y1 , z1 ) , (x2 , y2 , z2 ) ∈ S, entonces ax1 + by1 + cz1 = 0, ax2 + by2 + cz2 = 0 y
(x1 , y1 , z1 ) + (x2 , y2 , z2 ) = (x1 + x2 , y1 + y2 , z1 + z2 );
Page (PS/TeX): 30 / 140, COMPOSITE
SECCIÓN 3.2
Espacios vectoriales 141
luego,
a(x1 + x2 ) + b(y1 + y2 ) + c(z1 + z2 ) = ax1 + by1 + cz1 + ax2 + by2 + cz2
= 0 + 0 = 0.
Por tanto, (x1 , y1 , z1 ) + (x2 , y2 , z2 ) ∈ S.
3. Si λ ∈ R, y u = (x1 , y1 , z1 ) ∈ S, λu = (λx1 , λy1 , λz1 ); entonces
a(λx1 ) + b(λy1 ) + c(λz1 ) = λ(ax1 + by1 + z1 )
= λ · 0 = 0.
Por ende, λu ∈ S.
De 1, 2 y 3, S < R3 .
P Nota 3.9 Observe que un plano S que no pasa por el origen no es un subespacio de R3 , como se
hace patente en la figura 3-21.
λw
S
u +
v
w
u
v
Figura 3-21 • En un plano S que no pasa por el origen 0Rn ∈
/ S, la suma de vectores contenidos en él no pertenece
a este plano y la multiplicación de vectores de este plano por escalares tampoco pertenece necesariamente a dicho
plano. Ası́, un plano que no pasa por el origen no es un subespacio de R3 .
Ejemplo 3.20 (Espacio solución, espacio nulo) Si A ∈ Mm×n , el conjunto, S, de vectoresx en Rn que
es solución del sistema homogéneo Ax = 0Rm es un subespacio de Rn , llamado el subespacio solución
de dicho sistema o el espacio nulo de la matriz A.
DEMOSTRACIÓN
Q 1. A0Rn = 0Rm , por tanto, 0Rn ∈ S.
2. Si x, y ∈ S, Ax = 0Rm y Ay = 0Rm , por tanto, A(x +y) = Ax + Ay = 0Rm . Ası́, x +y ∈ S.
3. Si λ ∈ R y x ∈ S, Ax = 0Rm . Entonces A(λx) = λ(Ax) = λ0Rm = 0Rm , por ende, λx ∈ S.
Page (PS/TeX): 31 / 141, COMPOSITE
Q
142 CAPÍTULO 3
Espacios vectoriales
−1
1
2
1
Figura 3-22 • Este espacio consta de todas las funciones cuyas gráficas pasan por el punto (1/2, 0) y están contenidas en la franja [−1, 1] × (−∞, ∞).
Ejemplo 3.21 (Espacio de polinomios de grado menor o igual a k). Sea P el espacio de polinomios
del ejemplo 3.11 (pág. 133), y sean k un entero positivo y
Pk = {p ∈ P | p tiene grado ≤ k o es el polinomio constante cero} .
Entonces, ya que por su definición contiene al cero de P, la suma de dos polinomios de grado a lo más k
tiene grado menor o igual a k, y el producto de un polinomio en este conjunto por un escalar tiene grado
igual a k o es el polinomio cero, Pk < P.
Ejemplo 3.22 Si E = { f : [−1, 1] → R | f (1/2) = 0}, mostrar que, con la suma y el producto por un
escalar usuales en las funciones, E es un espacio vectorial (véase la figura 3-22).
DEMOSTRACIÓN
Q En efecto, ya que E ⊂ F ([−1, 1]) y éste es un espacio vectorial con las operaciones usuales, basta
probar que E < F ([−1, 1]).
1. θ : [−1, 1] → R, θ(x) = 0 ∀x ∈ [−1, 1], en particular θ(1/2) = 0; por tanto θ ∈ S.
2. Si f , g ∈ E, f (1/2) = 0, g(1/2) = 0; luego ( f + g)(1/2) = f (1/2) + g(1/2) = 0 + 0 = 0. Ası́ que
f + g ∈ E.
3. Si λ ∈ R y f ∈ E, entonces f (1/2) = 0 y (λ f )(1/2) = λ f (1/2) = λ · 0 = 0; por tanto λ f ∈ E.
De 1, 2 y 3, E < F ([−1, 1]).
Q
Ejemplo 3.23 (Espacio de funciones continuas). Dado que la función cero es una función continua,
la suma de funciones continuas y el producto de un escalar por una función continua dan como resultado
también funciones continuas, se tiene que
C[a, b] = { f : [a, b] −→ R | f es continua}
es un subespacio vectorial de F ([a, b]); y por tanto, un espacio vectorial.
Ejemplo 3.24 De manera análoga, el lector puede probar que9
C1 [a, b] = { f : [a, b] −→ R | f es derivable con continuidad en [a, b]}
es un espacio vectorial con las operaciones usuales en el espacio de funciones.
19 La continuidad y la derivabilidad en los extremos a y b se sobreentiende que es continuidad y derivabilidad por la derecha y por
la izquierda, respectivamente.
Page (PS/TeX): 32 / 142, COMPOSITE
SECCIÓN 3.2
Espacios vectoriales 143
Ejemplo 3.25 (Espacio de matrices simétricas). Sea Mn el espacio vectorial de las matrices cuadradas de orden n con las operaciones usuales. Y sea S el subconjunto de matrices simétricas de tamaño
n × n. Demostrar que S es un subespacio de Mn .
DEMOSTRACIÓN
Q 1. Claramente la matriz cero de orden n es simétrica.
2. Sean A, B ∈ S, entonces At = A y B t = B. Luego, por la tercera propiedad de las matrices (cfr.
pág. 10),
(A + B)t = At + B t = A + B;
por lo que A + B ∈ S.
3. Si A ∈ S y λ ∈ R, claramente (λA)t = λAt . Por tanto, ya que A ∈ S,
(λA)t = λAt = λA;
por lo que λA ∈ S.
De 1, 2 y 3 se concluye que S es un subespacio vectorial de Mn .
Q
3.2.4 Combinaciones lineales y subespacios generados
Supongamos que tenemos un par de vectores no colineales u yv en R3 y se multiplican, respectivamente,
por los escalares λ y β. El vector resultante, λu + βv, está en el plano que pasa por el origen y contiene
a estos dos vectores; es decir, el plano que contiene a 0, u, v, el cual es un subespacio de R3 pues es un
plano que pasa por el origen (cfr. ejemplos 3.18 y 3.19 pág. 140). Generalizamos a continuación esta
idea.
Definición 3.11 Si E es un espacio vectorial y u1 ,u2 , . . . ,uk ∈ E, a todo vector de la forma
v = a1u1 + a2u2 + · · · + akuk , donde a1 , a2 , . . . , ak ∈ R, se le llama combinación lineal de u1 ,u2 , . . . ,uk .
Ejemplo 3.26 Determinar si el vector u = (7, 1, 16) es combinación lineal de los vectores u1 =
(−1, 2, 2) y u2 = (3, −1, 4).
Solución
Veamos si es posible encontrar a1 , a2 ∈ R tales que u = a1u1 + a2u2 ; esto es,
(7, 1, 16) = a1 (−1, 2, 2) + a2 (3, −1, 4)
= (−a1 + 3a2 , 2a1 − a2 , 2a1 + 4a2 ) .
Entonces, se debe tener
−a1 + 3a2 = 7,
2a1 − a2 = 1,
2a1 + 4a2 = 16.
Page (PS/TeX): 33 / 143, COMPOSITE
144 CAPÍTULO 3
Espacios vectoriales
Resolvamos este sistema:
⎤
⎤ ⎡
−1 3 7
−1
3 7
⎣ 2 −1 1 ⎦ ∼ ⎣ 0 5 15 ⎦
0 10 30
2
4 16
⎤
⎡
−1 3 7
∼ ⎣ 0 5 15 ⎦ ;
0 0 0
⎡
por tanto,
a1
a2
=
2
3
.
Con lo que u sı́ es combinación lineal de u1 y u2 :
u = 2u1 + 3u2 .
Comprobación:
2u1 + 3u2 = 2 (−1, 2, 2) + 3 (3, −1, 4)
= (7, 1, 16)
= u.
Teorema 3.6 (Subespacios generados) Sean E un espacio vectorial y u1 , u2 ,. . . , uk vectores de E.
Entonces
S = {u ∈ E |u es combinación lineal de u1 ,u2 , . . . ,uk }
es un subespacio vectorial de E.
DEMOSTRACIÓN
Q 1. 0E = 0 ·u1 + 0 ·u2 + · · · + 0 ·uk ∈ S.
2. Si u,v ∈ S, entonces existen a1 , a2 , . . . , ak , b1 , b2 , . . . , bk ∈ R tales que:
u = a1u1 + a2u2 + · · · + akuk ,
v = b1u1 + b2u2 + · · · + bkuk .
Luego,
u +v =
k
k
i=1
i=1
∑ aiui + ∑ biui
= (a1 + b1 )u1 + (a2 + b2 )u2 + · · · + (ak + bk )uk ;
de donde u +v ∈ S.
3. Si λ ∈ R y u ∈ S, entonces, para ciertos ai , i = 1, 2, . . . , k,
u = a1u1 + a2u2 + · · · + akuk .
Page (PS/TeX): 34 / 144, COMPOSITE
SECCIÓN 3.2
Espacios vectoriales 145
Luego,
λu = λ (a1u1 + a2u2 + · · · + akuk )
= (λa1 )u1 + (λa2 )u2 + · · · + (λak )uk ;
por lo que λu ∈ S.
De 1, 2 y 3, S < E. Q
Definición 3.12 (Subespacio generado por vectores) Sean E un espacio vectorial y u1 ,u2 , . . . ,uk
vectores en E. Al subespacio vectorial de E,10 de todas las combinaciones lineales de estos vectores,
se le denota como
gn (u1 ,u2 , . . . ,uk )
y se llama el subespacio generado por los vectores u1 ,u2 , . . . ,uk .
Ejemplo 3.27 Sea el espacio vectorial S = gn(sen2 x, cos2 x), determinar si cos(2x) ∈ S.
Solución
cos(2x) = cos2 x − sen2 x = (1) cos2 x + (−1) sen2 x. Por tanto, cos 2x ∈ S.
Ejemplo 3.28 ¿ 2x2 − 3x + 1 ∈ gn(2, 1 − x, x2 )?
Solución
Encontremos a1 , a2 , a3 ∈ R tales que
a1 · 2 + a2 (1 − x) + a3 (x2 ) = 2x2 − 3x + 1 .
Entonces, al reducir,
(2a1 + a2 ) − a2 x + a3 x2 = 2x2 − 3x + 1.
Y puesto que dos polinomios son iguales si los coeficientes de las mismas potencias de x son iguales,11
se tiene
2a1 + a2 = 1,
−a2 = −3,
a3 = 2;
de donde a1 = −1, a2 = 3, a3 = 2. Por tanto, 2x2 − 3x + 1 ∈ gn(2, 1 − x, x2 ).
Ejemplo 3.29 Determinar qué subespacio de las matrices cuadradas de orden 2 es
gn
1 0
0 0
0 1
0 0
,
,
1 0
0 1
1Por el teorema 3.6 este conjunto es efectivamente un subespacio vectorial.
1Dos polinomios p(x) = ∑mk=0 ak xk y q(x) = ∑mk=0 bk xk son iguales si ak = bk para cada k = 0, 1, . . . , m.
10
11
Page (PS/TeX): 35 / 145, COMPOSITE
146 CAPÍTULO 3
Espacios vectoriales
Solución
Toda matriz en este subespacio tiene la forma
1
0
a
0
0
+c
0 1
1 0
+d
0 0
0 1
=
a c
c d
, a, c, d ∈ R,
que es una matriz simétrica. Es fácil probar que, inversamente, toda matriz simétrica 2 × 2 es de esta forma (pruébelo). Luego, el espacio generado por estas matrices es el subespacio de las matrices simétricas
cuadradas de orden 2 (cfr. ejemplo 3.25). Ejemplo 3.30 En P, el espacio de polinomios, si S = gn(1, x, x2 , x3 ), entonces S = P3 (polinomios de
grado a lo más tres y el polinomio constante cero); pues todo elemento de P3 tiene la forma
a0 + a1 x + a2 x2 + a3 x3 = a0 · 1 + a1 · x + a2 · x2 + a3 · x3 ∈ S,
para ciertos ai ∈ R, i = 0, 1, 2, 3.
Espacio fila y espacio columna de una matriz
Definición 3.13 Si A ∈ Mm×n , se define el espacio fila de A como el subespacio de Rn generado por
las m-filas de A; y al subespacio de Rm , generado por las n-columnas de A, se le llama el espacio
columna de A. Al espacio fila y al espacio columna se les denotará, en este libro, como E f (A) y
Ec (A), respectivamente.
⎡
3
Ejemplo 3.31 Si ⎣ 2
0
⎤
−1 2 0
−1 3 4 ⎦ ∈ M3×4 ,
1 2 3
E f (A) = gn((3, −1, 2, 0), (2, −1, 3, 4), (0, 1, 2, 3)) ,
Ec (A) = gn((3, 2, 0), (−1, −1, 1)(2, 3, 2), (0, 4, 3)) .
Teorema 3.7 Sea A ∈ Mm×n , entonces b ∈ Ec (A) ⇔ el sistema Ax = b tiene solución.
DEMOSTRACIÓN
Q Supongamos que
⎡
⎢
⎢
A=⎢
⎣
a11
a21
..
.
a2
a22
..
.
···
···
..
.
a1n
a2n
..
.
am1
am2
···
amn
⎤
⎥
⎥
⎥.
⎦
Entonces b ∈ Ec (A) si y sólo si existen x1 , x2 , . . . , xn ∈ R tales que
⎡
⎢
b = x1 ⎢
⎢
⎣
a11
a21
..
.
am1
Page (PS/TeX): 36 / 146, COMPOSITE
⎤
⎡
⎥
⎢
⎥
⎢
⎥ + x2 ⎢
⎦
⎣
a12
a22
..
.
am2
⎤
⎡
⎥
⎢
⎥
⎢
⎥ + · · · + xn ⎢
⎦
⎣
a1n
a2n
..
.
amn
⎤
⎥
⎥
⎥
⎦
SECCIÓN 3.2
Espacios vectoriales 147
y la última igualdad se da si y sólo si12
⎡
⎢
b = ⎢
⎢
⎣
a11
a21
..
.
a2
a22
..
.
···
···
..
.
a1n
a2n
..
.
am1
am2
···
amn
es decir, si y sólo si el sistema Ax = b tiene solución.
⎤⎡
⎥⎢
⎥⎢
⎥⎢
⎦⎣
⎤
x1
x2
..
.
⎥
⎥
⎥;
⎦
xn
Q
Criterio para determinar si un vector en Rn es combinación lineal de otros vectores
Podemos utilizar el teorema 3.7 para determinar si un vector dado, b, es combinación lineal de los vectores u1 ,u2 , . . . ,uk en Rn (lo cual equivale a que b pertenezca al subespacio generado por estos vectores)
de la siguiente manera:
1. Se forma la matriz cuyas columnas son los vectores u1 ,u2 , . . . ,uk .
2. Se resuelve el sistema Ax = b (por el método de Gauss, de preferencia).
3. Si este sistema tiene solución x = (a1 , a2 , . . . , ak ), entonces b pertenece al subespacio generado por
los vectores ui (es combinación lineal de ellos), y además
b = a1u1 + a2a2 + · · · + akuk .
4. Si el sistema Ax = b es inconsistente, entonces b no es combinación lineal de los vectores ui
(b ∈
/ gn(u1 ,u2 , . . . ,uk )).
Ejemplo 3.32 Determinar si b = (2, 6, 1) pertenece al espacio generado por u1 = (1, 2, 3), u2 =
(−2, −5, 2), u3 = (1, 2, −1). En caso afirmativo, hallar a1 , a2 , a3 , tales que b = a1u1 + a2u2 + a3u3 .
Resolvamos el sistema
Solución
⎤⎡
⎤ ⎡ ⎤
x1
1 −2
1
2
⎣ 2 −5
2 ⎦ ⎣ x2 ⎦ = ⎣ 6 ⎦
3
2 −1
1
x3
⎡
por el método de Gauss:
⎡
1
⎣ 2
3
−2
−5
2
1
2
−1
⎤ ⎡
1
2
6 ⎦∼⎣ 0
0
1
−2
−1
8
1
0
−4
⎤ ⎡
1
2
2 ⎦∼⎣ 0
0
−5
−2
−1
0
1
0
−4
⎤
2
2 ⎦.
11
Como el sistema es consistente, b ∈ gn(v1 ,v2 ,v3 ) y, al hacer sustitución regresiva, a3 = −11/4, a2 = −2,
a1 = 3/4; esto es,
b = (3/4)u1 − 2u2 + (−11/4)u3 .
1Cfr. (1.5) del ejemplo 1.15, de la página 12.
12
Page (PS/TeX): 37 / 147, COMPOSITE
148 CAPÍTULO 3
Espacios vectoriales
Generadores de un espacio
Definición 3.14 Sean E un espacio vectorial y u1 ,u2 , . . . ,uk ∈ E. Los vectores u1 , u2 , . . . , uk generan
a E si todo elemento de E es combinación lineal de estos vectores; i.e., E = gn(u1 ,u2 , . . . ,uk ). En tal
caso, se dice que los vectores ui forman un conjunto de generadores para este espacio vectorial.
Ejemplo 3.33 Sea
a b
c d
a b
c d
∈ M2 cualquier matriz. Entonces
=a
1 0
0 0
+b
0 1
0 0
+c
0 0
1 0
+d
0 0
0 1
.
Luego
M2 = gn
1 0
0 0
0 1
0 1
0
,
,
,
0 0
0 0
0
0
1
.
Ejemplo 3.34 (Generadores del espacio Mm×n ). En general, si Mm×n es el espacio vectorial de las
matrices de tamaño m × n, entonces las mn matrices definidas en este espacio como Mαβ = [mi j ], 1 ≤
α ≤ m, 1 ≤ β ≤ n, donde
mi j =
1
si i = α, j = β,
0
en otro caso;
0 1 0
en las matrices de tamaño 2 × 3) generan al espacio13 Mm×n . Lo cual
0 0 0
es fácil de probar y se deja como ejercicio al lector.
(por ejemplo M12 =
Ejemplo 3.35 Sean los vectores ei del espacio Rn definidos como
i
ei = (0, . . . , 0, 1, 0, . . . , 0)
n
para i = 1, 2, . . . , n. Entonces, si u = (x1 , x2 , . . . , xn ) ∈ Rn , se tiene
u = x1e1 + x2e2 + · · · + xnen .
Ası́ que los vectores ei , i = 1, 2, . . . , n, generan a Rn ; esto es,
Rn = gn (e1 ,e2 , . . . ,en ) .
Por ejemplo, si n = 3, R3 = gn ((1, 0, 0) , (0, 1, 0) , (0, 0, 1)).
1De aquı́ en adelante supondremos que los espacios con los que se trabaje en este libro estarán dotados de las operaciones usuales
que hemos definido en cada caso, a menos que se especifique lo contrario.
13
Page (PS/TeX): 38 / 148, COMPOSITE
SECCIÓN 3.2
Espacios vectoriales 149
Criterios para que k vectores en Rn generen a Rn
Supongamos que se tienen n vectores ui de Rn . Sabemos por el teorema 3.7, o del criterio que después
de él se da (cfr. pág. 147), que todo vector b ∈ Rn es combinación lineal de los vectores ui si y sólo si
el sistema Ax = b, donde A es la matriz cuyas columnas son los vectores ui , tiene solución para todo
b ∈ Rn . Pero, por el teorema 2.3 de la sección 2.1.2 (cfr. pág. 67), el sistema Ax = b tiene solución para
todo b si y sólo si la matriz A es invertible.14 Con esto hemos probado el siguiente teorema.
Teorema 3.8 n-vectores de Rn generan a Rn si y sólo si la matriz que tiene a estos vectores como
columnas es invertible.
Ejemplo 3.36 Determinar si los vectores (1, −2, 3), (2, −1, 4) y (−1, 1, 0) generan a R3 .
Por el teorema anterior, tres vectores generan a R3 si y sólo si la matriz que tiene a éstos
como columnas es invertible; pero sabemos que una matriz es invertible si y sólo si es equivalente a
la identidad (cfr. teorema 2.3, pág. 67). Llevemos esta matriz a la forma escalonada, por el método de
Gauss, para ver si es o no equivalente a la identidad:
Solución
⎤ ⎡
1
1
2 −1
1 ⎦∼⎣ 0
A = ⎣ −2 −1
0
3
4
0
⎤
⎡
1 2 −1
∼ ⎣ 0 3 −1 ⎦ .
0 0
7
⎡
⎤
2 −1
3 −1 ⎦
−2
3
Dado que la última matriz tiene pivote en todas las columnas, se sigue que A es equivalente a la identidad.
Luego los vectores (1, −2, 3), (2, −1, 4) y (−1, 1, 0) generan a R3 . Supongamos ahora que tenemos k vectores en Rn con k < n (por ejemplo tres vectores en R4 ). Para
que estos vectores generen a Rn , por el criterio de la página 148, es necesario y suficiente que el sistema
Ax =b tenga solución para todo b ∈ Rn , donde A es la matriz que tiene como columnas a estos vectores.
Sin embargo, al llevar A a su forma escalonada reducida, puesto que k < n, la última fila de esta forma
escalonada reducida tiene necesariamente todas sus componentes nulas (piense por ejemplo, para fijar
ideas, en una matriz 3 × 2). Sea Fi la fila de la matriz A que se transformó en la última fila nula de la
i
forma escalonada reducida de la matriz A; tomemos el vector b = (0, . . . , 0, 1, 0, . . . , 0) ∈ Rn , entonces el
sistema Ax = b será inconsistente. Luego b no puede ser combinación lineal de los vectores columna de
A. Ası́ que dichos vectores no generan a Rn . Con esta discusión hemos probado el siguiente teorema.
Teorema 3.9 k vectores en Rn , con k < n, no generan a Rn .
Ejemplo 3.37 Los vectores (1, 2, −1, 4), (−1, 2, 1, 0), (0, 1, 3, 1) no generan a R4 .
1Recuerde que, a su vez, una matriz es invertible si y sólo si es equivalente a la identidad.
14
Page (PS/TeX): 39 / 149, COMPOSITE
150 CAPÍTULO 3
Espacios vectoriales
Tenemos un tercero y último caso para que k vectores generen a Rn cuando k > n. Nuevamente, estos
vectores generan este espacio si y sólo si el sistema Ax = b tiene solución para todo b ∈ Rn , donde A,
como antes, es la matriz que tiene por columnas a dichos vectores. Pensemos en la forma escalonada
reducida, H, de A y supongamos que tiene n pivotes (por tanto, cualquier forma escalonada equivalente
a A tendrá también n pivotes). Entonces, puesto que k > n, esta forma escalonada no puede tener filas
nulas; de aquı́ que el sistema Ax = b es consistente para todo b. Además, dicho sistema tiene por tanto
k − n variables libres (las columnas donde no hay pivote) independientemente del vector b, y dado que
pueden tomar cualquier valor, en particular podemos elegir que todas sean cero. Por ende, todo vector b
es combinación lineal de los vectores columna de la matriz A que corresponden a columnas con pivote15
en H. Es decir, Rn está generado por los vectores columna de A que correspondan a columnas con pivote
en cualquier forma escalonada equivalente a la matriz A. Por otra parte, si una forma escalonada (y, por
tanto, cualquier otra forma escalonada U ∼ A) equivalente a la matriz A no tiene n pivotes, entonces,
dado que k > n (piense por ejemplo en una matriz 3 × 4), esta forma escalonada equivalente tiene por lo
menos una fila nula; y por el mismo argumento dado en las demostraciones de los teoremas 3.8 y 3.9, el
sistema Ax =b es inconsistente para ciertos vectores b, por lo que los vectores columna de A no generan
a Rn . Hemos probado ası́ el siguiente teorema.
Teorema 3.10 k-vectores de Rn , con k > n, generan a Rn si y sólo si una forma escalonada equivalente de la matriz A, cuyas columnas son estos vectores, tiene n pivotes.16 Si éste es el caso, podemos
suprimir aquellos vectores de A que correspondan a columnas de la forma escalonada que no tengan
pivote; los vectores restantes generarán a Rn .
Ejemplo 3.38 Sean v1 = (1, 2, 0), v2 = (1, 1, 1), v3 = (1, 4, −2), v4 = (2, 3, 2).
1. Determinar si los vectores v1 ,v2 ,v3 ,v4 generan a R3 .
2. En caso afirmativo, reducir a un mı́nimo el número de generadores.
Solución
1. Formamos la matriz que tiene como columnas a estos vectores y la llevamos a la forma
escalonada:
⎡
1 1
1
⎣ 2 1
4
0 1 −2
⎤ ⎡
1
2
3 ⎦∼⎣ 0
0
2
⎤ ⎡
1
1
1
1
2
−1
2 −1 ⎦ ∼ ⎣ 0 −1
0
0
1 −2
2
⎤
1
2
2 −1 ⎦ .
0
1
Como hay tres pivotes, v1 ,v2 ,v3 ,v4 generan a R3 .
2. De la matriz original, excluimos el vector columna que corresponde en la forma escalonada a la
columna que no tiene pivote. Por tanto, R3 = gn(v1 ,v2 ,v4 ). 1Por ejemplo, si las últimas k − n variables son libres y ui son los n primeros vectores columna de A, en este caso se tendrı́a
15
k−n
b = ∑ni=1 xiui = Ax, donde x = (x1 , x2 , . . . , xn , 0, . . . , 0) es la solución de este sistema para las variables libres que hemos elegido.
16
1Recuerde que todas las matrices en forma escalonada equivalentes a la matriz A tienen el mismo número de pivotes y que éstos
se encuentran en las mismas posiciones (cfr. nota 1.5, pág. 29).
Page (PS/TeX): 40 / 150, COMPOSITE
SECCIÓN 3.3
Dependencia e independencia lineal 151
3.3 Dependencia e independencia lineal
Un concepto clave, estrechamente relacionado con el de combinación lineal, es el de dependencia e
independencia lineal de vectores. En la figura 3-23 tenemos tres casos en el plano cartesiano. En (a), un
vector es múltiplo escalar del otro y, por tanto, combinación lineal del primero. En (b) ningún vector se
puede escribir como combinación lineal del otro. Y en (c) w = αu + βv; es decir, uno de los vectores
es combinación lineal de los otros. Se dice entonces que los vectores en (a) y (c) son linealmente
dependientes, mientras que en (b) son linealmente independientes.
w
v = λu
αu
u
u
v
u
v
(a)
(b)
βv
(c)
Figura 3-23 • Tres casos representativos de dependencia lineal en R2 : (a) vectores linealmente dependientes;
(b) vectores linealmente independientes, y (c) vectores linealmente dependientes.
Generalizamos el concepto de dependencia e independencia lineal a cualquier espacio vectorial en
la siguiente definición:
Definición 3.15 Sean E un espacio vectorial y u1 , u2 , . . . ,uk , k vectores en E. Se dice que estos vectores son linealmente dependientes (L.D.) si uno de ellos es combinación lineal de los otros. En caso
contrario diremos que los vectores son linealmente independientes (L.I.).17
Supongamos que los vectores ui ∈ E, i = 1, 2, . . . , k, son linealmente dependientes. Entonces uno de ellos
es combinación lineal de los otros, digamos ui . Por tanto, existen escalares α j tales que
ui = α1u1 + · · · + αi−1ui−1 + αi+1ui+1 + · · · + αkuk ;
de aquı́ que
α1u1 + · · · + αi−1ui−1 + (−1)ui + αi+1ui+1 + · · · + αkuk = 0E
y uno, por lo menos, de los coeficientes de los u j es distinto de cero (especı́ficamente el coeficiente de ui
que es −1). Inversamente, supongamos que existen escalares α j , j = 1, 2, . . . k, con uno de ellos distinto
de cero, tales que
α1u1 + · · · + αi−1ui−1 + αiui + αi+1ui+1 + · · · + αkuk = 0E .
1Abreviaremos linealmente independientes como L.I. y linealmente dependientes como L.D. a lo largo de todo este libro.
17
Page (PS/TeX): 41 / 151, COMPOSITE
152 CAPÍTULO 3
Espacios vectoriales
Digamos que αi es uno de estos coeficientes no nulos; entonces
ui = − (α1 /αi )u1 − · · · − (αi−1 /αi )ui−1 − (αi+1 /αi )ui+1 − · · · − (αk /αi )uk .
Luego ui es combinación lineal de los restantes vectores; por tanto, son vectores linealmente dependientes. Con esta discusión hemos hecho patente la demostración del siguiente teorema que establece
condiciones equivalentes muy útiles para dependencia e independencia lineal.
Teorema 3.11 Sean u1 ,u2 , . . . ,uk vectores en un espacio vectorial E. Entonces:
1. Los vectores u1,u2 , . . . ,uk son linealmente dependientes si y sólo si existen α1 , α2 , . . . , αk ∈ R,
con uno de ellos (por lo menos) distinto de cero, tales que
α1u1 + α2u2 + · · · + αkuk = 0E .
2. Los vectores u1,u2 , . . . ,uk son linealmente independientes si y sólo si los únicos escalares
α1 , α2 , . . . , αk ∈ R tales que
α1u1 + α2u2 + · · · + αkuk = 0E
son α1 = 0, α2 = 0, . . . , αk = 0.
P Nota 3.10
1. Observe que si los vectores ui , i = 1, 2, . . . , k, son L.I., entonces cualquier subconjunto no vacı́o de
ellos es también L.I.
2. Los vectores ui , i = 1, 2, . . . , k, son L.D. si y sólo si hay un subconjunto de ellos que es L.D.
3. Si alguno de los vectores ui , i = 1, 2, . . . , k, es el vector neutro aditivo del espacio, 0E , entonces
estos vectores son L.D.; en particular, cuando k = 1, u es L.I. si y sólo si u = 0E .
Ejemplo 3.39 ¿Son los vectores v1 = (1, 2, 3, 1), v2 = (2, 2, 1, 3) y v3 = (−1, 2, 7, −3) linealmente
dependientes o linealmente independientes?
Solución
Si α1 , α2 , α3 ∈ R y α1v1 + α2v2 + α3v3 = 0R4 , entonces
(α1 + 2α2 − α3 , 2α1 + 2α2 + 2α3 , 3α1 + α2 + 7α3 , α1 + 3α2 − 3α3 ) = (0, 0, 0, 0),
que equivale al sistema
α1 + 2α2 − α3
2α1 + 2α2 + 2α3
3α1 + α2 + 7α3
α1 + 3α2 − 3α3
=
=
=
=
0.
0.
0.
0.
Resolvamos ahora este sistema homogéneo:
⎡
1
⎢ 2
⎢
⎣ 3
1
Page (PS/TeX): 42 / 152, COMPOSITE
⎤ ⎡
⎤ ⎡
1
1
2 −1
2 −1
⎥ ⎢ 0
⎢ 0 −2
4
2
2 ⎥
⎥∼⎢
⎥∼⎢
1
7 ⎦ ⎣ 0 −5 10 ⎦ ⎣ 0
0
0 −1
2
3 −3
⎤ ⎡
1
2 −1
⎢ 0
1 −2 ⎥
⎥∼⎢
−1
2 ⎦ ⎣ 0
0
−1
2
⎤
2 −1
1 −2 ⎥
⎥.
0
0 ⎦
0
0
Dependencia e independencia lineal 153
SECCIÓN 3.3
⎤
⎤ ⎡
α1
−3r
Por tanto ⎣ α2 ⎦ = ⎣ 2r ⎦ r ∈ R; es decir, el sistema tiene solución no trivial; ası́, por ejemplo, con
r
α3
r = 1, −3v1 + 2v2 +v3 = 0. Luego v1 ,v2 ,v3 son linealmente dependientes. ⎡
Ejemplo 3.40 Determinar si x2 − 1, x2 + 1, 4x, 2x − 3 son linealmente dependientes o linealmente
independientes en el espacio de los polinomios.
Solución
Si
α1 (x2 − 1) + α2 (x2 + 1) + α3 (4x) + α4 (2x − 3) = 0,
entonces
(α1 + α2 )x2 + (4α3 + 2α4 )x − α1 + α2 − 3α4 = 0.
De donde obtenemos el sistema homogéneo
α1 + α2 = 0
4α3 + 2α4 = 0
−α1 + α2 − 3α4 = 0.
Llevemos a forma escalonada la matriz de coeficientes:
⎤
⎤ ⎡
⎤ ⎡
⎡
1 1 0
0
1 1 0
0
1 1 0
0
⎣ 0 0 4
1 ⎦ ∼ ⎣ 0 2 0 −3 ⎦ .
2 ⎦∼⎣ 0 0 2
0 0 2
1
0 2 0 −3
−1 1 0 −3
El sistema tiene infinidad de soluciones dadas por
⎤
⎤ ⎡
⎡
⎤
−3s
α1
−3/2
⎥
⎢ α2 ⎥
⎥ ⎢
⎢
⎢
⎥ = r ⎢ 3/2 ⎥ = ⎢ 3s ⎥ .
⎣ α3 ⎦
⎣ −1/2 ⎦ ⎣ −s ⎦
2s
0
α4
⎡
En particular, tiene soluciones no triviales, y por ende los polinomios son linealmente dependientes. 1 0
0 1
0 0
Ejemplo 3.41 ¿Son las matrices
,
,
L.I. o L.D. en el espacio de las
0 0
1 0
0 1
matrices simétricas?
Solución
Resolvamos el sistema
α1
1 0
0 0
+ α2
0 1
1 0
+ α3
0 0
0 1
=
que equivale a
α1
α2
α2
α3
=
0 0
0 0
de donde α1 = α2 = α3 = 0. Luego estas matrices son L.I.
Page (PS/TeX): 43 / 153, COMPOSITE
;
0 0
0 0
,
154 CAPÍTULO 3
Espacios vectoriales
Ejemplo 3.42 Determinar si las funciones f1 (x) = 1, f2 (x) = x y f3 (x) = x2 son L.I. o L.D. en el
espacio de funciones F (−∞, ∞) (las funciones con dominio en el intervalo (−∞, ∞)).
Solución
Sean α1 , α2 , α3 ∈ R tales que
α1 f1 + α2 f2 + α3 f3 = θ.
Entonces tenemos
α1 + α2 x + α3 x2 = 0
∀x ∈ R.
En particular, para x = 0, x = 1 y x = −1; por lo que
α1 = 0,
α2 + α3 = 0,
−α2 + α3 = 0;
de donde α1 = α2 = α3 = 0 . Por tanto, f1 , f2 , f3 son L.I. en este espacio.
Ejemplo 3.43 Determinar si las funciones f1 y f2 son linealmente dependientes o independientes
en el espacio C [−1, 1] (el espacio de funciones continuas en el intervalo [−1, 1]; cfr. el ejemplo 3.23),
donde
0 si −1 ≤ x < 0
f1 (x) =
x2 si
0≤x≤1
y
f2 (x) =
x2
0
si
si
−1 ≤ x < 0
0≤x≤1
Las gráficas de estas funciones se encuentran en la figura 3-24.
f2
f1
−1
1
−1
1
Figura 3-24 • Un par de funciones continuas linealmente independientes.
Solución
Nuevamente, si α1 f1 + α2 f2 = θ, donde θ es la función constante cero (el neutro aditivo de
este espacio), entonces
α1 f1 (x) + α2 f2 (x) = θ(x) = 0
Page (PS/TeX): 44 / 154, COMPOSITE
∀x ∈ [−1, 1] .
Dependencia e independencia lineal 155
SECCIÓN 3.3
En particular si x = −1, se tiene
α1 · 0 + α2 · 1 = 0;
y si x = 1,
α1 · 1 + α2 · 0 = 0.
De donde α1 = α2 = 0; por tanto f1 y f2 son L.I. Ejemplo 3.44 (El wronskiano). Sea J un intervalo abierto y supongamos que f1 , f2 , . . . , fn son funciones L.D. en el espacio F (J) y que todas estas funciones tienen derivada hasta el orden n − 1 en todo
punto de J, entonces existen constantes α1 , α2 , . . . , αn ∈ R con una de ellas, al menos, distinta de cero,
tales que
α1 f1 (x) + α2 f2 (x) + · · · + αn fn (x) = 0 ∀x ∈ J.
Ası́, para todo x ∈ J,
α1 f1 (x)
α1 f1 (x)
..
.
(n−1)
α1 f1
Es decir,
⎡
+
+
..
.
(x)
+
(n−1)
f1
(x)
+
+
..
.
···
···
..
.
+
+
..
.
(n−1)
+
···
+ αn fn
α2 f2
(x)
f2 (x)
f2 (x)
..
.
···
···
..
.
f1 (x)
f1 (x)
..
.
⎢
⎢
⎢
⎢
⎣
α2 f1 (x)
α2 f1 (x)
..
.
(n−1)
f2
(x)
···
fn (x)
f2 (x)
..
.
(n−1)
fn
(x)
⎤⎡
⎥⎢
⎥⎢
⎥⎢
⎥⎢
⎦⎣
αn fn (x)
αn fn (x)
..
.
=
=
..
.
0
0
..
.
(n−1)
=
0.
α1
α2
..
.
αn
⎤
(x)
⎡
⎥ ⎢
⎥ ⎢
⎥=⎢
⎥ ⎢
⎦ ⎣
0
0
..
.
0
(3.12)
⎤
⎥
⎥
⎥.
⎥
⎦
Como una de las αi = 0, el sistema homogéneo (3.12) tiene solución no trivial y entonces, para todo
x ∈ J,
f2 (x)
···
fn (x) f1 (x)
f (x)
f2 (x)
···
f2 (x) 1
= 0.
..
..
..
..
.
.
.
.
f (n−1) (x) f (n−1) (x) · · · f (n−1) (x) n
1
2
Al determinante del lado izquierdo de la precedente igualdad se le llama el wronskiano de las funciones
f1 , f2 , . . . , fn y se le denota por W ( f1 , f2 , . . . , fn )(x). Ası́, hemos probado que si las funciones son
linealmente dependientes en J, es decir, F (J) para ser precisos, el wronskiano es cero en todo punto
del intervalo J. Luego, si existe x0 ∈ J tal que W ( f1 , f2 , . . . , fn )(x0 ) = 0, entonces las funciones son L.I.
Sin embargo, si W ( f1 , f2 , . . . , fn )(x) = 0 para todo x ∈ J, las funciones no son necesariamente L.I. en J
como lo hace patente el ejemplo 3.43.
Ejemplo 3.45 Los polinomios 1, x, . . . , xk , son L.I. en el espacio de polinomios. En efecto, si αi ∈ R
son tales que ∑ki=1 αi xi = 0, entonces, por igualdad18 de polinomios, se tiene αi = 0 ∀i = 1, 2, . . . , k.
1Cfr. la nota al pie 11 de la página 145 y el ejemplo 3.28. En este caso, el polinomio constante 0 se puede escribir como ∑ki=1 0 · xk .
18
Page (PS/TeX): 45 / 155, COMPOSITE
156 CAPÍTULO 3
Espacios vectoriales
3.3.1 Criterios de independencia lineal en Rn
Sean ui , i = 1, 2, . . . , k, vectores en Rn ; estos vectores son L.D. si y sólo si el sistema
x1u1 + x2u2 + · · · + xkuk = 0Rn
tiene soluciones no triviales. Esto es, si el sistema homogéneo
Ax = 0,
donde A es la matriz que tiene como columnas a los vectores ui , tiene soluciones no triviales. Del
teorema 1.6 (cfr. pág. 32) sabemos que si k = n, este sistema tiene soluciones no triviales si y sólo si
la matriz es no invertible. Y del mismo teorema sabemos que si k > n (tenemos entonces un sistema
con más variables que ecuaciones), el sistema homogéneo tiene soluciones no triviales. Con esto hemos
probado el siguiente teorema.
Teorema 3.12 (Criterios para que k vectores de Rn sean L.I. o L.D.) Sean u1 , u2 , . . . ,uk , k vectores
en Rn y A la matriz que tiene como columnas a estos vectores. Entonces:
1. Los vectores son L.I. si y sólo si el sistema Ax = 0 tiene únicamente la solución trivial.
2. Los vectores son L.D. si y sólo si el sistema Ax = 0 tiene soluciones no triviales.
3. Si k = n:
(a) los vectores son L.I. si y sólo si A es invertible.
(b) los vectores son L.D. si y sólo si A no es invertible.
4. Si k > n los vectores son L.D.
Ejemplo 3.46 Determinar si los vectores dados son L.I. o L.D. en R4 :
1. (1, −2, −3, 2), (−1, 0, 1, 1), (3, 2, 1, 1).
2. (1, −2, −3, 2), (−1, 0, 1, 1), (5, −4, −9, 1).
3. (1, 2, 1, 3), (1, 1, 1, 1), (−1, 1, 0, 0), (−1, 1, 0, 0), (1, 0, 0, 4).
4. (1, 0, 1, 0), (2, −1, 1, 1), (−2, 1, 1, 3), (−3, 0, 0, 1).
1. Resolvamos el sistema homogéneo Ax =0, donde A es la matriz que tiene como columnas
a estos vectores.
⎤
⎤ ⎡
⎤ ⎡
⎡
1 −1
3
1 −1
3
1 −1 3
⎢
⎢
⎢ −2
1 −4 ⎥
8 ⎥
0 2 ⎥
⎥
⎥∼⎢ 0
⎥ ∼ ⎢ 0 −2
⎢
⎦
⎣
⎦
⎣
⎣ −3
0 −2 10 ⎦
0 −2 10
1 1
0
3 −5
0
3 −5
2
1 1
⎤
⎤ ⎡
⎡
1 −1
3
1 −1
3
⎢
⎢ 0
1 −4 ⎥
1 −4 ⎥
⎥.
⎥∼⎢ 0
∼⎢
⎣
⎦
⎣ 0
0
0
2 ⎦
0
2
0
0
0
0
0
7
Solución
De donde el sistema sólo tiene la solución trivial, por lo que los vectores son L.I.
Page (PS/TeX): 46 / 156, COMPOSITE
SECCIÓN 3.3
Dependencia e independencia lineal 157
2. Resolvamos el sistema homogéneo Ax = 0, donde A es la matriz que tiene como columnas a estos
vectores.
⎤
⎤ ⎡
⎤ ⎡
⎡
1 −1
5
1 −1
5
1 −1
5
⎢
⎢
⎢ −2
1 −3 ⎥
6 ⎥
0 −4 ⎥
⎥
⎥∼⎢ 0
⎥ ∼ ⎢ 0 −2
⎢
⎣ −3
6 ⎦ ⎣ 0 −2 −6 ⎦
1 −9 ⎦ ⎣ 0 −2
0
3 −9
0
3 −9
2
1
1
⎤
⎡
1 −1
5
⎥
⎢ 0
1
−3
⎥.
∼⎢
⎣ 0
0
0 ⎦
0
0
0
De donde el sistema tiene una infinidad de soluciones, a saber, haciendo sustitución regresiva,
⎡
⎤
⎤ ⎡
x1
−2r
⎣ x2 ⎦ = ⎣ 3r ⎦ .
r
x3
Por tanto tiene soluciones no triviales, ası́ que los vectores son L.D.; una solución es, por ejemplo,
(x1 , x2 , x3 ) = (−2, 3, 1), que se obtiene al hacer r = 1.
(Comprobación:
− 2(1, −2, −3, 2) + 3(−1, 0, 1, 1) + (5, −4, −9, 1) = (0, 0, 0, 0).)
3. En este caso tenemos 5 vectores en R4 , por el teorema 3.12 son L.D. (k > n).
4. En este caso tenemos 4 vectores en R4 , y serán L.I. si y sólo si la matriz A, que tiene de columnas
a estos vectores, es invertible. Llevemos esta matriz a la forma escalonada:
⎤
⎤ ⎡
⎡
1
2 −2 −3
1
2 −2 −3
⎢
⎢ 0 −1
1
0 ⎥
1
0 ⎥
⎥
⎥ ∼ ⎢ 0 −1
A=⎢
⎣ 1
3
3 ⎦
1
1
0 ⎦ ⎣ 0 −1
0
1
3
1
0
1
3
1
⎤
⎤ ⎡
⎡
1
2 −2 −3
1
2 −2 −3
⎢
⎢ 0 −1
1
0 ⎥
1
0 ⎥
⎥.
⎥ ∼ ⎢ 0 −1
∼⎢
⎣ 0
0
2
3 ⎦
0
2
3 ⎦ ⎣ 0
0
0
0 −5
0
0
4
1
Dado que toda columna tiene pivote en la última matriz equivalente, se sigue que A es equivalente
a la identidad y, por tanto, es invertible; luego los vectores son L.I. Como mencionamos anteriormente, y el lector seguramente ya lo notó, los conceptos de independencia lineal y combinaciones lineales están estrechamente relacionados. En Rn esta relación se hace
aún más patente por la herramienta que proveen las técnicas matriciales y la teorı́a de sistemas lineales
que estudiamos en el capı́tulo 1. Por el teorema 3.8 (cfr. pág. 149), n vectores de Rn generan a Rn si y
sólo si la matriz que tiene por columnas a estos vectores es invertible; a su vez, por el teorema 3.12 (cfr.
pág. 156), esta matriz es invertible si y sólo si los n vectores son L.I. Hemos probado ası́ el siguiente teorema que relaciona los conceptos de independencia lineal y el número de generadores para el espacio Rn .
Page (PS/TeX): 47 / 157, COMPOSITE
158 CAPÍTULO 3
Espacios vectoriales
Teorema 3.13 Sean u1 ,u2 , . . . ,un , n vectores de Rn y A la matriz que tiene por columnas a estos
vectores, entonces las siguientes condiciones son equivalentes:
1. u1 ,u2 , . . . ,un son L.I.
2. u1 ,u2 , . . . ,un generan a Rn .
3. A es invertible.19
Ejemplo 3.47 Hola
1. En el ejemplo 3.46 vimos que la matriz que tiene por columnas los vectores (1, 0, 1, 0), (2, −1, 1, 1),
(−2, 1, 1, 3), (−3, 0, 0, 1) de R4 es equivalente a la identidad y, por ende, es invertible; ası́ que estos
vectores son L.I. y generan a R4 .
2. Sean (1, 0, 1), (−2, 1, 1) y (−4, 3, 5); llevemos la matriz A, que tiene por columnas a estos vectores,
a la forma escalonada:
⎤
⎤ ⎡
⎤ ⎡
⎡
1 −2 −4
1 −2 −4
1 −2 −4
⎣ 0
1
3 ⎦.
1
3 ⎦∼⎣ 0
1
3 ⎦∼⎣ 0
0
0
0
0
3
9
1
1
5
Puesto que la última columna en la última matriz equivalente no tiene pivote, la matriz A no es equivalente a la identidad y, por tanto, no es invertible; ası́ que estos vectores no generan a R3 y son L.D.
3.4 Bases y dimensión
En la sección anterior vimos cómo espacios vectoriales pueden ser generados por ciertos conjuntos
de vectores; es decir, que todo elemento de estos espacios se puede escribir como una combinación
lineal de los vectores de esos conjuntos generadores. También ilustramos, con algunos casos, cómo es
posible reducir a un mı́nimo los generadores (cfr. ejemplo 3.38 y teorema 3.10). El tema de minimizar el
conjunto de generadores está relacionado con la independencia lineal de los vectores y con el concepto,
que estudiaremos en la presente sección, de bases de espacios vectoriales.
3.4.1 Definiciones y ejemplos
Comenzamos extendiendo el concepto de dependencia e independencia lineal a cualquier subconjunto
de vectores, aun si tiene una infinidad de elementos.
Definición 3.16 Sea E un espacio vectorial y S ⊂ E.
1. S es linealmente independiente (L.I.), si los vectores de todo subconjunto finito de S son
linealmente independientes en el sentido de la definición20 3.15.
2. S es linealmente dependiente (L.D.) si contiene (al menos) un subconjunto finito de vectores
linealmente dependientes en el sentido de la definición 3.15.
1Recuerde que una matriz es invertible si y sólo si es equivalente por filas a la identidad; y que para mostrar que una matriz es
equivalente a la identidad basta llevarla, por el método de Gauss, a la forma escalonada y verificar que toda columna (y por ende
toda fila) tenga pivote.
20
1Cfr. página 151.
19
Page (PS/TeX): 48 / 158, COMPOSITE
SECCIÓN 3.4
Bases y dimensión 159
Ejemplo 3.48 En P, el espacio de polinomios, sea
S1 = {1, x, x2 , . . . , xn , . . . }.
S1 es L.I., mientras que
S2 = {1, x, 2x, 2x2 , 3x3 , 4x4 , 5x5 , . . . }
es L.D. En efecto, sea A un subconjunto finito de S1 ; entonces los elementos de A tienen la forma (dado
que A es finito) xmi , para k enteros mi , i = 1, 2, . . . , k, con 0 ≤ m1 < m2 < · · · < mk ; luego estos vectores
forman parte de los vectores 1, x, . . . , xmi , . . . , xmk que son L.I. (cfr. el ejemplo 3.45); por tanto, los polinomios en A son también L.I. (cfr. la nota 3.10, pág. 152). Es decir, todo subconjunto finito de S1 es L.I.;
por tanto S1 es L.I. En cuanto a S2 , los polinomios x y 2x son claramente L.D.; por tanto S2 es L.D.
Definición 3.17 Sean E un espacio vectorial y S ⊂ E. Se dice que S genera a E si todo elemento de E
es combinación lineal de elementos de S; es decir, para cada u ∈ E existen s1 , . . . ,sk ∈ S y escalares
a1 , . . . , ak tales que u = a1s1 + · · · + aksk .
Ejemplo 3.49 S = {1, x, x2 , . . . , xn , . . . } genera a P. Pues claramente todo polinomio de este espacio
tiene la forma a0 · 1 + a2 · x + · · · + ak · xk .
Definición 3.18 (Bases) Si E es un espacio vectorial y B ⊂ E, B es una base de E si:
1. B es L.I.
2. B genera a E.
Ejemplo 3.50 (Base canónica de Rn ). En Rn sean los vectores
i
ei = (0, . . . , 0, 1, 0, . . . , 0)
n
i = 1, 2, . . . , n. Entonces
B = {e1 ,e2 , . . . ,en }
es una base (la llamada base canónica o estándar) de Rn ; pues la matriz que tiene por columnas a estos
vectores es la identidad n × n que es invertible, y por el teorema 3.13 los vectores generan a Rn y son
L.I.
Ejemplo 3.51 (Base de P). En P, B = {1, x, x2 , x3 , . . . , xn , . . . } es una base. Pues en el ejemplo 3.48
vimos que este conjunto es L.I., y en el ejemplo 3.49 mostramos que este conjunto genera a P.
Ejemplo 3.52 (Base de Pk ). En Pk , el espacio de polinomios de grado a lo más k,
B = {1, x, x2 , x3 , . . . , xk }
es una base. Pues en el ejemplo 3.45 probamos que este conjunto es L.I. y claramente todo polinomio
de Pk es de la forma ∑ki=0 ai xi .
Page (PS/TeX): 49 / 159, COMPOSITE
160 CAPÍTULO 3
Espacios vectoriales
Ejemplo 3.53 (Base de Mm×n ). Sean las matrices Mαβ = [mi j ] de tamaño m × n definidas en el
ejemplo 3.34; es decir,
mi j =
1 si i = α, β = j,
0 en otro caso.
Entonces, si A = [ai j ] ∈ Mm×n , es claro que21
A=
∑
1≤α≤m
1≤β≤n
aαβ Mαβ
(3.13)
lo cual entraña que las mn matrices Mαβ generan a Mm×n . Por otra parte, si el lado derecho de (3.13)
se iguala a la matriz cero m × n, entonces (por definición de la igualdad de matrices) se obtiene que las
constantes aαβ = 0, ∀α, β; es decir, las matrices Mαβ también son L.I. De esta manera las mn matrices
Mαβ forman una base para el espacio Mm×n . Por ejemplo, en M3×2 ,
⎧⎡
⎤ ⎡
0
⎨ 1 0
B = ⎣ 0 0 ⎦,⎣ 0
⎩
0
0 0
⎤⎫
⎤ ⎡
⎤ ⎡
⎤ ⎡
⎤ ⎡
0 0 ⎬
0 0
0 0
0 0
1
0 ⎦,⎣ 1 0 ⎦,⎣ 0 1 ⎦,⎣ 0 0 ⎦,⎣ 0 0 ⎦
⎭
0 1
1 0
0 0
0 0
0
es una base.
Enunciamos el siguiente teorema, cuya demostración es delicada y la postergamos al apéndice C.
Invitamos al lector a que la consulte, pues contiene una construcción muy interesante que se utiliza con
frecuencia en matemáticas para probar diversos teoremas de existencia y que depende de un principio
muy básico y fundamental que es el llamado lema de Zorn.
Teorema 3.14 (Existencia de bases) Sea E un espacio vectorial. Entonces E posee una base; es
decir, existe B ⊂ E L.I. tal que todo vector del espacio E es combinación lineal de elementos de B.
3.4.2 Dimensión, extracción de bases y compleción de un conjunto L.I. a una base
Hemos visto varios ejemplos de espacios vectoriales que se pueden generar mediante combinaciones
lineales de elementos de ciertos subconjuntos de esos espacios. La idea central es optimizar el número
de vectores generadores; y la independencia lineal es obviamente el discriminador natural para excluir
vectores de un conjunto de generadores y quedarse con un mı́nimo de éstos que sigan generando al
espacio. Las bases de espacios vectoriales son los conjuntos que cumplen con las condiciones de poder
generar al espacio y ser L.I. Surge entonces la conjetura natural de que si dos bases generan al mismo
espacio y sus elemementos son L.I., entonces tienen un mı́nimo de generadores; luego ambas deben tener
el mismo número de elementos. Esta conjetura es cierta, y la probaremos en el teorema 3.16; lo cual da
pauta a definir lo que llamaremos dimensión de un espacio vectorial. El concepto de dimensión de un
espacio no es otra cosa que la generalización y abstracción de la idea intuitiva que tenemos de la dimen1La notación ∑1≤α≤m aαβ Mαβ significa que se suman todas las posibles combinaciones de aαβ Mαβ cuando los subı́ndices α y
21
1≤β≤n
β recorren los valores 1, . . . , m y 1, . . . , n, respectivamente. Dicho de paso, el número de términos de esta suma es mn.
Page (PS/TeX): 50 / 160, COMPOSITE
Bases y dimensión 161
SECCIÓN 3.4
sión de conjuntos que nos son familiares, como una lı́nea recta, un plano y el espacio donde habitamos;
a los cuales de manera natural les hemos asignado dimensiones uno, dos y tres, respectivamente, en el
lenguaje coloquial.
Teorema 3.15 Sea E un espacio vectorial que está generado por los vectores L.I. u1 ,u2 , . . . ,un . Si
v1 ,v2 , . . . ,vk son vectores en este espacio con k > n, entonces estos vectores son L.D.
DEMOSTRACIÓN
Q Resolvamos el sistema
β1v1 + β2v1 + · · · + βkvk = 0E
(3.14)
para βi ∈ R, 1 = 1, 2, . . . , k. Dado que E = gn (u1 ,u2 , . . . ,un ), existen escalares αi j , i = 1, . . . , k, j =
1, . . . , n, tales que
v1 = α11u1 + α12u2 + · · · + α1nun
v2 = α21u1 + α22u2 + · · · + α2nun
..
.
(3.15)
vk = αk1u1 + αk2u2 + · · · + αknun
Sustituyendo cada vi de (3.15) en (3.14) obtenemos
0E = β1 (α11u1 + α12u2 + · · · + α1nun ) + β2 (α21u1 + α22u2 + · · · + α2nun )
+ · · · + βk (αk1u1 + αk2u2 + · · · + αknun ) ,
que agrupando términos produce
0E = (β1 α11 + β2 α21 + · · · + βk αk1 )u1 + (β1 α12 + β2 α22 + · · · + βk αk2 )u2
+ · · · + (β1 α1n + β2 α2n + · · · + βk αkn )un .
Puesto que los vectores ui son L.I., se debe tener
β1 α11
β1 α12
..
.
β1 α1n
+
+
..
.
β2 α21
β2 α22
..
.
+
+
..
.
+
β2 α2n
+
..
.
···
+
+
..
.
βk αk1
βk αk2
..
.
=
=
..
.
0
0
..
.
+
βk αkn
=
0,
que es un sistema lineal homogéneo con más incógnitas que ecuaciones (recuerde que k > n); por tanto
tiene solución no trivial; es decir, existen βi , i = 1, 2, . . . , k, no todos cero, tales que (3.14) se cumple.
Luego los vectores v1 ,v2 , . . . ,vk son L.D. Q
El siguiente corolario es consecuencia inmediata del teorema 3.15 y su demostración se deja como
ejercicio al lector.
Corolario 3.1 Si un espacio vectorial E está generado por los vectores L.I. u1 ,u2 , . . . ,un , entonces
todo conjunto de vectores linealmente independiente tiene a lo más n vectores.
Page (PS/TeX): 51 / 161, COMPOSITE
162 CAPÍTULO 3
Espacios vectoriales
Lema 3.2 Sean E un espacio vectorial y S = {u1 ,u2 , . . . ,um } un subconjunto finito de este espacio
que lo genera; es decir,
E = gn(u1 ,u2 , . . . ,um ).
Entonces existe S1 ⊂ S que es L.I. y genera a E.
DEMOSTRACIÓN
Q Formemos el conjunto S1 de la siguiente manera22
• u1 ∈ S1 .
• u2 ∈ S1 si u2 no es múltiplo escalar de u1 .
• En general, ui ∈ S1 si ui no es combinación lineal de sus predecesores.
Mediante este proceso es claro que los elementos de S1 son L.I., y ya que cada vector que se excluyó de
S para formar S1 es combinación lineal de sus predecesores, cada uno de ellos se puede escribir como
combinación lineal de los elementos de S1 . Ası́, puesto que todo vector en E es combinación lineal de los
vectores de S, todo vector de E es combinación lineal de los vectores de S1 ; es decir, S1 genera a E. Q
Corolario 3.2 Si un espacio vectorial E está generado por los vectores u1 , u2 ,. . . , um (no necesariamente L.I.), entonces todo conjunto de vectores linealmente independiente tiene a lo más m vectores.
DEMOSTRACIÓN
Q Por el lema 3.2 podemos suponer, sin pérdida de generalidad, que los vectores u1 ,u2 , . . . ,um son L.I.
Si vi , i = 1, . . . , k son vectores L.I., por el corolario 3.1, k ≤ m. Q
Definición 3.19 Un espacio vectorial E es finitamente generado si existen u1 , . . . ,um ∈ E tales que
E = gn(u1 ,u2 , . . . ,um ).
Corolario 3.3 Sea E un espacio vectorial finitamente generado, con u1 , . . . ,um un conjunto de generadores. Si B es una base de E, entonces B tiene a lo más m elementos.
P Nota 3.11 Supongamos que E es un espacio finitamente generado, con S = {u1 , . . . ,um } un conjunto
de generadores, entonces, por el lema 3.2, podemos reducir S a un conjunto B que es linealmente
independiente y que también genera a E; es decir, a una base del espacio E.
Teorema 3.16 (Igualdad en cardinalidad en bases del mismo espacio) Si E es un espacio vectorial
finitamente generado y B1 = {u1 ,u2 , . . . ,un } y B2 = {v1 ,v2 , . . . ,vm } son un par de bases de este
espacio, entonces n = m; es decir, cualquier par de bases en el mismo espacio tienen igual número
de elementos.
1Podemos suponer que ui = 0E para todo i; pues si uno de estos vectores es el neutro aditivo, se puede excluir de S y el conjunto
resultante sigue obviamente generando al espacio E.
22
Page (PS/TeX): 52 / 162, COMPOSITE
SECCIÓN 3.4
DEMOSTRACIÓN
Bases y dimensión 163
Q Por el corolario 3.1, puesto que B2 es una base y los vectores ui son L.I., se tiene n ≤ m; y por el
mismo corolario, dado que los vectores vi son L.I. y B1 es una base, se deduce m ≤ n; luego n = m. Q
Definición 3.20 (Dimensión de un espacio vectorial). Sea E un espacio vectorial.
1. Si E es un espacio vectorial finitamente generado, se define la dimensión de E, dim(E), como
el número de elementos de cualquier base de E.
2. Si E no es finitamente generado, entonces se dice que E tiene dimensión infinita y se escribe
dim(E) = ∞.
Ejemplo 3.54 (Dimensión del espacio trivial {0E }). Sea E un espacio vectorial, entonces
dim({0E }) = 0;
pues el único subconjunto L.I. de este subespacio es el conjunto vacı́o 0/ (cfr. ejercicio resuelto 32(a),
pág. 191).
Ejemplo 3.55 (Dimensión de Rn ). En el ejemplo 3.50 vimos que
B = {e1 ,e2 , . . . ,en } ,
donde
i
ei = (0, . . . , 0, 1, 0, . . . , 1)
n
i = 1, 2, . . . , n es una base de Rn ; por tanto,
dim(Rn ) = n.
Ejemplo 3.56 El espacio de polinomios, P, no es finitamente generado; pues si S es un conjunto
finito de generadores, entonces uno de ellos tiene el grado máximo, digamos m. Por tanto, cualquier
combinación lineal de elementos de S tiene grado a lo más m y, por ende, un polinomio de grado mayor
a m no puede ser combinación lineal de elementos de S. Luego, dim(P) = ∞ (cfr. ejemplo 3.51).
Ejemplo 3.57 Probamos, en el ejemplo 3.52, que el conjunto
B = 1, x, x2 , . . . , xk
es una base de Pk . Por tanto,
dim (Pk ) = k + 1.
Ejemplo 3.58 En el ejemplo 3.53, mostramos que
B = {Mαβ | 1 ≤ α ≤ m, 1 ≤ β ≤ n}
es una base del espacio vectorial de las matrices de tamaño m × n. Entonces,
dim (Mm×n ) = mn.
Page (PS/TeX): 53 / 163, COMPOSITE
164 CAPÍTULO 3
Espacios vectoriales
Ejemplo 3.59 En el ejemplo 3.29 vimos que toda matriz simétrica de tamaño 2 × 2,
a c
c d
, se
puede escribir como
a c
c d
=a
1 0
0 0
+c
0 1
1 0
+d
0 0
0 1
.
Por otro lado, si
α1
1 0
0 0
+ α2
0
1
1
0
+ α3
0 0
0 1
=
0 0
0 0
se desprende que α1 = α2 = α3 = 0; i.e., estas matrices son L.I. Luego una base para el espacio, S, de
las matrices simétricas de orden 2 es
$
1 0
0 1
0 0
B=
,
,
.
0 0
1 0
0 1
Por tanto,
dim(S) = 3.
Extracción de una base en un conjunto generador
En el lema 3.2 probamos que si S es un conjunto finito generador de un espacio vectorial, podemos
construir una base del espacio a partir de los elementos de S excluyendo en forma sistemática a los
que sean combinaciones lineales de sus predecesores; pues los que queden serán L.I. y claramente aún
generan el espacio. Dada la gran importancia que tiene este resultado, volvemos a hacer explı́cito este
método en el siguiente teorema e ilustramos a continuación su uso.
Teorema 3.17 Sean E un espacio vectorial, v1 ,v2 , . . . ,vk ∈ E − {0E }, y supongamos que
S = gn(v1 ,v2 , . . . ,vk ). Para extraer de {v1 ,v2 , . . . ,vk } una base de S, se excluyen de {v1 ,v2 , . . . ,vk }
aquellos vectores que son combinaciones lineales de sus predecesores.23
Ejemplo 3.60 Encontrar una base y la dimensión del subespacio de los polinomios
S = gn(2, 1 − x, x + 1, x2 − 1, x2 + 1, x3 − 2).
• Queda 2 como vector inicial para la base.
• Claramente 1 − x no es múltiplo escalar de 2, por tanto no se excluye.
• Veamos si 1 + x es combinación lineal de 2 y 1 − x:
1 + x = a(2) + b(1 − x)
= 2a + b − bx ⇒
2a + b = 1
−b = 1;
1Por vacuidad, el primer vector no puede ser combinación lineal de sus predecesores y se incluye siempre como vector inicial
para la base.
23
Page (PS/TeX): 54 / 164, COMPOSITE
SECCIÓN 3.4
Bases y dimensión 165
por tanto,
b = −1 y a = 1.
Ası́ que 1 + x se excluye por ser combinación lineal de sus predecesores.
• x2 − 1 no puede ser combinación lineal de 2 y 1 − x, pues toda combinación lineal de estos polinomios tiene grado a lo más uno; luego x2 − 1 se queda.
• x2 + 1 es combinación lineal de 2, 1 − x y x2 − 1; pues
x2 + 1 = a(2) + b(1 − x) + c(x2 − 1)
= 2a + b − c − bx + cx2
entraña el sistema
2a + b − c = 1
−b = 0
c =1
que tiene solución c = 1, b = 0 y a = 1. Por tanto x2 + 1 se excluye.
• Finalmente, toda combinación lineal de los vectores que se han conservado tiene grado a lo más 2,
por tanto x3 − 2 no puede ser combinación lineal de ellos y entonces se conserva.
Luego, la base buscada es
B = {2, 1 − x, x2 − 1, x3 − 2}
y
dim(S) = 4.
En el caso particular de que se quiera extraer una base de {v1 , . . . ,vk } para el subespacio
S = gn(v1 ,v2 , . . . ,vk ) de Rn , se puede utilizar herramienta matricial. Sea A la matriz que tiene por columnas a los vectores vi y H la forma escalonada reducida de A. Si b ∈ S, entonces b es combinación
lineal de los vectores columna de A que corresponden a columnas con pivote en H; pues para los sistemas equivalentes [A |b] ∼ [H |c] estas columnas son precisamente donde hay variables ligadas y en las
restantes columnas hay variables libres; a cada una de estas últimas se le puede asignar cualquier valor,
en particular valores nulos a todas. Ası́ S está generado por los vectores columna de A que corresponden
a columnas con pivote en cualquier matriz escalonada equivalente a la matriz A.24 Ahora pensemos en la
matriz A1 que se obtiene de la matriz A excluyendo los vectores que no correspondieron a columnas con
pivote en la forma escalonada reducida; digamos que A1 tiene por columnas a v1 ,v2 , . . . ,vm . Entonces,
toda columna de la forma escalonada reducida de A1 tiene pivote; luego el sistema A1x =0,x ∈ Rm , tiene
solución única, y por tanto las columnas de A1 son L.I. Con lo precedente, hemos hecho plausible la
demostración del siguiente teorema, que es un método para extraer una base de un subespacio generado
por vectores de Rn .
1Cfr. teorema 3.10 y la discusión que lo precede en la página 150.
24
Page (PS/TeX): 55 / 165, COMPOSITE
166 CAPÍTULO 3
Espacios vectoriales
Teorema 3.18 Sean v1 ,v2 , . . . ,vk ∈ Rn y S = gn(v1 ,v2 , . . . ,vk ). Entonces, para obtener una base de S
a partir de los vectores vi , se procede de la manera siguiente:
1. Se forma la matriz A que tiene por columnas los vectores vi y se lleva a forma escalonada.
2. Los vectores columna de A que correspondan a columnas con pivote en esa forma escalonada
formarán una base de S.
Ejemplo 3.61 Extraer una base y encontrar la dimensión del subespacio S generado por los vectores
(1, −1, 0, 2, 1), (2, 1, −2, 0, 0), (0, −3, 2, 4, 2), (2, 4, 1, 0, 1), (3, 3, −4, −2, −1), (5, 7, −3, −2, 0).
Solución
Procedamos como establece el teorema 3.18:
⎡
⎢
⎢
⎢
⎢
⎣
1
2
0
−1
1 −3
0 −2
2
2
0
4
1
0
2
2
3
4
3
1 −4
0 −2
1 −1
5
7
−3
−2
0
⎡
⎤
⎢
⎥
⎢
⎥
⎥ → ⎢
⎢
⎥
⎣
⎦
⎡
→
1 2
0 3
0 −2
0 −4
0 −2
1 2
⎢ 0 1
⎢
⎢ 0 0
⎢
⎣ 0 0
0 0
0
2
3
5
−3 6
6
12
2
1 −4 −3
4 −4 −8 −12
2 −1 −4 −5
⎤
0 2 3 5
−1 2 2 4 ⎥
⎥
0 1 0 1 ⎥
⎥.
0 0 0 0 ⎦
0 0 0 0
⎤
⎥
⎥
⎥
⎥
⎦
La base buscada se forma tomando los vectores columna de la matriz inicial que correspondan a columnas que tengan pivote en la forma escalonada
B = {(1, −1, 0, 2, 1), (2, 1, −2, 0, 0), (2, 4, 1, 0, 1)}
y dim(S) = 3.
El siguiente teorema nos auxilia para, en el caso de saber la dimensión de un espacio, digamos n,
concluir que un conjunto de n generadores son L.I., y por ende forman una base, o que n vectores L.I.
generan al espacio; y ası́ evitar probar la independencia lineal de los vectores o que generen al espacio.
Teorema 3.19 Si dim(E) = n, las siguientes condiciones son equivalentes:
1. v1 ,v2 , . . . ,vn son L.I.
2. v1 ,v2 , . . . ,vn generan a E.
3. {v1 ,v2 , . . . ,vn } es una base de E.
DEMOSTRACIÓN
Q Sea B una base de E, entonces B tiene n elementos pues dim (E) = n. Mostremos (1) ⇒ (2) ⇒ (3),
(3) ⇒ (1) y tendremos la equivalencia de las tres condiciones.
(1) ⇒ (2). Supongamos que w ∈ E , entonces, por el teorema 3.15, los vectores {u1 ,u2 , . . . ,un ,w}
son L.D. Entonces existen escalares αi , i = 1, 2, . . . , n, y β ∈ R, no todos cero, tales que
α1u1 + α2u2 + · · · + αnun + βw = 0E .
Page (PS/TeX): 56 / 166, COMPOSITE
SECCIÓN 3.4
Bases y dimensión 167
Si β = 0, entonces algún αi debe ser distinto de cero; pero esto es imposible ya que los vectores ui son
L.I.; por tanto β = 0. Luego w es combinación lineal de los vectores ui . Dado que w es arbitrario, hemos
probado que los vectores ui generan a E.
(2) ⇒ (3). Si los vectores ui son L.D., entonces, por el teorema 3.17, podemos reducir este conjunto
a uno L.I. que genere a E con m elementos y m < n. Pero esto implicarı́a que hay una base de E con un
número de elementos distinto de n, lo cual es una contradicción al teorema 3.16. Por tanto, los vectores
ui deben ser L.I. Luego forman una base de E.
(3) ⇒ (1). Es clara. Q
Ejemplo 3.62 Sabemos que P2 tiene dimensión 3. Si α1 , α2 , α3 ∈ R son tales que
α1 (x − 2) + α2 (3 − x) + α3 x2 − x = 0,
entonces
3α2 − 2α1 + (α1 − α2 − α3 ) x + α3 x2 = 0.
Por la definición de igualdad de polinomios se tiene
3α2 − 2α1 = 0
α1 − α2 − α3 = 0
α3 = 0,
que implica α3 = α2 = α1 = 0. Luego los tres polinomios x − 2, 3 − x, x2 − x son L.I. en P2 y por tanto
x − 2, 3 − x, x2 − x es una base de P2 .
Compleción de un conjunto L.I. a una base
Podemos utilizar el teorema 3.17 para completar un conjunto L.I. a una base B del espacio mediante el
siguiente procedimiento:
Sea B1 = {v1 ,v2 , . . . ,vk } un conjunto L.I. de un espacio E que tiene dimensión finita n.
1. Se forma el conjunto
M = {v1 ,v2 , . . . ,vk ,e1 ,e2 , . . . ,en },
donde {e1 ,e2 , . . . ,en } es una base conocida del espacio E.
2. Se extrae de M una base B por medio del procedimiento dado en el teorema 3.17.
3. El conjunto B encontrado en el inciso anterior será una base de E.
P Nota 3.12 El procedimiento anterior se justifica porque E = gn(M) y, al aplicar el teorema 3.17 a
este conjunto generador, los vectores vi , i = 1, 2, . . . , k, permanecen ya que por hipótesis son L.I.; luego
la base B del espacio E contiene a estos vectores.
Ejemplo 3.63 Completar el conjunto L.I. {2x − 4, x2 + 1} a una base de P3 .
Page (PS/TeX): 57 / 167, COMPOSITE
168 CAPÍTULO 3
Espacios vectoriales
Solución
Utilizamos como base conocida de P3 a {1, x, x2 , x3 } y extraemos de {2x−4, x2 +1, 1, x, x2 , x3 }
una base:
• 2x − 4 y x2 + 1 se quedan porque son L.I.
• 1 = a(2x − 4) + b(x2 + 1) implica bx2 + 2ax + b − 4a = 1; por tanto,
b = 0
2a = 0
b − 4a = 1,
sistema que es inconsistente; luego 1 no es combinación lineal de sus predecesores y se queda.
• x = a(2x − 4) + b(x2 + 1) + c implica x = bx2 + 2ax + b + c − 4a; por tanto,
b = 0
2a = 1
b + c − 4a = 0,
sistema consistente con b = 0, a = 1/2 y c = 2; luego x es combinación lineal de sus predecesores
y se excluye.
• Evidentemente x2 = 0(2x − 4) + 1(x2 + 1) + (−1)1; ası́ que x2 es combinación lineal de sus predecesores y se excluye.
• Claramente x3 no es combinación lineal de sus predecesores, ası́ que se incluye.
La base buscada es
B = {2x − 4, x2 + 1, 1, x3 }.
Ejemplo 3.64 Completar el conjunto L.I. {(1, 2, 0, 1, 3), (−2, −4, 1, −2, −6)} a una base de R5 .
Solución
Utilizamos la base canónica de R5 , la adjuntamos a este conjunto
M = {(1, 2, 0, 1, 3), (−2, −4, 1, −2, −6), (1, 0, 0, 0, 0), (0, 1, 0, 0, 0) ,
(0, 0, 1, 0, 0), (0, 0, 0, 1, 0), (0, 0, 0, 0, 1)} ,
y extraemos una base del mismo utilizando el teorema 3.18:
⎡
⎤
⎡
1 −2
1 −2 1 0 0 0 0
⎢ 0
⎢ 2 −4 0 1 0 0 0 ⎥
0
⎢
⎥
⎢
⎥ ∼ ⎢ 0
⎢ 0
1
1
0
0
1
0
0
⎢
⎥
⎢
⎣ 0
⎣ 1 −2 0 0 0 1 0 ⎦
0
0
0
3 −6 0 0 0 0 1
⎡
1 −2
⎢ 0
1
⎢
0
0
∼ ⎢
⎢
⎣ 0
0
0
0
⎡
1 −2
⎢ 0
1
⎢
0
0
∼ ⎢
⎢
⎣ 0
0
0
0
Page (PS/TeX): 58 / 168, COMPOSITE
⎤
1 0 0 0 0
−2 1 0 0 0 ⎥
⎥
0 0 1 0 0 ⎥
⎥
−1 0 0 1 0 ⎦
−3 0 0 0 1
⎤
1 0 0
0 0
0 0 1
0 0 ⎥
⎥
1 0 0 −1 0 ⎥
⎥
−2 1 0
0 0 ⎦
0 1
−3 0 0
⎤
1 0 0
0 0
0 0 1
0 0 ⎥
⎥
1 0 0 −1 0 ⎥
⎥.
0 1 0 −2 0 ⎦
0 0 0 −3 1
SECCIÓN 3.4
Bases y dimensión 169
La base buscada es
{(1, 2, 0, 1, 3), (−2, −4, 1, −2, −6), (1, 0, 0, 0, 0, 0), (0, 1, 0, 0, 0), (0, 0, 0, 1, 0)}. 3.4.3 Rango de una matriz
Recordemos que si A ∈ Mm×n , el subespacio de Rm generado por las columnas de A es el espacio
columna de A, y el subespacio de Rn generado por las filas de A es el espacio fila de A y se les
denota, respectivamente, por Ec (A) y E f (A) (cfr. definición 3.13, pág. 146); y que el espacio nulo
de una matriz se define como el subespacio de Rn de las soluciones del sistema homogéneo Ax = 0
(cfr. ejemplo 3.20, pág. 141).
Definición 3.21 Si A ∈ Mm×n se definen:
1. Rango fila de A: Rf (A) = dim(E f (A)).
2. Rango columna de A: Rc (A) = dim(Ec (A)).
3. Nulidad de A, Nul(A), como la dimensión del espacio nulo de A.
Supongamos que H es la forma escalonada reducida de una matriz A ∈ Mm×n . Como vimos anteriormente, las columnas de A que corresponden a columnas con pivote de H generan al espacio columna y
son linealmente independientes; además, hay tantas columnas en H con pivote como filas no nulas en H.
Ası́ que el rango columna de A es el número de filas no nulas de cualquier forma escalonada equivalente
a la matriz A. Por otra parte, las filas de H se obtienen a través de sucesiones de operaciones de renglón
iniciando con filas de la matriz A; luego toda fila de H es elemento del espacio fila de A. Además, las
filas no nulas de H son linealmente independientes; pues en caso contrario, si una fila no nula de H es
combinación lineal de otras filas, se pueden aplicar operaciones de renglón para transformar esta fila en
una fila nula; lo cual no es posible, pues H es la forma escalonada reducida de A (recuerde que la forma
escalonada reducida de una matriz es única). Entonces tenemos que las filas no nulas de cualquier matriz
en forma escalonada equivalente a la matriz A forman una base para el espacio fila; luego el rango fila de
A es el número de filas no nulas de cualquier forma escalonada equivalente a la matriz A. Finalmente, si
en H existen vectores columna sin pivote, para fijar ideas pensemos que son 2 y que se encuentran en las
dos últimas columnas, entonces hay dos variables libres r y s, y las soluciones del sistema homogéneo
son de la forma
⎡
⎡
⎤
⎤
⎤
⎡
a1
b1
a1 r + b1 s
⎢ a2 ⎥
⎢ b2 ⎥
⎢ a2 r + b2 s ⎥
⎢
⎢
⎥
⎥
⎥
⎢
⎢ .. ⎥
⎢ .. ⎥
⎥
⎢
..
⎢
⎢
⎥
⎥
⎥
⎢
.
⎥ = r⎢ . ⎥+s⎢ . ⎥.
⎢
⎢ an−2 ⎥
⎢ bn−2 ⎥
⎢ an−2 r + bn−2 s ⎥
⎢
⎢
⎥
⎥
⎥
⎢
⎣ 0 ⎦
⎣ 1 ⎦
⎦
⎣
s
r
1
0
Ası́, toda solución es combinación lineal de los vectoresu1 = (a1 , . . . , an−2 , 0, 1) yu2 = (b1 , . . . , bn−2 , 1, 0).
Si estos últimos vectores fueran L.D., entonces el sistema tendrı́a sólo una variable libre, lo cual es imposible. Con esto hemos hecho plausible la demostración del siguiente teorema.
Page (PS/TeX): 59 / 169, COMPOSITE
170 CAPÍTULO 3
Espacios vectoriales
Teorema 3.20 Sean A ∈ Mm×n y H una forma escalonada equivalente, entonces:
1. Una base del espacio fila de A la forman las filas no nulas de H.
2. Una base del espacio columna de A la forman las columnas de A que corresponden a columnas
con pivote de H.
3. El rango fila de A es el número de filas no nulas de H.
4. El rango columna de A es el número de columnas con pivote de H.
5. Rf (A) = Rc (A).
6. La nulidad de A es el número de columnas sin pivote de H.
Ejemplo 3.65 Hallar:
1. Una base de E f (A) y Rf (A).
2. Una base de Ec (A) y Rc (A).
3. Una base de espacio nulo de A y Nul(A).
Si A es la matriz
⎡
⎢
⎢
⎢
⎢
⎣
Solución
1
1
2
3
1
2
3
5
6
5
⎤
0 −1
1
1
1 −1 ⎥
⎥
1
0
0 ⎥
⎥ .
0
0 −6 ⎦
3
5 −5
Llevemos la matriz a forma escalonada.
⎡
⎢
⎢
A→⎢
⎢
⎣
1
0
0
0
0
2
1
1
0
3
⎤ ⎡
1 2
0 −1
1
⎢ 0 1
1
2 −2 ⎥
⎥ ⎢
⎢
1
2 −2 ⎥
⎥→⎢ 0 0
⎣ 0 0
⎦
0
3 −9
0 0
3
6 −6
⎤
0 −1
1
1
2 −2 ⎥
⎥
0
1 −3 ⎥
⎥.
0
0
0 ⎦
0
0
0
Entonces:
1. Las filas distintas de cero de la forma escalonada constituyen una base para el espacio fila, luego
B = {(1, 2, 0, −1, 1), (0, 1, 1, 2, −2), (0, 0, 0, 1, −3)},
y Rf (A) = 3.
2. Las columnas de A correspondientes a columnas con pivote en la forma escalonada forman una
base del espacio columna, ası́
B = {(1, 1, 2, 3, 1), (2, 3, 5, 6, 5), (1 − 1, 1, 0, 0, 5)},
y Rc (A) = 3.
Page (PS/TeX): 60 / 170, COMPOSITE
Bases y dimensión 171
SECCIÓN 3.4
3. La solución al sistema homogéneo es:
⎡
⎢
⎢
⎢
⎢
⎣
x1
x2
x3
x4
x5
⎤
⎡
⎥ ⎢
⎥ ⎢
⎥=⎢
⎥ ⎢
⎦ ⎣
2s + 10r
−s − 4r
s
3r
r
⎤
⎡
⎢
⎥
⎢
⎥
⎥ = r⎢
⎢
⎥
⎣
⎦
10
−4
0
3
1
⎤
⎡
⎢
⎥
⎢
⎥
⎥+s⎢
⎢
⎥
⎣
⎦
2
−1
1
0
0
⎤
⎥
⎥
⎥.
⎥
⎦
Entonces, una base para el espacio nulo es
B = {(10, −4, 0, 3, 1), (2, −1, 1, 0, 0)},
y Nul(A) = 2.
Definición 3.22 Si A ∈ Mm×n , el rango de A se define como
Rang(A) = Rf (A) = Rc (A).
Ejemplo 3.66 Si A es la matriz del ejemplo precedente,
Rang(A) = 3.
Los dos siguientes teoremas son conclusiones inmediatas de lo precedente y su demostración se deja
como ejercicio al lector.
Teorema 3.21 Si A ∈ Mm×n , entonces Rang(A) + Nul(A) = n. Equivalentemente para el sistema
Ax = 0:
1. Rang(A) = número de variables ligadas.
2. Nul(A) = número de variables libres.
3. Rang(A) + Nul(A) = n.
Teorema 3.22 Si A ∈ Mn×n , A es invertible si y sólo si Rang(A) = n.
Para finalizar este apartado enunciamos y probamos el siguiente teorema que será útil más adelante.
Teorema 3.23 Si A ∈ Mm×n , entonces la matriz simétrica At A y la matriz A tienen el mismo rango;
esto es,
Rang(At A) = Rang(A).
DEMOSTRACIÓN
Q Mostremos que los sistemas Ax = 0 y (At A)x = 0 tienen las mismas soluciones.
Page (PS/TeX): 61 / 171, COMPOSITE
172 CAPÍTULO 3
Espacios vectoriales
1. Si u ∈ Rn es solución de Ax = 0, entonces Au = 0; luego
At (Au) = 0;
por tanto,
(At A)u = 0.
2. Supongamos ahora que v ∈ Rn es solución de (At A)x = 0. Entonces
(At A)v = 0;
por tanto,
(v)t (At A)v = 0;
esto es,
(v t At )Av = 0;
es decir,
(Av)t (Av) = 0;
por ende,
Av2 = 0,
por lo que
Av = 0.
Luego, de 1 y 2, los sistemas Ax = 0 y (At A)x = 0 tienen las mismas soluciones; por tanto,
Nul(A) = Nul(At A),
y dado que A tiene tamaño m × n y At A tiene tamaño n × n, del teorema 3.21 inciso 3 se desprende que
Rang(A) = Rang(At A).
Ejemplo 3.67 Sea
⎡
1
A=⎣ 2
−2
Llevemos A a forma escalonada
⎡
1 −1 2
A = ⎣ 2 −1 0
−2
1 1
⎡
1 −1
2
1 −4
∼⎣ 0
0
0
1
Page (PS/TeX): 62 / 172, COMPOSITE
Q
⎤
−1 2 1
−1 0 1 ⎦ .
1 1 0
⎤ ⎡
1
1
1 ⎦∼⎣ 0
0
0
⎤
1
−1 ⎦ .
1
⎤
−1
2
1
1 −4 −1 ⎦
−1
5
2
SECCIÓN 3.5
Espacios vectoriales sobre los números complejos 173
Entonces
Rang(A) = 3.
Por otro lado,
⎤
⎤
1
2 −2 ⎡
1 −1 2 1
⎥
⎢
−1
−1
1
⎥ ⎣ 2 −1 0 1 ⎦
At A = ⎢
⎣ 2
0
1 ⎦
−2
1 1 0
1
1
0
⎤
⎡
9 −5
0
3
⎢ −5
3 −1 −2 ⎥
⎥.
=⎢
⎣ 0 −1
5
2 ⎦
3 −2
2
2
⎡
Llevemos esta última matriz a forma escalonada
⎤ ⎡
⎡
⎤
⎡
1
9 −5
0
3
9 −5
0
3
⎥ ⎢ −5
⎢ −5
⎥
⎢ −5
3
−1
−2
3
−1
−2
⎥∼⎢
⎥ ∼ ⎢
⎢
⎣ 0 −1
⎣ 0 −1
5
2 ⎦ ⎣ 0
5
2 ⎦
9
1 −1
3
2
3 −2
2
2
⎡
∼
∼
1
⎢ 0
⎢
⎣ 0
0
⎤ ⎡
1
−1
3
2
⎢ 0
1 −7 −4 ⎥
⎥∼⎢
0 −2 −2 ⎦ ⎣ 0
0
0
1
1
3
−1
5
0
⎤
2
−2 ⎥
⎥
2 ⎦
3
⎤
−1
3
2
1 −7 −4 ⎥
⎥
−1
5
2 ⎦
4 −27 −15
⎤ ⎡
1 −1
3
2
1
⎢ 0 −2
⎥ ⎢ 0
14
8
⎢
⎥∼⎢
⎣ 0 −1
5
2 ⎦ ⎣ 0
0
0
4 −27 −15
⎡
−1
3
−1
−5
−1
1
0
0
3
−7
1
0
⎤
2
−4 ⎥
⎥.
1 ⎦
0
De donde
Rang (At A) = 3.
3.5 Espacios vectoriales sobre los números complejos
Es posible considerar espacios vectoriales sobre el campo de los números complejos.25 Esto significa un conjunto E en el que se ha definido una operación suma entre sus elementos (vectores) y una
operación producto de un escalar por un vector, siendo los escalares números complejos, que cumplen los diez axiomas de espacio vectorial de la definición 3.6 (cfr. pág. 131).26 De ser ası́, se tiene un
espacio vectorial sobre el campo de los números complejos o simplemente un espacio complejo.
Todo lo desarrollado en este libro relativo a espacios vectoriales reales (los escalares subyacentes son
1Recomendamos al lector consultar B.1 del apéndice B y los apartados 1.1.5, 1.2.8, 2.1.5 y 2.2.5.
1Obviamente reemplazando el sı́mbolo R por el sı́mbolo C donde corresponda.
25
26
Page (PS/TeX): 63 / 173, COMPOSITE
174 CAPÍTULO 3
Espacios vectoriales
números reales) tiene su sı́mil para espacios sobre el campo de los números complejos, y toda la teorı́a
sigue siendo válida para este tipo de espacios pues depende, en cuanto a la multiplicación de vectores
por escalares, únicamente de las propiedades de campo de los números reales, que son las mismas que
las de los números complejos, y no de propiedades particulares de los números reales como el orden
(propiedad totalmente ausente en C). Es decir, los conceptos de subespacio vectorial, combinaciones
lineales, subespacios generados, independencia lineal, bases, dimensión, etc., siguen siendo los mismos;
excepto que el conjunto de escalares es el campo C.
Ejemplo 3.68 Consideremos Mm×n (C) el conjunto de matrices de tamaño m × n cuyas componentes son números complejos con la suma usual de matrices (sumando en forma compleja componente a componente) y multiplicación de un escalar por una matriz; pero esta vez los escalares son
también números complejos. Es fácil verificar que Mm×n (C) es un espacio vectorial sobre C y que
dim(Mm×n (C)) = mn.
Ejemplo 3.69 Otro ejemplo es Cn , el conjunto de n-adas ordenadas (z1 , . . . , zn ) donde zi ∈ C para
cada i = 1, . . . , n; con las operaciones
(z1 , z2 , . . . , zn ) + (w1 , w2 , . . . , wn ) = (z1 + w1 , z2 + w2 , . . . , zn + wn ),
α(z1 , z2 , . . . , zn ) = (αz1 , αz2 , . . . , αzn ),
donde z j + w j y αz j son las operaciones de suma y multiplicación de números complejos, es fácil probar
con estas operaciones que Cn es un espacio vectorial sobre el campo C, y que
dim(Cn ) = n
(una base para este espacio es también la base canónica de Rn ).
Ejemplo 3.70 Sea el conjunto E = Cn considerado en el ejemplo precedente con la suma entre sus
elementos ahı́ definida, pero con el producto de un escalar por un vector restringido a los números reales.
Es claro que E es un espacio vectorial real. Sean los vectores
j
e j = (0, . . . , 0, 1, 0, . . . , 0) para j = 1, . . . , n, y
n
j
f j = (0, . . . , 0, i, 0, . . . , 0) para j = 1, . . . , n.
n
Claramente los 2n vectores e j , f j , j = 1, . . . , n , son L.I., y si
w = (a1 + b1 i, . . . , an + bn i),
entonces
w =
n
n
j=1
j=1
∑ a je j + ∑ b j f j ;
de donde se desprende que
dim(E) = 2n.
Page (PS/TeX): 64 / 174, COMPOSITE
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 175
P Nota 3.13 Los espacios sobre el campo de los números complejos son de gran importancia en álgebra lineal y están involucrados directa o indirectamente en una gran variedad de aplicaciones de esta
rama de las matemáticas. Se pudo considerar este tipo de espacios desde el inicio, pero por cuestiones
que tienen que ver con aspectos psicológicos, debido a la poca familiaridad que por lo general tienen los
lectores con el campo C, no se hizo y se han incluido secciones donde se ha intentado introducir estos
conceptos gradualmente con el fin de que el lector se vaya adaptando de esta misma forma a espacios
sobre C. Es hasta el final del capı́tulo 5 que se verá la importancia del uso de escalares complejos y
de espacios sobre este campo. Por esta razón, de aquı́ en adelante supondremos que todos los espacios
vectoriales con los que se trabaje serán espacios vectoriales reales, a menos que se indique lo contrario;
en cuyo caso se hará notar que se tiene un espacio complejo.
3.6 Ejercicios resueltos y ejercicios propuestos
3.6.1 Ejercicios resueltos
Geometrı́a de los espacios Rn
En los ejercicios 1 a 8, u = (−1, 3, 4, −2), v = (−2, 5, 3, 2) y w = (1, 0, 4, −2).
11 Calcular 3u − 4v.
Solución
3u − 4v = 3(−1, 3, 4, −2) − 4(−2, 5, 3, 2)
= (−3, 9, 12, −6) − (−8, 20, 12, 8)
= (5, −11, 0, −14) . 12 Encontrar u + 12 w.
Solución
u + 12 w =
=
=
(−1, 3, 4, −2) + 12 (1, 0, 4, −2)
(−1, 3, 4, −2) + 12 , 0, 2, −1
1
− 2 , 3, 6, −3 . 13 Hallar v.
Solución
v =
√
(−2)2 + (5)2 + (3)2 + (2)2 = 42.
14 Calcular d(u,
w).
Solución
Page (PS/TeX): 65 / 175, COMPOSITE
d(u,w) = u − w
= (−1, 3, 4, −2) − (1, 0, 4, −2)
= (−2, 3, 0, 0)
√
= 13. 176 CAPÍTULO 3
Espacios vectoriales
15 Hallar 4u − 2v − w.
4u − 2v − w =
=
=
=
Solución
4(−1, 3, 4, −2) − 2(−2, 5, 3, 2) − (1, 0, 4, −2)
(−4, 12, 16, −8) − (−4, 10, 6, 4) − (1, 0, 4, −2)
(0, 2, 10, −12) − (1, 0, 4, −2)
(−1, 2, 6, −10) . 16 Encontrar un vector unitario (con norma 1) paralelo y con la misma dirección que el vector v.
Por el ejercicio 3, v =
está dado por
Solución
a =
1
v
%
√
42; ası́ que un vector unitario paralelo en la misma dirección
=
√1 (−2, 5, 3, 2)
42
√
√
√
√ &
1
5
1
1
= − 21
42, 42
42, 14
42, 21
42 .
17 Calcular u · (v + w).
u · (v + w) = (−1, 3, 4, −2) · ((−2, 5, 3, 2) + (1, 0, 4, −2))
= (−1, 3, 4, −2) · (−1, 5, 7, 0)
= 44. Solución
18 Encontrar el valor de b tal que (−1, b, 1, −2) ⊥ u; es decir, para que estos vectores sean ortogonales.
Solución
Para que (−1, b, 1, −2) ⊥ u es necesario y suficiente que (−1, b, 1, −2) ·u = 0. Entonces,
(−1, b, 1, −2) · (−1, 3, 4, −2) = 0 ⇒
9 + 3b = 0 ⇒
b = −3. 19 Calcular el área del paralelogramo generado por los vectores (3, 2) y (8, 0) utilizando la interpretación
geométrica del determinante del apartado 3.1.2 (cfr. pág. 117). Comprobar que el resultado es correcto
mediante la fórmula usual para el área de un paralelogramo.
Solución
Sea A =
3 8
2 0
, entonces el área a del paralelogramo es
a = |det(A)|
= 16 u2 .
El área de un paralelogramo es el producto de la base b por la altura h; en este caso b = 8 y h = 2; por
tanto, a = bh = 16u2 . En los ejercicios 10 y 11, los vectores de la base canónica de R3 e1 = (1, 0, 0), e2 = (0, 1, 0) y e3 =
(0, 0, 1) serán representados de la manera tradicional por 'ı, y '
k, respectivamente, y u = (a1 , a2 , a3 ),
v = (b1 , b2 , b3 ) son cualquier par de vectores no paralelos de R3 .
10 Encontrar el conjunto de vectores w = (c1 , c2 , c3 ) ∈ R3 que son perpendiculares tanto a u como a v.
Si a1 = 0 y b1 = 0, entonces el conjunto buscado consiste en los vectores de la forma α'ı.
Se puede suponer entonces, sin perder generalidad, que a1 = 0. Se debe tener entonces u · w = 0 =v · w;
esto es
Solución
Page (PS/TeX): 66 / 176, COMPOSITE
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 177
a1 c1 + a2 c2 + a3 c3 = 0,
b1 c1 + b2 c2 + b3 c3 = 0.
Y ya que
a1
b1
a2
b2
a3
b3
∼
a1
0
a2
a1 b2 − a2 b1
a3
b3 a1 − a3 b1
,
y a1 b2 − a2 b1 = 0, porque u y v no son paralelos, se tiene que el conjunto de vectores ortogonales a u y
v está dado por:
%
& ⎤
⎤ ⎡
⎡
1 b3
c1
− a1 a2 aa3 bb1 −a
r
+
a
r
3
1
1 2 −a2 b1
⎥ ⎢
⎢
⎥
⎢ c2 ⎥ = ⎢
⎥ , r ∈ R. a3 b1 −a1 b3
r
⎦ ⎣
⎣
⎦
a1 b2 −a2 b1
c3
r
11 (Producto cruz de vectores o producto vectorial en R3 ). Elı́jase r = a1 b2 − a2 b1 en el inciso prece-
dente para calcular el vector resultante p que es ortogonal a u y v. Encontrar una fórmula que involucre
al determinante de una matriz adecuada para calcular este vector. Al vector p se le llama producto cruz
o producto vectorial de los vectores u y v y se acostumbra emplear la notación p = u ×v.
u ×v
u
v
Solución
En este caso
a
c3 = a1 b2 − a2 b1 = 1
b1
c2 =
a2
b2
,
a3 b1 − a1 b3
r
a1 b2 − a2 b1
= a3 b1 − a1 b3
a3 a1 ,
=
b3 b1 y
c1 = −
=−
=
1
a1
a3 b1 − a1 b3
a2
r + a3 r
a1 b2 − a2 b1
1
(a2 (a3 b1 − a1 b3 ) + a3 (a1 b2 − a2 b1 ))
a1
1
(a2 a1 b3 − a3 a1 b2 )
a1
= a2 b3 − a3 b2
a2 a3 .
=
b2 b3 Page (PS/TeX): 67 / 177, COMPOSITE
178 CAPÍTULO 3
Espacios vectoriales
p = = = Luego,
a2
b2
a2
b2
'ı
a1
b1
a3 a3
'ı +
b3 b3
a3 a1
'ı −
b3 b1
'
k a2 a3 ,
b2 b3 a
a1 + 1
b1
b1
a
a3 + 1
b3
b1
a2 '
k
b2 a2 '
k
b2 al desarrollar el último determinante por cofactores en la primera fila. 12 Encontrar el producto vectorial de u = (−1, 2, −1) y v = (2, −1, 3).
u ×v =
Solución
=
=
=
'ı
'
k −1 2 −1 2 −1 3 2 −1 −1 −1 + −1 2 '
'ı − −1 3 2 3 2 −1 k
5'ı + − 3'
k
(5, 1, −3). 13 Calcular la magnitud del producto vectorial de cualquier par de vectores u = (a1 , a2 , a3 ) yv = (b1 , b2 , b3 )
de R3 en términos del ángulo θ entre ellos, e interpretar geométricamente el significado de esta magnitud.
Solución
En el apartado 3.1.2 (cfr. pág. 117) se dedujo que el área del paralelogramo generado por
estos dos vectores (cfr. figura 3-9) está dada por
S = u v sen θ ,
donde θ es el ángulo entre ellos; también se concluyó ahı́ que
S2 = u2 v2 − (u ·v)2
= (a21 + a22 + a23 )(b21 + b22 + b23 ) − (a1 b1 + a2 + b2 + a3 b3 )2 .
Por otra parte,
a
u ×v = 2
b2
2
2 a3 a1
+
b3 b1
2 a3 a1
+
b3 b1
2
a2 b2 = (a2 b3 − a3 b2 )2 + (a3 b1 − a1 b3 )2 + (a1 b2 − a2 b1 )2
= a22 b23 − 2a2 b3 a3 b2 + a23 b22 + a23 b21 − 2a3 b1 a1 b3 + a21 b23 + a21 b22 − 2a1 b2 a2 b1 + a22 b21
= a22 b23 + a23 b22 + a23 b21 + a21 b23 + a21 b22 + a22 b21 + a21 b21 + a22 b22 + a23 b23 − a21 b21 − a22 b22 − a23 b23
−2a2 b3 a3 b2 − 2a3 b1 a1 b3 − 2a1 b2 a2 b1
= (a21 + a22 + a23 )(b21 + b22 + b23 ) − (a1 b1 + a2 b2 )2 + 2(a1 b1 a2 b2 )a3 b3 + a23 b23
= (a21 + a22 + a23 )(b21 + b22 + b23 ) − (a1 b1 + a2 b2 + a3 b3 )2
= S2 .
Page (PS/TeX): 68 / 178, COMPOSITE
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 179
De donde
S = u ×v
y
u ×v = u v |sen θ| .
14 Demostrar las propiedades del espacio vectorial de Rn (cfr. pág. 122).
DEMOSTRACIÓN
Q Sean u = (x1 , . . . , xn ), v = (y1 , . . . , yn ), w = (z1 , . . . , zn ) vectores arbitrarios de Rn y λ, β cualquier par
de números reales. Entonces:
1. Dado que la suma de números reales es también un número real,
u +v = (x1 + y1 , . . . , xn + yn ) ∈ Rn .
2. Puesto que la suma de números reales es asociativa,
u + (v + w) = (x1 , . . . , xn ) + ((y1 , . . . , yn ) + (z1 , . . . , zn ))
= (x1 , . . . , xn ) + (y1 + z1 , . . . , yn + zn )
= (x1 + (y1 + z1 ), . . . , xn + (yn + zn ))
= ((x1 + y1 ) + z1 , . . . , (xn + yn ) + zn )
= (x1 + y1 , . . . , xn + yn ) + (z1 , . . . , zn )
= (u +v) + w.
3. Ya que la suma de números reales es una operación conmutativa,
u +v = (x1 , . . . , xn ) + (y1 , . . . , yn )
= (x1 + y1 , . . . , xn + yn )
= (y1 + x1 , . . . , yn + xn )
= (y1 , . . . , yn ) + (x1 , . . . , xn )
= v +u.
4. Como el neutro aditivo de R es 0, se tiene
u +0Rn = (x1 , . . . , xn ) + (0, . . . , 0)
n
= (x1 + 0, . . . , xn + 0)
= (x1 , . . . , xn )
= u.
5. Si x es un número real, existe su inverso aditivo, −x, que satisface x + (−x) = 0; luego, si
−u = (−x1 , . . . , −xn ), se tiene
Page (PS/TeX): 69 / 179, COMPOSITE
180 CAPÍTULO 3
Espacios vectoriales
u + (−u) = (x1 , . . . , xn ) + (−x1 , . . . , −xn )
= (x1 + (−x1 ), . . . , (xn + (−xn ))
= (0, . . . , 0)
n
= 0Rn .
6. Ya que el producto de números reales es también un número real,
λu = λ(x1 , . . . , xn ) = (λx1 , . . . , λxn ) ∈ Rn .
7. Puesto que el producto de números reales es asociativo,
λ(βu) = λ(β(x1 , . . . , xn ))
= λ(βx1 , . . . , βxn )
= (λ(βx1 ), . . . , λ(βxn ))
= ((λβ)x1 , . . . , (λβ)xn )
= (λβ)(x1 , . . . , xn )
= (λβ)u.
8. Dado que el producto se distribuye con respecto a la suma en los números reales,
(λ + β)u = ((λ + β)x1 , . . . , (λ + β)xn )
= (λx1 + βx1 , . . . , λxn + βxn )
= (λx1 , . . . , λxn ) + (βx1 , . . . , βxn )
= λ(x1 , . . . , xn ) + β(x1 , . . . , xn )
= λu + βu.
9. Como el producto de números reales se distribuye con respecto a la suma, se tiene
λ(u +v) = λ((x1 , . . . , xn ) + (y1 , . . . , yn ))
= λ(x1 + y1 , . . . , xn + yn )
= (λ(x1 + y1 ), . . . , λ(xn + yn ))
= (λx1 + λy1 , . . . , λxn + λyn )
= (λx1 , . . . , λxn ) + (λy1 , . . . , λyn )
= λ(x1 , . . . , xn ) + β(y1 , . . . , yn )
= λu + λv.
10. Puesto que 1x = x ∀x ∈ R,
1u =
=
=
=
1(x1 , . . . , xn )
(1x1 , . . . , 1xn )
(x1 , . . . , xn )
u. Q
15 Probar las propiedades 1 (simetrı́a) y 2 (homogeneidad) del producto punto (cfr. pág. 123).
Page (PS/TeX): 70 / 180, COMPOSITE
SECCIÓN 3.6
DEMOSTRACIÓN
Ejercicios resueltos y ejercicios propuestos 181
Q Sea u = (x1 , . . . , xn ), v = (y1 , . . . , yn ) cualquier par de vectores en Rn y λ ∈ R. Entonces:
1. (Simetrı́a). Dado que el producto de números reales es conmutativo, se tiene
u ·v = (x1 , . . . , xn ) · (y1 , . . . , yn )
=
=
n
∑ xi yi
i=1
n
∑ yi xi
i=1
= (y1 , . . . , yn ) · (x1 , . . . , xn )
= v ·u.
2. (Homogeneidad). Puesto que el producto de números reales es asociativo y distributivo,
u · (λv) = (x1 , . . . , xn ) · (λ(y1 , . . . , yn ))
= (x1 , . . . , xn ) · (λy1 , . . . , λyn )
=
=
n
∑ xi (λyi )
i=1
n
∑ λ(xi yi )
i=1
n
= λ ∑ xi yi
i=1
= λ(u ·v).
Q
16 Hallar el ángulo entre u = (−1, 3, 4, −2) y w = (1, 0, 4, −2).
u ·v
θ = arc cos
u v
(−1, 3, 4, −2) · (1, 0, 4, −2)
= arc cos
(−1, 3, 4, −2) (1, 0, 4, −2)
19
= arc cos √ √
30 21
Solución
≈ 0.71212
≈ 40. 801◦ .
2
2
2
17 Demostrar el recı́proco del teorema de Pitágoras, es decir, siu,v ∈ Rn y u +v = u +v , entonces
u y v son ortogonales.
DEMOSTRACIÓN
Q
u2 + v2 =
=
=
=
u +v2
(u +v) · (u +v)
(u +v) ·u + (u +v) ·v
u ·u +v ·u +u ·v +v ·v
= u2 + 2(u ·v) + v2 ⇒
2(u ·v) = 0 ⇒
u ·v = 0. Q
Page (PS/TeX): 71 / 181, COMPOSITE
182 CAPÍTULO 3
Espacios vectoriales
18 Sean ui , i = 1, . . . , k, vectores de Rn que son ortogonales entre sı́; es decir, ui ·u j = 0 si i = j.
(a) Demostrar por inducción la generalización del teorema de Pitágoras; esto es,
u1 +u2 + · · · +uk 2 = u1 2 + u2 2 + · · · + uk 2 .
(b) Si además los vectores ui no son nulos, probar, utilizando el primer inciso, que los vectores ui
son L.I.
DEMOSTRACIÓN
Q (a) El resultado claramente es válido para k = 1. Suponga que la afirmación es cierta para k − 1
vectores. Puesto que los vectores son ortogonales entre sı́, se tiene
k−1
∑ ui
·uk =
i=1
k−1
∑ (ui ·uk ) = 0;
i=1
ui y uk son ortogonales, ası́ que, por el teorema de Pitágoras (teorema
luego los vectores ∑k−1
i=1 3.2, pág. 126),
(u1 + · · · +uk−1 ) +uk 2 = u1 + · · · +uk−1 2 + uk 2
y por hipótesis de inducción
u1 + · · · +uk−1 2 = u1 2 + · · · + uk−1 2 ;
por lo que
u1 + · · · +uk−1 +uk 2 = u1 + · · · +uk−1 2 + uk 2
= u1 2 + · · · + uk−1 2 + uk 2 .
(b) Sean αi , i = 1, . . . , k, escalares tales que
α1u1 + α2u2 + · · · + αkuk = 0Rn .
Puesto que (αiui ) · (α ju j ) = αi α j (ui ·u j ) = αi α j · 0 = 0 si i = j, se sigue que los vectores αiui
son ortogonales entre sı́. Por el inciso precedente, se tiene
0 = α1u1 + α2u2 + · · · + αkuk 2
= α12 u1 2 + α22 u2 2 + · · · + αk2 uk 2 ;
por tanto,
αi2 ui 2 = 0
para todo i.
Ya que los vectores ui no son nulos, se deduce que αi = 0 para todo i = 1, . . . , k, y por ende los
vectores ui son L.I. Q
19 Probar la propiedad 4 (desigualdad triangular) del valor absoluto de la página 127:
|x + y| ≤ |x| + |y|
Page (PS/TeX): 72 / 182, COMPOSITE
∀x, y ∈ R.
SECCIÓN 3.6
DEMOSTRACIÓN
Ejercicios resueltos y ejercicios propuestos 183
Q Sean x, y ∈ R. Dado que a ≤ |a| para todo número real a, se tiene
(x + y)2 = x2 + 2xy + y2
≤ |x|2 + 2|x||y| + |y|2
= (|x| + |y|)2 ,
de donde
y puesto que |a| =
√
(x + y)2 ≤
(|x| + |y|)2 ;
a2 , la anterior desigualdad implica
|x + y| ≤ |x| + |y|.
Q
20 Encontrar la ecuación de un plano que sea perpendicular al plano 3x − 2y + 4z = 12 y pase por el punto
(−1, 2, 1).
Si y = 0 y z = 0 en la ecuación del plano dado, entonces x = 4; ası́ que el punto (4, 0, 0)
pertenece a este plano. Si x = 0 y y = 0 en la ecuación del plano dado, entonces z = 3; por tanto,
(0, 0, 3) pertenece a este plano. Ası́ que el vector (4, 0, −3) es un vector perpendicular al plano que se
está buscando. Entonces
Solución
4(x + 1) + 0(y − 2) − 3(z − 1) = 0
o, equivalentemente,
4x − 3z = −7
resuelve este problema.
Espacios vectoriales
21 Probar que Mm×n con las operaciones usuales de suma de matrices y multiplicación de un escalar por
una matriz es un espacio vectorial.
DEMOSTRACIÓN
Q Sean A = [ai j ], B = [bi j ] y C = [ci j ] matrices arbitrarias de tamaño m × n; y α, β ∈ R cualquier par de
números. Entonces:
1. Puesto que la suma de números reales da como resultado un número real, se tiene ai j + bi j ∈ R
para todo i = 1, . . . , m y para todo j = 1, . . . , n; por tanto,
A + B = [ai j + bi j ] ∈ Mm×n .
2. Dado que la suma de números reales es asociativa, (ai j + bi j ) + ci j = ai j + (bi j + ci j ) para todo
i = 1, . . . , m y para todo j = 1, . . . , n; por tanto,
(A + B) +C = A + (B +C).
Page (PS/TeX): 73 / 183, COMPOSITE
184 CAPÍTULO 3
Espacios vectoriales
3. Ya que la suma de números reales es conmutativa, ai j + bi j = bi j + ai j para todo i = 1, . . . , m y para
todo j = 1, . . . , n; por ende,
A + B = B + A.
4. Como x + 0 = x
∀x ∈ R, ai j + 0 = ai j , para todo i = 1, . . . , m y para todo j = 1, . . . , n; luego
A + O = A.
5. Puesto que para cada x ∈ R existe −x ∈ R tal que x + (−x) = 0, se tiene que si −A = [−ai j ],
entonces
A + (−A) = O.
6. La multiplicación de números reales da como resultado un número real; por tanto, αai j ∈ R para
todo i = 1, . . . , m y para todo j = 1, . . . , n; luego
αA = [αai j ] ∈ Mm×n .
7. La multiplicación de números reales es asociativa; por tanto,
(αβ)A = [(αβ)ai j ]
= [α(βai j )]
= α[βai j ]
= α(βA).
8. La multiplicación de números reales se distribuye con respecto a la suma, entonces,
α(A + B) = α([ai j ] + [bi j ])
= α[ai j + bi j ]
= [α(ai j + bi j )]
= [αai j + αbi j ]
= [αai j ] + [αbi j ]
= α[ai j ] + α[bi j ]
= αA + αB.
9. Puesto que la multiplicación de números reales se distribuye con respecto a la suma,
(α + β)A = (α + β)[ai j ]
= [(α + β)ai j ]
= [αai j + βai j ]
= [αai j ] + [βai j ]
= α[ai j ] + β[ai j ]
= αA + βA.
Page (PS/TeX): 74 / 184, COMPOSITE
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 185
10. Ya que 1x = x para todo x ∈ R, se tiene
1A = 1[ai j ]
= [1ai j ]
= [ai j ]
= A.
Q
22 Sea E el conjunto de matrices 3 × 3 con la operación usual de multiplicación de un escalar por una
matriz pero con la suma definida en la forma A ⊕ B = O, donde O es la matriz cero 3 × 3. Determinar si
E es un espacio vectorial con estas operaciones. En el caso de que E no sea un espacio vectorial indicar
los axiomas que no cumplen.
Sean A, B,C ∈ E y α, β ∈ R. (1) Claramente la suma ⊕ es cerrada. (2) A⊕(B⊕C) = A⊕O =
O = O +C = (A ⊕ B) ⊕C. (3) A ⊕ B = O = B ⊕ A. (4) Si A es la matriz 3 × 3 con a11 = 1 y las demás
componentes iguales a cero, entonces A ⊕ B = O = A ∀B ∈ E, luego E no tiene neutro aditivo. (5) Por
el inciso anterior, no tiene sentido el concepto de inverso aditivo. (6), (7) y (10) se cumplen porque es
la multiplicación usual de un escalar por una matriz. (8) α(A ⊕ B) = αO = αA ⊕ αB. (9) Sea A como
en (4), entonces (1 + 2)A es la matriz 3 × 3 con a11 = 3 y las demás componentes nulas; mientras que
1A ⊕ 2A = O = (1 + 2)A. En resumen, los axiomas 4, 5 y 9 no se cumplen pero los demás sı́. E no es un
espacio vectorial con estas operaciones. Solución
23 Sean E un espacio vectorial y S ⊂ E. Mostrar que S < E (S es un subespacio de E) si y sólo si se cumplen
las dos siguientes condiciones:
/
(i) S = 0.
(ii) αu + βv ∈ S
DEMOSTRACIÓN
∀u,v ∈ S, ∀α, β ∈ R.
Q (⇒) Supongamos que S < E. Entonces S = 0/ pues 0E ∈ S. Sean u,v ∈ S y α, β ∈ R; ya que S < E, la
multiplicación de vectores por escalares y la suma de vectores es cerrada en S, luego αu ∈ S y βv ∈ S;
por tanto αu + βv ∈ S.
(⇐) Supongamos que se cumplen (i) y (ii); entonces, por (i) existe u ∈ S; y por (ii) 0E = 0u ∈ S. Si
w,v ∈ S, y α ∈ R, por (ii) w +v ∈ S y αw ∈ S. Por tanto S < E. Q
24 Sea S el conjunto de todas las funciones, y, derivables hasta el orden dos en todos los puntos de R que
satisfacen la relación
y (x) − y (x) − 6y(x) = 0
∀x ∈ R.
Mostrar que S es un espacio vectorial.
DEMOSTRACIÓN
Q Puesto que S ⊂ F (R), basta probar que S < F (R).
(a) Ya que θ, la función constante cero, satisface θ (x) = 0 y θ (x) = 0 para todo x ∈ R, se tiene
θ ∈ S.
(b) Si f , g ∈ S, entonces f (x) − f (x) − 6 f (x) = 0 y g (x) − g (x) − 6g(x) = 0 para todo x ∈ R.
Luego, para cada x ∈ R,
Page (PS/TeX): 75 / 185, COMPOSITE
186 CAPÍTULO 3
Espacios vectoriales
( f + g) (x) − ( f + g) (x) − 6( f + g)(x) = f (x) − f (x) − 6 f (x)
+g (x) − g (x) − 6g (x) = 0;
por tanto f + g ∈ S.
(c) Si α ∈ R y f ∈ S, entonces f (x) − f (x) − 6 f (x) = 0 para todo x ∈ R, ası́ que
(α f ) (x) − (α f ) (x) − 6(α f ) (x) = α( f (x) − f (x) − 6 f (x))
= α0
=0
∀x ∈ R.
Por tanto, α f ∈ S.
De 1, 2 y 3, S < F (R) y por ende es un espacio vectorial.
Q
25 Una sucesión (an ) de números reales es acotada si existe M > 0 tal que |an | ≤ M para todo n, se dice
entonces que M es una cota para la sucesión. Sea S el subconjunto, del espacio de sucesiones R∞ ,
formado por todas las sucesiones que son acotadas. Probar que S < R∞ .
DEMOSTRACIÓN
Q Sean (an ), (bn ) ∈ S, α ∈ R.
1. Claramente la sucesión constante cero pertenece a S (cualquier número positivo es una cota para
esta sucesión).
2. Sean M1 , M2 > 0 cotas de las sucesiones (an ) y (bn ), respectivamente; esto es, |an | ≤ M1 y |bn | ≤ M2
para todo n. Entonces, por la desigualdad triangular para el valor absoluto de números reales,
|an + bn | ≤ |an | + |bn | ≤ M1 + M2
para todo n, entonces M1 + M2 > 0 es una cota para la sucesión (an + bn ); lo cual implica (an ) +
(bn ) ∈ S.
3. Para cada n,
|αan | = |α||an | ≤ (|α| + 1)M1 .
Ası́, (|α| + 1)M1 > 0 es una cota para la sucesión (αan ); por tanto, α(an ) ∈ S.
De 1, 2 y 3, S < R∞ .
Q
26 (Suma de subespacios). Sean E un espacio vectorial y R, S un par de subespacios. Se define el conjunto,
suma de los subespacios R y S, como
R + S = {u +v |u ∈ R,v ∈ S}.
Mostrar que R + S < E.
Page (PS/TeX): 76 / 186, COMPOSITE
SECCIÓN 3.6
DEMOSTRACIÓN
Ejercicios resueltos y ejercicios propuestos 187
Q (1) Dado que R y S son subespacios de E, 0E ∈ R ∩ S; por lo que, 0E = 0E +0E ∈ R + S. (2) Si
u1 +v1 ,u2 +v2 ∈ R + S, entonces, u1 ,u2 ∈ R y v1 ,v2 ∈ S; por tanto, u1 +u2 ∈ R y v1 +v2 ∈ S; ası́ que
(u1 +v1 ) + (u2 +v2 ) = (u1 +u2 ) + (v1 +v2 ) ∈ R + S.
(3) Si α ∈ R y u +v ∈ R + S, entonces u ∈ R y v ∈ S, por lo que αu ∈ R y αv ∈ S; luego
α(u +v) = αu + αv ∈ R + S.
De 1, 2 y 3, R + S < E. Q
27 (Suma directa). Dado un espacio vectorial E y k subespacios Si ⊂ E, se dice que E es la suma directa
de estos subespacios y se escribe
E = S1 ⊕ S2 ⊕ · · · ⊕ Sk
si:
• E = S1 + S2 + · · · + Sk ; esto es, todo elemento w ∈ E tiene la forma
w = u1 +u2 + · · · +uk ,
con ui ∈ Si para cada i = 1, 2, . . . , k.
• Si ∩ (S1 + S2 + · · · + Si−1 ) = {0E } ∀i, 2 ≤ i ≤ k.
Probar que E es la suma directa de los subespacios S1 , . . . , Sk si y sólo si todo vector w ∈ E se puede
escribir de manera única como w = u1 + · · · +uk , con ui ∈ Si , i = 1, . . . , k.
DEMOSTRACIÓN
k
k
i=1
i=1
Q (⇒) Si E es la suma directa de los subespacios Si , y w = ∑ ui = ∑vi con ui ,vi ∈ Si , entonces
k−1
uk −vk = − ∑ (ui −vi ) ∈ Sk ∩ (S1 + · · · + Sk−1 ) = {0E }
i=1
por tanto uk =vk . Luego,
k−2
uk−1 −vk−1 = − ∑ (ui −vi ) ∈ Sk−1 ∩ (S1 + · · · + Sk−2 ) = {0E },
i=1
de donde uk−1 =vk−1 . De manera análoga se prueba ui =vi para los otros ı́ndices.
(⇐) Claramente E = S1 + · · · + Sk . Sea u ∈ (S1 + · · · + S j−1 ) ∩ S j , entonces existen ui ∈ Si tales que
u = u1 + · · · +u j−1 . Luego
0E = ui + · · · +u j−1 + (−u) +0E + · · · +0E ;
k− j
y por la unicidad de los términos, se desprende que ui = 0E = u ∀ i.
28 Sea Mn el espacio de matrices cuadradas de orden n; del ejemplo 3.25 (pág. 143) el conjunto S1 , de
matrices cuadradas simétricas de orden n, es un subespacio de Mn .
Page (PS/TeX): 77 / 187, COMPOSITE
188 CAPÍTULO 3
Espacios vectoriales
(a) Sea S2 el conjunto de matrices cuadradas A de orden n que son antisimétricas; esto es, At = −A.
Probar que S2 es un subespacio de Mn .
(b) Demostrar que Mn = S1 ⊕ S2 .
DEMOSTRACIÓN
Q (a) Claramente O ∈ S2 . Si A, B ∈ S2 y α, β ∈ R, entonces
(αA + βB)t = αAt + βB t
= α(−A) + β(−B)
= −(αA + βB).
Lo cual prueba que S2 < Mn .
(b) Sean A ∈ Mn , M1 = 12 A + 12 At y M2 = 12 A − 12 At . Claramente A = M1 + M2 , y puesto que
M1t = ( 12 A + 12 At )t = 12 At + 12 A = M1 y
M2t = ( 12 A − 12 At )t = 12 At − 12 A = −M2 ,
se tiene que M1 ∈ S1 y M2 ∈ S2 ; con lo que se ha probado que Mn = S1 + S2 . Si M ∈ S1 ∩ S2 ,
entonces M t = M y M t = −M, de donde M = −M; por tanto, M = O; es decir, S1 ∩ S2 = {O}.
Luego Mn = S1 ⊕ S2 . Q
29 (Espacio cociente). Sean E un espacio vectorial y S ⊂ E un subespacio.
(a) Se define la siguiente relación entre los elementos de E:
u ∼v ⇔ u −v ∈ S.
Probar que esta relación es de equivalencia; esto es, (i) u ∼ u ∀u ∈ E (reflexividad); (ii) si
u,v ∈ E, u ∼v ⇒v ∼ u (simetrı́a); (iii) si u,v,w ∈ E, u ∼v,v ∼ w ⇒ u ∼ w (transitividad).
(b) Para cada u ∈ E, el sı́mbolo [u] representa la clase de equivalencia del vector u; es decir, el
conjunto de vectores que están relacionados con u. Probar que dos clases de equivalencia o son
disjuntas (su intersección es vacı́a) o son iguales.
(c) Si
E/S = {[u] |u ∈ E},
se definen
[u] + [v] = [u +v]
y
α[u] = [αu]
para cada [u], [v] ∈ E/S y para cada α ∈ R. Probar que las operaciones [u] + [v] y α[u] están bien
definidas; esto es, que no dependen de los representantes de cada clase de equivalencia; o sea,
que si [u] = [u ] y [v] = [v ], entonces [u +v] = [u +v ] y [αu] = [αu ].
Page (PS/TeX): 78 / 188, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 189
SECCIÓN 3.6
(d) Probar que E/S, junto con las operaciones definidas en el inciso precedente, es un espacio vectorial (llamado espacio cociente del subespacio S).
DEMOSTRACIÓN
Q (a) Sean u,v,w vectores arbitrarios de E.
ii(i) u −u = 0E ∈ S, porque S < E. Por tanto u ∼ u.
i(ii) u ∼v ⇒ u −v ∈ S
(porque S<E)
⇒
v −u = −(u −v) ∈ S ⇒v ∼ u.
(iii) u ∼v y v ∼ w ⇒ u −v,v − w ∈ S
(porque S<E)
⇒
u − w = (u −v) + (v − w) ∈ S ⇒ u ∼ w.
/ entonces existe w ∈ E tal que u ∼ w y w ∼v; lo cual implica u ∼v; por
(b) Si u,v ∈ E y [u] ∩ [v] = 0,
tanto, [u] = [v].
(c) Sean u,u ,v,v ∈ E tales que u ∼ u y v ∼ v (esto es, [u] = [u ], [v] = [v ]). Entonces u −u ∈ S
y v −v ∈ S, y puesto que S < E, se tiene (u +v) − (u +v ) ∈ S, lo cual implica u +v ∼ u +v ;
por tanto, [u +v] = [u +v ]. Si u ∼ u , entonces u −u ∈ S y, ya que este último es subespacio,
se tiene αu − αu ∈ S; por lo que [αu] = [αu ].
(d) Sean u,v y w vectores arbitrarios de E y α, β cualquier par de números reales.
1. Claramente [u] + [v] = [u +v] ∈ S.
[u] + ([v] + [w]) = [u] + [v + w]
2.
= [u + (v + w)]
= [(u +v) + w]
= [u +v] + [w].
[u] + [v] = [u +v]
3.
= [v +u]
= [v] + [u].
4. (Note que [0E ] = S.)
[u] + [0E ] = [u +0E ]
= [u].
5.
[u] + [−u] = [0E ].
6. Por definición, α[u] ∈ E/S.
7.
α(β[u]) = α[βu]
= [α(βu)]
= [(αβ)u]
= (αβ)[u].
8.
(α + β)[u] = [(α + β)u]
= [αu + βu]
= [αu] + [βu]
= α[u] + β[u].
Page (PS/TeX): 79 / 189, COMPOSITE
190 CAPÍTULO 3
Espacios vectoriales
α([u] + [v]) = α[u +v]
9.
= [α(u +v)]
= [αu + αv]
= [αu] + [αv]
= α[u] + α[v].
1[u] = [1u]
= [u].
10.
Los incisos 1 a 10 implican que E/S es un espacio vectorial.
Q
30 Sea Λ un conjunto no vacı́o y Sλ , λ ∈ Λ, una familia de subespacios de un espacio vectorial E. Sea
S=
Sλ = {u ∈ E |u ∈ Sλ para todo λ ∈ Λ}.
λ∈Λ
Probar que S es un subespacio de E.
DEMOSTRACIÓN
Q (a) Puesto que Sλ < E ∀λ ∈ Λ, 0E ∈ Sλ para todo λ; por tanto 0E ∈ S.
(b) Sean u,v ∈ S y α ∈ R.
(i) Ya que u,v ∈ Sλ < E para todo λ, se tiene u +v ∈ Sλ < E para todo λ, y en consecuencia
u +v ∈ S.
(ii) u ∈ S ⇒ u ∈ Sλ para todo λ y como Sλ < E, αu ∈ Sλ ∀λ ∈ Λ; por tanto, αu ∈ S.
De (a) y (b), S < E.
Q
31 (Subespacio generado por un conjunto). Sean E un espacio vectorial y C ⊂ E. Se denota por L (C)
la intersección de todos los subespacios de E que contienen a C. Por el inciso anterior L (C) es un
subespacio de E, llamado el subespacio generado por el conjunto C. Probar que L (C) es el menor
subespacio que contiene a C; es decir, que cualquier subespacio que contenga a C contiene también a
L (C).
DEMOSTRACIÓN
Q Sea W < E que contiene a C, entonces
W ∈ {V |V es subespacio de E y C ⊂ V } = Λ;
luego, si u ∈ L (C), que es la intersección de todos los elementos de Λ, u ∈ W porque W ∈ Λ; por tanto,
L (C) ⊂ W . Q
32 Sea L (C) como en el inciso anterior.
/
(a) Determinar L (0).
/ entonces L (C) es el conjunto de todas las posibles combinaciones lineales
(b) Probar que si C = 0,
de elementos de C.
(c) Mostrar que si C = {u1 ,u2 , . . . ,un }, con los ui ∈ E, entonces
L (C) = gn(u1 ,u2 , . . . ,un ).
Page (PS/TeX): 80 / 190, COMPOSITE
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 191
(a) El subespacio trivial {0E } está contenido en todo subespacio de E, y 0/ ⊂ {0E } (porque
/ = {0E }.
el conjunto vacı́o está contenido en cualquier conjunto); por tanto, L (0)
(b) Sea S el conjunto de todas las posibles combinaciones lineales de vectores en C; esto es, v ∈ S si
y sólo si existen u1 , . . . ,uk ∈ C y αi ∈ R, i = 1, . . . , k, tales quev = ∑ki=1 αiui . Como C es no vacı́o,
tiene por lo menos un elemento u; por tanto, 0E = 0u ∈ S. Si v1 = ∑ki=1 αiui y v2 = ∑m
wi
i=1 βi pertenecen a S, y a, b ∈ R, entonces los ui y los wi pertenecen a C; por tanto,
Solución
k
m
i=1
i=1
av1 + bv2 = a ∑ αiui + b ∑ βi wi
k
m
i=1
i=1
= ∑ (aαi )ui + ∑ (bβi )wi ∈ S.
Lo cual demuestra que S < E. Claramente C ⊂ S (si u ∈ C, u = 1u ∈ S). Sea W un subespacio
que contiene a C, entonces si v = ∑ki=1 αiui ∈ S, los ui ∈ C ⊂ W ; por tanto (ya que W < E)
v = ∑ki=1 αiui ∈ W ; luego S ⊂ V para todo subespacio V que contiene a C, lo cual implica S =
L (C).
(c) Es inmediata del inciso anterior y de la definición de gn(u1 , . . . ,un ).
33 Encontrar condiciones sobre a, b, c para que el vector (a, b, c) pertenezca al espacio generado por
u1 = (1, −2, 1),
u2 = (2, −1, 3)
y u3 = (−3, 0, −5).
¿R3 está generado por u1 , u2 , u3 ?
Solución
(a, b, c) ∈ gn(u1 ,u2 ,u3 ) si el sistema x1u1 + x2u2 + x3u3 = (a, b, c) es consistente y ya que
⎤
⎤
⎡
⎡
a
1 2 −3
1
2 −3 a
⎣ −2 −1
0 b ⎦ ∼ ⎣ 0 3 −6 2a + b ⎦
c−a
0 1 −2
1
3 −5 c
⎤
⎡
a
1 2 −3
c−a ⎦
∼ ⎣ 0 1 −2
0 3 −6 2a + b
⎤
⎡
a
1 2 −3
c−a ⎦,
∼ ⎣ 0 1 −2
0 0
0 5a + b − 3c
esto sucede si 5a+b−3c = 0. Por tanto, R3 no está generado por u1 , u2 , u3 ; pues, por ejemplo, (1, 1, 1) ∈
/
gn(u1 ,u2 ,u3 ) ya que 5(1) + (1) − 3(1) = 3 = 0. 34 Probar que gn(1, x) = gn(2 + 3x, x).
DEMOSTRACIÓN
Q
1 = a(2 + 3x) + bx ⇒
1 = 2a + (3a + b)x ⇒
a =
por tanto, 1 ∈ gn(2 + 3x, x).
Page (PS/TeX): 81 / 191, COMPOSITE
3
1
yb=− ;
2
2
192 CAPÍTULO 3
Espacios vectoriales
x = a(2 + 3x) + bx ⇒
x = 2a + (3a + b)x ⇒
a = 0 y b = 1;
por tanto, x ∈ gn(2 + 3x, x). Ası́ que gn(1, x) ⊂ gn(2 + 3x, x). Por otra parte,
2 + 3x = 2 · 1 + 3 · x,
x = 0 · 1 + 1 · x,
por lo que 2 + 3x, x ∈ gn(1, x); luego gn(2 + 3x, x) ⊂ gn(1, x). Por tanto,
gn(2 + 3x, x) = gn(1, x).
Q
Dependencia e independencia lineal
35 Sean f1 (x) = 1, f2 (x) = eax y f3 (x) = ebx , con a = 0, b = 0 y a = b; y J = R.
(a) Probar que las funciones f1 , f2 y f3 son L.I. en J; es decir, en F (J), aplicando directamente la
definición 3.15 (pág. 151).
(b) Demostrar que las funciones f1 , f2 y f3 son L.I. en J utilizando el wronskiano de estas funciones
(cfr. ejemplo 3.44, pág. 155).
Solución
(a) Sean α1 , α2 , α3 ∈ R tales que
α1 · 1 + α2 · eax + α3 · ebx = 0
∀x ∈ R;
esto es,
α1 + α2 eax + α3 ebx = 0
∀x ∈ R.
En particular, si x = 0, x = 1 y x = 2 se tiene, respectivamente,
α1 + α2 + α3 = 0,
α1 + α2 ea + α3 eb = 0 y
α1 + α2 e2a + α3 e2b = 0.
Y puesto que
⎡
1
⎣ 1
1
1
ea
e2a
⎤
1
eb ⎦
e2b
⎡
1
∼ ⎣ 0
0
⎡
1
⎢ 0
∼ ⎣
1
ea − 1
e2a − 1
0
e2a − 1
⎡
1
1
1 1
⎢ 0 1
∼ ⎣
⎤
1
eb − 1 ⎦
e2b − 1
⎤
1
eb −1
⎥
ea −1
⎦
e2b − 1
1
eb −1
ea −1
⎤
⎥
⎦,
0 0 (1 − eb )(ea − eb )
y a = 0, b = 0, a = b, se debe tener α1 = α2 = α3 = 0. Por lo que f1 , f2 y f3 son L.I. en J.
Page (PS/TeX): 82 / 192, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 193
SECCIÓN 3.6
(b) Para cada x ∈ J,
1
eax
W ( f1 , f2 , f3 )(x) = 0 aeax
0 a2 eax
.
ebx
bebx
b2 ebx
En particular,
1 1 1 W ( f1 , f2 , f3 )(0) = 0 a b 0 a2 b2 = ab2 − ba2
= ab(b − a)
=0
pues a = b y a = 0, b = 0. Luego f1 , f2 y f3 son L.I. en J.
36 Sean
A=
−1
2
2
−3
1
1
B=
,
2 3 1
−1 1 1
y C=
−4
5
1 1
−7 1
.
Determinar si A, B y C son L.I. o L.D. en M2×3 .
Solución
Las matrices son L.D. si el sistema
α1 A + α2 B + α3C = O
tiene solución no trivial; el cual equivale a
−α1 + 2α2 − 4α3 2α1 + 3α2 + α3
2α1 − α2 + 5α3 −3α1 + α2 − 7α3
α1 + α2 + α3
α1 + α2 + α3
=
0 0 0
0 0 0
es decir,
−α1 + 2α2 − 4α3 = 0
2α1 + 3α2 + α3 = 0
α1 + α2 + α3 = 0
2α1 − α2 + 5α3 = 0
−3α1 + α2 − 7α3 = 0
α1 + α2 + α3 = 0.
Y como
⎡
⎢
⎢
⎢
⎢
⎢
⎣
Page (PS/TeX): 83 / 193, COMPOSITE
−1
2 −4
2
3
1
1
1
1
2 −1
5
−3
1 −7
1
1
1
⎤
⎡
⎥ ⎢
⎥ ⎢
⎥ ⎢
⎥∼⎢
⎥ ⎢
⎦ ⎣
−1
2 −4
0
7 −7
0
3 −3
0
3 −3
0 −5
5
0
3 −3
⎤
⎡
⎥ ⎢
⎥ ⎢
⎥ ⎢
⎥∼⎢
⎥ ⎢
⎦ ⎣
−1
0
0
0
0
0
⎤
2 −4
1 −1 ⎥
⎥
0
0 ⎥
⎥,
0
0 ⎥
0
0 ⎦
0
0
;
194 CAPÍTULO 3
Espacios vectoriales
se tiene
⎤
⎤
⎡
⎤ ⎡
−2
α1
−2r
⎣ α2 ⎦ = ⎣
r ⎦ = r⎣ 1 ⎦.
1
r
α3
⎡
Ası́, el sistema α1 A + α2 B + α3C = O tiene solución no trivial (por ejemplo α1 = −2, α2 = 1 = α3 ); por
tanto, las matrices A, B y C son L.D. en M2×3 . 37 Determinar si los polinomios p = x3 − 4x2 + 2x + 3, q = x3 + 2x2 + 4x − 1 y r = 2x3 − x2 + 3x + 5 son
L.I. o L.D. en P3 .
Solución
Se requiere encontrar escalares α1 , α2 y α3 tales que
α1 p + α2 q + α3 r = 0,
donde 0 es el polinomio constante cero; esto es,
(α1 + α2 + 2α3 ) x3 + (−4α1 + 2α2 − α3 ) x2 + (2α1 + 4α2 + 3α3 ) x + 3α1 − α2 + 5α3 = 0
que equivale, por igualdad de polinomios, a
α1 + α2 + 2α3 = 0
−4α1 + 2α2 − α3 = 0
2α1 + 4α2 + 3α3 = 0
3α1 − α2 + 5α3 = 0.
Puesto que
⎡
1
1
⎢ −4
2
⎢
⎣ 2
4
3 −1
⎤
2
−1 ⎥
⎥ ∼
3 ⎦
5
⎡
1
⎢ 0
⎢
⎣ 0
0
⎡
1
⎢ 0
⎢
∼ ⎣
0
0
⎡
1
⎢ 0
⎢
∼ ⎣
0
0
⎡
1
⎢ 0
∼ ⎢
⎣ 0
0
⎤
2
7 ⎥
⎥
−1 ⎦
−1
⎤
1
2
2 −1 ⎥
⎥
6
7 ⎦
−4 −1
⎤
1
2
2 −1 ⎥
⎥
0 10 ⎦
0 −3
⎤
1
2
2 −1 ⎥
⎥,
0 10 ⎦
0
0
1
6
2
−4
se tiene que α1 p + α2 q + α3 r = 0 tiene por solución α1 = α2 = α3 = 0, por lo que p, q y r son L.I. en
P3 . 38 Sean u1 , u2 y u3 vectores L.I. en un espacio vectorial E. Probar quev1 = 5u1 ,v2 = 3u1 −u2 yv3 =u1 +u3
son también linealmente independientes.
Page (PS/TeX): 84 / 194, COMPOSITE
SECCIÓN 3.6
DEMOSTRACIÓN
Ejercicios resueltos y ejercicios propuestos 195
Q Sean α1 , α2 , α3 ∈ R tales que
α1v1 + α2v2 + α3v3 = 0E ,
entonces
(5α1 + 3α2 + α3 )u1 + (−α2 )u2 + α3u3 = 0E ,
y puesto que u1 , u2 y u3 son L.I.,
5α1 + 3α2 + α3 = 0
−α2 = 0
α3 = 0,
de donde α1 = α2 = α3 = 0. Luego u1 , u2 y u3 son L.I. Q
39 Sean u1 ,u2 ∈ Rn vectores L.I. y A ∈ Mn una matriz no singular (invertible). Demostrar que v1 = Au1 y
v2 = Au2 son también vectores L.I.
DEMOSTRACIÓN
Q Sean α1 y α2 escalares tales que
α1v1 + α2v2 = 0Rn ,
esto es,
0Rn = α1 (Au1 ) + α2 (Au2 )
= A(α1u1 + α2u2 ).
Como A es no singular, la anterior igualdad implica
α1u1 + α2u2 = A−10Rn = 0Rn ,
y dado que u1 y u2 son vectores L.I., se debe tener α1 = α2 = 0; por tanto, v1 y v2 son L.I. Q
40 Sean E un espacio vectorial, u1 , . . . ,uk vectores en este espacio, y S = gn(u1 , . . . ,uk ). Demostrar que
los vectores ui son L.I. si y sólo si todo vector u ∈ S se puede escribir como combinación lineal de los
vectores ui de manera unı́voca (esto es, si u = ∑ki=1 ai ui y u = ∑ki=1 biui , entonces ai = bi ∀i).
DEMOSTRACIÓN
Q (⇒) Si los vectores ui son L.I. y u = ∑ki=1 aiui = ∑ki=1 biui , entonces
0E = ∑ki=1 aiui − ∑ki=1 aiui
= ∑ki=1 (ai − bi )ui
implica ai = bi ∀i = 1, . . . , k. (⇐) Sean ai escalares tales que ∑ki=1 aiui =0E . Si todo vector de S se puede
escribir de manera unı́voca como combinación lineal de los vectores ui , en particular 0E = ∑ki=1 0ui ; por
tanto, ai = 0 para todo i = 1, . . . , k. Lo cual prueba que los vectores ui son L.I. Q
41 Probar que las funciones f1 (x) = cos x, f2 (x) = cos 2x, f3 (x) = cos 3x y f4 (x) = cos 4x son L.I. en
J = (−∞, ∞); es decir, en F (J).
Page (PS/TeX): 85 / 195, COMPOSITE
196 CAPÍTULO 3
DEMOSTRACIÓN
Espacios vectoriales
Q
W ( f1 , f2 f3 , f4 )(x) = cos x
− sen x
− cos x
sen x
cos 2x
−2 sen 2x
−22 cos 2x
23 sen 2x
√
2
2
√
− 2
2
W ( f1 , f2 f3 , f4 )(π/4) = √
2
−
2
√
2
2
√ 2 2 =
2
√ 2 2 =
2
√ 2 2 =
2
0
−2
0
23
cos 3x
−3 sen 3x
−32 cos 3x
33 sen 3x
√
2
−
2
√
2
−3
2
√
2
32
2
√
2
33
2
cos 4x
−4 sen 4x
−42 cos 4x
43 sen 4x
.
−1 0 42 0 1
0 −1 −1 −1 −2 −3 0 −1 0
32 42 1
23 33
0 1 0 −1 −1 0 −2 −4 −1 0 0
8
15 0 8
28
1 1 0 −1 −1 0 −2 2 −1 0 0
8
15 0 0
12 −3 √ 2
2
=
(−2)(−24 − 180)
2
= 204 = 0.
Ya que el wronskiano de estas funciones es distinto de cero en un punto de J (cfr. ejemplo 3.44,
pág. 155), f1 , f2 , f3 y f4 son L.I. en J = (−∞, ∞). Q
Bases y dimensión
42 Demostrar que el conjunto infinito U = {e x , e 2x , . . . , e nx , . . .} es L.I. en F (R), el espacio de funciones
f : R → R.
DEMOSTRACIÓN
Q Sea F un subconjunto finito cualquiera de U, entonces F está contenido en un conjunto de la forma
Fn = {e x , e 2x , . . . , e nx } para algún entero positivo n; luego es suficiente probar que este último conjunto
es L.I. para que F sea L.I.; por tanto, U también. Se procede por inducción sobre n: si n = 1, entonces
Fn = {e x } que es L.I. porque f (x) = e x no es la función constante cero. Sea n un entero mayor a 1 y
suponga que el conjunto Fn−1 = {e x , e 2x , . . . , e(n−1)x } es L.I. Sean αi , i = 1, 2, . . . , n, escalares tales que
Page (PS/TeX): 86 / 196, COMPOSITE
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 197
α1 e x + α2 e 2x + · · · + αn−1 e(n−1)x + αn e nx = 0
(L1)
para todo x ∈ R. Al derivar la precedente igualdad se obtiene
α1 e x + 2α2 e 2x + · · · + (n − 1)αn−1 e(n−1)x + nαn e nx = 0
(L2)
para todo x ∈ R. Al multiplicar la igualdad (L1) por n y restar con la igualdad (L2) se produce
α1 (n − 1)e x + α2 (n − 2)e 2x + · · · + αn−1 (n − (n − 1))e(n−1)x = 0
para todo x ∈ R. Por hipótesis de inducción las funciones e x , e 2x , . . . , e(n−1)x son L.I., y puesto que
n = 1, . . . , n − 1, la igualdad anterior implica
α1 = α2 = · · · = αn−1 = 0.
Luego, al sustituir estos valores en (L1) se desprende que
αn enx = 0 ∀x ∈ R;
y por tanto (ya que f (x) = enx no es la función constante cero) αn = 0. Lo cual prueba que las funciones
e kx , k = 1, . . . , n, son L.I. en F (R) para todo n. Q
43 Sea Pn el espacio de polinomios de grado a lo más n y
S = {p ∈ Pn | p(0) = 0}.
Mostrar que S < Pn y determinar dim(S).
(1) Claramente el polinomio constante cero, θ, satisface θ(0) = 0; por lo que θ ∈ S. (2) Si
p1 , p2 ∈ S, entonces p1 (0) = p2 (0) = 0; por lo que p1 (0) + p2 (0) = 0; por tanto, p1 + p2 ∈ S. (3) Si
p ∈ S y α ∈ R, entonces αp(0) = α0 = 0; por tanto, αp ∈ S. De (1), (2) y (3), S < Pn . Los polinomios
x, x2 , . . . , x n pertenecen a S y son L.I. (pues forman parte del conjunto L.I. 1, x, . . . , x n ). Si p ∈ S, x = 0
es raı́z de p; por tanto, existe un polinomio q de grado a lo más n − 1, q = a0 + a1 x + · · · + an−1 x n−1 , tal
que
Solución
p = xq
= a0 x + a1 x2 + · · · + an−1 x n .
Luego los polinomios L.I. x, x2 , . . . , x n generan a S, por tanto forman una base para este subespacio;
ası́ que
dim(S) = n.
44 Sean α, β ∈ R un par de números reales con β = 0. Sea S el conjunto de sucesiones de números reales
que satisfacen la relación
xn+2 + αxn+1 + βxn = 0 ∀n
(a) Mostrar que S < R∞ .
Page (PS/TeX): 87 / 197, COMPOSITE
(*)
198 CAPÍTULO 3
Espacios vectoriales
(b) Probar que si λ, μ ∈ R son raı́ces distintas del polinomio X 2 + αX + β = 0, entonces las sucesiones u = (un ) y v = (vn ), con un = λn y vn = μn , pertenecen a S.
(c) Demostrar que {u, v} es una base de S.
DEMOSTRACIÓN
Q (a) Claramente la sucesión constante cero satisface la relación (*). Sean x = (xn ) y y = (yn ) un par
de sucesiones en S y a, b ∈ R, entonces,
axn+2 + byn+2 + α(axn+1 + byn+1 ) + β(axn + byn ) =
=
=
=
a(xn+2 + αxn+1 + βxn )
+ b(yn+2 + αyn+1 + βyn )
a0 + b0
0;
por tanto, ax + by ∈ S. Lo cual prueba S < R∞ .
(b) Puesto que λ es raı́z de X 2 + αX + β = 0, se tiene
un+2 + αun+1 + βun = λn+2 + αλn+1 + βλn
= λn (λ2 + αλ + β)
= λn · 0
= 0 ∀n.
Análogamente se prueba que vn+2 + αvn+1 + βvn = 0. Ası́ u, v ∈ S.
(c) (i) Dado que β = 0, se concluye λ = 0, μ = 0. Sean a, b ∈ R tales que au + bv = 0. Entonces
aλ + bμ = 0 y
aλ2 + bμ2 = 0.
Al multiplicar la primer igualdad por −μ y sumarla con la segunda se obtiene
aλ(λ − μ) = 0,
y puesto que λ = 0, μ = 0 y λ = μ se desprende que a = 0 y b = 0. Luego u y v son L.I.
(ii) Dado que λ y μ son raı́ces de la ecuación cuadrática X 2 + αX + β = 0, satisfacen
−α = λ + μ y
β = λμ.
Sea x = (xn ) ∈ S. Sean C1 ,C2 ∈ R las únicas soluciones del sistema
C1 λ +C2 μ = x1
C1 λ2 +C2 μ2 = x2 ;
esto es,
μx1 − x2
λ(μ − λ)
x2 − λx1
C2 =
μ(μ − λ)
C1 =
Page (PS/TeX): 88 / 198, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 199
SECCIÓN 3.6
Por construcción de C1 y C2 ,
xn = C1 λn +C2 μn
(**)
se cumple para n = 1 y n = 2. Sea k un entero mayor a 2 y suponga que la precedente igualdad
es válida para todo entero m con 2 < m ≤ k − 1. Entonces, por (*),
xk =
=
=
=
=
−αxk−1 − βxk−2
(λ + μ)xk−1 − λμxk−2
(λ + μ)(C1 λk−1 +C2 μk−1 ) − λμ(C1 λk−2 +C2 μk−2 )
C1 λk +C2 μk +C1 λk−1 μ +C2 μk−1 λ −C1 λk−1 μ −C2 μk−1 λ
C1 λk +C2 μk .
Se sigue por inducción que (**) se cumple para todo n; por tanto, x = C1 u + C2 v para todo
x ∈ S; es decir, u, v generan a S. Q
45 Sean R, S un par de subespacios de un espacio vectorial E de dimensiones finitas r y s, respectivamente.
Mostrar que
dim(R + S) = dim(R) + dim(S) − dim(R ∩ S),
donde R + S es la suma de estos subespacios definida en el ejercicio resuelto 26 de esta sección y R ∩ S
es el subespacio formado por la intersección de los subespacios R y S (cfr. ejercicio resuelto 30).
DEMOSTRACIÓN
Q Sean {u1 , . . . ,uk } una base de R ∩ S. Puesto que R ∩ S < R y R ∩ S < S, se puede completar, mediante el proceso dado en la página 167, ésta a una base {u1 , . . . ,uk ,e1 , . . . ,er−k } de R y a una base
{u1 , . . . ,uk , f1 , . . . , fs−k } de S. Sea u +v ∈ R + S, entonces
k
r−k
i=1
i=1
k
s−k
i=1
i=1
u = ∑ αiui + ∑ βiei
para algunos escalares αi , βi , y
v = ∑ αiui + ∑ γi fi
para algunos escalares αi , γi ; luego
k
r−k
s−k
i=1
i=1
i=1
u +v = ∑ (αi + αi )ui + ∑ βiei + ∑ γi fi
lo cual prueba que R + S está generado por los r + s − k vectores u1 , . . . ,uk ,e1 , . . . ,er−k , f1 , . . . , fs−k . Sean
αi , βi , γi escalares tales que
k
r−k
s−k
i=1
i=1
i=1
s−k
k
r−k
i=1
i=1
i=1
∑αiui + ∑ βiei + ∑ γi fi = 0E .
De donde
∑ γi fi = −∑αiui − ∑ βiei ∈ R;
Page (PS/TeX): 89 / 199, COMPOSITE
200 CAPÍTULO 3
Espacios vectoriales
por tanto,
s−k
∑ γi fi ∈ R ∩ S.
i=1
Ası́ que existen escalares −δi tales que
s−k
k
i=1
i=1
∑ γi fi = ∑(−δi )ui ;
por ende,
k
s−k
i=1
i=1
∑ δiui + ∑ γi fi = 0E .
Como los vectores u1 , . . . ,uk , f1 , . . . , fs−k son L.I., se debe tener entonces que los escalares γi son nulos;
por tanto
k
r−k
i=1
i=1
∑ αiui + ∑ βiei = 0E
y ya que los vectores u1 , . . . ,uk ,e1 , . . . ,er−k son L.I., se tiene que los escalares αi , βi son también nulos.
Se ha probado ası́ que los vectores u1 , . . . ,uk , e1 , . . . ,er−k , f1 , . . . , fs−k forman una base de R + S, por lo
que
dim(R + S) = r + s − k
= dim(R) + dim(S) − dim(R ∩ S). Q
46 (Ecuación de un subespacio de Rn ). Sea S el subespacio generado por (1, 2, 1) y (−1, 2, 2). Encontrar
un sistema homogéneo Ax = 0R3 tal que su espacio solución (espacio nulo) sea el espacio S. A dicho
sistema, Ax = 0R3 , se le llama ecuación del subespacio S.
Solución
Un primer método: Si (x, y, z) ∈ S, entonces
(x, y, z) = a(1, 2, 1) + b(−1, 2, 2)
= (a − b, 2a + 2b, a + 2b) ;
por tanto, se debe tener
a−b = x
2a + 2b = y
a + 2b = z;
que implican
y − 2x = 4b
z − x = 3b;
por ende,
2x − 3y + 4z = 0
es la ecuación del subespacio S.
Page (PS/TeX): 90 / 200, COMPOSITE
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 201
Un segundo método: Si (x, y, z) ∈ S, entonces (x, y, z) es combinación lineal del par de vectores L.I.
(1, 2, 1) y (−1, 2, 2). Ası́ que si A es la matriz cuyas filas son estos vectores, al llevar a forma escalonada
la última fila debe ser nula:
⎤
⎤
⎡
⎡
1
2
1
1 2 1
⎣ −1 2 2 ⎦ ∼ ⎣ 0
4
3 ⎦
0 y − 2x z − x
x y z
⎤
⎡
1 2
1
⎦;
3
∼ ⎣ 0 4
0 0 2x − 3y + 4z
por tanto,
2x − 3y + 4z = 0
es la ecuación del subespacio S.
47 Sean S1 = gn((1, 0, −1), (1, −1, 0)) y S2 = gn((2, 1, 0), (−2, 0, 1)). Hallar:
(a) Una base y la dimensión de S1 + S2 .
(b) Una base y la dimensión de S1 ∩ S2 .
Solución
(a) S1 + S2 está generado por (1, 0, −1), (1, −1, 0), (2, 1, 0), (−2, 0, 1) y puesto que
⎤
⎤ ⎡
⎡
1
1 2 −2
1
1 2 −2
⎣ 0 −1 1
0 ⎦
0 ⎦ ∼ ⎣ 0 −1 1
0
0 3 −1
−1
0 0
1
una base para este espacio es {(1, 0, −1), (1, −1, 0), (2, 1, 0)}. Por tanto, dim(S1 + S2 ) = 3; es decir,
S1 + S2 = R3 .
(b) Dado que
⎤
⎤
⎡
⎡
1 0
−1
1
0 −1
⎣ 1 −1
1 ⎦
0 ⎦ ∼ ⎣ 0 −1
0 y x+z
x
y
z
⎤
⎡
1 0
−1
⎦;
1
∼ ⎣ 0 −1
0 0 x+y+z
una ecuación para el espacio S1 es
x + y + z = 0.
Puesto que
⎤
⎤
⎡
2
1
0
2 1 0
⎣ −2 0 1 ⎦ ∼ ⎣ 0
1
1 ⎦
0 2y − x 2z
x y z
⎤
⎡
2 1
0
⎦;
1
∼ ⎣ 0 1
0 0 x − 2y + 2z
⎡
Page (PS/TeX): 91 / 201, COMPOSITE
202 CAPÍTULO 3
Espacios vectoriales
una ecuación para el subespacio S2 es
x − 2y + 2z = 0.
Entonces los vectores (x, y, z) que pertenecen a S1 ∩ S2 son las soluciones del sistema homogéneo
x+y+z = 0
x − 2y + 2z = 0.
Y ya que
se tiene
1
1
⎡
x
1 1
−2 2
⎤
⎡
⎢ ⎥ ⎢
⎢ y ⎥=⎢
⎣ ⎦ ⎣
z
∼
− 43 r
1
3r
1
0
⎤
1 1
−3 1
⎡
⎢
⎥
⎥ = r⎢
⎣
⎦
− 43
1
3
r
,
⎤
⎥
⎥.
⎦
1
Por lo que una base de S1 ∩ S2 es {(−4, 1, 3)} y dim(S1 ∩ S2 ) = 1.
En los ejercicios 48 a 51, X es un conjunto no vacı́o, y F (X) es el espacio de funciones con dominio en
X y valores en R; si A ⊂ X es un subconjunto de X, se definen
1, si x ∈ A;
χA (x) =
0, si x ∈
/ A.
(La función χA se llama función caracterı́stica o indicadora de A) y
FA = { f ∈ F (X) | f (x) = 0 ∀x ∈ X − A}.
48 Probar que FA es un subespacio de F (X).
DEMOSTRACIÓN
Q (1) La función constante cero, θ, satisface θ(x) = 0 para todo x ∈ X, en particular es nula en todo
x ∈ X − A; luego θ ∈ FA . (2) Si α, β son un par de escalares y f , g ∈ FA , entonces f (x) = g(x) = 0 para
todo x ∈ X − A. Por tanto,
(α f + βg)(x) = α f (x) + βg(x) = 0
∀x ∈ X − A;
lo cual prueba que α f + βg ∈ FA . De (1) y (2) se concluye que FA < F (X). Q
49 Si A1 , . . . , Ak forman una partición de X; es decir, X = A1 ∪ · · · ∪ Ak y Ai ∩ A j = 0/ si i = j, demostrar que
F (X) = FA1 ⊕ · · · ⊕ FAk ;
esto es, F (X) es la suma directa (cfr. el ejercicio resuelto 27 de esta sección) de los subespacios FAi .
DEMOSTRACIÓN
Q Sea f ∈ F (X), entonces
f = χA1 f + · · · + χAk f .
Page (PS/TeX): 92 / 202, COMPOSITE
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 203
En efecto, si x ∈ X, existe un único r tal que x ∈ Ar , luego
(χAr f )(x) = χAr (x) f (x) = 1 · f (x) = f (x)
y
(χAi f )(x) = χAi (x) f (x) = 0 · f (x) = 0 si i = r;
/ Ai , entonces
lo cual prueba que f = ∑ki=1 χAi f . Por otra parte, si x ∈
(χAi f )(x) = χAi (x) f (x) = 0 · f (x) = 0,
lo que demuestra que χAi f ∈ FAi . Supongamos que f1 + · · · + fk = θ, la función constante cero, con
fi ∈ FAi . Sea x ∈ X y r el único subı́ndice tal que x ∈ Ar ; entonces f j (x) = 0 ∀ j = r. Luego fr (x) =
f1 (x) + · · · + fr (x) + · · · + fk (x) = 0 y, por tanto, fr (x) = 0. Lo cual prueba fr = θ ∀ r = 1, . . . , k. Ası́, toda
función f ∈ F (X) se puede escribir en la forma f = f1 + · · · + fk , con fi ∈ FAi , de manera única. Q
50 Si los conjuntos Ai , i = 1, . . . , k, forman una partición de X, probar que las funciones χAi son L.I.
DEMOSTRACIÓN
Q Sean los escalares αi tales que
α1 χA1 (x) + · · · + αk χAk (x) = 0
∀x ∈ X.
Sea xi ∈ Ai , entonces
0 = α1 χA1 (x) + · · · + αk χAk (x)
= αi .
Luego las funciones χAi son L.I. Q
51 Si X es un conjunto finito, X = {x1 , . . . , xk }, hallar una base y la dimensión de F (X).
Solución
Sea f ∈ F (X) y ci = f (xi ) para cada i. Por los ejercicios precedentes, ya que los conjuntos
{xi } forman una partición de X, las funciones χ{xi } son L.I., y
f = χ{x1 } f + · · · + χ{xk } f ;
es decir,
f = c1 χ{x1 } + · · · + ck χ{xk } .
Por lo que {χ{x1 } , . . . , χ{xk } } es una base de F (X); por tanto,
dim(F (X)) = k.
Espacios vectoriales complejos
52 Sea S = {z = (z1 , z2 , z3 , z4 ) ∈ C4 | z1 = (1 + i)z2 − iz3 = z2 − z4 = 0}. Mostrar que S < C4 y encontrar una
base y la dimensión de S.
Page (PS/TeX): 93 / 203, COMPOSITE
204 CAPÍTULO 3
Espacios vectoriales
Los vectoresz = (z1 , z2 , z3 , z4 ) ∈ S satisfacen las relaciones z1 = 0, z2 =
y z2 = z4 ; es decir,
Solución
⎡
z1
⎤
⎡
0
⎥ ⎢
⎢
⎢ z2 ⎥ ⎢ ( 12 + 12 i)r
⎥ ⎢
⎢
⎢ z ⎥=⎢
r
⎣ 3 ⎦ ⎣
1
z4
( 2 + 12 i)r
⎡
⎤
0
⎢ 1 1
⎥
⎢ ( + i)
⎥
⎥ = r⎢ 2 2
⎢
⎥
1
⎣
⎦
1
( 2 + 12 i)
i
1+i z3
= ( 12 + 12 i)z3
⎤
⎥
⎥
⎥;
⎥
⎦
r ∈ C.
Con lo que S = gn((0, 12 + 12 i, 1, 12 + 12 i)); luego S es un subespacio de C4 , una base de S es
{(0, 12 + 12 i, 1, 12 + 12 i)} y dim(S) = 1.
53 Determinar si los vectoresz1 = (1 + i, 2 − i, 1),z2 = (3 + 2i, 2 − 2i, 1) yz3 = (1, 2, −i) son L.I. o L.D. en
C3 .
Solución
Dado que
⎡
1+i
⎣ 2−i
1
⎤
1
1
−i
⎣ 2 − i 2 − 2i 2 ⎦
1 + i 3 + 2i 1
⎤
⎡
1
1
−i
∼ ⎣ 0 −i 3 + 2i ⎦
0 2+i
i
⎤
⎡
1
1
−i
1
−2 + 3i ⎦
∼ ⎣ 0
0 2+i
i
⎤
⎡
1
1
−i
1
−2 + 3i ⎦
∼ ⎣ 0
0 2+i
i
⎡
⎤
1 1
−i
∼ ⎣ 0 1 −2 + 3i ⎦ ,
0 0 7 − 3i
⎤
3 + 2i 1
2 − 2i 2 ⎦ ∼
1
−i
⎡
el sistema α1z1 + α2z2 + α3z3 = (0, 0, 0), αi ∈ C, tiene únicamente la solución trivial α1 = α2 = α3 = 0,
los vectoresz1 ,z2 yz3 son L.I. 54 Seanz1 = (1−i, i, 2i, −1−2i),z2 = (1, −1, 2i, 1+3i),z3 = (1+2i, −3−2i, 2i, 5+13i) yz4 = (−i, −i, 2+
3i, −1); encontrar una base del subespacio S = gn(z1 ,z2 ,z3 ,z4 ) en C4 .
Solución
Puesto que
⎡
1−i
⎢
i
⎢
⎣
2i
−1 − 2i
1
−1
2i
1 + 3i
⎤
1 + 2i
−i
−3 − 2i
−i ⎥
⎥ ∼
2i
2 + 3i ⎦
5 + 13i
−1
∼
Page (PS/TeX): 94 / 204, COMPOSITE
⎡
1−i
1
1 + 2i
−i
⎢
1
i
−2
+
3i
−1
⎢
⎣
2i
2i
2i
2 + 3i
−1 − 2i 1 + 3i 5 + 13i
−1
⎡
1
i
−2 + 3i
−1
⎢ 1−i
1
1
+
2i
−i
⎢
⎣
2i
2i
2i
2 + 3i
−1 − 2i 1 + 3i 5 + 13i
−1
⎤
⎥
⎥
⎦
⎤
⎥
⎥
⎦
Ejercicios resueltos y ejercicios propuestos 205
SECCIÓN 3.6
⎡
1−i
⎢
i
⎢
⎣
2i
−1 − 2i
⎤
1
i
−2 + 3i
−1
⎢ 0
−i
−3i
1 − 2i ⎥
⎥
⎢
⎣ 0 2 + 2i
6 + 6i
2 + 5i ⎦
0 −1 + 4i −3 + 12i −2 − 2i
⎡
⎤
1 i −2 + 3i
−1
⎢ 0 1
3
2+i ⎥
⎥
∼ ⎢
⎣ 0 0
0
−i ⎦
0 0
0
4 − 9i
⎤
⎡
1 i −2 + 3i
−1
⎢ 0 1
3
2+i ⎥
⎥
∼ ⎢
⎣ 0 0
0
1 ⎦
0 0
0
4 − 9i
⎤
⎡
1 i −2 + 3i −1
⎢ 0 1
3
2+i ⎥
⎥,
∼ ⎢
⎣ 0 0
0
1 ⎦
0 0
0
0
⎡
⎤
1 + 2i
−i
−3 − 2i
−i ⎥
⎥ ∼
2i
2 + 3i ⎦
5 + 13i
−1
1
−1
2i
1 + 3i
los vectores que corresponden a columna con pivote en la forma escalonada forman una base para S; es
decir, {z1 ,z2 ,z4 }. 55 Sea M2 (C) el espacio vectorial de matrices 2 × 2 con componentes complejas y
S = {A = (ai j ) | a11 + a22 = 0}.
Comprobar que S es un subespacio vectorial de M2 (C), y encontrar una base y la dimensión de S.
Solución
Dado que toda matriz A ∈ S tiene la forma
A=
α
γ
=α
β
−α
1
0
0
−1
0 1
0 0
+β
+γ
0 0
1 0
,
es evidente que
S = gn
1
0
0
−1
0 1
0 0
,
,
;
0 0
1 0
por lo que S < M2 (C). Por otro lado, si a, b, c ∈ C son escalares tales que
a
1
0
0
−1
+b
0 1
0 0
+c
0 0
1 0
=
0 0
0 0
se tiene
a b
c −a
=
0
0
0
0
;
de donde a = b = c = 0; por tanto, estas matrices son L.I. en M2 (C). Luego estas matrices forman una
base de S; por ende, dim(S) = 3. Page (PS/TeX): 95 / 205, COMPOSITE
206 CAPÍTULO 3
Espacios vectoriales
56 Sea C2 el espacio vectorial de vectores cuyos componentes son números complejos.
(a) Probar quez1 = (1 − i, i) yz2 = (2, −1 + i) son L.D. en C2 .
(b) Sea E el espacio de pares ordenados (w1 , w2 ), con w1 , w2 ∈ C, con la suma usual de vectores en
C2 pero con la multiplicación por escalares restringida a los números reales. Probar que z1 y z2
son L.I. en E.
DEMOSTRACIÓN
Q (a) Sean α, β ∈ C tales que αz1 + βz2 = 0, entonces,
((1 − i) α + 2β, iα + (−1 + i) β) = (0, 0);
por tanto,
(1 − i) α + 2β = 0,
iα + (−1 + i) β = 0.
Y puesto que
1−i
i
2
−1 + i
−1 + i
2
1
1+i
1−i
2
1 1+i
,
0
0
∼
∼
∼
i
1−i
se tiene
α
β
=
−(1 + i)r
r
=r
−(1 + i)
1
.
Por lo quez1 yz2 son L.D. en C2 .
(b) Sean α, β ∈ R tales que αz1 + βz2 = 0, entonces
((1 − i) α + 2β, iα + (−1 + i) β) = (0, 0);
por tanto,
α + 2β − iα = 0,
−β + (α + β)i = 0.
De donde α = 0 y β = 0; por lo quez1 yz2 son L.I. en E. Q
57 Dado que C es un espacio vectorial es fácil probar que F (X, C), el conjunto de funciones f : X → C,
es un espacio vectorial complejo para todo conjunto no vacı́o X. Sean X = R y f1 (x) = 2 + 2i cos(x),
f2 (x) = sen2 (x) + i cos2 (x) y f3 (x) = cos2 (x) − i sen2 (x). Probar que f1 , f2 y f3 son L.I. en F (X, C).
Solución
Sean α, β, γ ∈ C tales que α f1 (x) + β f2 (x) + γ f3 (x) = 0 para todo x ∈ R, entonces
2α + β sen2 (x) + γ cos2 (x) = 0,
2α cos(x) + β cos2 (x) − γ sen2 (x) = 0
Page (PS/TeX): 96 / 206, COMPOSITE
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 207
para todo x ∈ R. En particular, si x = 0, se tiene
2α + γ = 0,
2α + β = 0,
y si x = π/2
2α + β = 0,
−γ = 0;
de donde α = β = γ = 0. Luego f1 , f2 y f3 son L.I. en F (X, C). 3.6.2 Ejercicios propuestos
El lector encontrará la respuesta a los ejercicios en cursiva en el apéndice E al final del libro.
Geometrı́a de los espacios Rn (respuestas en página 1077)
En los ejercicios 1 a 21, u = (−1, 2, 4), v = (−1, 0, 2) y w = (−3, 4, 5).
1 Encontrar −u.
12 Calcular w.
3 Hallar u +v.
14 Encontrar u − 3v + 7
w.
5 Calcular v − 5
w.
16 Hallar 25v.
7 Calcular w −u.
18 Encontrar un vector paralelo a u con la misma dirección.
19 Hallar un vector paralelo a v con dirección opuesta.
10 Hallar w ·v
11 Calcular u · (3v + w).
12 Encontrar (u +v) · w.
13 Encontrar el ángulo entre u y v.
Page (PS/TeX): 97 / 207, COMPOSITE
208 CAPÍTULO 3
Espacios vectoriales
14 Calcular el ángulo entre v y w.
15 Encontrar el valor de x para que (x, −1, 4) sea ortogonal a u.
16 Encontrar el valor de y para que (2, y, −3) sea ortogonal a w.
17 Encontrar un vector no nulo que sea ortogonal a u y a v utilizando el concepto de producto punto.
18 Encontrar un vector no nulo que sea ortogonal a v y a w utilizando el concepto de producto vectorial
dado en los ejercicios resueltos 10 y 11 de este capı́tulo.
19 Calcular u ×v y v ×u. (Utilizar la definición de producto vectorial dada en el ejercicio resuelto 11 de
este capı́tulo.)
20 Encontrar (
w ×v) ·u.
21 Hallar (u × w) ×v.
En los ejercicios 22 a 25, u ×v es el producto vectorial (cruz) definido en los ejercicios resueltos 10 y
11, u, v, w son vectores cualesquiera de R3 , y α es un número real arbitrario.
22 Demostrar que u ×v = −(v ×u).
23 Probar que u × (v + w) = u ×v +u × w.
24 Mostrar que (αu) ×v = u × (αv) = α(u ×v).
25 Demostrar que (u ×v) × w = (u · w)v − (v · w)u.
En los ejercicios 26 a 39, calcular el área o el volumen de la configuración dada en R2 o R3 , utilizar la
interpretación geométrica del determinante del apartado 3.1.2 (pág. 117) y la definición e interpretación
geométrica del producto vectorial dada en los ejercicios resueltos 10, 11 y 13 de este capı́tulo.
26 El área del paralelogramo generado por los vectores (2, 5) y (6, 2).
27 El volumen del paralelepı́pedo generado por los vectores u = (3, −2, 4), v = (−2, 3, 5) y w = (1, 2, 5).
28 El área del paralelogramo generado por los vectores (−3, 5) y (2, 4).
29 El volumen del paralelepı́pedo generado por los vectores u = (−2, 2, 5), v = (3, 0, 6) y w = (2, 4, 2).
30 El área del paralelogramo generado por los vectores (−1, 2, −1) y (2, −3, 2).
31 El volumen del paralelepı́pedo con vértices (0, 0, 0), (1, 0, 0), (0, 1, 0), (0, 0, 1), (1, 1, 0), (1, 1, 1), (1, 0, 1),
(0, 1, 1).
Page (PS/TeX): 98 / 208, COMPOSITE
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 209
32 El volumen del paralelepı́pedo con vértices (1, 1, 4), (2, 3, 7), (0, 3, 8), (0, 0, 7), (1, 5, 11), (0, 4, 14),
(1, 2, 10), (−1, 2, 11).
33 El volumen del paralelepı́pedo con vértices (2, 3, 4), (3, 5, 7), (3, 4, 1), (5, 3, 9), (4, 6, 4), (7, 6, 9), (6, 5, 12),
(6, 4, 6).
34 El área del paralelogramo con vértices (2, 2), (4, 6), (7, 3) y (9, 7).
35 El área del paralelogramo con vértices (−4, 1), (−2, 6), (4, 3) y (2, −3).
36 El área del paralelogramo con vértices (1, 0, 1), (3, 1, 4), (0, 2, 9) y (−2, 1, 6).
37 El área del triángulo con vértices (4, 0, 3), (−1, 3, 5) y (1, 1, −2).
38 El área del triángulo con vértices (1, −1, 2), (3, −2, 1), (2, 3, 4).
39 El área del triángulo acotado por las rectas z + x = 1, y + x = 1 y y + z = 1.
En los ejercicios 40 a 58, u = (1, −2, −4, 3, 5), v = (−2, 3, −1, 2, −1) y w = (2, −1, −3, 1, −2).
40 Encontrar −
w.
41 Calcular u.
42 Hallar u + w.
43 Encontrar 2u − 4v + w.
44 Calcular v − 3
w.
45 Hallar 4v.
46 Calcular w −u.
47 Encontrar un vector paralelo a u con la misma dirección.
48 Hallar un vector paralelo a v con dirección opuesta.
49 Hallar w ·v.
50 Encontrar u ·v.
51 Calcular u · (2v − 3
w).
52 Encontrar (u +v) · w.
Page (PS/TeX): 99 / 209, COMPOSITE
210 CAPÍTULO 3
Espacios vectoriales
53 Encontrar el ángulo entre u y v.
54 Calcular el ángulo entre v y w.
55 Encontrar el valor de x para que (x, 1, 4, −1, 2) sea ortogonal a u.
56 Encontrar el valor de y para que (−1, y, 3, −2, 1) sea ortogonal a w.
57 Encontrar un vector no nulo que sea ortogonal a u y a v.
58 Hallar un vector no nulo que sea ortogonal a u y a w.
59 Si u = (−1, 2, 3) y v = (2, −1, −1), hallar d(u,v) en R3 .
60 Si u = (2, −1, 1, 2) y v = (2, −3, 4, −2), hallar d(u,v) en R4 .
61 Encontrar la distancia entre los vectores (−3, −1, 2, −2, 1) y (5, −2, 4, 0, 1) de R4 .
62 Hallar la distancia entre los vectores (−1, 0, −2, 5, −6, 3, 2) y (4, 1, 2, 6, 2, −2, 1) de R7 .
63 Demostrar la propiedad de distributividad del producto punto en Rn (propiedad 3, pág. 123); esto es,
u · (v + w) = u ·v +u · w ∀u,v,w ∈ Rn .
64 Demostrar la propiedad de positividad del producto punto en Rn (propiedad 4, pág. 123); esto es,
∀u ∈ Rn y
u ·u = 0 ⇔ u = 0Rn .
u ·u ≥ 0
65 Considerar la desigualdad de Schwarz (cfr. teorema 3.1, pág. 124) para el caso R3 , con u = (x1 , x2 , x3 ) y
v = (y1 , y2 , y3 ). En el caso de que uno de estos vectores sea el neutro aditivo, la desigualdad de Schwarz
se traduce a igualdad. Si ninguno de estos vectores es nulo, probar que hay igualdad en la desigualdad (3.6) si y sólo si uno de los vectores es múltiplo escalar del otro, por ejemplo v = λu. Utilizar la
definición algebraica de producto punto prescindiendo del concepto de ángulo entre vectores.
66 Demostrar que, en general, para cualquier par de vectores no nulos en Rn |u ·v| = u v si y sólo si
uno de ellos es múltiplo escalar del otro, por ejemplo v = λu.
67 Probar las propiedades 1, 2 y 3 del valor absoluto enunciadas en la página 126.
68 Probar que para todo par de números reales, x y y, se cumple:
(a) ||x| − |y|| ≤ |x − y|.
(b) |x − y| ≤ |x| + |y|.
69 Encontrar la ecuación del plano que pasa por el punto u = (−1, 2, 5) y es ortogonal al vector N=
(−3, 2, 4).
Page (PS/TeX): 100 / 210, COMPOSITE
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 211
70 Hallar la ecuación del plano que pasa por el punto u = (2, −1, 4) y es ortogonal al vector N = (1, −2, 1).
71 Encontrar la ecuación del plano que pasa por el punto u = (3, −2, 4) y es ortogonal al vector N=
(1, 1, −3).
72 Encontrar la ecuación del plano que pasa por el punto u = (2, 3, −4) y es ortogonal al vector N=
(1, −3, 3).
73 Hallar la ecuación del plano que pasa por los puntos (−2, 1, 3), (1, 2, −2) y (2, −1, 6).
74 Encontrar la ecuación del plano que pasa por los puntos (4, 1, −1), (−2, −1, −1) y (6, −2, 2).
75 Encontrar la ecuación del plano que pasa por los puntos (2, 3, −1), (−1, −2, 1) y (2, −5, 7).
76 Hallar la ecuación del plano que pasa por los puntos (3, 1, 2), (2, 3, 7) y (1, −3, 8).
Espacios vectoriales (respuestas en páginas 1077-1078)
En los ejercicios 77 a 89, considere los conjuntos dados con las operaciones usuales de suma entre sus
elementos y multiplicación por un escalar. Determine si (a) la suma es cerrada y (b) la multiplicación es
cerrada en cada conjunto.
77 La recta y = 2x − 1.
78 El primer cuadrante del plano cartesiano R2 .
79 El conjunto de matrices cuadradas de orden 3 triangulares superiormente.
80 El conjunto de matrices simétricas de orden n.
81 El conjunto de funciones f : R → R que son periódicas con periodo T ( f (x + T ) = f (x) ∀x).
82 El conjunto de matrices invertibles de orden 3.
83 El conjunto de vectores en R3 que están contenidos en el plano x, z.
84 El conjunto de puntos en el plano R2 cuyas componentes son números racionales.
85 El rectángulo Q = [a, b] × [c, d]; es decir, el conjunto de puntos (x, y) tales que a ≤ x ≤ b y c ≤ y ≤ d,
donde a < b y c < d.
86 Los puntos dentro y sobre la esfera x2 + y2 + z2 = 1; esto es, el conjunto de puntos (x, y, z) cuya distancia
al origen es menor o igual a 1.
87 El conjunto de matrices 2 × 2 que tienen todas sus componentes nulas excepto una.
Page (PS/TeX): 101 / 211, COMPOSITE
212 CAPÍTULO 3
Espacios vectoriales
88 El conjunto de matrices 3 × 3 cuya traza es cero; es decir, ∑3i=1 aii = 0.
√
89 El conjunto de números reales que tienen la forma a + b 2, con a, b ∈ R.
En los ejercicios 90 a 97, determinar los conjuntos que, junto con las operaciones suma y multiplicación
por un escalar ahı́ indicadas, son espacios vectoriales. Para los que resulten ser espacios vectoriales
probar los 10 axiomas correspondientes, y para los que no, indicar mediante contraejemplos los axiomas
que no se cumplen.
90 R3 con la suma usual de vectores, pero con la multiplicación por un escalar r definida por r(x, y, z) =
(rz, ry, rx).
91 R2 con el producto usual de un escalar por un vector, pero con la suma definida por (x, y) (x1 , y1 ) =
(y + y1 , x + x1 ).
92 El conjunto de matrices de orden 3 con la suma usual de matrices pero con multiplicación por un escalar
definida, para cualquier matriz A, por rA = O, donde O es la matriz cero 3 × 3.
93 F (X) con el producto usual de un escalar por una función pero con suma definida por ( f g)(x) =
máx{ f (x), g(x)}.
94 El conjunto de matrices n × n triangulares superiormente con las operaciones usuales.
95 El conjunto de matrices cuadradas de orden n que son diagonales con las operaciones usuales.
96 R2 con la suma usual de vectores pero con el producto de un escalar por un vector definido por
α(x, y) =
(0, 0)
si α = 0
(αx, α1 y)
si α = 0
97 R2 con la multiplicación usual de un escalar por un vector pero con la suma definida por
(x, y) (x1 , y1 ) = (x + 2x1 , y + 3y1 ).
98 Demostrar que R∞ , el conjunto de sucesiones (cfr. ejemplo 3.12, pág. 133), junto con las operaciones
usuales de suma de sucesiones y multiplicación de un escalar por una sucesión, es un espacio vectorial.
99 Mostrar que P, el conjunto de polinomios, con las operaciones usuales de suma de polinomios y multi-
plicación de un escalar por un polinomio es un espacio vectorial (cfr. ejemplo 3.11).
100 Probar la propiedad 9 del teorema 3.4 (cfr. pág. 138).
101 Si E es un espacio vectorial, probar que
(a) (−α)u = −(αu) = α(−u), para todo u ∈ E y para todo escalar α.
(b) α(u −v) = αu − αv, para todo par u,v ∈ E y para todo α ∈ R.
Page (PS/TeX): 102 / 212, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 213
SECCIÓN 3.6
(c) Si αu = αv y α = 0, entonces u =v.
(d) Si αu = βu y u = 0E , entonces α = β.
(e) −(u +v) = (−u) + (−v) para todo par de vectores u,v ∈ E.
(f) (α + β)(u +v) = αu + αv + βu + βv, para todo par de vectores u,v ∈ E y para todo par de
escalares α, β.
102 Sea X = {0, 1} y F (X) el espacio de funciones f : X → R. Si f (x) = 3x + 1, g(x) = 1 + 4x − x2 y
h(x) = x6x + 2, probar que:
(a) f = g.
(b) f + g = h.
En los ejercicios 103 a 116, determinar si el subconjunto S es un subespacio del espacio dado. En caso
de una respuesta afirmativa, demostrar rigurosamente la afirmación; y en caso de una respuesta negativa,
indicar con un contraejemplo la propiedad o propiedades de subespacio vectorial que no se cumplen.
103 S = {(−x, y) | x, y ∈ R} en R2 .
104 S = {u ∈ Rn | las componentes de u son números racionales} en R2 .
105 S = {(x, y) | xy ≥ 0} en R2 .
106 S = {(x, y, z) | 2x + 3y + z = 4} en R3 .
107 S = {(x1 , x2 , x3 , x4 ) | x1 − 3x2 + 2x3 − x4 = 0} en R4 .
108 S = {(x, y, z) | x2 + y2 + z2 ≤ 16} en R3 .
109 S = {(x, y) | − 1 ≤ x ≤ 1, −1 ≤ y ≤ 1} en R2 .
110 S, el conjunto de matrices triangulares superiores, en el espacio Mn .
111 S, el conjunto de matrices invertibles, en el espacio Mn .
112 S = {(an ) | lı́mn→∞ an existe} en R∞ (el espacio de sucesiones).
113 S = {(an ) | lı́mn→∞ an = 0} en R∞ .
114 S = {(an ) | lı́mn→∞ an = 1} en R∞ .
115 S = {(an ) | an + 3an−1 + 2an−2 = 0, n ≥ 2} en R∞ .
n
116 S = {A | tales que tra(A) = 0} en Mn , donde tra(A) = ∑ aii M.
i=1
Page (PS/TeX): 103 / 213, COMPOSITE
214 CAPÍTULO 3
Espacios vectoriales
En los ejercicios 117 a 129, demostrar que el conjunto dado es un subespacio del espacio vectorial
indicado. La continuidad y derivabilidad de las funciones en los extremos del intervalo se considera en
forma lateral; es decir, continuidad y derivabilidad por la derecha en a y continuidad y derivabilidad por
la izquierda en b.
117 C1 [a, b] = { f : [a, b] → R | f es derivable con continuidad en [a, b]} en C[a, b], el espacio de funciones
continuas en [a, b].
118 Cn [a, b] = { f : [a, b] → R | f tiene derivada hasta el orden n en [a, b]}
119 C∞ [a, b] = { f : [a, b] → R | f tiene derivada de todo orden en [a, b]} en C[a, b].
120 S = { f | a2 f + a2 f + a1 f = θ}, donde θ es la función constante cero, en C1 [a, b].
∞
121 S = {(an ) | ∑∞
n=1 an converge} en R .
∞
122 S = {(an ) | ∑∞
n=1 |an | converge} en R .
123 S = { f : [a, b] → R |
b
a
f (x)dx = 0} en C[a, b].
124 S = { f : R → R | f es par: f (−x) = f (x) ∀x} en F (R).
125 S = { f : R → R | f es impar: f (−x) = − f (x) ∀x} en F (R).
126 S = {p | p es un polinomio y las potencias pares de x son nulas} en P.
127 S = {A | A es una matriz cuadrada de orden n triangular inferior}.
128 S = { f : [0, 1] → R | f (0) = f (0) = 0} en C1 [0, 1].
129 S = { f : X → R | f alcanza sólo un número finito de valores en X} (es decir, la imagen de cualquier
función f ∈ S es un conjunto finito; o sea que el conjunto de los f (x), con x ∈ X, es finito para cada
f ∈ S) en F (X).
S1 = {(a, b, c) ∈ R3 | a = c, b = 3c}.
130 Sean
S2 = {(a, b, c) ∈ R3 | a + b + c = 0}.
S3 = {(a, b, c) ∈ R3 | a − 2b + 3c = 0}.
(a) Probar que S1 , S2 y S3 son subespacios de R3 .
(b) Por el ejercicio resuelto 30, Si ∩ S j es un subespacio de R3 para cualquier combinación de los
subı́ndices i, j.
(i) Describir el subespacio S1 ∩ S2 .
(ii) Describir el subespacio S1 ∩ S3 .
(iii) Describir el subespacio S2 ∩ S3 .
Page (PS/TeX): 104 / 214, COMPOSITE
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 215
131 Probar que los únicos subespacios propios (distintos de {0R2 }) de R2 son las rectas que pasan por el
origen.
132 Probar que los únicos subespacios propios (distintos de {0R3 }) de R3 son las rectas y los planos que
pasan por el origen.
133 (Producto de espacios vectoriales). Sean E y F un par de espacios vectoriales reales. Se definen
E × F = {(u,v) |u ∈ E y v ∈ F}
y, para todo (u,v), (u1 ,v1 ) ∈ E × F, α ∈ R,
(u,v) + (u1 ,v1 ) = (u +u1 ,v +v1 ),
α(u,v) = (αu, αv).
Donde u +u1 , αu y v +v1 , αv son las operaciones suma de vectores y multiplicación por un escalar en
E y F, respectivamente. Probar que E × F es un espacio vectorial con estas operaciones.
134 Probar que R es un espacio vectorial con las operaciones usuales de suma de números reales y multipli-
cación de números reales.
135 ¿Qué espacio vectorial es R × R?
136 ¿Qué espacio vectorial es R × R × · · · × R?
n
137 (Complemento ortogonal). Sea S < Rn . Probar que
S⊥ = {u ∈ Rn |u ⊥v para todo v ∈ S}
es un subespacio de Rn , el llamado complemento ortogonal de S.
138 Sean u = (1, 1, 1) y S = gn(u), determinar S⊥ , el complemento ortogonal de S definido en el ejercicio
precedente.
139 Probar que si S1 , S2 son subespacios de un espacio vectorial E y S1 ∪ S2 es también un subespacio de E,
entonces S1 ⊂ S2 o S2 ⊂ S1 .
140 Sean E un espacio vectorial y S1 , S2 un par de subespacios. Mostrar que si E = S1 ∪ S2 , entonces S1 = E
o S2 = E.
141 Sean S1 y S2 los conjuntos de matrices cuadradas de orden n que son triangulares superior e inferior,
respectivamente. Mostrar que S1 y S2 son subespacios de Mn y que Mn = S1 ⊕ S2 , la suma directa de S1
y S2 (cfr. ejercicio resuelto 27).
142 Sean S1 = {(a1 , . . . , an−1 , 0) | ai ∈ R, i = 1, . . . , n − 1} y S2 = {(a1 , . . . , an−1 , an ) | ai = 0, i = 1, . . . , n − 1}.
Probar que S1 , S2 son subespacios de Rn y que Rn = S1 ⊕ S2 (cfr. ejercicio resuelto 27).
Page (PS/TeX): 105 / 215, COMPOSITE
216 CAPÍTULO 3
Espacios vectoriales
143 Sean S1 = { f : R → R | f es par: f (−x) = f (x) ∀x ∈ R} y S2 = { f : R → R | f es impar: f (−x) =
− f (x) ∀x ∈ R}. Probar que S1 y S2 son subespacios de F (R), el espacio de funciones f : R → R, y que
F (R) = S1 ⊕ S2 .
En los ejercicios 144 a 159 escribir, si es posible, el vector v como combinación lineal de los vectores
ui .
144 v = (−3, 2); u1 = (1, −1) y u2 = (3, 2) en R2 .
145 v = (1, 5); u1 = (−1, 2), u2 = (−3, 6) en R2 .
146 v = (−1, 1, 4); u1 = (1, −1, 3), u2 = (3, −2, 2) y u3 = (2, −1, 3) en R3 .
147 v = (−11, 6, 7, −2); u1 = (1, 0, −2, 4) y u2 = (−3, 2, 1, 2) en R4 .
148 v = (8, −10, −1, −9, −17), u1 = (1, 1, 1, 0, −1), u2 = (−2, 3, 1, 2, 3), u3 = (−7, 8, 2, 6, 10),
u4 = (−2, 0, 1, −1, −3) en R5 .
149 v = 4; u1 = cos2 x y u2 = sen2 x en F (R), el espacio de funciones f : R → R.
150 v = cos 4x; u1 = cos2 2x, u2 = sen2 2x en F (R).
151 v = cos 2x; u1 = 1, u2 = cos2 x en F (R).
152 v = e−x ; u1 = cosh x, u2 = e x en F (R).
153 v = senh x; u1 = e x , u2 = e−x en F (R).
154 v = 3x2 − 2x + 1; u1 = 2, u2 = 1 − x, u3 = (x − 2)2 en P.
155 v =
−12
4
2 −1
; u1 =
1
2
−1
1
, u2 =
−1 0
2 0
, u3 =
−3 1
0 0
156 v =
1 − x n+1
, ui = xi , i = 0, 1, . . . , n en F (X), donde X = R − {1}.
1−x
157 v =
sen( 72 x)
; u1 = 1, u2 = cos x, u3 = cos 2x, u4 = cos(3x) en F ((0, 2π)).
2 sen( 21 x)
en M2 .
158 v = sen 3x cos x; u1 = sen 4x, u2 = sen 2x en F (R).
159 v = cos 5x cos x; u1 = cos 6x, u2 = cos 4x en F (R).
En los ejercicios 160 a 162, u1 = (−3, 1, 2), u2 = (2, −1, 3) y u3 = (−1, 1, 2).
160 Determinar si v = (14, −6, −2) ∈ gn(u1 ,u2 ,u3 ). En caso afirmativo escribir v como combinación lineal
de los vectores ui .
Page (PS/TeX): 106 / 216, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 217
SECCIÓN 3.6
161 Determinar si v = (−8, 4, −2) ∈ gn(u1 ,u2 ,u3 ). En caso afirmativo escribir v como combinación lineal
de los vectores ui .
162 Determinar si gn(u1 ,u2 ,u3 ) = R3 .
En los ejercicios 163 a 165, u1 = (−1, 1, 3), u2 = (3, 1, −2) y u3 = (−5, 1, 8).
163 Determinar si v = (−10, 2, 16) ∈ gn(u1 ,u2 ,u3 ). En caso afirmativo escribir v como combinación lineal
de los vectores ui .
164 Determinar si v = (−2, −2, −1) ∈ gn(u1 ,u2 ,u3 ). En caso afirmativo escribir v como combinación lineal
de los vectores ui .
165 Determinar si gn(u1 ,u2 ,u3 ) = R3 .
−1 1
2 1
En los ejercicios 166 a 168, A1 =
, A2 =
1
1
−1
1
, A3 =
2 0
1 1
, A4 =
−1
1
0
1
.
166 Determinar si
v =
−6 1
0 −1
∈ gn(u1 ,u2 ,u3 ,u4 ).
En caso afirmativo escribir v como combinación lineal de los vectores ui .
167 Determinar si
v =
−4 1
1 0
∈ gn(u1 ,u2 ,u3 ,u4 ).
En caso afirmativo escribir v como combinación lineal de los vectores ui .
168 Determinar si gn(u1 ,u2 ,u3 ,u4 ) = M2 .
En los ejercicios 169 a 171, A1 =
1
1
3 −1
, A2 =
0
−1
−1
1
, A3 =
169 Determinar si
v =
−4
−8
−2
2
∈ gn(u1 ,u2 ,u3 ,u4 ).
En caso afirmativo escribir v como combinación lineal de los vectores ui .
170 Determinar si
v =
0
4
2
−2
∈ gn(u1 ,u2 ,u3 ,u4 ).
En caso afirmativo escribir v como combinación lineal de los vectores ui .
Page (PS/TeX): 107 / 217, COMPOSITE
2
1
−1
1
, A4 =
2
1
−3
1
.
218 CAPÍTULO 3
Espacios vectoriales
171 Determinar si gn(u1 ,u2 ,u3 ,u4 ) = M2 .
En los ejercicios 172 a 180, determinar si los vectores indicados generan al espacio dado.
172 (−1, 0, 2), (−1, 1, 1); R3 .
173 (−1, 1), (3, −3), (4, −2); R2 .
174 (2, 1), (1, 1); R2 .
175 (1, −1, 0), (−1, 2, 3), (−1, 1, 2); R3 .
176 (2, −1, 3), (0, 1, 1), (2, 0, 3); R3 .
177 (1, 1, 0), (2, −1, 2), (3, −1, 1); R3 .
178 (2, 1, 0, −1), (2, −1, 3, 0), (−2, 3, 1, 4); R4 .
179 (2, 1, 0, −1), (2, −1, 3, 0), (−2, 3, 1, 4), (0, −1, 1, 1); R4 .
180 (1, 0, −1, 1), (2, 1, −1, 1), (3, −2, 4, 2), (0, 0, −1, 1); R4 .
En los ejercicios 181 a 188, determinar si los vectores generan al espacio dado; de ser ası́, reducir el
conjunto de vectores a un mı́nimo de generadores.
181 (−1, 2), (−1, 1), (3, 2), (−1, −1); R2 .
182 (1, −2, 0), (−1, 1, 2), (1, −4, 4) , (1, 2, −8); R3 .
183 (4, −1, 2), (−2, 1, 5), (−1, 3, 1), (1, 0, 2); R3 .
184 (2, −3, 2), (1, −2, 1), (−4, 5, −4) , (−4, 7, −4); R3 .
185 (1, 0, 1), (−1, 1, 0), (2, −1, 3), (2, −1, 1), (−1, 2, 2); R3 .
186 (1, −2, 1, 2), (−1, 0, 2, 3), (−2, 1, 3, 2), (−1, 1, 1, 0), (−2, 1, 2, 1), (−1, 2, 1, 3); R4 .
187 (1, 0, −1, 1), (2, 1, 0, −1), (−1, 1, 3, 2), (3, 0, −3, 2), (2, 1, −2, 4, ); R4 .
188 (−2, 3, 1, 2), (1, −2, 2, 3), (2, 3, 0, 0), (−3, 4, 4, 7) , (−4, 6, 2, 4); R4 .
189 Sean S1 = gn((2, 1, 1), (1, 3, 2)) y S2 = gn((1, −1, 0), (−3, 1, 0)). Por el ejercicio resuelto 30, S1 ∩ S2 <
R3 . Encontrar un conjunto generador del subespacio S1 ∩ S2 .
En los ejercicios 190 a 195, describir el subespacio generado por los conjuntos vectores dados.
Page (PS/TeX): 108 / 218, COMPOSITE
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 219
190 {x, 1 − x, x2 } en P, el espacio de polinomios.
191
192
1
0
0 −1
1 0
0 0
$
0 1
0 0
,
,
en M2 .
0 0
1 0
$
0 1
0 0
,
,
en M2 .
0 0
0 1
193 {ei = (a j ) | a j = 1 si i = j y a j = 0 si i = j} en R∞ , el espacio de sucesiones reales.
194 {(k + x)k | k = 0, 1, 2, . . .} en el espacio de polinomios P.
195 {1, x, x2 , . . . , x n , (x + 1)n , (x + 2)n , . . . , (x + k)n , . . .} en el espacio de polinomios P.
196 Probar que gn(1, x) = gn(1 − 3x, x) en el espacio de polinomios P.
197 Mostrar que si u,v son cualquier par de vectores en un espacio vectorial E, entonces:
(a) gn(u,v) = gn(3u −v,v).
(b) gn(u,v) = gn(u −v,v +u, ).
198 Sean ui , i = 1, . . . , k y v j , j = 1, . . . , m, vectores en un espacio vectorial E. Establecer condiciones
necesarias y suficientes, en términos del concepto de combinación lineal, para que gn(u1 , . . . ,uk ) =
gn(v1 , . . . ,vm ).
199 Sea S un subconjunto de un espacio vectorial E. Probar que S es un subespacio de E si y sólo si L (S),
el espacio generado por el conjunto S (cfr. ejercicio resuelto 31 de este capı́tulo), es igual a S.
200 Sea E un espacio vectorial y S1 , S2 ⊂ E. Probar que S1 ⊂ S2 ⇒ L (S1 ) ⊂ L (S2 ) (cfr. ejercicio resuelto
31 de este capı́tulo). Mostrar que si además L (S1 ) = E, entonces también L (S2 ) = E.
201 Probar que si S1 , S2 son cualquier par de subconjuntos de un espacio E, entonces L (S1 ∪ S2 ) = L (S1 ) +
L (S2 ) (cfr. ejercicio resuelto 31 de este capı́tulo).
202 Demostrar que L (S1 ∩ S2 ) ⊂ L (S1 ) ∩ L (S2 ) para cualquier par de subconjuntos S1 , S2 de un espacio
vectorial E (cfr. ejercicio resuelto 31 de este capı́tulo).
Dependencia e independencia lineales (respuestas en página 1078)
203 Dar una condición geométrica para que dos vectores no nulos sean L.D. en R2 .
204 Dar una condición geométrica para que dos vectores no nulos sean L.I. en R2 .
205 Argumentar geométricamente por qué tres vectores no nulos son L.D. en R2 .
206 Dar una condición geométrica para que dos vectores no nulos sean L.D. en R3 .
Page (PS/TeX): 109 / 219, COMPOSITE
220 CAPÍTULO 3
Espacios vectoriales
207 Dar una condición geométrica para que dos vectores no nulos sean L.I. en R3 .
208 Dar una condición geométrica para que tres vectores no nulos sean L.D. en R3 .
209 Dar una condición geométrica para que tres vectores no nulos sean L.I. en R3 .
210 Argumentar geométricamente por qué cuatro vectores no nulos son L.D. en R3 .
En los problemas 211 a 257, determinar si el conjunto dado de vectores es L.D. o L.I.
211 {(2, 8), (−1, −4)} en R2 .
212 {(1, −2), (2, −1)} en R2 .
213 {(−6, 9), (2, −3)} en R2 .
214 {(−1, 3), (2, 3)} en R2 .
215 {(−1, 1), (2, 4), (2, −3)} en R2 .
216 {(1, −1, 2), (−2, 2, −4)} en R3 .
217 {(2, −1, 3), (4, −2, 8)} en R3 .
218 {(1, −1, 1), (2, −1, 3), (2, 2, 1)} en R3 .
219 {(2, 4, 3), (−5, −2, −5), (4, −8, 1)} en R3 .
220 {(3, 0, −1), (1, 2, 4), (−3, 2, 1)} en R3 .
221 {(−2, 2, 5) , (4, −2, 1), (−3, 2, 2)} en R3 .
222 {(−3, 2, 4), (2, −2, 5), (−1, 1, 2), (−2, 3, 1)} en R3 .
223 {(2, −1, 3, 2), (1, 1, 2, 1)} en R4 .
224 {(−1, 1, 3, 2), (2, −2, −6, −4)} en R4 .
225 {(2, 1, −1, 2), (−1, 1, 1, −1), (2, −2, 1, 1)} en R4 .
226 {(−1, −2, 3, 2), (−3, −2, 1, 1), (3, −2, 7, 4)} en R4 .
227 {(1, 1, 0, 1), (−1, 0, 1, 2), (2, −1, 1, 1)} en R4 .
228 {(3, −2, 1, 1), (−2, 1, 2, 0), (−7, 4, 3, −1)} en R4 .
Page (PS/TeX): 110 / 220, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 221
SECCIÓN 3.6
229 {(−1, 1, 2, 1), (−2, 2, 1, 3), (1, −4, 2, 1), (−2, 1, 2, 1)} en R4 .
230 {(3, −2, 1, 0), (2, −3, 4, 1), (1, 0, −3, 2), (−2, 4, −4, −4)} en R4 .
231 {(2, 3, 1, 2), (1, −2, 2, 3), (−1, 0, 2, 3), (−2, 1, 4, 2)} en R4 .
232 {(3, −4, −5, 1), (−1, 5, 2, 6), (−2, 3, 1, 2), (−7, 17, 10, 13)} en R4 .
233 {(2, 3, 1, 4), (−1, 2, 8, 7), (−11, 3, 2, 4), (−23, 2, 1, 2), (−2, 7, 9, 13)} en R4 .
234
235
236
237
−1
2 1
2 −3 1
1 −1 2
3 −2 1
−3
,
3
2
−2
1
2
$
−1 2 3
,
en M2×3 .
1 1 1
−1 2 −4
1
,
,
−5 1
2
−1
1 −2
−4
7
1 2
−1 3
3 −1
1
,
,
2
2
1
3 −2
2
1
$
2 −1
−2 0
,
,
en M2 .
1
2
0 −6
⎧⎡
⎤ ⎡
−1
1 2
⎨
⎣ −1 2 ⎦ , ⎣ 1
238
⎩
2
1 3
⎧⎡
⎤ ⎡
1
1
⎨ −2
⎣ 3 −2 ⎦ , ⎣ −1
239
⎩
−3
−1 −3
−1
1
$
en M2×3 .
$
en M2 .
⎤⎫
⎤ ⎡
⎤ ⎡
−1 2 ⎬
3 −1
3
0 ⎦ , ⎣ 0 3 ⎦ en M3×2 .
−1 ⎦ , ⎣ 2
⎭
2 0
2
3
0
⎤ ⎡
1
0
−1 ⎦ , ⎣ −2
2
2
⎤ ⎡
0
2
−3 ⎦ , ⎣ 2
0
0
⎤⎫
−1 ⎬
−2 ⎦ en M3×2 .
⎭
3
240 {cos x, cos(−x)} en F (R).
241 {sen x, sen(−x)} en F (R).
242 {1 − x, 2x2 − 1, 3x, x2 + 2} en P, el espacio de polinomios.
243 {3, 2 − x, x3 + 2, x2 } en P, el espacio de polinomios.
244 {1 − x, x2 + 1, 2 + x, x3 , −3 + 2x − 2x2 } en P.
245 {1, 1 − x, (1 − x)2 , (1 − x)3 } en F (R).
246 {4, cos2 x, sen2 x} en F (R).
247 {cos 4x, cos2 2x, sen2 2x} en F (R).
248 {cos 2x, 1, cos2 x} en F (R).
Page (PS/TeX): 111 / 221, COMPOSITE
222 CAPÍTULO 3
Espacios vectoriales
249 {e−x , cosh x, e x } en F (R).
250 {senh x, e x , e−x } en F (R).
251 {(x − 1)−1 , (x − 2)−2 , (x − 3)−3 } en F (X), donde X = R − {1, 2, 3}.
252 {x−2 , x−1 , 1, x, x2 } en F (X), donde X = R − {0}.
253 {(x − 1)−2 , (x − 1)−1 , 1, x − 1, (x − 1)2 } en F (X), donde X = R − {1}.
254 {cos x, cos 2x, cos 3x} en F (R).
255 {sen x, sen 2x, sen 3x} en F (R).
256 {cos x, sen x, cos 2x, sen 2x, cos 3x, sen 3x} en F (R).
257 {1, 2 + x, 3 + 2x2 , 4 + 3x3 } en P.
258 Mostrar que si u1 ,u2 ,u3 son vectores L.I. en un espacio vectorial E, entonces los vectores v1 = 4u1 ,
v2 = u1 − 3u2 y v3 = 3u1 + 2u3 son L.I.
259 Probar que si los vectores u1 ,u2 ,u3 son vectores L.I. en un espacio vectorial E, entonces los vectores
v1 = 3u1 + 2u2 , v2 = u2 − 4u3 y v3 = −3u1 −u3 son L.I.
260 Sean u1 ,u2 y u3 vectores de un espacio vectorial E.
(a) Probar que los vectores u1 ,u2 son L.I. si y sólo si los vectores u1 +u2 , u1 −u2 son L.I.
(b) Mostrar que los vectores u1 ,u2 ,u3 son L.I. si y sólo si los vectores u1 +u2 ,u1 +u3 ,u2 +u3 son
L.I.
261 Encontrar escalares α, si existen, tales que los vectores (1, −2, 3), (2, α, −1) y (1, 2, 1) sean L.I.
262 Encontrar escalares α, si existen, tales que los vectores (1, 3, α), (−2, α, 1) y (1, 2, 1) sean L.I.
263 En el ejercicio resuelto 39 de este capı́tulo se probó que si u,v ∈ Rn son L.I. y A ∈ Mn es invertible,
entonces Au y Av son L.I. ¿Es cierta la misma conclusión si la matriz A no es necesariamente invertible?
264 Sea A una matriz cuadrada de orden n y u,v ∈ Rn . Probar que si los vectores Au y Av son L.I., entonces
u y v también son L.I.
Bases y dimensión (respuestas en páginas 1079-1080)
265 Demostrar que el conjunto infinito {cos x, cos 2x, cos 3x, . . . , cos nx, . . .} es independiente en el espacio
de funciones F (J), donde J es cualquier intervalo.
266 Probar que el conjunto infinito {sen x, sen 2x, sen 3x, . . . , sen nx, . . .} es L.I. en F (J), donde J es cualquier
intervalo.
Page (PS/TeX): 112 / 222, COMPOSITE
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 223
267 Demostrar que el conjunto infinito
{cos x, sen x, cos 2x, sen 2x, cos 3x, sen 3x, . . . , cos nx, sen nx, . . .}
es L.I. en F (J), donde J es cualquier intervalo.
268 Mostrar que el conjunto infinito {1, 2 + x, 3 + 2x2 , 4 + 3x3 , . . . , n + (n − 1)x n−1 , . . .} es L.I. en F (R).
En los ejercicios 269 a 272, determinar si los conjuntos dados son L.I. o L.D.
269 {1, 2 + x, 3 + 2x, . . . , n + (n − 1)x, . . .} en el espacio de polinomios P.
270 {1, x, 1 + x + x2 , 1 + x + x2 + x3 , . . . , 1 + x + x2 + · · · + x n , . . .} en el espacio de polinomios P.
271 {1, x + 2, (x + 3)2 , . . . , (x + n)n−1 , . . .} en el espacio de polinomios P.
272 {(x − 1)n | n = 0, ±1, ±2, . . .} en el espacio F (X), donde X = R − {1}.
En los ejercicios 273 a 297, determinar si el conjunto de vectores es o no una base del espacio indicado.
273 {(−1, 1), (2, −2)}; R2 .
274 {(1, 3), (−2, 1)}; R2 .
275 {(1, −2, 1), (3, −2, 3), (1, 1, 3)}; R3 .
276 {(2, −2, 1), (3, −1, 2), (2, 2, 2)}; R3 .
277 {(−4, 3, −2), (5, −1, 1), (−3, 5, −3)}; R3 .
278 {(2, 3, 1), (−3, 4, 1), (−1, 1, 2)}; R3 .
279 {(1, 2, −3, 1), (2, −1, 5, 2), (−2, 3, 1, 1), (1, 0, −1, 2)}; R4 .
280 {(2, −3, 2, 1), (−1, 1, 1, 0), (3, −2, 4, 5), (−2, −1, 3, −3)}; R4 .
281 {(−3, 0, 1, 3), (2, −1, 1, 0), (1, 1, 1, 1), (2, −1, 1, 7)}; R4 .
282 {(4, −5, 2, 1), (2, −2, 4, 6), (−2, 1, 3, 1), (0, 2, −1, 4)}; R4 .
283 {(2, 4, −4, 6, 2), (3, −1, 2, 1, 2), (−1, 1, 2, 5, 3), (4, −2, 1, 1, 3), (−1, 3, 2, 4, 2)}; R5 .
284 {(1, −2, −3, 1, −2), (−2, 1, 1, 3, 2), (−1, 1, 2, 1, 1), (−3, 0, 1, 8, 1) , (−5, 4, 7, 6, 5)}; R5 .
285
1 −1
2
1
Page (PS/TeX): 113 / 223, COMPOSITE
,
2 1
−1 0
1
,
0
1
−1
$
2 −1
,
; M2 .
1
2
224 CAPÍTULO 3
Espacios vectoriales
286
287
2 −3
1
2
−1 1
3
,
,
0 2
2
4 2
−2 4
−1 2
−2
,
,
1 2
0
⎧ −1
2
⎪
⎪
⎪
⎨
3 −1
288
⎪
−1 0
⎪
⎪
⎩
0 0
−1
1
$
1 1
,
; M2 .
1 1
−6
−8
1
,
−3
1 2 −3
2 1
,
,
2 0 −1
−1 2
1
−1 1 1
2 −1
,
,
2
2 1 1
2
1
2
1
−12
−14
1
0
4
3
$
; M2 .
⎫
⎪
, ⎪
⎪
⎬
; M2×3 .
⎪
⎪
⎪
⎭
⎫
2 4 3
−1 2 1
1 1 1
⎪
,
,
, ⎪
⎪
⎬
−1 2 3
2 2 2
−1 1 0
; M2×3 .
289
⎪
⎪
0 5 3
−4 0 −1
−4 5 2
⎪
⎪
⎪
⎪
,
,
⎭
⎩
2 3 5
5 2 1
7 5 6
⎧ ⎪
⎪
⎪
⎨
290 {x, x2 + 2, (x − 2)2 }; P2 .
291 {1, (x + 1)2 }; P2 .
292 {x, (x + 3)2 , (x − 3)2 }; P2 .
293 {1 + x − 2x2 , 2x2 − x − 2, 4x2 + 2x − 1}; P2 .
294 {1 + 4x − 2x2 , 2 − 3x + x2 , 3 − 12x + 6x2 }; P2 .
295 {2 − 3x, x3 − 4x2 + 1, 5x2 − x + 3}; P3 .
296 {1 + x, x − 1, x2 , x3 }; P3 .
297 {1, x − 2, x2 , x2 + x, x3 + 1, (x − 1)3 , }; P4 .
298 Sea E un espacio vectorial de dimensión finita n y S < E.
(a) Probar que S tiene dimensión finita y que dim(S) ≤ n.
(b) Demostrar que S = E si y sólo si dim(S) = n.
En los ejercicios 299 a 306, determinar si el subconjunto S de puntos (x, y, z) en el espacio R3 que
satisface la condición dada es un subespacio de R3 . En caso afirmativo encontrar una base y la dimensión
de S.
299 x = 0.
300 x + z = 0.
301 x + y + z = 0.
Page (PS/TeX): 114 / 224, COMPOSITE
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 225
302 x + y − z = 2.
303 x = y.
304 x = y = z.
305 x2 − z2 = 0.
306 x + y + z = 0 y x − y − z = 0.
En los ejercicios 307 a 315, S es el conjunto de polinomios p en el espacio Pn , espacio de polinomios
de grado a lo más n, que satisface la condición dada. Determinar si S es subespacio de Pn y, de ser ası́,
encontrar una base y la dimensión de S.
307 p (0) = 0.
308 p (0) = 0.
309 p(0) = p(1).
310 p(0) + p (0) = 0.
311 p(0) = p(2).
312 p es par (p(−x) = p(x) ∀x).
313 p es impar (p(−x) = −p(x) ∀x).
314 p tiene grado a lo más k < n o p es el polinomio constante cero.
315 p tiene grado k < n o p es el polinomio constante cero.
En los ejercicios 316 a 325, encontrar la dimensión del espacio dado en el espacio de funciones F (R).
En los casos donde corresponda, α y β son números reales dados.
316 gn(1, eαx , eβx ), α = β.
317 gn(eαx , xeαx ).
318 gn(1, eαx , xeαx ).
319 gn(eαx , xeαx , x2 eαx ).
320 gn(senh x, e x , e−x ).
321 gn(sen x, cos x).
Page (PS/TeX): 115 / 225, COMPOSITE
226 CAPÍTULO 3
Espacios vectoriales
322 gn(sen2 x, cos2 x).
323 gn(senh2 x, cosh2 x).
324 gn(1, cos 2x, sen2 2x).
325 gn(e−2x cos x, e−2x sen x).
En los ejercicios 326 a 346, extraer una base del conjunto generador del subespacio dado utilizando el
teorema 3.17 (cfr. pág. 164) y determinar la correspondiente dimensión.
326 gn((1, −2), (−2, 4)) en R2 .
327 gn((3, 6), (−1, 3)) en R2 .
328 gn((−1, 1), (2, 1)) en R2 .
329 gn((1, −1, 2), (3, −1, 1), (1, 1, −3), (0, 4, −10)) en R3 .
330 gn((2, −1, 3), (4, −2, 6), (8, −4, 12), (−10, 5, −15) en R3 .
331 gn((1, 1, 1), (−2, 1, 3), (−1, 2, 1), (2, 2, 3)) en R3 .
332 gn((−1, 2, 3, 1), (−2, 1, 0, 2), (−1, 1, 2, 2), (−1, 2, 0, −2)) en R4 .
333 gn((2, 1, 3, 2), (−1, 1, −1, 1), (2, 7, 5, 10) , (−4, 4, −4, 4)) en R4 .
334 gn((−1, 2, 1, 3), (−2, 3, 1, 4), (−3, 4, 2, 6), (−1, 1, 2, 3), (1, −6, 2, 3)) en R4 .
335 gn
336 gn
337 gn
−1
1
2
−1
3
,
2
2
1
−1 0
0 1
0
1
1
−1
−1
2
−1 1
−6 6
,
,
en M2 .
2 1
2 −3
−1 2 1
1 4 3
−3 −6
,
,
,
2 1 1
8 3 5
−14 −5
,
2 0
−1 2
1 0
1 0
−1 1
,
,
,
en M2 .
1 0
0 1
1 1
338 gn(x2 − 4, x2 + 4, 2, 3x − 2) en P.
339 gn(2, 3 + 2x, 2 + 3x, x2 + 1, x2 − x) en P.
340 gn(x, x − 1, x2 + 2, −x − 8 − 3x2 , x3 − x) en P.
341 gn(2 − x, 2 + x, x − x2 , −2 + 2x + 3x2 , x3 + 1, x4 − x) en P.
Page (PS/TeX): 116 / 226, COMPOSITE
−5
−9
en M2×3 .
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 227
342 gn(1, cos2 x, cos 2x, sen2 x) en F (R).
343 gn(sen 4x, sen 2x, sen 3x, cos x) en F (R).
344 gn(cos 8x, cos(2x), cos 5x, cos 3x) en F (R).
345 gn(1, e x , e−x , cosh x, senh x) en F (R).
sen( 52 x)
346 gn 1, cos x, cos 2x,
2 sen( 21 x)
en F ((0, 2π)).
347 Sea Pn el espacio de polinomios. A cada polinomio p(x) = ∑nk=0 a0 xk se le asocia el vector [p] =
(a0 , a1 , . . . , an ) de Rn+1 . Probar:
(a) [p] = 0 ⇔ p es el polinomio constante cero (p = θ).
(b) [p + q] = [p] + [q] para todo par p, q ∈ Pn .
(c) [αp] = α[p] para todo α ∈ R y para todo p ∈ Pn .
(d) Los polinomios pi , i = 1, . . . , m, son L.I. en Pn si y sólo si los vectores asociados correspondientes
[pi ] son L.I. en Rn+1 .
En los ejercicios 348 a 351, utilice el último inciso del ejercicio precedente para encontrar una base y la
dimensión del subespacio dado en el espacio de polinomios.
348 gn(1 + 4x − 2x2 + x3 , 1 − 9x + 3x2 − 2x3 , 5 + 7x − 5x2 + 3x3 , 5 − 6x − x3 ).
349 gn(1 − x + 2x2 + x3 , −2 + 3x + 2x2 + 2x3 , 6 − 8x − 2x3 , −1 + 2x + x2 + 3x3 ).
350 gn(2 + x + x2 − 3x3 , 5 − 2x + 7x2 − 9x3 , −1 − 2x + x2 + x3 , −1 + 2x2 ).
351 gn(3 − x + 2x2 + x3 , 1 + 4x + 5x2 + 7x3 , −1 + 2x + x2 + 3x3 , 2 − x + x2 − x3 ).
352 El conjunto de matrices triangulares superiormente de orden n, S, es un subespacio vectorial del espacio
Mn (cfr. ejercicio propuesto 110 de este capı́tulo).
(a) Encontrar una base y la dimensión de este subespacio para los casos n = 2 y n = 3.
(b) Hallar una base y dim(S) en Mn para cualquier n.
353 El conjunto de matrices simétricas de orden n, S, es un subespacio de Mn (cfr. ejemplo 3.25).
(a) Hallar una base y dim(S) en el caso n = 3.
(b) Encontrar una base y dim(S) en Mn para todo n.
354 Una matriz A ∈ Mn es antisimétrica si At = −A. Probar que el conjunto S de todas estas matrices, las
antisimétricas, es un subespacio de Mn , encontrar una base para S y calcular dim(S).
355 Sea S el conjunto de matrices cuadradas de orden n cuya traza es cero. Probar que S es un subespacio
n
de Mn , encontrar una base para S y dim(S). (Si A = [ai j ], tra(A) = ∑ aii .)
i=1
Page (PS/TeX): 117 / 227, COMPOSITE
228 CAPÍTULO 3
Espacios vectoriales
356 Sea S un subespacio de un espacio vectorial E con dim(E) = n. Encontrar una base y la dimensión del
espacio cociente E/S (cfr. ejercicio resuelto 29).
357 Sea S el subespacio de R∞ que consiste en todas las sucesiones (an ) tales que an = 0 salvo un número
finito de ı́ndices n. Probar que S < R∞ , encontrar una base y la dimensión de S.
358 Sean n > 1 un número entero y ck ∈ R, k = 0, 1, . . . , n, escalares distintos entre sı́. Para cada k = 0, 1, . . . , n
se define
n
Lk (x) = ∏
i=1
i=k
x − ci
.
ck − ci
(a) Probar que
Lk (ci ) =
0 si i = k
1 si i = k
para todo k y para todo i.
(b) Mostrar que Lk (x) es un polinomio de grado a lo más n. Los polinomios Lk (x) se llaman polinomios de Lagrange (asociados a los escalares ck ).
(c) Demostrar que los polinomios de Lagrange L0 , L1 , . . . , Ln son L.I. en Pn ; por ende, ya que
dim(Pn ) = n + 1, forman una base de Pn .
En los ejercicios 359 a 370, completar el conjunto L.I., B, a una base del espacio indicado.
359 B = {(−1, 2, 3), (2, −1, 2)}; R3 .
360 B = {(1, −1, 2), (−1, 2, 2)}; R3 .
361 B = {(2, −1, 2, 2), (−1, 2, 3, −2)}; R4 .
362 B = {(2, −2, 3, 1), (−2, 0, 3, 1)}; R4 .
363 B = {(−1, 0, 2, 3, 2), (−1, 1, 2, 3, −2), (−1, 1, 0, 1, 1)}; R5 .
364 B = {(−1, 2, 1, 4, 3), (−2, 1, 4, 2, 3)}; R5 .
365 B =
366 B =
367 B =
−1 1
2 1
1 0
2 0
,
2 0
−1 1
; M2 .
$
0 1
,
; M2 .
1 1
−1
2 1
2 −1 2
,
368 B = {x − 1, x2 + 1}; P3 .
Page (PS/TeX): 118 / 228, COMPOSITE
$
2 0 1
−1 1 1
−2
,
0
1
0
1
1
$
; M2×3 .
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 229
369 B = {2, x − 2, (x − 2)2 }; P4 .
370 B = {x − 1, (x − 1)2 , (x − 1)3 , (x − 1)4 }; P5 .
371 Sean E un espacio vectorial de dimensión finita y S1 , S2 subespacios de E. Si E = S1 ⊕ S2 , B1 =
{u1 , . . . ,uk } es una base de S1 y B = {v1 , . . . ,vl } es una base de S2 , mostrar que B1 ∩ B2 = 0/ y que
B1 ∪ B2 es una base de E (cfr. ejercicio resuelto 27).
372 Sean E un espacio vectorial de dimensión finita y S1 , S2 subespacios de E. Si B1 = {u1 , . . . ,uk } es una
base de S1 , B2 = {v1 , . . . ,vl } es una base de S2 , B1 ∩ B2 = 0/ y B1 ∪ B2 es una base de E, probar que
E = S1 ⊕ S2 .
373 Sean E un espacio vectorial de dimensión finita y S1 < E. Probar que existe S2 < E tal que E = S1 ⊕ S2 .
374 Probar que un espacio vectorial tiene dimensión infinita si y sólo si contiene un conjunto infinito lineal-
mente independiente.
375 Sean α, β ∈ R un par de números reales con β = 0. Sea S el conjunto de sucesiones de números reales
que satisfacen la relación
xn+2 + αxn+1 + βxn = 0 ∀n.
En el ejercicio resuelto 44 se probó que S < R∞ .
(a) Mostrar que si λ ∈ R es raı́z doble del polinomio X 2 + αX + β = 0, entonces las sucesiones
u = (un ) y v = (vn ), con un = λn y vn = nλn , pertenecen a S.
(b) Demostrar que {u, v} es una base de S.
376 Sean S1 el conjunto de matrices de la forma
a b
c a
, a, b, c ∈ R
y S2 el conjunto de matrices de la forma
0 a
−a b
, a, b ∈ R.
Probar que S1 , S2 < M2 ; encontrar bases y dimensiones de S1 , S2 , S1 + S2 y S1 ∩ S2 .
En los problemas 377 a 382, hallar una base y la dimensión del espacio solución del sistema homogéneo
indicado.
377
x1 + 3x2 − 2x3 = 0
x1 − 5x2 + 3x3 = 0
2x1 − x2 + 3x3 = 0.
378
x1 − x2 + x3 + 2x4 − x5 = 0
2x1 − x2 + 3x3 − x4 + 2x5 = 0
−3x1 + 2x2 − 3x3 + 2x4 − x5 = 0.
Page (PS/TeX): 119 / 229, COMPOSITE
230 CAPÍTULO 3
Espacios vectoriales
379
−x1 + 3x2 − x3 + x4 = 0
2x1 − 3x2 + x3 − 5x4 = 0.
380
x1 + 3x2 − 3x3 + x4
2x1 − x2 + 3x3 − x4
−x1 + x2 − 3x3 + x4
3x1 − x2 + x3 − x4
=
=
=
=
0
0
0
0.
381
−2x1 + 3x2 − x3 + 7x4 − 2x5 + 3x6 = 0
−x1 + x2 − x3 + 4x4 + 3x5 − 2x6 = 0
3x1 − x2 + 4x3 − 5x4 + 3x5 − 6x6 = 0.
382
x1 + 2x2 − 3x3 + x4 − 3x5 + 2x6
−2x1 − x2 − 2x3 + 3x4 − 3x5 − x6
3x1 − 2x2 + x3 + 5x4 − 3x5 + x6
4x1 − x2 + x3 − 4x4 + 2x5 + x6
=
=
=
=
0
0
0
0.
En los ejercicios 383 a 388, encontrar bases para el espacio fila, el espacio columna, el espacio nulo, las
respectivas dimensiones y el rango de la matriz indicada.
⎤
−1 1
−1 3 ⎦ .
−2 4
⎡
1
⎣ 2
3
383
⎡
1
⎢ −1
⎢
⎣ 4
0
384
⎡
−2
⎣ 3
2
385
⎡
1
⎢ −1
⎢
⎣ −1
1
386
⎡
387
4
⎢ −2
⎢
⎣ 0
1
⎡
388
Page (PS/TeX): 120 / 230, COMPOSITE
⎢
⎢
⎢
⎢
⎣
1
2
−2
2
1
⎤
3
1 ⎥
⎥.
2 ⎦
1
−2
3
−1
−1
⎤
−1
3 1
4 −1 1 ⎦ .
1
1 2
−1
0
1
−1
2
1
2
6
−2
1 0
3 −1 1
2 −1 2
−1
1 1
−1
−1
3
2
−1
2
0
1
1
0
⎤
3
2 ⎥
⎥.
1 ⎦
7
3
1
1
−1
1
3
4
6
0
2
3 −1
0
1
⎤
1
0 ⎥
⎥.
1 ⎦
2
5
2
0
2
2
⎤
⎥
⎥
⎥.
⎥
⎦
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 231
389 Encontrar una ecuación para el subespacio S generado por los vectores (−1, 2, −1, 1, 0), (2, −1, 1, 2, −3),
(2, −2, 4, 1, 1) de R5 ; es decir, hallar un sistema homogéneo Ax = 0 tal que el espacio solución sea S
(cfr. ejercicio resuelto 46).
390 Encontrar una ecuación para el subespacio S generado por los vectores (1, −3, 2, 1, 1), (1, −1, 3, 2, 1),
(−2, 1, −2, −1, 1) de R5 ; es decir, hallar un sistema homogéneo Ax = 0 tal que el espacio solución
sea S.
391 Sean S1 = {(x1 , x2 , x3 , x4 ) | x2 − x3 + 2x4 = 0}, S2 = {(x1 , x2 , x3 , x4 ) | x1 = x4 , x3 = −2x4 }. Encontrar bases
de S1 + S2 , S1 ∩ S2 y las respectivas dimensiones.
392 Pruebe que si S1 y S2 son subespacios de R3 con dim(S1 ) = dim(S2 ) = 2, entonces S1 ∩ S2 = {0R3 }.
393 Sean S1 y S2 los subespacios de R5 generados por
{(−1, 2, −1, 2, 2), (2, −1, 2, 3, 1), (3, −1, 2, 1, 0)}
y
{(−2, 3, 1, 2, 1), (−1, 1, 1, 2, 1), (2, −4, 2, 1, 3)},
respectivamente. Hallar las bases y las dimensiones de los espacios S1 + S2 y S1 ∩ S2 .
394 Sean S1 y S2 los subespacios de R5 generados por
{(1, −2, 3, −2, 1), (−2, 1, 2, −3, 4), (2, 1, −2, 2, 1)}
y
{(1, −3, −1, 1, 1), (1, −2, −1, 1, 2), (3, 4, −1, 2, 1)},
respectivamente. Hallar las bases y las dimensiones de los espacios S1 + S2 y S1 ∩ S2 .
395 Sean S1 y S2 los subespacios de R5 generados por
{(1, −2, 1, 3), (−1, −2, 3, 2)} y {(1, 2, 1, −2), (1, 1, −2, 1)},
respectivamente. Hallar las bases y las dimensiones de los espacios S1 + S2 y S1 ∩ S2 .
396 Sean S1 y S2 los subespacios de P generados por {1−x+x2 +2x3 , 2−3x+2x2 −x3 , −1+2x+3x2 −4x3 }
y {(−2 + 3x − 4x2 + x3 , 5 − x + 3x2 + 2x3 , −4 + x + 2x2 − 5x3 }, respectivamente. Hallar las bases y las
dimensiones de los espacios S1 + S2 y S1 ∩ S2 .
397 Sean S1 y S2 los subespacios de P generados por {x2 + 2x3 , 2 − 5x − x2 − x3 , −1 + 3x2 − 4x3 } y
{(3x − 5x2 − 3x3 , 2 − 3x − x2 − x3 , 1 + x + x2 − 7x3 }, respectivamente. Hallar las bases y las dimensiones
de los espacios S1 + S2 y S1 ∩ S2 .
Page (PS/TeX): 121 / 231, COMPOSITE
232 CAPÍTULO 3
Espacios vectoriales
Espacios vectoriales complejos (respuestas en página 1080)
398 Sea n un entero mayor o igual a 1. Probar que el conjunto Cn de vectores (z1 , . . . , zn ), zi ∈ C para cada
i = 1, . . . , n, con las operaciones:
(z1 , . . . , zn ) + (w1 , . . . , wn ) = (z1 + w1 , . . . , zn + wn )
α(z1 , . . . , zn ) = (αz1 , . . . , αzn ),
donde zi + wi y αzi son las operaciones suma y multiplicación de números complejos, es un espacio
vectorial sobre C.
399 Sean n y m un par de números enteros positivos. Probar que Mm×n (C), el conjunto de matrices [ai j ] con
componentes complejas, es un espacio vectorial con las operaciones:
[ai j ] + [bi j ] = [ai j + bi j ]
α[ai j ] = [αai j ],
donde ai j + bi j y αai j son la suma y el producto de números complejos, es un espacio vectorial sobre C.
400 Sea P(C) el conjunto de polinomios con coeficientes en C. Mostrar que P(C) con la suma de polinomios
y la multiplicación de un escalar por un polinomio usuales (pero sobre el campo C) es un espacio
vectorial complejo.
401 Probar que F (X, Cn ), el conjunto de funciones f : X → Cn , con las operaciones usuales de suma de
funciones y multiplicación de un escalar por una función, es un espacio vectorial sobre C.
402 Sea C∞ el conjunto de sucesiones (an ), con an ∈ C para todo n ∈ N. Se definen, para cada (an ), (bn ) ∈ C∞
y para cada α ∈ C:
(an ) + (bn ) = (an + bn )
α(an ) = (αan ).
Mostrar que C∞ , junto con estas operaciones, es un espacio vectorial complejo.
403 Sea E el conjunto de n-adas ordenadas (z1 , . . . , zn ), con los zi ∈ C. Se definen, para cada par (z1 , . . . , zn ),
(w1 , . . . , wn ) ∈ E y para cada α ∈ R, las operaciones
(z1 , . . . , zn ) + (w1 , . . . , wn ) = (z1 + w1 , . . . , zn + wn )
α(z1 , . . . , zn ) = (αz1 , . . . , αzn ),
donde zi + wi es la suma de números complejos y αzi es la multiplicación de un número real por un
complejo (α(a + bi) = (αa) + (αb)i). Probar que E junto con estas operaciones es un espacio vectorial
real; es decir, sobre R.
404 Muestre que si en Mm×n (C) se restringe la operación multiplicación por un escalar a números reales el
espacio resultante E es un espacio vectorial real. Determinar una base y la dimensión de este espacio.
405 Encontrar una base y la dimensión de
gn((1, −1 + i, 2i, 3 + i), (i, −i, 2i, 1 + 4i), (−i, −2 + i, −4 − 6i, −5 − 6i)) en C4 .
Page (PS/TeX): 122 / 232, COMPOSITE
SECCIÓN 3.6
Ejercicios resueltos y ejercicios propuestos 233
406 Completar el conjunto L.I. {(1, −2i, 2i), (1, −1, 2)} a una base de C3 .
407 Completar el conjunto L.I. {(1, i, −i, 2, 0), (1, −1, 1, 1, i), (2, −1, i, −i, 1)} a una base de C5 .
408 Encontrar una base y la dimensión de
gn
1
2
−i 1
−1 1
−2 2 −i
−2 + i
,
,
1 0
i
1 + 2i
3
−i
0
2i
en M2×3 (C).
409 Completar el conjunto L.I.
1 i
−i 2
1
,
2
−1
−i
$
a una base de M2 (C).
410 Sean α, β ∈ R un par de números reales con β = 0. Sea S el conjunto de sucesiones en C∞ (cfr. ejercicio
402) que satisfacen la relación
xn+2 + αxn+1 + βxn = 0 ∀n.
(cfr. ejercicio resuelto 44).
(a) Probar que S es un subespacio de C∞ .
(b) Mostrar que si λ, μ ∈ C son raı́ces complejas (conjugadas) del polinomio X 2 + αX + β, entonces
las sucesiones u = (un ) y v = (vn ), con un = λn y vn = μn , pertenecen a S.
(c) Demostrar que {u, v} es una base de S.
Page (PS/TeX): 123 / 233, COMPOSITE
Page (PS/TeX): 124 / 234, COMPOSITE
4
Espacios con producto
interior y espacios normados
El propósito de este capı́tulo es dotar de una “geometrı́a” análoga a la de R2 y R3 a otro tipo de espacios
vectoriales, de manera que, conceptos tales como producto punto, ángulo entre vectores, perpendicularidad, norma de un vector y distancia entre vectores adquieran significado en otros espacios; por ejemplo,
en el de polinomios, en el espacio de funciones, en el espacio de matrices o en el de sucesiones; aun si
en éstos no existe una forma fı́sica de “observar” dicha geometrı́a. Lo anterior, como veremos después,
no es un simple capricho con fines de generalización, sino que es de gran importancia teórica y aplicada.
Para poder hacerlo, es necesario generalizar el producto punto de Rn a estos espacios, ya que a partir de
él, como vimos antes, fue posible precisar dichos conceptos geométricos en el espacio Rn . A esto nos
abocaremos en la primera sección de este capı́tulo; para que en las siguientes secciones y subsecciones
podamos introducir los conceptos geométricos de los que hemos hablado. Como siempre, los últimos
dos segmentos están dedicados a la resolución de ejercicios y problemas, y a proponer ejercicios para
que el lector practique.
4.1 Espacios con producto interior
Para lograr extender el concepto de producto punto de los espacios Rn a otros espacios vectoriales necesitamos abstraer las propiedades esenciales del producto punto que son, precisamente, las que enunciamos en la página 123. Recordemos estas caracterı́sticas esenciales.1
En Rn el producto interior (producto punto) se define como:
n
(x1 , x2 , . . . , xn ) · (y1 , y2 , . . . , yn ) = ∑ xi yi
i=1
y tiene las propiedades:
1. u ·v =v ·u ,
2. (λu) ·v = λ(u ·v) ,
3. u · (v + w) = u ·v +u · w ,
4. u ·u ≥ 0 ,
5. u ·u = 0 ⇔ u = 0Rn ;
∀u,v,w ∈ Rn ; ∀λ ∈ R.
11 Les llamamos propiedades esenciales porque cualquier otra propiedad del producto punto se deduce de éstas.
235
Page (PS/TeX): 1 / 235, COMPOSITE
236 CAPÍTULO 4
Espacios con producto interior y espacios normados
4.1.1 Definiciones, ejemplos y propiedades
Definición 4.1 (Definición de producto interior) Sea E un espacio vectorial. Un producto interior
(producto escalar) en E es una función que a cada par de vectores u,v ∈ E, le asigna un número real
denotado como u,v, llamado el producto interior de u con v (también se acostumbra denotarlo por
(u |v)), que satisface las siguientes condiciones:
1. u,v = v,u (Simetrı́a)
2. λu,v = λu,v (Homogeneidad)
3. u,v + w = u,v + u,w (Aditividad)
4. u,u ≥ 0 (Positividad)2
5. u,u = 0 ⇔ u = 0E
∀v,u,w ∈ E y ∀λ ∈ R.
Ejemplo 4.1 En R2 , si x = (x1 , x2 ),y = (y1 , y2 ) se define
x,y = x1 y1 − 2x1 y2 − 2x2 y1 + 5x2 y2 .
Demostrar que x,y es un producto interior en R2 .
DEMOSTRACIÓN
Q Si u = (a, b),v = (c, d),w = (e, f ) ∈ R2 y λ ∈ R:
u,v = ac − 2ad − 2bc + 5bd
1.
y
v,u = (c, d), (a, b)
= ca − 2cb − 2da + 5db
= ac − 2ad − 2bc + 5bd.
Es decir, u,v = v,u.
2.
3.
λu,v =
=
=
=
u,v + w =
=
u,v =
u,w =
u,v + u,w =
(λa, λb), (c, d)
λac − 2λad − 2λbc + 5λbd
λ[ac − 2ad − 2bc + 5bd]
λu,v
(a, b), (c + e, d + f )
a(c + e) − 2a(d + f ) − 2b(c + e) + 5b(d + f ).
ac − 2ad − 2bc + 5bd,
ae − 2a f − 2be + 5b f ; ∴
a(c + e) − 2a(d + f ) − 2b(c + e) + 5b(d + f );
12 Con frecuencia, a las propiedades 2 y 3, se les cita diciendo que el producto interior es bilineal; y a las propiedades 4 y 5,
mencionando que el producto interior es definido positivo.
Page (PS/TeX): 2 / 236, COMPOSITE
SECCIÓN 4.1
Espacios con producto interior 237
esto es,
u,v + w = u,v + u,w.
u,u =
=
=
=
4.
a2 − 2ab − 2ba + 5b2
a2 − 4ab + 5b2
a2 − 4ab + 4b2 + b2
(a − 2b)2 + b2 ≥ 0;
de donde, u,u ≥ 0.
5. Si u = (0, 0), claramente u,u = 0. Si u = (a, b) y u,u = 0, entonces (a − 2b)2 + b2 = 0, de
ahı́ que a = b = 0 y que u = (a, b) = (0, 0). Q
Ejemplo 4.2 En Rn , el producto punto de vectores es un producto interior.
Ejemplo 4.3 (Producto interior en el espacio de funciones continuas). En el espacio de las funciones
continuas, C[a, b] se define, para f , g ∈ C[a, b],
f , g =
b
a
f (t)g(t)dt.
Comprobemos que f , g es un producto interior:
1. Si f , g ∈ C[a, b]
f , g =
b
a
f (t)g(t)dt =
b
a
g(t) f (t)dt = g, f .
2. Si λ ∈ R y f , g ∈ C[a, b],
λ f , g =
=
b
a
b
a
=λ
(λ f )(t)g(t)dt
λ f (t)g(t)dt
a
b
f (t)g(t)dt
= λ f , g.
3. Si f , g, h ∈ C[a, b]
f , g + h
=
=
=
Page (PS/TeX): 3 / 237, COMPOSITE
b
a
b
a
a
b
f (t)(g + h)(t)dt
f (t)[g(t) + h(t)]dt
[ f (t)g(t) + f (t)h(t)]dt
238 CAPÍTULO 4
Espacios con producto interior y espacios normados
=
=
b
a
f (t)g(t)dt +
b
a
f (t)h(t)dt
f , g + f , h.
4. Si f ∈ C[a, b]
f, f =
=
b
f (t) f (t)dt
a
b
a
[ f (t)]2 dt ≥ 0.
5. Si f = θ, θ(x) = 0 ∀x ∈ [a, b], entonces
f , f = θ, θ
=
b
a
=
a
b
θ2 (t)dt
0 · dt
= 0.
Si f ∈ C[a, b] y f , f = 0, es decir
b
a
f 2 (t)dt = 0, sea
F(x) =
x
a
f 2 (t)dt.
Entonces,
F(a) =
F(b) =
a
a
a
b
f 2 (t)dt = 0,
f 2 (t)dt = 0.
Ya que f es continua, f 2 también lo es. Ası́, por el teorema fundamental del cálculo,3
F (x) = f 2 (x) ≥ 0
∀x ∈ [a, b]. Luego, F es creciente en [a, b] (pues su derivada es positiva ahı́). Entonces,
F(a) ≤ F(x) ≤ F(b),
∀x ∈ [a, b]; y puesto que F(a) = 0 = F(b), se tiene que F(x) = 0 ∀x ∈ [a, b]. Por tanto,
f 2 (x) = F (x) = 0 ∀x y, por ende,
f (x) = 0 ∀x ∈ [a, b].
Es decir, f es la función θ, el neutro aditivo de C[a, b].
13 Recuerde que el teorema fundamental del cálculo establece que si g ∈ C[a, b] y se define G(x) =
G (x) = g(x) ∀x ∈ [a, b].
Page (PS/TeX): 4 / 238, COMPOSITE
x
a
g(t) dt, x ∈ [a, b], entonces
SECCIÓN 4.1
Espacios con producto interior 239
Ejemplo 4.4 Calcular f , g en C [0, 1], si f (x) = x y g(x) = e x .
Solución
Haciendo u = x, dv = e x dx e integrando por partes, se tiene
f , g =
0
1
xe x dx
= xe x |10 −
1
0
e x dx
= e − e x |10
= e − (e − 1)
= 1.
El producto interior definido en C [a, b] se puede motivar intuitivamente de la manera siguiente: sean
b−a
N un entero no negativo, h =
y x j = a + jh, j = 0, 1, . . . , N, la partición correspondiente al dividir
N
el intervalo [a, b] en N subintervalos cada uno de longitud h. Sea xk∗ ∈ [xk−1 , xk ] un punto cualquiera de
este k-ésimo subintervalo, para cada k = 1, 2, . . . , N. Entonces, si definimos
√
ak = f (xk∗ ) h
√
bk = g(xk∗ ) h
y
para cada k = 1, 2, . . . , N, tenemos, por definición de la integral definida, que para N grande
b
a
f (x)g(x)dx ≈
N
∑ f (xk∗ )g(xk∗ )h
k=1
= (a1 , a2 , . . . , aN ) · (b1 , b2 , . . . , bN ) .
De hecho, la aproximación es exacta en el lı́mite; es decir,
b
a
f (x)g(x)dx = lı́m
N→∞
N
∑ f (xk∗ )g(xk∗ )h
k=1
= lı́m (a1 , a2 , . . . , aN ) · (b1 , b2 , . . . , bN ) ,
N→∞
lo cual significa que el producto interior en C [a, b] es, en este sentido, un caso lı́mite del producto punto
de estos vectores en RN cuando N tiende a infinito.
Ejemplo 4.5 Sea M2×2 el espacio vectorial de las matrices cuadradas de orden 2. Se define para
A = [ai j ], B = [bi j ] ∈ M2×2 ,
A, B = a11 b11 + a12 b12 + a21 b21 + a22 b22 .
Por ejemplo,
−1 1
2 1
,
3 0
−2 2
= (−1) (3) + (1) (0) + (2) (−2) + (1) (2) = −5.
Demostrar que A, B es un producto interior en M2×2 .
Page (PS/TeX): 5 / 239, COMPOSITE
240 CAPÍTULO 4
DEMOSTRACIÓN
Espacios con producto interior y espacios normados
A, B
Q 1.
=
a11 b11 + a12 b12 + a21 b21 + a22 b22
=
b11 a11 + b12 a12 + b21 a21 + b22 a22
=
B, A .
2. Si λ ∈ R y A = [ai j ] ∈ M2×2 , entonces
λA, B = (λa11 )b11 + (λa12 )b12 + (λa21 )b21 + (λa22 )b22
= λ (a11 b11 + a12 b12 + a21 b21 + a22 b22 )
= λ A, B .
3. Si A = [ai j ] , B = [bi j ],C = [ci j ] ∈ M2×2 , entonces,
A, B +C = a11 (b11 + c11 ) + a12 (b12 + c12 )
+a21 (b21 + c21 ) + a22 (b22 + c22 )
= (a11 b11 + a12 b12 + a21 b21 + a22 b22 )
+ (a11 c11 + a12 c12 + a21 c21 + a22 c22 )
= A, B + A,C .
4. Si A = [ai j ] ∈ M2×2 , entonces,
A, A = a211 + a212 + a221 + a222 ≥ 0.
5. Si A =
0 0
, entonces claramente A, A = 0. Inversamente supongamos que
0 0
A = [ai j ] ∈ M2×2
y que A, A = 0, entonces,
a211 + a212 + a221 + a222 = 0;
lo cual implica a11 = a12 = a21 = a22 = 0 y, por tanto, A =
De 1, 2, 3, 4 y 5 A, B es un producto interior en M2×2 .
0 0
.
0 0
Q
Ejemplo 4.6 (Producto interior en matrices). En general, en el espacio vectorial Mm×n , si A =
[ai j ], B = [bi j ] y se define
m
A, B = ∑
i=1
n
∑ ai j bi j
,
j=1
entonces, A, B es un producto interior. En realidad, si se reflexiona un poco, es inmediato ver que si Fi
i son, respectivamente, las filas i de A y B, consideradas como vectores de Rn , entonces,
yG
m
A, B = ∑
i=1
Page (PS/TeX): 6 / 240, COMPOSITE
n
∑ ai j bi j
j=1
n
i
= ∑ Fi · G
i=1
(4.1)
SECCIÓN 4.1
Espacios con producto interior 241
En efecto, para cada i = 1, 2, . . . , m:
n
∑ ai j bi j
j=1
= (ai1 bi1 + ai2 bi2 + · · · + ain bin )
= (ai1 , ai2 , . . . , ain ) · (bi1 , bi2 , . . . , bin )
i.
= Fi · G
De donde se tiene (4.1). Sean ahora A, B,C ∈ Mm×n con sendas filas Fi , Gi y Hi , i = 1, 2, . . . , m; y λ ∈ R.
Entonces (note que utilizaremos las propiedades del producto punto en Rn ):
A, B
1.
m
∑ Fi · G i
=
i=1
m
∑ G i · Fi
=
i=1
B, A .
=
λA, B =
2.
∑ λFi · G i
m
i=1
=
m
∑λ
i
Fi · G
i=1
m
i
= λ ∑ Fi · G
i=1
=
A, B +C =
3.
λ A, B .
m
∑ Fi ·
i=1
=
m
∑
i + Hi
G
i + Fi · H
Fi · G
i
i=1
=
=
A, A =
4.
m
m
i=1
i=1
∑ Fi · G i + ∑ Fi · H i
A, B + A,C .
m
∑ Fi · Fi
i=1
=
m
∑ Fi 2 ≥ 0.
i=1
5. Claramente, si A = O, entonces, A, A = 0. Supongamos que A, A = 0, entonces,
m
0 = A, A = ∑ Fi 2 ,
i=1
de donde Fi 2 = 0 ∀i = 1, 2, . . . , m; luego, a2i1 + a2i2 + · · · a2in = 0 ∀i = 1, 2, . . . , n; por tanto, ai j = 0
∀i, j. Es decir, A = O.
De 1, 2, 3, 4 y 5 A, B es un producto interior en Mm×n .
Page (PS/TeX): 7 / 241, COMPOSITE
242 CAPÍTULO 4
Espacios con producto interior y espacios normados
Definición 4.2 (Traza de matrices cuadradas) Sea M ∈ Mn×n una matriz cuadrada, se denota y
define la traza de A como
n
tra(A) = ∑ aii .
i=1
Es decir, la traza de A es la suma de los elementos de la diagonal de A.
Ejemplo 4.7 Si A =
−1
2
3
4
, entonces tra(A) = −1 + 4 = 3.
Ejemplo 4.8 (Producto interior en matrices mediante la traza). Sean A = [ai j ], B = [bi j ] ∈ Mm×n .
Mostrar que el producto interior del ejemplo 4.6 definido por (4.1) se puede calcular por la fórmula
A, B = tra (B t A) .
DEMOSTRACIÓN
i las filas i de A y B, respectivamente,
Q Sea C = B t A, con C = [pkl ], y representemos por Fi y G
n
consideradas como vectores de R . Entonces, dado que la componente pkl de C es el producto de la fila
k de B t con la columna l de A y la fila k de B t es la columna k de B, se tiene
⎡
⎢
⎢
b1k b2k · · · bmk ⎢
⎣
pkl =
⎤
a1l
a2l
..
.
⎥
⎥
⎥.
⎦
aml
Entonces, los elementos de la diagonal de C son
pkk = b1k a1k + b2k a2k + · · · + bmk amk .
Por tanto,
tra (C) =
n
∑ (b1k a1k + b2k a2k + · · · + bmk amk )
k=1
=
n
n
n
k=1
k=1
k=1
∑ b1k a1k + ∑ b2k a2k + · · · + ∑ bmk amk
1 · F1 + G
2 · F2 + · · · + G
m · Fm
=G
1 + F2 · G
2 + · · · + Fm · G
m
= F1 · G
=
m
∑ Fi · G i ;
i=1
esto es,
m
i = tra (B t A)
A, B = ∑ Fi · G
i=1
Page (PS/TeX): 8 / 242, COMPOSITE
Q
(4.2)
SECCIÓN 4.1
Espacios con producto interior 243
P Nota 4.1 Observe que el producto interior en las matrices dado en (4.2) es una generalización del
producto punto de vectores; ya que el producto punto de vectores, u ·v, se puede calcular mediante el
producto matricial
(u)t v
al escribir los vectores u y v como matrices columna.
Ejemplo 4.9 (Producto interior en un espacio de sucesiones). Sea 2 el conjunto de las sucesiones
de números reales (an ) de cuadrado sumable; esto es,4
2 = {(an ) |
∞
∑ a2n es una serie convergente}.
n=1
1. Probar que si (an ), (bn ) ∈ 2 , entonces la serie
∞
∑ an bn
n=1
converge (absolutamente).
2. Mostrar que 2 es un subespacio vectorial del espacio de sucesiones reales5 R∞ .
3. Sea, para cualquier par (an ), (bn ) ∈ 2 ,
(an ) , (bn ) =
∞
∑ an bn
n=1
(lo cual está bien definido por el inciso anterior). Demostrar que éste es un producto interior en
2 .
DEMOSTRACIÓN
Q 1. Sean (an ) , (bn ) un par de sucesiones en 2 ; entonces, ∑∞n=1 a2n y ∑∞n=1 b2n son series convergentes.
De (3.5) del lema 3.1 (cfr. pág. 123) tenemos
2 |an | |bn | ≤ a2n + b2n
∀n.
Por lo que la serie de términos no negativos |an | |bn | es convergente6 y, por tanto, la serie ∑∞i=1 an bn
es (absolutamente) convergente.7
2. i(i) Claramente la sucesión constante cero (an = 0 ∀n) pertenece a 2 .
(ii) De la propiedad de la desigualdad triangular del valor absoluto,
|an + bn | ≤ |an | + |bn | ,
se sigue que
|an + bn |2
≤
(|an | + |bn |)2
≤
|an |2 + 2 |an | |bn | + |bn |2
14 Naturalmente se puede considerar, donde convenga, 2 el espacio de sucesiones (an ) tales que ∑∞n=0 a2n converge y (an ), (bn )
= ∑∞n=0 an bn .
15 Cfr. ejemplo 3.12, página 133.
16 Recuerde que si 0 ≤ αn ≤ βn ∀n, entonces, la convergencia de la serie ∑∞n=1 βn implica la convergencia de la serie ∑∞n=1 αn .
17 Recuerde que la convergencia de la serie ∑∞n=1 |αn | implica la convergencia de la serie ∑∞n=1 αn .
Page (PS/TeX): 9 / 243, COMPOSITE
244 CAPÍTULO 4
Espacios con producto interior y espacios normados
y, por ende, la serie
∞
∑ |an + bn |2
n=1
converge. Ya que toda serie que converge absolutamente es convergente, se deduce que
∞
∑ (an + bn )2
n=1
converge; es decir, (an + bn ) ∈ 2 .
(iii) Si α ∈ R y (an ) ∈ 2 , entonces ∑∞n=1 a2n es convergente. Luego,
∞
∑ (λan )2
∞
=
n=1
∑ λ2 a2n
n=1
= λ2
∞
∑ a2n
n=1
y, por tanto, λ (an ) ∈ 2 .
De (i), (ii) y (iii) se concluye que 2 es un subespacio del espacio vectorial de las sucesiones y por
tanto un espacio vectorial.
3. Sean (an ) , (bn ) , (cn ) ∈ 2 y λ ∈ R; entonces:
(a)
(an ) , (bn ) =
∞
∑ an bn
n=1
=
∞
∑ bn an
n=1
= (bn ) , (an ) .
(b)
(λan ) , (bn ) =
∞
∑ (λan )bn
n=1
∞
= λ ∑ an bn
n=1
= λ (an ) , (bn ) .
(c)
(an ) , (bn ) + (cn ) = (an ) , (bn + cn )
=
∞
∑ an (bn + cn )
n=1
=
∞
∑ (an bn + an cn )
n=1
=
∞
∞
n=1
n=1
∑ an bn + ∑ an cn
= (an ) , (bn ) + (an ) , (cn ) .
(d)
(an ) , (an ) =
∞
∑ a2n ≥ 0.
n=1
Page (PS/TeX): 10 / 244, COMPOSITE
SECCIÓN 4.1
Espacios con producto interior 245
(e) Claramente, si (an ) es la sucesión constante cero, (an ) , (an ) = 0. Supongamos inversamente
que (an ) , (an ) = 0, para alguna sucesión (an ) ∈ 2 , entonces,
a2m ≤
∞
∑ a2n = 0;
n=1
de donde am = 0 ∀m y, por tanto, (an ) es la sucesión constante cero.
Q
Ejemplo 4.10 Sean las sucesiones A = (1/n) y B = (1/(n + 1)); i.e., las sucesiones {1, 1/2, 1/3, . . .}
y {1/2, 1/3, 1/4, . . .}.
1. Mostrar que A, B ∈ 2 .
2. Calcular
(1/n) , (1/ (n + 1)) .
1. Sea f (x) = 1/x2 , x ∈ [1, ∞). Entonces, f es decreciente en [1, ∞), pues f (x) = −1/x2 < 0
en [1, ∞); además,
Solución
1
∞
f (x)dx =
∞
1
dx
x2
r
dx
r→∞ 1 x2
x=r
1
= lı́m −
r→∞
x x=1
1
= lı́m − + 1 = 1.
r→∞
r
= lı́m
Por el criterio de la integral,8 la serie
∞
1
∑ n2
(4.3)
n=1
converge. Dado que la serie
∞
1
∑ (n + 1)2
(4.4)
n=1
se obtiene de la serie (4.3) suprimiendo el primer término y la serie (4.3) es convergente, se deduce que
la serie (4.4) es también convergente. Por tanto, las sucesiones A y B pertenecen al espacio 2 .
2. Sea
a
b
1
= +
,
k (k + 1) k k + 1
18 Si f es una función no negativa y decreciente en el intervalo [1, ∞) y la integral impropia
∞
∑n=1 f (n) converge.
Page (PS/TeX): 11 / 245, COMPOSITE
∞
1
f (x)dx converge, entonces la serie
246 CAPÍTULO 4
Espacios con producto interior y espacios normados
entonces
1 = a (k + 1) + bk = (a + b) k + a.
De donde
a = 1,
a + b = 0;
por tanto, b = −1. Ası́ que
1
1
1
= −
.
k (k + 1) k k + 1
Entonces,
Sn =
n
k=1
=
1
∑ k (k + 1)
n
∑
k=1
1
1
−
k k+1
1 1
1
1 1 1 1
+ − + −···− + −
2 2 3 3
n n n+1
1
.
= 1−
n+1
= 1−
Luego,
A, B =
∞
1
∑ n (n + 1)
n=1
= lı́m Sn
n→∞
= lı́m 1 −
n→∞
= 1.
1
n+1
P Nota 4.2 También en el espacio 2 el producto interior, como en el caso del espacio C [a, b], tiene
un origen intuitivo en el producto punto de RN . En efecto, si (an ) y (bn ) son un par de sucesiones en 2 ,
sean uN = (a1 , a2 , . . . , aN ) y vN = (b1 , b2 , . . . , bN ), entonces
(an ), (bn ) =
∞
∑ an bn
n=0
N
=
∑ ak bk
N→∞
=
lı́m uN ·vN .
lı́m
k=0
N→∞
El lector puede verificar, sin mucha dificultad, las siguientes propiedades del producto interior, que son
consecuencias inmediatas de la definición 4.1 y que hacemos patentes en el siguiente teorema.
Page (PS/TeX): 12 / 246, COMPOSITE
Espacios con producto interior 247
SECCIÓN 4.1
Teorema 4.1 (Propiedades del producto interior) Si E es un espacio vectorial y · , · es un producto
interior en E, entonces ∀u,v,w ∈ E y ∀α, β ∈ R se cumple:
1. u, λv = λu,v.
2. u +v,w = u,w + v,w.
3. u, αv + βw = αu,v + βu,w.
4. αu + βv,w = αu,w + βu,w.
5. u −v,w = u,w − v,w.
6. u,0E = 0, ∀u ∈ E.
7. u,v = 0 ∀v ∈ E ⇒ u = 0E .
4.1.2 Ortogonalidad y norma inducida por el producto interior
En este apartado extenderemos los conceptos de ortogonalidad (perpendicularidad) y norma a un espacio
con producto escalar a partir del propio producto interior, como se hizo en el espacio Rn . El concepto de
ortogonalidad, definido en términos del producto interior nulo de los vectores involucrados, quedará justificado a posteriori al definir el ángulo entre vectores una vez que hayamos probado la desigualdad de
Schwarz en estos espacios. A partir de aquı́ y hasta que terminemos esta sección, supondremos que E
es un espacio con producto interior ·, ·.
Definición 4.3 (Ortogonalidad en espacios con producto interior) Se dice que u,v ∈ E son ortogonales (perpendiculares) si u,v = 0. Si u y v son ortogonales, escribiremos u ⊥v.
Ejemplo 4.11 En C[0, π], si f (x) = sen(x) y g(x) = cos(x),
sen x, cos x
=
0
=
=
π
sen x cos x dx
sen2 x
2
π
0
0.
Por tanto, f ⊥ g. Es decir, las funciones seno y coseno son ortogonales (perpendiculares) en C[0, π].
Ejemplo 4.12 En M2×2 , con el producto interior definido en (4.2), si
A=
1 1
2 3
,
B=
1 −1
−3
2
,
A, B = (1)(1) + (1)(−1) + (2)(−3) + (3)(2) = 0
Page (PS/TeX): 13 / 247, COMPOSITE
248 CAPÍTULO 4
Espacios con producto interior y espacios normados
o, equivalentemente,
A, B = tra (B t A)
= tra
= tra
1 −3
−1
2
−5 −8
3
5
1 1
2 3
= 0.
Por lo que A ⊥ B en este espacio.
Las siguientes propiedades de ortogonalidad, enunciadas en el teorema 4.2, son sencillas de demostrar si se utilizan las propiedades del producto interior. Se deja al lector su demostración como ejercicio.
Teorema 4.2 (Propiedades de ortogonalidad) Si u,v,w ∈ E, y α, β ∈ R, entonces,
1. u ⊥v,u ⊥ w ⇒ u ⊥ αu + βv.
2. Si S = gn (v1 ,v2 , . . . ,vm ) es un subespacio de E y u ⊥vi para cada i = 1, 2, . . . , m, entonces u ⊥v
∀v ∈ S.
3. u ⊥ v ∀v ∈ E ⇔ u = 0E (el único vector en un espacio que es ortogonal a todos los demás es
el vector cero, el neutro aditivo).
Definición 4.4 (Norma inducida por un producto interior) Se define la norma de un vector u en E
como
u = u,u .
A dicho número se le llama la norma inducida por el producto interior ·, · de E.
Ejemplo 4.13 Sea A ∈ Mm×n , A = [ai j ], con filas Fi = (ai1 , ai2 , . . . , ain ), entonces,
A2
=
m
A, A = ∑ Fi · Fi
i=1
=
n
m
∑ ∑ a2i j .
i=1 j=1
Es decir,
A =
∑ a2i j ,
donde la suma se efectúa sobre todas las componentes de la matriz A.
Page (PS/TeX): 14 / 248, COMPOSITE
SECCIÓN 4.1
Espacios con producto interior 249
1
y = sen2 (x)
|| sen(x)||2
0
0
π
π
2
Figura 4-1 • Gráfica de la función y = sen2 (x) y del área bajo esta curva en el intervalo [0, π ]. La raı́z cuadrada del
valor de esta área es la norma de la función y = sen(x) en el espacio C[a, b].
Ejemplo 4.14 En C[0, π]
sen x = sen x, sen x =
=
0
=
π
π
0
1 − cos 2x
dx
2
sen2 xdx
1/2
π
π 1/2 π
1 1
x − sen 2x
.
=
2 0 4
2
0
La figura 4.1 contiene la gráfica de la función y = sen2 (x) y el área bajo esta curva en el intervalo [0, π].
La raı́z cuadrada de esta área es la norma de la función y = sen(x) en el espacio C[0, π].
Ésta es la interpretación geométrica que tiene la norma inducida por el producto interior f , g =
b
f
a (x)g(x) dx en el espacio de funciones continuas en [a, b]. La norma de una función f es la raı́z
cuadrada del área bajo la curva y = f 2 (x) en el intervalo [a, b], como hacemos patente en la figura 4.2.
Más adelante, cuando veamos el concepto de distancia entre vectores, daremos una interpretación más
profunda de la norma inducida por el producto interior9 (cfr. ejemplo 4.21 y la discusión ulterior en la
pág. 258) que, grosso modo, establece que la norma de una función f en C[a, b] estima el promedio de
los valores cuadráticos que toma una función en el intervalo [a, b].
Ejemplo 4.15 En el espacio de sucesiones, sea A =
1
.
2n
1. Mostrar que A ∈ 2 , el espacio de sucesiones de cuadrado sumable (cfr. ejemplo 4.9).
2. Calcular A, la norma inducida por el producto interior en 2 .
19 Con frecuencia a la norma inducida por el producto interior en C[a, b],
o norma de promedio cuadrático.
Page (PS/TeX): 15 / 249, COMPOSITE
b
a
( f (x))2 dx
1/2
, se le llama norma cuadrado medio
250 CAPÍTULO 4
Espacios con producto interior y espacios normados
f
a
b
(a)
f2
|| f ||2
a
b
(b)
Figura 4-2 • (a) Gráfica de una función f . (b) Gráfica de la función f 2 y del área bajo esta curva en el intervalo
[a, b], cuyo valor es el cuadrado de la norma de f en el espacio C[a, b].
Solución
1. Sea, para cada n = 0, 1, 2, . . . ,
σn = 1 +
1
1
1
1
+ + · · · + 2n−2 + 2n .
22 24
2
2
Entonces,
1
1
1
1
1
σn = 2 + 4 + · · · + 2n + 2n+2 ;
22
2
2
2
2
por tanto,
σn −
1
1
σn = 1 − 2n+2 .
22
2
En consecuencia,
1
4
1 − 2n+2 ;
σn =
3
2
Page (PS/TeX): 16 / 250, COMPOSITE
Espacios con producto interior 251
SECCIÓN 4.1
luego,
4
1
1 − 2n+2
= lı́m
n→∞ 3
2
4
.
=
3
lı́m σn
n→∞
Por lo que,
∞
∑
n=0
1
2n
2
=
4
3
(4.5)
Esto es, A ∈ 2 .
2. De (4.5), se tiene
A, A =
∞
∑
n=0
1
2n
2
=
4
3
Por ende,
A = A, A =
4
2
2√
=√ =
3.
3
3 3
Nuevamente tenemos, como consecuencia del concepto geométrico de ortogonalidad, el célebre
teorema de Pitágoras en una versión mucho más general.
Teorema 4.3 (Teorema de Pitágoras en espacios con producto interior) Si E es un espacio con
producto interior ·, · y x ⊥y en E, entonces,
x +y2 = x2 + y2 .
DEMOSTRACIÓN
Q Como x ⊥y, x,y = 0. Entonces,
x +y2
=
x +y,x +y
=
x +y,x + x +y,y
=
x,x + y,x + x,y + y,y
= x2 + 2x,y + y2
=
x2 + y2 .
Q
Es fácil ver, aplicando el teorema anterior, que si x1 ,x2 , . . . ,xk ∈ E son ortogonales entre sı́, entonces,
x1 +x2 + · · · +xk 2 = x1 2 + x2 2 + · · · + xk 2 ,
la cual es una versión más general del teorema anterior.
Page (PS/TeX): 17 / 251, COMPOSITE
252 CAPÍTULO 4
Espacios con producto interior y espacios normados
4.1.3 Desigualdad de Schwarz y ángulo entre vectores
Vector proyección
Si u y v son dos vectores en R2 , el vector proyección de u sobre v se obtiene trazando una lı́nea perpendicular a v que pase por u, como se ilustra en la figura 4.3. Generalizamos este concepto a espacios con
producto interior en la siguiente definición.
u
v
p
Figura 4-3 • El vector proyección p de un vector u sobre un vector v en R2 .
Definición 4.5 En un espacio con producto interior se define el vector proyección, p, de u sobre v
(v = 0E ), como aquel que satisface:
1. p ∈ gn(v).
2. u −p ⊥v.
Por la primera condición, se tiene que p = λv; y, por la segunda,
0
=
u −p,v
=
u,v − p,v
=
u,v − λv,v
=
u,v − λv2 .
Lo que implica
λ=
u,v
,
v2
p =
u,v
v.
v2
y, entonces,
Con lo que hemos probado el siguiente teorema.
Page (PS/TeX): 18 / 252, COMPOSITE
SECCIÓN 4.1
Espacios con producto interior 253
Teorema 4.4 Si v,u ∈ E (con v = 0E ), entonces el vector proyección p de u sobre v está dado por
p =
u,v
v
v2
(4.6)
Ejemplo 4.16 Sean u = (1, 1) y v = (2, 0), entonces,
p
=
=
=
u ·v
v2
v
(1, 1) · (2, 0)
(2, 0)2
(2, 0)
1
(2, 0)
2
= (1, 0).
Ejemplo 4.17 Si f (x) = e x y g(x) = e−2x en C [0, 1], con el producto interior definido en el ejemplo
4.3,10 entonces, la proyección de f sobre g está dada por
p(x) =
f (x), g(x)
g(x)2
g(x).
Por una parte, tenemos
f (x), g(x)
=
=
1
0
1
0
e x e−2x dx
e−x dx
1 − e−1
=
y, por otro lado,
g(x)2
=
=
=
=
g(x), g(x)
1
2
e−2x dx
0
1
0
e−4x dx
1
1 − e−4 .
4
Luego,
4 1 − e−1 −2x
p(x) =
e .
1 − e−4
1De aquı́ en adelante, en todos los ejemplos con los que se trabaje, se supondrá que los productos escalares en cada espacio son
los que hemos definido en los ejemplos previos en este capı́tulo, a menos que se indique otra cosa.
10
Page (PS/TeX): 19 / 253, COMPOSITE
254 CAPÍTULO 4
Espacios con producto interior y espacios normados
Ejemplo 4.18 Si A =
−1 1
1 1
yB=
0 −1
2
0
en M2×2 , entonces
A, B = 1
y
B2 = 5
ası́ que la proyección de A sobre B es
P =
A, B
B
B2
1 0 −1
=
0
5 2
0 − 15
.
=
2
0
5
Ejemplo 4.19 Sean A =
1
3n
yB=
1
, puesto que
2n
1
2n
1
3n
2
≤
1
2n
≤
1
3n
2
y
2
∞ 1
∞ 1
∞
1
para todo n y las series geométricas ∑ n y ∑ n son convergentes, se sigue que ∑
y
n
n=0 2
n=0 3
n=0 2
2
∞
1
son convergentes; por tanto A, B ∈ 2 . Hallar la proyección de A sobre B.
∑
n
n=0 3
Solución
Tenemos que11
A, B =
∞
1 1
∑ 3n 2n
n=0
=
∞
1
∑ (2 · 3)n
n=0
n
1
= ∑
n=0 6
∞
=
=
1
1−
1
6
6
5
∞
1Aquı́ hemos utilizado el conocido hecho de que la serie geométrica ∑ r n converge si y sólo si |r| < 1; y que en tal caso
11
n=0
1
. Pudimos haber utilizado en los ejemplos precedentes esta propiedad de las series geométricas, pero hemos emplea1−r
n=0
do otros criterios más básicos de series con el objetivo de que el lector pueda repasarlos.
∞
∑ rn =
Page (PS/TeX): 20 / 254, COMPOSITE
SECCIÓN 4.1
Espacios con producto interior 255
y, por el ejemplo 4.15, sabemos que
B2 =
4
.
3
Entonces,
A, B
=
P
B
B2
6/5
B;
4/3
=
esto es,
P=
es la sucesión proyección de A sobre B.
9 1
10 2n
Como vimos en el capı́tulo anterior, la desigualdad que permite definir ángulos entre vectores de Rn
es la de Schwarz. Corresponde establecer ahora su versión en espacios vectoriales con producto escalar.
Antes de probar la desigualdad de Schwarz, observemos que, para cualquier u ∈ E y para todo λ ∈ R,
λu2
=
λu, λu
=
λu, λu
=
λ2 u,u
=
λ2 u2 ;
es decir,
λu = |λ|u.
Resultado que emplearemos en la demostración de esta desigualdad.
Desigualdad de Schwarz
Teorema 4.5 Si E es un espacio con producto interior ·, ·, entonces,
|u,v| ≤ u v
(4.7)
∀u,v ∈ E.
DEMOSTRACIÓN
Q Si u = 0E o v = 0E , claramente (4.7) es cierta. Supongamos que ninguno de los dos vectores es nulo.
Sea
p =
Page (PS/TeX): 21 / 255, COMPOSITE
u,v
v
v2
256 CAPÍTULO 4
Espacios con producto interior y espacios normados
el vector proyección de u sobre v. Entonces u −p ⊥ p. Por el teorema de Pitágoras:
u2 = (u − p) + p2 = u − p2 + p2 .
Lo cual implica
u2 = u − p2 + p2 ≥ p2 ;
es decir,
u2
≥ p2
u,v 2
= v
v2 =
|u,v|2
v2
v4
=
|u,v|2
.
v2
De donde,
u2 v2 ≥ |u,v|2
y, por tanto,
uv ≥ |u|v|.
Q
P Nota 4.3 Se puede probar que hay igualdad en (4.7) si y sólo si u y v son linealmente dependientes
(L.D.).
Propiedades de la norma inducida por el producto interior
√
En la subsección 3.1.4, vimos que la norma inducida por el producto punto en Rn , esto es u = u ·u,
tiene las propiedades enunciadas en el teorema 3.3 (cfr. pág. 127), las cuales se deducen a partir de
las propiedades del producto punto en Rn , que son en las que nos basamos para definir un producto
interior en general. Ası́ que, como es de esperar, la norma inducida por un producto interior, es decir,
u = u,u, también debe tener las mismas propiedades que su caso particular en Rn . En el siguiente
teorema hacemos patentes las caracterı́sticas esenciales de la norma inducida por un producto interior;
a partir de ellas se puede deducir cualquier otra propiedad de dicha norma.
Teorema 4.6 Sea E un espacio vectorial con producto interior ·, ·. Entonces, si u =
la norma inducida por el producto interior, se tiene:
1. u ≥ 0 ∀u ∈ E.
2. u = 0 ⇔ u = 0E .
3. λu = |λ| u
∀u ∈ E, ∀λ ∈ R.
4. u +v ≤ u + v
Page (PS/TeX): 22 / 256, COMPOSITE
∀u,v ∈ E
(Desigualdad triangular).
u,u es
SECCIÓN 4.1
DEMOSTRACIÓN
Espacios con producto interior 257
√
Q 1. u = u ·u ≥ 0 ∀u ∈ E.
√
2. 0E = 0E ,0E = 0 = 0. Supongamos que u = 0, entonces u,u = 0 y, por tanto, u = 0E .
3. Si λ ∈ R y u ∈ E, entonces,
λu2
=
λu, λu
=
λ u, λu
=
λ2 u,u
=
λ2 u2 ,
de donde,
λu = |λ| u .
4. Sean u,v ∈ E, entonces,
u +v2
=
u +v,u +v
=
u +v,u + u +v,v
= u,u + v,u + u,v + v,v
= u2 + 2 u, v + v2 .
De la desigualdad de Schwarz (4.7)
u, v ≤ u v .
Ası́ que,
u +v2
=
u2 + 2 u, v + v2
≤
u2 + 2 u v + v2
= (u + v)2 .
Luego,
u +v ≤ u + v
(4.8)
Q
P Nota 4.4 Se puede probar que hay igualdad en (4.8) si y sólo si uno de los vectores es múltiplo
escalar no negativo del otro.
Distancia en espacios con producto interior
Una vez que se tiene definido un producto interior en un espacio vectorial, se puede introducir el concepto de distancia entre vectores a través de la norma inducida por el producto interior; como hacemos
patente en la siguiente definición.
Page (PS/TeX): 23 / 257, COMPOSITE
258 CAPÍTULO 4
Espacios con producto interior y espacios normados
Definición 4.6 Si u y v son un par de vectores en el espacio E, se define y denota la distancia entre
ellos como
d(u,v) = u −v .
Ejemplo 4.20 En M2×2 si A =
−1
2
1
0
yB=
2
1
1
1
, entonces,
= A − B
−3
0 = 1 −1 =
(−3)2 + (1)2 + (−1)2
d(A, B)
=
√
11 .
Ejemplo 4.21 Sean f y g un par de funciones continuas en [a, b]. Entonces la distancia entre ellas,
medida con la norma inducida por el producto interior, es
d( f , g) = f − g =
b
a
2
( f (x) − g(x)) dx
1/2
.
Por ejemplo, si f (x) = 1 y g(x) = x, entonces en C [0, 1]
d( f , g)
=
=
1
0
(1 − x)2 dx
1/2
⎛
⎞1/2
3 x=1
(1
−
x)
⎠
= ⎝−
3 x=0
1
√ 3
La distancia entre dos funciones en C [a, b] es la raı́z cuadrada del área de la diferencia cuadrática entre
ellas en el intervalo [a, b], como se ilustra en la figura 4-4.
( f − g)2
f
a
|| f − g||2
g
b
Figura 4-4 • Gráficas de las funciones f , g, ( f − g)2 y del área bajo esta curva en el intervalo [a, b].
Page (PS/TeX): 24 / 258, COMPOSITE
Espacios con producto interior 259
SECCIÓN 4.1
En realidad, la distancia entre dos funciones en C [a, b] es una medida de la variación promedio cuadrática entre ellas. Para entender esto, primero supongamos que ϕ ∈ C [a, b]; y sean N un entero no negativo;
h = (b − a)/N; xk = a + kh, k = 0, 1, . . . , N; y xk∗ ∈ [xk−1 , xk ] un punto de este k-ésimo subintervalo,
k = 1, 2, . . . , N. Sabemos de la definición de integral que
b
a
ϕ(x)dx
=
N
∑ ϕ(xk∗ )h
N→∞
lı́m
k=1
∑Nk=1 ϕ(xk∗ )
N→∞
N
= (b − a) lı́m
Por lo que,
1
∑Nk=1 ϕ(xk∗ )
=
N→∞
N
b−a
lı́m
b
a
ϕ(x)dx .
De aquı́ que, para N grande,
1
∑Nk=1 ϕ(xk∗ )
≈
N
b−a
b
a
ϕ(x)dx
(4.9)
Luego, el promedio de los valores de la función en los puntos xk∗ es aproximadamente el área bajo la
curva y = ϕ(x) en el intervalo [a, b], dividida entre la longitud de este intervalo; y esta aproximación
es más precisa a medida que es mayor el número de los puntos xk∗ . Para ilustrar este hecho numéricamente, consideremos el caso particular de la función ϕ(x) = x2 en el intervalo [0, 1]. Los valores xk∗ , que
incluimos en la siguiente matriz, se eligieron aleatoriamente del intervalo [0, 1] para N = 9:
0.3365
0.2481
0.4026
0.2897
0.1814
0.5126
0.9254
0.3306
0.8847
Entonces,
1 9
∑ ϕ(xk∗ ) = 0.2662
9 k=1
N
100
400
900
1,600
2,500
∑Nk=1 ϕ(xk∗ )
N
.3596
.3215
.3370
.3291
.3312
N
3,600
4,900
6,400
8,100
14,400
∑Nk=1 ϕ(xk∗ )
N
.3427
.3301
.3362
.3390
.3327
Tabla 4-1 • Valores promedio de los ϕ(xk∗ ) para diversos valores de N con los puntos xk∗ elegidos aleatoriamente
en el intervalo [0, 1] para cada N.
La tabla 4.1 incluye los promedios dados por el lado izquierdo de (4.9) para distintos valores de N y
para puntos xk∗ , k = 1, 2, . . . , N, elegidos aleatoriamente en el intervalo [0, 1] para la función ϕ(x) = x2
(los valores de los xk∗ no se incluyen por razones obvias de espacio).
Page (PS/TeX): 25 / 259, COMPOSITE
260 CAPÍTULO 4
Espacios con producto interior y espacios normados
El valor del lado derecho de (4.9) en este caso es
1
0
x2 dx =
1
x3 1
= .
3 0 3
De la tabla 4.1 se puede ver que la tendencia es precisamente a 1/3 cuando N → ∞. Entonces, la interpretación que tiene f − g en C [a, b] va más allá que simplemente ser la raı́z cuadrada del valor del
área bajo la función ( f − g)2 en el intervalo [a, b]; sino que el cuadrado de esta norma dividido entre
la longitud del intervalo es el lı́mite del promedio de las diferencias al cuadrado entre estas funciones.
Esto es,
2
f − g2
∑N ( f (xk∗ ) − g(xk∗ ))
≈ k=1
b−a
N
para N grande. Es por esto que, aunque f − g no mide una diferencia puntal entre estas funciones,
sı́ mide el error promedio cuadrático entre ellas; este enfoque es mucho más valioso para una gran
variedad de aplicaciones, por lo que esta norma se emplea con gran frecuencia cuando se estudian
espacios de funciones continuas.
Ángulos entre vectores en espacios con producto interior
De la desigualdad de Schwarz (4.7) se deduce que
−uv ≤ u,v ≤ uv
lo cual implica, si ambos vectores son no nulos,
−1 ≤
u,v
≤ 1.
uv
Por tanto, es posible definir ángulo entre vectores en un espacio con producto interior a partir de la
función arc cos, como lo hicimos en el caso R2 y, en general, en Rn . Hacemos patente este concepto en
la siguiente definición.
Definición 4.7 Si E es un espacio con producto interior y u,v ∈ E − {0E }, se define el ángulo entre u
y v como:
u,v
.
θ = arc cos
uv
Ejemplo 4.22 En C[0, 1], si f (x) = x2 , g(x) = x,
f , g =
0
1
f (x)g(x)dx =
f =
Page (PS/TeX): 26 / 260, COMPOSITE
0
1
1
0
1
x2 · xdx = x4 /40 = 1/4;
√
x4 dx = 1/ 5;
SECCIÓN 4.1
g =
1
0
Espacios con producto interior 261
!1
√
x3 /3 = = 1/ 3.
x2 dx =
0
Entonces,
f , g
θ = arc cos
f g
= arc cos
1/4
√ 1√
5 3
,
y, finalmente,
√
15
4
θ = arc cos
Ejemplo 4.23 En M2×2 , sean A =
ces es
−1 1
0 0
≈ 0.2526 rad ≈ 14.47◦ .
yB=
0 1
, entonces el ángulo entre estas matri0 1
A, B
A B
1
= arc cos √ √
2 2
1
= arc cos
2
= 60◦ .
√ n √ n 2
2
12
yB=
, entonces el ángulo
Ejemplo 4.24 En 2 sean las sucesiones A =
2
10
entre estas sucesiones es
θ
=
arc cos
θ = arc cos
Tenemos que
A, B
A, B
.
A B
√ n √ n
2
2
= ∑
2
10
n=0
√ √ n
∞
2 2
= ∑
2 · 10
n=0
n
∞
1
= ∑
n=0 10
∞
=
=
1
1−
10
9
1
10
√
√
√
n 2
1(( 2/2)
(1/2)n y (( 2/10)n )2 = (1/50)n ; puesto que 1/2 < 1 y 1/50 < 1, las series geométricas ∑∞n=1 (( 2/2)n )2 ,
√ ) =
∞
∑n=1 (( 2/10)n )2 convergen y, por tanto, A, B ∈ 2 .
12
Page (PS/TeX): 27 / 261, COMPOSITE
262 CAPÍTULO 4
Espacios con producto interior y espacios normados
y
A2
=
=
=
=
=
B2
=
=
=
=
=
⎛ √ ⎞n
2
2
∑⎝ 2 ⎠
n=0
∞ n
2
∑ 4
n=0
∞ n
1
∑ 2
n=0
1
1
1−
2
2,
∞
⎛ √ ⎞n
2
2
∑ ⎝ 10 ⎠
n=0
n
∞ 2
∑ 2
n=0 10
n
∞ 1
∑
n=0 50
1
1
1−
50
50
.
49
∞
Por tanto,
⎛
⎜
θ = arc cos ⎜
⎝
√
10
9
2
10/9
10/7
7
= arc cos
9
⎞
⎟
⎟
50 ⎠
49
= arc cos
≈ . 67967 38189 rad
◦
. 67967 38189 · 180
≈
π
≈ 39◦ .
P Nota
de la definición 4.7, que el ángulo entre dos vectores u y v es θ = 90◦ , si y
4.5 Es evidente,
u,v
= 0 si y sólo si u,v = 0; lo cual justifica el concepto de ortogonalidad dado en la
sólo si
u v
definición 4.3 de la subsección 4.1.2 (cfr. pág. 247).
Page (PS/TeX): 28 / 262, COMPOSITE
SECCIÓN 4.1
Espacios con producto interior 263
4.1.4 Proyecciones, proceso de ortogonalización, factorización QR
Bases ortonormales
Definición 4.8 Sea B= {u1 ,u2 , . . . ,un } una base de un espacio vectorial con producto interior. Se
dice que B es una base ortonormal si
1. Los vectores ui son ortogonales entre sı́.
2. ui = 1 ∀i = 1, 2, . . . n.
Esto es,
$
ui , u j =
1
si i = j,
0
si i = j.
Ejemplo 4.25 En R3 , B= {(1, 0, 0), (0, 1, 0), (0, 0, 1)} es claramente una base ortonormal.
Ejemplo 4.26 En M2×2 , B= {Akl }, k, l = 1, 2, donde Akl = [ai j ] y
$
ai j =
1
si i = k, j = l;
0
en otro caso,
es una base ortonormal de M2×2 como fácilmente puede verificar el lector.
Cuando se tiene un conjunto de vectores no nulos ortogonales entre sı́, estos vectores son L.I., como
se prueba en el siguiente teorema.
Teorema 4.7 Sean u1 ,u2 , . . . ,um , vectores no nulos ortogonales entre sı́. Entonces estos vectores son
L.I.
DEMOSTRACIÓN
Q Sean αi , i = 1, 2, . . . , m, números reales tales que
α1u1 + α2u2 + · · · + αmum = 0E .
Entonces, para cada k = 1, 2, . . . , m,
α1u1 + α2u2 + · · · + αnum ,uk = 0E ,uk .
Por tanto,
α1 u1 ,uk + α2 u2 ,uk + · · · + αk uk ,uk + · · · + αn um ,uk = 0
Ya que los vectores son ortogonales entre sı́, se sigue que ui ,uk = 0 si i = k; y entonces
αk uk ,uk = 0.
Page (PS/TeX): 29 / 263, COMPOSITE
264 CAPÍTULO 4
Espacios con producto interior y espacios normados
Puesto que ningún vector es nulo, se debe tener αk = 0 para cada k = 1, 2, . . . , m. Ası́ que los vectores ui
son L.I. Q
Supongamos ahora que {u1 ,u2 , . . . ,un } es una base ortogonal de E; es decir, los vectores ui son
ortogonales entre sı́, entonces si v ∈ E, existen constantes ai tales que v = ∑ni=1 aiui . Luego, para cada
k = 1, 2, . . . , n, se tiene
&
%
v,uk n
∑ aiui ,uk
=
i=1
=
n
∑ ai ui ,uk i=1
=
ak uk ,uk =
ak uk 2 .
Ası́ que,
ak =
v,uk uk 2
para cada k = 1, 2, . . . , n. Ası́ hemos probado el siguiente teorema.
Teorema 4.8 Sea {u1 ,u2 , . . . ,un } una base del espacio E. Entonces,
1. Si los vectores son ortogonales entre sı́ y v ∈ E, se tiene
v =
n
v,uk k=1
k
∑ u 2 uk
(4.10)
2. Si esta base es ortonormal,
v =
n
∑ v,uk uk
(4.11)
k=1
para todo v ∈ E.
1 0 0
0 1 0
0 0 1
, A12 =
, A13 =
,
0 0 0
0 0 0
0 0 0
0 0 0
0 0 0
0 0 0
A21 =
, A22 =
y A23 =
; esto es, Akl = [ai j ], donde
1 0 0
0 1 0
0 0 1
Ejemplo 4.27 Es fácil mostrar que A11 =
'
ai j =
es una base ortonormal para M2×3 . Si B =
1 si i = k y j = l,
0 en otro caso;
b11 b12 b13
b21 b22 b23
B, Akl = bkl
Page (PS/TeX): 30 / 264, COMPOSITE
∈ M2×3 , entonces,
SECCIÓN 4.1
Espacios con producto interior 265
para cada k = 1, 2 y para cada l = 1, 2, 3; y claramente
B
=
b11 A11 + b12 A12 + · · · + b23 A23
=
B, A11 A11 + B, A12 A12 + · · · + B, A23 A23 .
Sea {u1 ,u2 , . . . ,un } una base ortonormal de E. Por (4.11) del teorema 4.8, todo vectorv ∈ E se puede
escribir como
v = a1u1 + a2u2 + · · · + anun
(4.12)
donde ak = v,uk , para k = 1, 2, . . . , n. Si convenimos en que siempre escribiremos los vectores de E
en esta forma, con los términos en el mismo orden como en (4.12), i.e., el primer término es un escalar
por u1 ; el segundo, un escalar por u2 , etc., y el último término un escalar por un ; diremos que esta base
ortonormal es ordenada y escribiremos (u1 ,u2 , . . . ,un ) para enfatizar este hecho; y a (a1 , a2 , . . . , an ) ∈ Rn
lo llamaremos el vector de coordenadas del vector v relativo a la base ordenada (u1 ,u2 , . . . ,un ). Con
este convenio, basta conocer el respectivo vector de coordenadas para poder escribir cualquier vector
como combinación lineal de los elementos de la base ordenada como en (4.12). Debido a que la base
es ortonormal, los cálculos básicos, que involucran al producto interior, se simplifican notablemente y
se determinan en función del producto punto en Rn . Hacemos patente este importante resultado en el
siguiente teorema, cuya demostración se deja de ejercicio al lector.
Teorema 4.9 Sea (u1 ,u2 , . . . ,un ) una base ordenada ortonormal del espacio E y sean (a1 , a2 , . . . , an ),
(b1 , b2 , . . . , bn ) los vectores de coordenadas de sendos vectores u y v de E. Entonces,
1.
u = a21 + a22 + · · · + a2n .
2.
d(u,v)
=
=
3.
u,v
d((a1 , a2 , . . . , an ), (b1 , b2 , . . . , bn ))
(a1 − b1 )2 + (a2 − b2 )2 + · · · + (an − bn )2 .
= (a1 , a2 , . . . , an ) · (b1 , b2 , . . . , bn )
= a1 b1 + a2 b2 + · · · + an bn .
Proyección de un vector sobre un subespacio
En la definición 4.5, establecimos lo que es el vector proyección de un elemento del espacio sobre otro
elemento. Ahora estudiaremos el concepto de proyección de un vector sobre un subespacio. Como se
ilustra en la figura 4-5, el vector proyección p de un vector u sobre un subespacio S generado por dos
vectores v1 y v2 debe satisfacer:
1. p ∈ gn (v1 ,v2 ) = S.
2. u −p ⊥v1 ,v2 (y, por tanto, a todo v ∈ S).
Page (PS/TeX): 31 / 265, COMPOSITE
266 CAPÍTULO 4
Espacios con producto interior y espacios normados
u
v 1
p
S
v 2
Figura 4-5 • Proyección de un vector p sobre un subespacio S en R3 .
En general, tenemos la siguiente definición.
Definición 4.9 Sea S un subespacio generado por los vectores linealmente independientes v1 ,
v2 , . . . ,vm y sea u ∈ E. Entonces, al vector p que satisface las dos condiciones siguientes:
1. p ∈ S,
2. u −p ⊥vi para cada i = 1, 2, . . . , m (y, por tanto, u − p ⊥v ∀v ∈ S),
se le llama el vector proyección de u sobre el subespacio S.
Entonces, si p es el vector proyección de u sobre S, dado que p ∈ S, existen ai ∈ R tales que
p =
m
∑ a jv j
j=1
y, por la condición 2 de la precedente definición, se debe tener
%
&
m
u − ∑ a jv j ,vk
=0
j=1
para cada k = 1, 2, . . . , m. Esto es,
m
u,vk − ∑ a j v j ,vk = 0
j=1
para todo k = 1, 2, . . . , m. Ası́, para determinar las constantes ai y, por tanto, el vector p, se debe resolver
el sistema
v1 ,v1 a1
v1 ,v2 a1
·
·
·
v1 ,vm a1
Page (PS/TeX): 32 / 266, COMPOSITE
+
+
·
·
·
+
v2 ,v1 a2
v2 ,v2 a2
·
·
·
v2 ,vm a2
+
+
·
·
·
+
···
···
·
·
·
···
+
+
·
·
·
+
vm ,v1 am
vm ,v2 am
·
·
·
vm ,vm am
=
=
·
·
·
=
u,v1 u,v2 ·
·
·
u,vm (4.13)
SECCIÓN 4.1
Espacios con producto interior 267
Ejemplo 4.28 En C [0, 1], sean f (x) = 1 y g(x) = x; S = gn( f , g) y u(x) = x2 . Entonces, por la
definición precedente, el vector proyección de u sobre S debe tener la forma p(x) = bx + a ∈ S y
u − p, f = 0 = u − p, g; esto es,
0=
=
x2 − bx − a dx
0
1
1
−a− b;
3
2
=
0=
1
0
1
x3 − bx2 − ax dx
1
1 1
− b− a .
4 3
2
Se tiene entonces el sistema
1
1
−a− b = 0
3
2
1 1
1
− b− a = 0
4 3
2
que al resolver, resulta a = − 61 y b = 1. Por lo que
p(x) = x −
1
6
es el vector proyección buscado.
Aunque en el ejemplo precedente se pudo encontrar la proyección de un vector sobre un subespacio, no queda claro aún si esto es posible en cualquier situación. Afortunadamente el siguiente teorema
garantiza que el sistema (4.13) tiene solución única en todos los casos cuando los vectores vi son linealmente independientes (L.I.).
Teorema 4.10 Sean v1 ,v2 , . . . ,vm vectores L.I. en E, entonces las filas de la matriz simétrica A =
[vi ,v j ] (y por tanto las columnas) son vectores L.I. de Rm . Por ende, la matriz [vi ,v j ] ∈ Mm×m es
invertible.
DEMOSTRACIÓN
Q Sean Fi = (vi ,v1 , vi ,v2 , . . . , vi ,vm ) las m filas de la matriz A y α1 , α2 , . . . , αm ∈ R tales que
α1 F1 + α2 F2 + · · · + αm Fm = 0Rm .
Si i = 1, 2, . . . , m, se tiene
αi Fi = (αi vi ,v1 , αi vi ,v2 , . . . , αi vi ,vm )
= (αivi ,v1 , αivi ,v2 , . . . , αivi ,vm ) .
Entonces,
0Rm = α1 F1 + α2 F2 + · · · + αm Fm
=
Page (PS/TeX): 33 / 267, COMPOSITE
m
m
m
i=1
i=1
i=1
∑ αivi , v1 , ∑ αivi ,v2 , . . . , ∑ αivi ,vm .
268 CAPÍTULO 4
Espacios con producto interior y espacios normados
Por tanto,
m
∑ αivi ,v1 =
0,
∑ αivi ,v2 =
0,
..
.
..
.
..
.
∑ αivi ,vm =
0.
i=1
m
i=1
m
i=1
Que, por propiedades del producto interior, se transforman en
m
∑ αivi ,v1 =
0,
∑ αivi ,v2 =
0,
..
.
..
.
..
.
∑ αivi ,vm =
0.
i=1
m
i=1
m
i=1
Entonces,
m
α1 ∑ αivi ,v1 =
0,
α2 ∑ αivi ,v2 =
0,
..
.
..
.
..
.
i=1
m
i=1
m
αm ∑ αivi ,vm =
i=1
0.
Nuevamente, por propiedades del producto interior se tiene:
m
∑ αivi , α1v1 =
0,
∑ αivi , α2v2 =
0,
..
.
..
.
..
.
i=1
m
i=1
m
∑ αivi , αmvm =
i=1
0.
Luego,
m
m
m
i=1
i=1
i=1
∑ αivi , α1v1 + ∑ αivi , α2v2 + · · · + ∑ αivi , αmvm = 0.
Que, por propiedades del producto interior, equivale a
m
m
i=1
i=1
∑ αivi , ∑ αivi = 0 .
Por tanto,
m
∑αivi = 0E .
i=1
Page (PS/TeX): 34 / 268, COMPOSITE
Espacios con producto interior 269
SECCIÓN 4.1
Por ser los vectores vi L.I., se deduce que α1 = α2 = · · · = αm = 0; en consecuencia, las filas Fi son
vectores L.I. Q
Tenemos como corolario a este teorema que el sistema (4.13) tiene solución única cuando los vectores son L.I.; esto es, si los vectores vi son L.I. y u ∈ E, entonces existe y además es única la proyección
de u sobre el subespacio S generado por estos vectores. Además, si los vectores vi forman un conjunto
ortonormal, los elementos de la matriz [vi ,v j ] son nulos cuando i = j; es decir, la única solución a este
sistema está dada por ai = u,vi ; luego
p =
m
∑ u,v j v j
j=1
es la proyección de u sobre S. Si los elementos de la base son sólo ortogonales (no necesariamente unitarios; i.e., de norma uno), entonces la única solución del sistema (4.13) está dada por ai = u,vi / vi 2 ;
ası́ que en este caso
p =
m
u,v j v j .
v j 2
j=1 ∑
Resumimos lo precedente en el siguiente teorema.
Teorema 4.11 Sean S un subespacio vectorial de E, u ∈ E y {v1 ,v2 , . . . ,vm } una base de S. Entonces
existe y es único el vector proyección de u sobre S. Además:
1. p está dado por
m
p = ∑ aivi
i=1
donde (a1 , a2 , . . . , am ) es la única solución del sistema (4.13).
2. Si la base {v1 ,v2 , . . . ,vm } es ortonormal,
p =
m
∑ u,v j v j .
(4.14)
j=1
3. Si la base {v1 ,v2 , . . . ,vm } sólo es ortogonal,
p =
m
u,v j v j .
v j 2
j=1 ∑
(4.15)
Ejemplo 4.29 En el ejemplo 4.11 se mostró que las funciones sen(x) y cos(x) son ortogonales en el
espacio C [0, π]. Si g(x) = x, hallar la proyección p de g sobre S = gn(sen(x), cos(x)).
Solución
Por (4.15),
p(x) =
Page (PS/TeX): 35 / 269, COMPOSITE
x, sen(x)
sen(x)
2
sen(x) +
x, cos(x)
cos(x)2
cos(x).
270 CAPÍTULO 4
Espacios con producto interior y espacios normados
En el ejemplo 4.14 vimos que
sen(x) =
π
sen2 (x)dx
0
1/2
=
π
.
2
Por otra parte,
cos(x) =
π
0
1/2
2
cos (x)dx
1/2
1 + cos(2x)
dx
=
2
0
π 1/2
x π 1
=
+ sen(2x)
2 0 4
0
π
;
=
2
x, sen(x) =
π
0
π
x sen(x)dx
= −x cos(x)|π0 +
= π + sen(x)|π0
π
0
cos(x)dx
=π;
0
π
x cos(x)dx = x sen(x)|π0 −
= 0 + cos(x)|π0
0
π
sen(x)dx
= −2.
Luego,
π
−2
p(x) = π sen(x) + π cos(x)
2
2
4
= 2 sen(x) − cos(x)
π
es la función proyección de g(x) = x sobre el espacio S = gn(sen(x), cos(x)).
Proyecciones en subespacios de Rn y matriz de proyección
Proyectar un vector sobre un subespacio es particularmente sencillo cuando se hace en el espacio Rn ;
además, el proceso involucra un formato matricial muy simple que será de gran utilidad para este fin y
en una de las aplicaciones más importantes que existen de este tema: el método de mı́nimos cuadrados,
el cual veremos más adelante.
Sean a1 ,a2 , . . . ,ak ∈ Rn vectores L.I. Si W = gn(a1 ,a2 , . . . ,ak ) y A ∈ Mn×k es la matriz cuyas columnas son a1 ,a2 , . . . ,ak , entonces W = {Ax |x ∈ Rk }. Efectivamente, si u ∈ gn(a1 ,a2 , . . . ,ak ), para algunos
x1 , x2 , . . . , xk ∈ R se tiene
Page (PS/TeX): 36 / 270, COMPOSITE
SECCIÓN 4.1
Espacios con producto interior 271
u = x1a1 + x2a2 + · ·⎡
· + xk⎤ak
x1
⎢ .. ⎥
= a1 a2 · · · ak ⎣ . ⎦
⎡
⎢
⎢
con13 x = ⎢
⎣
x1
x2
..
.
⎤
xk
= Ax
⎥
⎥
⎥. En particular, el vector proyección p de b sobre W tiene la forma p = Ar, con
⎦
xk
r = (r1 , r2 , . . . , rk ). Además, b −p ⊥ u, ∀u ∈ W . Por tanto, u · (b − p) = 0 ∀u ∈ W . Entonces, ∀x ∈ Rk :
(Ax)t (b − Ar) = 0 ⇒
x t At (b − Ar) = 0 ⇒
x t (Atb − At Ar) = 0.
Es decir, el producto punto del vector Atb − At Ar con cualquier vector x de Rk es cero, lo que implica,
por 7 del teorema 4.1, Atb − At Ar = 0Rk y, por tanto,
At b = (At A)r.
Ahora bien, dado que los vectores ai son L.I., la matriz A tiene rango k; sabemos, por el teorema 3.23
(cfr. pág. 171), que los rangos de A y At A son iguales, ası́ que Rang(At A) = k, y puesto que At A es una
matriz cuadrada de orden k, se sigue que es invertible. Luego,
r = (At A)−1 Atb
y p = Ar = [A(At A)−1 At ]b.
En resumen, el vector proyección, p, de b sobre W = gn(a1 ,a2 , . . . ,ak ) está dado por:
p = [A(At A)−1 At ]b
(4.16)
donde A es la matriz que tiene como columnas a los vectores a1 ,a2 , . . . ,ak . A la matriz
A(At A)−1 At
(4.17)
se le llama la matriz de proyección para el subespacio W .
Ejemplo 4.30 Hallar la proyección del vector b = (b1 , b2 , b3 ) sobre el plano 2x − y − 3z = 0.
Solución
Claramente la solución de este sistema escalonado es
x=
1Cfr. (1.15) en la página 12.
13
Page (PS/TeX): 37 / 271, COMPOSITE
y + 3z
.
2
272 CAPÍTULO 4
Espacios con producto interior y espacios normados
Es decir,
⎤ ⎡
x
⎣ y ⎦=⎣
z
⎡
s+3r
2
s
r
⎤
⎤ ⎡
⎤
⎡
3
1
q + 3t
⎦ = ⎣ 2q ⎦ = q ⎣ 2 ⎦ + t ⎣ 0 ⎦ .
2
0
2t
⎤
⎡
Ası́, si W es el plano 2x − y − 3z = 0, entonces W = gn((1, 2, 0), (3, 0, 2)). Luego,
⎤
1 3
A=⎣ 2 0 ⎦
0 2
⎡
y
At =
1 2 0
3 0 2
.
Por lo que,
⎤
⎡
1 3
1
2
0
⎣2 0⎦
At A =
3 0 2
0 2
5 3
=
.
3 13
Utilicemos ahora la adjunta para calcular la inversa de la matriz invertible At A, (B−1 = (1/|B|)Adj(B)):
(At A)−1 =
1
56
13 −3
−3
5
.
La matriz de proyección (4.17) es, en este caso,
⎤
1 3 1
13 −3
1 2 0
t
−1 t
⎦
⎣
A(A A) A = 2 0
5
3 0 2
56 −3
0 2
⎤
⎡
4 12 1 ⎣
1 2 0
⎦
26
−6
=
3 2 0
56 −6 10
⎤
⎡
40
8
24
1 ⎣
8
52 −12 ⎦
=
56 24 −12
20
⎤
⎡
5/7 1/7
3/7
= ⎣ 1/7 13/14 −3/14 ⎦ .
3/7 −3/14 5/14
⎡
Por lo que el vector proyección (4.16) es
⎤⎡
⎤
b1
5/7 1/7
3/7
p = ⎣ 1/7 13/14 −3/14 ⎦ ⎣ b2 ⎦ .
3/7 −3/14 5/14
b3
⎡
Proceso de ortogonalización de Gram-Schmidt
Las relaciones (4.14) y (4.15) del teorema 4.11 proveen, entre otras cosas, una forma muy simple de
proyectar un vector sobre un subespacio cuando éste posee una base ortogonal u ortonormal. En el
Page (PS/TeX): 38 / 272, COMPOSITE
SECCIÓN 4.1
Espacios con producto interior 273
teorema 4.9 también vimos que las operaciones que involucran producto interior se simplifican con este
tipo de bases; por eso, serı́a muy bueno el poder contar con bases ortogonales en los espacios donde
se esté trabajando. Afortunadamente es posible construir bases ortonormales en espacios de dimensión
finita mediante el proceso que a continuación explicamos.
1
Supongamos que {v1 ,v2 , . . . ,vm } es una base de un subespacio S del espacio E. Sea u1 =
v1 ,
v1 entonces u1 = 1 y gn(u1 ) = gn(v1 ) ⊂ S. Sea p1 el vector proyección de v2 sobre u1 y w2 = v2 − p1 ,
como se indica en la figura 4-6.
v2
v2 − p1
u1
p1
Figura 4-6 • Si p1 es el vector proyección de v2 sobre u1 , entonces w2 =v2 − p1 ⊥ u1 .
Entonces, w2 = 0E , pues en caso contrario v2 = p1 ∈ gn(u1 ) = gn(v1 ) y v1 , v2 serı́an L.D. Por (4.6) del
teorema 4.4 (cfr. pág. 253)
p1 =
v2 ,u1 u1 2
u1 = v2 ,u1 u1
y, por ende,
w2 =v2 − v2 ,u1 u1 .
Ası́, w2 ⊥ u1 y w2 ∈ gn (u1 ,v2 ) ⊂ S; si definimos
u2 =
1
w2 ,
w2 u2 ⊥ u1 , u2 = 1 y gn (u1 ,u2 ) = gn (v1 ,v2 ) ⊂ S. Sean ahora p2 el vector proyección de v3 sobre el
subespacio S2 = gn(u1 ,u2 ) y w3 = v3 − p2 , como se ilustra en la figura 4-7. Entonces w3 = 0E , ya que
en caso contrario
v3 = p2 ∈ gn(u1 ,u2 ) = gn(v1 ,v2 )
yv1 ,v2 ,v3 serı́an L.D. Puesto que {u1 ,u2 } es una base ortonormal de S, por (4.14) del teorema 4.11 (cfr.
pág. 269), p2 = v3 ,u1 u1 + v3 ,u2 u2 ; luego,
w3 =v3 − v3 ,u1 u1 − v3 ,u2 u2
Page (PS/TeX): 39 / 273, COMPOSITE
274 CAPÍTULO 4
Espacios con producto interior y espacios normados
v3
v3 − p2
u2
S
p 2
u1
Figura 4-7 • Si p2 es la proyección de v3 sobre gn(u1 ,u2 ), entonces w3 =v3 − p2 es ortogonal a u1 y a u2 .
satisface: w3 ∈ gn (u1 ,u2 ,v3 ) ⊂ S, w3 ⊥ u1 , w3 ⊥ u2 . Por tanto, si definimos
u3 =
1
w3 ,
w3 se tiene: gn (u1 ,u2 ,u3 ) = gn (v1 ,v2 ,v3 ) ⊂ S, u3 = 1, y los vectores u1 ,u2 ,u3 son ortogonales entre sı́.
Supongamos que hemos construido k vectores u1 , u2 , . . . , uk mediante este proceso, que satisfacen:
1. Los vectores son ortogonales entre sı́.
2. Los vectores son unitarios; es decir, ui = 1 para i = 1, 2, . . . , k.
3. gn (u1 ,u2 , . . . ,uk ) = gn (v1 ,v2 , . . . ,vk ) ⊂ S.
Sea pk el vector proyección de vk+1 sobre el subespacio gn (u1 ,u2 , . . . ,uk ) y wk+1 =vk+1 −pk ; entonces,
wk+1 = 0E , ya que en caso contrario
vk+1 = pk ∈ gn(u1 , . . . ,uk ) = gn(v1 , . . . ,vk )
y v1 , . . . ,vk , vk+1 serı́an L.D. Por (4.14) (dado que {u1 ,u2 , . . . ,uk } es ortonormal),
pk = vk+1 ,u1 u1 + vk+1 ,u2 u2 + · · · + vk+1 ,uk uk
y, por tanto,
wk+1 =vk+1 − vk+1 ,u1 u1 − vk+1 ,u2 u2 − · · · − vk+1 ,uk uk
satisface: wk+1 ∈ gn (u1 ,u2 , . . . ,uk ,vk+1 ) ⊂ S y los vectores u1 , u2 , . . ., uk , wk+1 son ortogonales entre sı́.
Por tanto, si definimos
uk+1 =
Page (PS/TeX): 40 / 274, COMPOSITE
1
wk+1 wk+1
SECCIÓN 4.1
Espacios con producto interior 275
se tiene:
1. Los vectores u1 ,u2 , . . . ,uk ,uk+1 son ortogonales entre sı́.
2. Los vectores son unitarios (ui = 1
∀i = 1, 2, . . . , k + 1).
3. gn (u1 ,u2 , . . . ,uk ,uk+1 ) = gn (v1 ,v2 , . . . ,vk ,vk+1 ) ⊂ S.
Podemos continuar este proceso hasta que k = m − 1. Ası́ tenemos que los vectores ui , i = 1, 2, . . . , m,
son ortogonales entre sı́, unitarios y gn (u1 ,u2 , . . . ,um ) ⊂ S. Puesto que el conjunto {u1 ,u2 , . . . ,um } es
ortonormal, estos vectores son L.I.; y ya que dim(S) = m, se tiene que gn(u1 ,u2 , . . . ,um ) = S. Luego
{u1 ,u2 , . . . ,um } es una base ortonormal para S. Este es el llamado proceso de ortogonalización de GramSchmidt para construir una base ortonormal de un subespacio de dimensión finita a partir de una base
dada de este subespacio. A fin de simplificar la información resumimos este proceso en el siguiente
teorema, el cual ya hemos demostrado en las precedentes lı́neas.
Teorema 4.12 (Proceso de ortogonalización de Gram-Schmidt) Sean S un subespacio del espacio E
y {v1 ,v2 , . . . ,vm } una base de S. Entonces, los vectores ui , i = 1, 2, . . . , m, definidos en forma recurrente
mediante el siguiente proceso:
u1 =
1
v1
v1 (4.18)
wk+1 =vk+1 − vk+1 ,u1 u1 − vk+1 ,u2 u2 − · · · − vk+1 ,uk uk
uk+1 =
1
wk+1 wk+1 ,
k = 1, 2, . . . , m − 1
forman una base ortonormal para S.
Ejemplo 4.31 Construir una base ortonormal para R3 a partir de la base
{(1, 1, 1), (0, 1, 1), (0, 0, 1)}.
Solución
(1, 1, 1)
√
(por (4.18) del teorema 4.12)
3
√
√
√
= (1/ 3, 1/ 3, 1/ 3).
u1 =
w2 = v2 − v2 ,u1 u1
(por (4.19) del teorema 4.12 con k = 1)
√
√
√
√
√
√
= (0, 1, 1) − (0, 1, 1), (1/ 3, 1/ 3, 1/ 3)(1/ 3, 1/ 3, 1/ 3)
√
√
√
√
= (0, 1, 1) − (2/ 3)(1/ 3, 1/ 3, 1/ 3)
= (0, 1, 1) − (2/3, 2/3, 2/3)
= (−2/3, 1/3, 1/3).
Page (PS/TeX): 41 / 275, COMPOSITE
(4.19)
(4.20)
276 CAPÍTULO 4
Espacios con producto interior y espacios normados
u2 =
w2
w2 (por (4.20) del teorema 4.12 con k = 1)
(−2/3, 1/3, 1/3)
= 4/9 + 1/9 + 1/9
√
= (3/ 6)(−2/3, 1/3, 1/3)
√
√
√
= (−2/ 6, 1/ 6, 1/ 6).
w3 = v3 − v3 ,u1 u1 − v3 ,u2 u2 (por (4.19) del teorema 4.12 con k = 2)
√
√
√
√
√
√
= (0, 0, 1) − (0, 0, 1), (1/ 3, 1/ 3, 1/ 3)(1/ 3, 1/ 3, 1/ 3)
√
√
√
√
√
√
√
−(0, 0, 1), (−2/ 6, 1/ 6, 1/ 6, 1/ 6)(−2/ 6, 1/ 6, 1/ 6, )
√
√
√
√
= (0, 0, 1) − (1/ 3)(1/ 3, 1/ 3, 1/ 3)
√
√
√
√
−(1/ 6)(−2/ 6, 1/ 6, 1/ 6)
= (0, −1/2, 1/2).
w3
(por (4.20) del teorema 4.12 con k = 2)
w3 (0, −1/2, 1/2)
=
1/2
√
√
= (0, − 2/2, 2/2).
u3 =
La base ortonormal buscada es: {u1 ,u2 ,u3 }.
Ejemplo 4.32 Encontrar una base ortonormal para el subespacio gn(e x , x) en C[0, 1].
Solución
En este caso, v1 = e x y v2 = x; entonces,
v1 = v1 ,v1 1/2
1
1/2
=
e2x dx
0
1/2
1 2x 1
= e |0
2
√
= (1/ 2)(e2 − 1)1/2 .
Por (4.18) del teorema 4.12,
√
u1 =
2
(e2 − 1)1/2
e x.
De (4.19) del teorema 4.12, con k = 1,
%
√
2
w2 = x − x, 2
ex
(e − 1)1/2
Page (PS/TeX): 42 / 276, COMPOSITE
&
√
2
ex .
2
(e − 1)1/2
Espacios con producto interior 277
SECCIÓN 4.1
Calculemos el producto interior de la última igualdad:
%
&
√
√
2
2
x
x, e x x, 2
=
e
(e − 1)1/2
(e2 − 1)1/2
y
x, e x =
1
0
xe x dx
= xe x |10 −
1
0
e x dx
= e − [e x ]10
= 1;
por tanto,
%
√
2
x, 2
ex
(e − 1)1/2
&
√
=
2
(e2 − 1)1/2
.
Ası́,
√
√
2
2
ex
w2 = x − 2
1/2
2
(e − 1) (e − 1)1/2
2
e x.
= x− 2
e −1
Para normalizar14 w2 tenemos que
2
2
e x dx
x− 2
e −1
0
1
4e2x
4xe x
+ 2
x2 − 2
dx
=
e − 1 (e − 1)2
0
3 1
1
x
2
4
2x
=
(1) +
−
e
3 0 e2 − 1
(e2 − 1)2
0
4
2
1
+
= − 2
(e2 − 1)
3 e − 1 (e2 − 1)2
2
1
= − 2
3 e −1
e2 − 7
=
;
3(e2 − 1)
w2 2 =
1
de donde (cfr. (4.20) del teorema 4.12, con k = 1)
u2 =
3(e2 − 1)
e2 − 7
1/2 2
ex
x− 2
e −1
1Emplearemos el término normalizar cuando multipliquemos por el recı́proco de la norma de un vector para obtener un vector
con la misma dirección pero con norma 1.
14
Page (PS/TeX): 43 / 277, COMPOSITE
278 CAPÍTULO 4
Espacios con producto interior y espacios normados
y la base buscada es:
$
1/2 (
2
2
2
3(e − 1)
x
x
e
x− 2
.
e ,
e2 − 7
e −1
(e2 − 1)1/2
√
Sabemos, de la discusión que hicimos para la derivación del proceso de Gram-Schmidt, que el vector
uk+1 es ortogonal a los vectores u1 ,u2 , . . . ,uk y que gn(u1 ,u2 , . . . ,uk ) = gn(v1 ,v2 , . . . ,vk ); por lo que uk+1
es ortogonal a los vectores v1 ,v2 , . . . ,vk . También de (4.19) y (4.20) del teorema 4.12, se desprende
vk ,uk = wk = 0, para cada k = 1, . . . , m. Con lo que hemos probado el siguiente corolario.
Corolario 4.4 Sean v1 ,v2 , . . . ,vm vectores L.I. del espacio vectorial E y sean u1 ,u2 , . . . ,um los vectores ortonormales que se obtienen de los vectores vi por medio del proceso de ortogonalización de
Gram-Schmidt. Entonces, uk+1 es ortogonal a los vectores v1 ,v2 , . . . ,vk , para cada k = 1, 2, . . . , m − 1.
Esto es:
v j ,ui = 0 si i > j
(4.21)
vi ,ui = 0 para todo i
(4.22)
Además
Factorización QR
Supongamos que A es una matriz n × m cuyas columnas son vectores v1 , v2 , . . . ,vm linealmente independientes de Rn . Sea {u1 ,u2 , . . . ,um } la base ortonormal que se obtiene por medio del proceso de
ortogonalización de Gram-Schmidt aplicado a la base {v1 ,v2 , . . . ,vm } del espacio columna de A. Por
(4.11) del teorema 4.8 (cfr. pág. 264) se tiene, para cada j = 1.2, . . . , m,
v j = v j ,u1 u1 + v j ,u2 u2 + · · · + v j ,um um .
Sea Q la matriz que tiene como columnas a los vectores u j ; por (1.5) del ejemplo 1.15 (cfr. pág. 12),
⎡
⎢
⎢
v j = Q ⎢
⎣
v j ,u1 v j ,u2 ..
.
⎤
⎥
⎥
⎥.
⎦
v j ,um ⎡
⎢
⎢
Entonces, si c j = ⎢
⎣
v j ,u1 v j ,u2 ..
.
⎤
⎥
⎥
⎥,
⎦
v j ,um A=
=
Page (PS/TeX): 44 / 278, COMPOSITE
v1 v1
Qc1
· · · vm
Qc2
···
Qcm
.
SECCIÓN 4.1
Espacios con producto interior 279
Ası́, si R es la matriz que tiene como columnas a los vectores c j , por (1.2) del ejemplo 1.14,
A=
=
v1
v1
Qc1
···
vm
···
Qc2
Qcm
= QR.
Ahora bien, por (4.21) del corolario 4.4, v j ,ui = 0 para todo i > j; luego, las componentes de la matriz
R = [v j ,ui ] son nulas para j < i; es decir, todas las componentes por debajo de diagonal. Ası́, la matriz
R = [v j ,ui ] es triangular superior e invertible, pues, por (4.22) vi ,ui = 0 para todo i. La matriz A se
puede factorizar entonces como el producto de una matriz cuyas columnas son vectores ortonormales y
una matriz triangular superior no singular. Hacemos patente esta conclusión en el siguiente teorema.
Teorema 4.13 Seanv1 ,v2 , . . . ,vm vectores linealmente independientes en Rn ; A la matriz n × m cuyas
columnas son estos vectores y {u1 ,u2 , . . . ,um } la base ortonormal que se obtiene del proceso de
ortogonalización de Gram-Schmidt aplicado a la base {v1 ,v2 , . . . ,vm } del espacio columna de A.
Entonces A se puede factorizar como el producto de una matriz Q y una matriz triangular superior
invertible R. Especı́ficamente,
A = QR,
donde el primer factor es la matriz Q cuyas columnas son los vectores ui y el segundo factor es la
matriz triangular superior no singular R = [v j ,ui ]; esto es,
⎡
⎢
⎢
⎢
⎢
⎢
R=⎢
⎢
⎢
⎢
⎣
v1 ,u1 v2 ,u1 v3 ,u1 ···
0
v2 ,u2 v3 ,u2 ···
0
0
v3 ,u3 ···
..
.
..
.
..
.
..
0
0
0
···
.
vm ,u1 ⎤
⎥
vm ,u2 ⎥
⎥
⎥
vm ,u3 ⎥
⎥.
⎥
⎥
..
⎥
.
⎦
vm ,um Ejemplo 4.33 Sea
⎡
1
⎢
⎢ 0
A=⎢
⎢
⎣ 1
0
1
1
1
0
1
⎤
⎥
−1 ⎥
⎥.
⎥
0 ⎦
1
1. Mostrar que las columnas de A son L.I.
2. Encontrar una base ortonormal para el espacio columna de la matriz A.
3. Factorizar A como el producto de una matriz Q cuyas columnas sean vectores ortonormales y una
matriz R triangular superior.
Page (PS/TeX): 45 / 279, COMPOSITE
280 CAPÍTULO 4
Espacios con producto interior y espacios normados
Solución
1. Llevemos A a la forma escalonada mediante el método de Gauss:
⎡
1
⎢ 0
⎢
⎣ 1
0
1
1
1
0
⎤ ⎡
1
1
⎢ 0
−1 ⎥
⎥∼⎢
0 ⎦ ⎣ 0
0
1
1
1
0
0
⎤ ⎡
1
1
⎢ 0
−1 ⎥
⎥∼⎢
−1 ⎦ ⎣ 0
0
1
1
1
0
0
⎤ ⎡
1
1
⎢ 0
−1 ⎥
⎥∼⎢
−1 ⎦ ⎣ 0
0
0
1
1
0
0
⎤
1
−1 ⎥
⎥.
1 ⎦
0
Puesto que toda columna tiene pivote, el sistema Ax =0 sólo tiene la solución trivial y, por tanto, los
vectores son L.I.
2. Dado que las columnas forman una base (ya que son vectores L.I.) del espacio columna, podemos
aplicar el proceso de ortogonalización de Gram-Schmidt para obtener una base ortonormal:
1
u1 = √ (1, 0, 1, 0)
2
√
√
= 1/ 2, 0, 1/ 2, 0 .
√
√
w2 = (1, 1, 1, 0) − (1, 1, 1, 0) · 1/ 2, 0, 1/ 2, 0
√ √
√
= (1, 1, 1, 0) − 2/ 2 1/ 2, 0, 1/ 2, 0
√
√
1/ 2, 0, 1/ 2, 0
= (1, 1, 1, 0) − (1, 0, 1, 0)
= (0, 1, 0, 0) ∴
u2 =
1
w2 = (0, 1, 0, 0) .
w2 √
√
w3 = (1, −1, 0, 1) − (1, −1, 0, 1) · 1/ 2, 0, 1/ 2, 0
√
√
1/ 2, 0, 1/ 2, 0
− ((1, −1, 0, 1) · (0, 1, 0, 0)) (0, 1, 0, 0)
√ √
√
= (1, −1, 0, 1) − 1/ 2 1/ 2, 0, 1/ 2, 0 − (−1) (0, 1, 0, 0)
= (1, −1, 0, 1) + (−1/2, 0, −1/2, 0) + (0, 1, 0, 0)
= (1/2, 0, −1/2, 1) ∴
u3 =
1
2
w3 = √
w3 6
1
1
1
1 2
, 0, − , 1 = √ , 0, − √ , √ .
2
2
6
6 6
3. Por el teorema 4.13,
⎡
⎢
⎢
⎢
⎢
⎢
Q=⎢
⎢
⎢
⎢
⎣
Page (PS/TeX): 46 / 280, COMPOSITE
1
√
2
0
1
√
2
1
0
0
0
0
1
√
6
0
1
−√
6
2
√
6
⎤
⎥
⎥
⎥
⎥
⎥
⎥
⎥
⎥
⎥
⎦
Espacios con producto interior 281
SECCIÓN 4.1
y si vi son los vectores columna de A,
⎡
⎢
R=⎢
⎣
v1 ,u1 v2 ,u1 0
v2 ,u2 0
0
v3 ,u1 ⎤
⎥
v3 ,u2 ⎥
⎦.
v3 ,u3 Como
√
√
√
v1 ,u1 = (1, 0, 1, 0) · 1/ 2, 0, 1/ 2, 0 = 2/ 2 ,
√
√
√
v2 ,u1 = (1, 1, 1, 0) · 1/ 2, 0, 1/ 2, 0 = 2/ 2 ,
√
√
√
v3 ,u1 = (1, −1, 0, 1) · 1/ 2, 0, 1/ 2, 0 = 1/ 2 ,
v2 ,u2 = (1, 1, 1, 0) · (0, 1, 0, 0) = 1 ,
v3 ,u2 = (1, −1, 0, 1) · (0, 1, 0, 0) = −1
y
√
√
√
√
v3 ,u3 = (1, −1, 0, 1) 1/ 6, 0, −1/ 6, 2/ 6 = 3/ 6 ,
entonces,
⎡
⎢
⎢
⎢
R=⎢
⎢
⎣
2
√
2
0
2
√
2
1
0
0
1
√
2
−1
3
√
6
⎤
⎥
⎥
⎥
⎥.
⎥
⎦
El lector puede verificar que efectivamente
A = QR
realizando el producto. Matrices ortogonales
i ortonormales de Rn .
Sea A una matriz cuadrada. Supongamos que las columnas de A son vectores K
Entonces, si ci j es la componente i j del producto At A,
$
it K
j=
ci j = K
1 si i = j
0 en otro caso
(4.23)
Luego, At A es la matriz identidad. Recı́procamente, si A es una matriz cuadrada de orden n tal que
At A = In , la identidad de orden n, entonces nuevamente se tiene la relación (4.23) y, por ende, las
columnas de esta matriz son vectores ortonormales de Rn . Hemos probado ası́ el siguiente teorema.
Page (PS/TeX): 47 / 281, COMPOSITE
282 CAPÍTULO 4
Espacios con producto interior y espacios normados
Teorema 4.14 Sea A una matriz cuadrada de orden n. Las siguientes condiciones son equivalentes a
pares:
1. Las columnas de A son vectores ortonormales de Rn .
2. At A = In .
3. A es una matriz invertible y A−1 = At .
Definición 4.10 Una matriz cuadrada A de orden n que satisface una de las condiciones del teorema
4.14 (y, por tanto, las otras dos) se llama matriz ortogonal.15
Ejemplo 4.34 Sean los vectores
√
√
√
√
√
√
u1 = 1/ 3, 1/ 3, 1/ 3 , u2 = −2/ 6, 1/ 6, 1/ 6
√
√
y u3 = 0, − 2/2, 2/2 .
Entonces, si
√
−2/ 6
√
1/ 6
√
1/ 6
√
1/ 3
⎢
√
A=⎢
⎣ 1/ 3
√
1/ 3
⎡
⎤
0
⎥
√
− 2/2 ⎥
⎦,
√
2/2
tenemos
√
√
1
3
3 3
⎢ 1√
√
1
At A = ⎢
6 6
⎣ −3 6
√
0
− 12 2
⎡
⎤
1 0 0
⎢
⎥
⎥
=⎢
⎣ 0 1 0 ⎦.
0 0 1
⎡
1
3
√
√
1/ 3
√ ⎥⎢
√
1
⎥⎢
6 6 ⎦ ⎣ 1/ 3
√
√
1
1/ 3
2 2
1
3
3
⎤⎡
√
−2/ 6
√
1/ 6
√
1/ 6
⎤
0
⎥
√
− 2/2 ⎥
⎦
√
2/2
Ası́ los vectores u1 ,u2 y u3 son ortonormales (cfr. ejemplo 4.31) y la matriz A es ortogonal.
P Nota 4.6
1. Observe que si las columnas de una matriz A son ortonormales, entonces sus filas también y viceversa; pues, At A = I ⇔ AAt = I.
2. En el caso de que A sea una matriz cuadrada, el teorema de factorización QR (4.13) afirma que
si las columnas de A son vectores L.I., entonces A se puede factorizar como el producto de una
matriz ortogonal con una matriz triangular superior.
1Serı́a más adecuado usar el término ortonormal, pero éste se reserva para bases y no es común su uso en la literatura de álgebra
lineal.
15
Page (PS/TeX): 48 / 282, COMPOSITE
Espacios con producto interior 283
SECCIÓN 4.1
4.1.5 Aproximación óptima de un vector por elementos de un subespacio
En la figura 4-8 se ilustra el conocido hecho de geometrı́a elemental que establece que la distancia
mı́nima de un punto a una lı́nea recta o a un plano es la longitud de la lı́nea perpendicular de ese punto a la
lı́nea recta o al plano. En términos de lo que en este texto hemos estudiado, esto significa que la distancia
mı́nima de un vector a un subespacio es la norma de la diferencia entre este vector y su proyección sobre
el subespacio. En el siguiente teorema mostraremos que este hecho geométrico también es válido en
espacios con producto interior. Nuevamente esta generalización no es una simple curiosidad matemática,
sino que es de gran importancia en la teorı́a de aproximación; tema que introduciremos más adelante.
La demostración de este teorema se basa en un artificio algebraico y el teorema de Pitágoras en espacios
con producto interior; sin embargo, este artificio es completamente intuitivo geométricamente y vale la
pena gastar un poco de tiempo en su explicación. En (b) de la figura 4-8, el segmento de lı́nea que va
del vector proyección p al punto u es ortogonal a todo punto de S y, por tanto, a toda lı́nea de este plano;
ası́ que en particular es ortogonal a la lı́nea recta que pasa por los puntos p y v. Por ende, el segmento de
lı́nea recta que va del punto u al puntov es la hipotenusa del triángulo rectángulo que pasa por los puntos
u, p y v; y como en todo triángulo rectángulo la longitud de la hipotenusa es mayor que las longitudes
de los catetos, se tiene d(u,p) ≤ d(u,v).
u
P
p
v
(a)
S
(b)
Figura 4-8 • (a) La menor distancia de un punto P, exterior a una lı́nea recta, está dada por la longitud de la
perpendicular de la lı́nea recta al punto P. (b) La menor distancia de un punto u, exterior a un plano S, a cualquier
punto v del plano, se alcanza en el vector proyección p de u sobre S.
Teorema 4.15 Sean S un subespacio de E de dimensión finita, u ∈ E un vector dado y p ∈ S el vector
proyección de u sobre S. Entonces
u − p ≤ u −v
∀v ∈ S.
Es decir, el mı́nimo de la distancia d(u,v), cuando v varı́a en S, se alcanza en v = p.
DEMOSTRACIÓN
Q Sea v ∈ S cualquier vector, entonces p −v ∈ S. Por lo que u − p ⊥ p −v; ası́ (por el teorema de
Pitágoras)
u −v2 = (u − p) + (p −v)2
= u − p2 + p −v2
≥ u − p2 ;
Page (PS/TeX): 49 / 283, COMPOSITE
284 CAPÍTULO 4
Espacios con producto interior y espacios normados
de donde
u −v ≥ u −p .
Q
En forma equivalente, el teorema 4.15 afirma que dados un elemento u del espacio E y S, un subespacio de dimensión finita, existe un elemento p ∈ S, de entre todos los elementos de S, que es el que
mejor aproxima a u en el sentido de la norma inducida por el producto interior; es decir,16
mı́n u −v = u − p
v∈S
(4.24)
Además, como el lector seguramente ya intuyó, el vector proyección p de u sobre S es el único elemento
de S que aproxima óptimamente a u en S; esto es, cumple con la relación (4.24). En efecto, si p1 ∈ S y
u − p1 ≤ u −v para todo v ∈ S, entonces se debe tener
u −p1 ≤ u − p
y
u − p ≤ u − p1 de donde se desprende
u −p1 = u − p .
Puesto que p es el vector proyección de u sobre S, u − p ⊥ v para todo v ∈ S, en particular u − p ⊥
p − p1 ∈ S. Por el teorema de Pitágoras se tiene
u −p1 2 = (u −p) + (p −p1 )2
= u −p2 + p − p1 2
= u −p1 2 + p −p1 2 ;
lo que implica
p −p1 2 = 0
y, por tanto,
p1 = p.
En resumen, hemos probado que en cualquier espacio con producto interior, E, dados un vector u y un
subespacio S de dimensión finita, existe un único vector p ∈ S tal que
u − p ≤ u −v ∀v ∈ S;
es decir, para el cual (4.24) se cumple; donde · es la norma inducida por el producto interior y, en este
caso, el vector p es la proyeción de u sobre el subespacio S. Llamaremos a p la aproximación óptima
(o la mejor aproximación) de u en S (relativa a la norma inducida · ).
1La notación mı́n u −v significa el valor mı́nimo del conjunto de números reales {u −v |v ∈ S}.
16
v∈S
Page (PS/TeX): 50 / 284, COMPOSITE
SECCIÓN 4.1
Espacios con producto interior 285
P Nota 4.7
1. En el último apartado de este capı́tulo estudiaremos el concepto de aproximaciones óptimas, pero
en subespacios normados cuya norma no necesariamente proviene de un producto interior.
2. Una norma en el sentido más general, como veremos en la siguiente sección, es una función que
permite medir magnitudes de vectores y distancias entre ellos; como se hace con la norma usual
en Rn o con las normas inducidas en espacios con producto interior. Sin embargo, como veremos
más adelante, no toda norma proviene de un producto interior.
3. De igual manera a como ocurre en espacios con producto interior veremos, en la siguiente sección,
que en un espacio vectorial normado (aunque la norma no provenga de un producto interior), dado
un vector u y un subespacio de dimensión finita S, siempre existe al menos una aproximación
óptima para este vector en S; pero dicha aproximación no necesariamente es única.
A continuación, encontraremos la aproximación óptima de vectores en subespacios para dos casos
particulares en el espacio de funciones continuas, con el fin de ilustrar esta importante teorı́a.
Aproximación con polinomios de Legendre
Ejemplo 4.35 Sean E = C [−1, 1] el espacio de funciones continuas en [−1, 1] dotado del producto
interior
f , g =
1
−1
f (x)g(x)dx,
S2 = gn 1, x, x2 y f ∈ E una función dada. Apliquemos el proceso de ortogonalización de GramSchmidt a la base {1, x, x2 }:
12 =
1
−1
dx = x|1−1 = 2
entonces
1
u1 = √ .
2
)
√ * √
w2 = x − x, 1/ 2 1/ 2,
)
√ * √
1
x, 1/ 2 1/ 2 = x, 1
2
1 1
=
xdx
2 −1
1 1
= x2 −1
2
= 0,
x2 =
Page (PS/TeX): 51 / 285, COMPOSITE
1
−1
x2 dx
=
1
x3 3 −1
=
2
;
3
286 CAPÍTULO 4
Espacios con producto interior y espacios normados
ası́ que
w2
w2 3
x.
=
2
u2 =
)
) *
√ * √
w3 = x2 − x2 , 1/ 2 1/ 2 − x2 , 3/2x
3/2x ,
)
√ * √
1 1 2
x2 , 1/ 2 1/ 2 =
x dx
2 −1
1
1 x3 =
2 3
−1
1
= ,
3
)
x2 ,
* 3/2x = 3/2
1
−1
x3 dx
1
x4 = 3/2 4 −1
= 0;
por tanto
w3 = x2 −
2
w3 =
=
1
−1
1
3
y
1
x −
3
2
2
dx
8
;
45
ası́ que
1
w3
w3 3 5 2 1
x −
.
=
2 2
3
u3 =
La base ortonormal es
$
1
u1 = √ , u2 =
2
3
3
x, u3 =
2
2
(
5 2 1
x −
.
2
3
Entonces, por (4.14) del teorema 4.11 (cfr. pág. 269), la proyección p2 de f sobre S2 es
p2 = f , u1 u1 + f , u2 u2 + f , u3 u3 .
Page (PS/TeX): 52 / 286, COMPOSITE
Espacios con producto interior 287
SECCIÓN 4.1
Por ejemplo, si f (x) = sen(πx), entonces17
1
1
sen(πx) √ dx = 0,
−1
2
1
3
1√
f , u2 =
xdx =
sen(πx)
6,
2
π
−1
1
3 5 2 1
f , u2 =
x −
dx = 0.
sen(πx)
2 2
3
−1
f , u1 =
Luego,
1√
p2 (x) =
6
π
3
= x
π
3
x
2
es el polinomio de grado a lo más dos que mejor aproxima a f (x) = sen(πx) en el sentido de que
1
−1
( f (x) − p2 (x))2 dx
tiene el valor más pequeño al compararla con
1
−1
( f (x) − q(x))2 dx
para cualquier polinomio q(x) de grado a lo más dos. Las gráficas de f (x) y p2 (x) se ilustran en la figura
4-9. De hecho el lector puede comprobar, realizando la integral, que
sen(πx) − 3 x ≈ 0.626157 2471.
π Las gráficas de ( f (x) − p2 (x))2 y de ( f (x) − q(x))2 , para q(x) = (1/10) x2 − 2x + 2 , se ilustran en la
figura 4-10; en ella se puede apreciar que aparentemente el área bajo la curva ( f (x) − p2 (x))2 es menor
1
0.8
0.6
0.4
0.2
0
–0.2
–0.4
–0.6
–0.8
–1
–1
p2 (x)
f (x)
–0.5
0
0.5
1
Figura 4-9 • Gráficas de f (x) = sen(π x) y la proyección, p2 (x), de esta función sobre el subespacio
S2 = gn(1, x, x2 ).
1Dejamos los detalles de los cálculos de las integrales de ejercicio para el lector.
17
Page (PS/TeX): 53 / 287, COMPOSITE
288 CAPÍTULO 4
Espacios con producto interior y espacios normados
1.8
1.6
( f (x) − q(x))2
1.4
1.2
1
( f (x) − p2 (x))2
0.8
0.6
0.4
0.2
0
–1
–0.5
0
0.5
1
Figura 4-10 • Gráficas de las funciones ( f (x) − p2 (x))2 y ( f (x) − q(x))2 . El área bajo la primera curva debe ser
inferior al área bajo la segunda curva.
que el área bajo la curva ( f (x) − q(x))2 en [−1, 1]. Efectivamente,
1
−1
1
(600 + 853π)
750π
≈ 1. 39198 1242
(sen(πx) − q(x))2 dx =
de donde18
sen(πx) − q(x) ≈
√
1. 39198 1242 ≈ 1. 17982 2547.
A los polinomios ortonormales que se obtienen al aplicar el proceso de ortogonalización de GramSchmidt a la sucesión de polinomios L.I.
+
,
1, x, x2 , x3 , . . . , xn , . . .
en C[−1, 1], se les llaman polinomios de Legendre (normalizados). Estos polinomios tienen importantes aplicaciones en la teorı́a de aproximación, en fı́sica, en ecuaciones diferenciales, etc. Los primeros
tres polinomios de Legendre normalizados los hemos calculado en el ejemplo precedente. Se puede
probar que estos polinomios, antes de normalizar, están dados por la relación
wk+1 =
k
k! d k 2
x −1
k
(2k)! dx
Por ejemplo, para k = 2,
2
2! d 2 2
x −1
4! dx2
1 d 2
2 x − 1 2x
=
12 dx
1 2
3x − 1
=
3
1
= x2 −
3
w3 =
1Recuerde que sen(πx) − p2 (x) fue aproximadamente 0.62615 72471.
18
Page (PS/TeX): 54 / 288, COMPOSITE
Espacios con producto interior 289
SECCIÓN 4.1
que es el mismo polinomio que obtuvimos en el ejemplo anterior. Para k = 3, tenemos
w4 =
3
3! d 3 2
x −1
3
6! dx
3
= x3 − x ,
5
1
−1
3
x3 − x
5
1/2
2
=
dx
de donde
1
1
u4 =
w4 =
w4 2
2√
14 ;
35
7 3
5x − 3x .
2
De manera similar (los detalles del cálculo se dejan de ejercicio al lector), podemos obtener
1 9 4
35x − 10x2 + 3
y
u5 =
8 2
1 11 5
63x − 70x3 + 15x .
u6 =
8 2
2.5
2
1.5
1
0.5
0
–0.5
–1
–1.5
–2
u1
u3
u2
–2.5
–1
–0.5
0
u4
u5
u6
0.5
1
Figura 4-11 • Gráficas de los primeros 6 polinomios de Legendre (normalizados).
En la figura 4-11, se bosquejan las gráficas de los primeros 6 polinomios de Legendre, ui (x), que calculamos en el ejemplo precedente y en la ulterior discusión.
Es claro que podemos extender este proceso y, dada una función continua f en el espacio C[−1, 1]
y un número entero no negativo n, construir un polinomio de grado a lo más n, combinación lineal de
polinomios de Legendre, que es la mejor aproximación de f , de entre todos los polinomios de grado a lo
más n, respecto a la norma inducida por el producto interior en C[−1, 1]. Ası́, por ejemplo (se dejan los
detalles de los cálculos al lector), la mejor aproximación para f (x) = sen(πx) en S4 = gn(1, x, x2 , x3 , x4 ),
el espacio de polinomios de grado a lo más 4, es
3
21 2
35 2
3
p4 = 3 π − 15 x +
−
π − 15 x
2π
π 2π 3
Page (PS/TeX): 55 / 289, COMPOSITE
290 CAPÍTULO 4
Espacios con producto interior y espacios normados
y la mejor aproximación de f en el espacio de polinomios de grado a lo más 6 es
5
385 4
3
693 4
35 2
2
2
p6 = 5 π − 105π + 945 x +
π − 15 − 5 π − 105π + 945 x
8π
2π 3
4π
165 4
21 2
3
2
−
π − 15 + 5 π − 105π + 945 x .
=+
π 2π 3
8π
1
sen(π x)
p4 (x)
0.8
0.6
0.4
0.2
0
–0.2
–0.4
–0.6
–0.8
–1
–1
–0.5
0
0.5
1
Figura 4-12 • Gráficas de f (x) = sen(π x) y p4 (x). Observe que la diferencia entre las áreas bajo estas curvas
(y entre las propias curvas) es muy poca.
0.045
0.04
0.035
0.03
0.025
0.02
0.015
( f (x) − p4 (x))2
0.01
0.005
0
–1
–0.5
0
0.5
1
Figura 4-13 • Gráfica de ( f (x)− p4 (x))2 . El área bajo esta curva es menor que el área bajo la curva ( f (x)− p2 (x))2 .
Un bosquejo de las gráficas de f (x) = sen(πx) y p4 (x) se ilustra en la figura 4-12. Mientras que la figura
4-13 contiene el área bajo la gráfica de la función ( f (x) − p4 (x)2 , que ahora es menor que en el caso de
aproximación en S2 . Un cálculo un poco laborioso, el cual omitiremos, produce:
f (x) − p4 (x) ≈ 9. 37028 9878 × 10−2
y
f (x) − p6 (x) ≈ 6. 08092 8379 × 10−3 .
Page (PS/TeX): 56 / 290, COMPOSITE
SECCIÓN 4.1
Espacios con producto interior 291
Parece que f (x) − pn (x) tiende a cero en la medida en que n aumenta. De hecho, esto no es un
fenómeno que sólo sucede para f (x) = sen(πx); en realidad, se puede probar que si f es cualquier
función continua en C[−1, 1] y, para cada n ∈ N, pn es el polinomio de grado a lo más n que es la mejor
aproximación relativa a la norma inducida por el producto interior para f en el espacio de polinomios
de grado19 a lo más n, entonces
lı́m f − pn = 0
n→∞
(4.25)
que equivale a
lı́m
1
n→∞ −1
( f (x) − pn (x))2 dx = 0.
Entonces, si se satisface 4.25, la sucesión (pn ) converge en promedio cuadrático a la función f . En
general, en un espacio vectorial E con producto interior, se dice que un conjunto ortonormal de vectores {un } es completo, si para todo v ∈ E existe una sucesión pn de combinaciones lineales finitas de
los vectores ui , que converge en promedio cuadrático a v. En este sentido, el conjunto de polinomios
normalizados de Legendre es completo en C[−1, 1].
Aproximación por polinomios trigonométricos
Sea n un entero no negativo y sean las funciones ψ0 (x) = 1, ψ2k−1 (x) = cos (kx), ψ2k (x) = sen(kx);
k = 1, 2, . . . , n; esto es, las 2n + 1 funciones continuas ψ0 (x) = 1, ψ1 (x) = cos(x), ψ2 (x) = sen(x),
ψ3 (x) = cos(2x), ψ4 (x) = sen(2x), . . . , ψ2n−1 (x) = cos(nx), ψ2n = sen(nx). Recordemos las identidades
trigonométricas
sen(A) cos(B)=
1
(sen(A + B) + sen(A − B))
2
(4.26)
cos(A) cos(B)=
1
(cos(A + B) + cos(A − B))
2
(4.27)
sen(A)sen(B)=
1
(cos(A − B) − cos(A + B))
2
(4.28)
Sean A, B ∈ {0, 1, 2, . . . , 2n + 1}, con A = B. De (4.26):
2π
0
sen(Ax) cos(Bx)dx =
1
2
1
=
2
2π
0
-
(sen ((A + B) x) + sen ((A − B) x)) dx
2π
1
−
cos ((A + B)x)
A+B
0
=+ −
2π .
1
cos ((A − B)x)
A−B
0
= 0.
1Recuerde que pn es combinación lineal de polinomios de Legendre normalizados.
19
Page (PS/TeX): 57 / 291, COMPOSITE
292 CAPÍTULO 4
Espacios con producto interior y espacios normados
De (4.27):
2π
0
cos(Ax) cos(Bx)dx =
1
2
2π
0
-
1
=
2
=+
(cos ((A + B) x) + cos ((A − B) x)) dx
2π
1
sen ((A + B)x)
A+B
0
2π .
1
sen ((A − B)x)
A−B
0
= 0.
De (4.28)
2π
0
sen(Ax)sen(Bx)dx =
1
2
1
=
2
2π
0
-
=−
(cos ((A − B) x) − cos ((A + B) x)) dx
2π
1
sen ((A − B)x)
A−B
0
2π .
1
sen ((A + B)x)
A+B
0
= 0.
Si A = B = 0, (4.26) implica
2π
0
sen(Ax) cos(Bx)dx =
1
2
=−
2π
0
sen (2Ax) dx
1
cos(2Ax)|2π
0
A
= 0.
Con lo que hemos probado que
ψi , ψ j = 0 si i = j
y, por tanto, las funciones ψ j son ortogonales en el espacio C [0, 2π]. Por otra parte, al utilizar las identidades trigonométricas
obtenemos
0
2π
sen2 u =
1 − cos 2u
2
cos2 u =
1 + cos 2u
2
sen2 (Ax) dx =
1
2
0
= π−
=π
Page (PS/TeX): 58 / 292, COMPOSITE
2π
(1 − cos(2Ax)) dx
1
sen(2Ax)|2π
0
4A
Espacios con producto interior 293
SECCIÓN 4.1
y
2π
0
1
2
cos2 (Ax) dx =
2π
0
=π+
(1 + cos(2Ax)) dx
1
sen(2Ax)|2π
0
4A
= π.
Finalmente,
2π
0
dx = 2π.
ψj
1
Ası́, el conjunto de funciones {ϕ0 , ϕ1 , . . . , ϕ2n }, donde ϕ0 = √ , ϕ j = √ , j = 1, 2, . . . , 2n; esto es
π
2π
⎫
⎧
1
1
1
⎪
⎪
⎪
⎪
√
√
√
ϕ
cos(x),
ϕ
sen(x),
(x)
=
(x)
=
(x)
=
,
ϕ
1
2
⎪
⎪ 0
⎪
⎪
π
π
2π
⎪
⎪
⎪
⎪
⎪
⎪
⎬
⎨
1
1
ϕ3 (x) = √ cos(2x), ϕ4 (x) = √ sen(2x), . . .
(4.29)
π
π
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
⎪
1
1
⎪
⎪
⎪
⎪
⎭
⎩
ϕ2n−1 (x) = √ cos(nx), ϕ2n (x) = √ sen(nx)
π
π
es un conjunto ortonormal de funciones en C [0, 2π]. A todo elemento del subespacio de dimensión
2n+1, Tn = gn(ϕ0 , ϕ1 , . . . , ϕ2n ) = gn(ψ0 , ψ1 , . . . , ψ2n ), se le llama polinomio trigonométrico. Entonces,
si f es una función continua en [0, 2π], por el teorema 4.11, la proyección de f sobre el espacio de
polinomios trigonométricos está dada por
pn =
2n
∑ f , ϕk ϕk
k=0
donde
f , ϕk =
2π
0
f (x)ϕk (x)dx;
que es
n
1
pn (x) = a0 + ∑ (ak cos(kx) + bk sen(kx))
2
k=1
(4.30)
donde, para k = 0, 1, 2, . . . , n,
ak =
1
π
2π
0
f (x) cos(kx)dx
y
bk =
1
π
0
2π
f (x)sen(kx)dx
(4.31)
A los coeficientes ak y bk se les dice coeficientes de Fourier de f . El teorema de aproximación garantiza
entonces que
mı́n f − q
q∈S
Page (PS/TeX): 59 / 293, COMPOSITE
294 CAPÍTULO 4
Espacios con producto interior y espacios normados
se alcanza en pn . Por lo que pn es la mejor aproximación para f en el espacio Tn de polinomios trigonométricos para la norma inducida por el producto interior en C [0, 2π].
Ejemplo 4.36 Encontrar la mejor aproximación respecto a la norma inducida por el producto interior
en C [0, 2π] de la función f (x) = e x en el subespacio de polinomios trigonométricos
T2 = gn(1, cos x, senx, cos 2x, sen2x) .
Solución
La mejor aproximación para f (x) = e x en T2 está dada por (4.30) para n = 2. Esto es:
2
1
p2 (x) = a0 + ∑ (ak cos(kx) + bk sen(kx))
2
k=1
donde los coeficientes de Fourier están dados por (4.31). Entonces20
a0 =
1
π
ak =
=
bk =
2π
0
1
π
e x dx =
2π
0
e2π − 1
.
π
e x cos(kx)dx
1 e2π − 1
,
π k2 + 1
1
π
0
2π
e x sen(kx)dx
1 k 1 − e2π
=
.
π k2 + 1
Luego,
.
2
1 k 1 − e2π
1 e2π − 1
1 e2π − 1
+∑
cos(kx) +
sen(kx)
p2 (x) =
2
2 π
π k2 + 1
k=1 π k + 1
1
1
2
e2π − 1 1 1
+ cos(x) + cos(2x) − sen(x) − sen(2x) .
=
π
2 2
5
2
5
Las gráficas de f y su aproximación p2 en T2 se encuentran bosquejadas en la figura 4-14; mientras que
la gráfica de la función y = (e x − p2 (x))2 y el área bajo esta curva se muestran en la figura 4-15.
Nuevamente se puede probar que el conjunto de polinomios trigonométricos ortonormales contenidos en (4.29) es completo en C[0, 2π]; es decir, para cualquier función continua f en el intervalo [0, 2π],
existe una sucesión de polinomios trigonométricos pn , combinación lineal de elementos ortonormales
contenidos en el conjunto dado por 4.29, tal que pn converge en promedio cuadrático a f ; esto es,
lı́m f − pn = 0
n→∞
1Las integrales e x cos(kx)dx, e x sen(kx)dx, se pueden resolver mediante integración por partes; los detalles de estos cálculos
se dejan de ejercicio al lector.
20
Page (PS/TeX): 60 / 294, COMPOSITE
SECCIÓN 4.1
600
Espacios con producto interior 295
p2 (x)
f (x) = e x
500
400
300
200
100
0
–100
0
1
3
2
5
4
6
Figura 4-14 • Gráficas de f (x) = e x y su aproximación y = p2 (x) en T2 .
120 000
y = (e x − p2 (x))2
100 000
80 000
60 000
40 000
20 000
0
0
1
2
3
4
5
6
Figura 4-15 • Gráfica de la curva y = (e x − p2 (x))2 y el área bajo la misma.
que equivale a
lı́m
n→∞ 0
2π
( f (x) − pn (x))2 dx = 0,
donde pn está dado por 4.30 y los coeficientes de Fourier ak , bk están dados por (4.31).
Mı́nimos cuadrados
Supongamos que tenemos un conjunto de datos experimentales (ai , bi ),
i = 1, 2, ..., n. Para fijar ideas, pensemos que hemos colgado de un resorte distintas masas de magnitudes ai y hemos medido la elongación
bi que producen estos pesos. El propósito es determinar una relación
entre el peso que pende y la elongación que produce en el resorte. Para ello, graficamos los pares ordenados (ai , bi ) obteniendo el bosquejo
Page (PS/TeX): 61 / 295, COMPOSITE
bi
ai
296 CAPÍTULO 4
Espacios con producto interior y espacios normados
y = r0 + r1 x
bn
bi
di
b2
b1
a1
ai
a2
an
Figura 4-16 • La lı́nea recta y = r0 + r1 x que mejor se ajusta al conjunto de datos (ai , bi ) es, de acuerdo con el
criterio de mı́nimos cuadrados, aquella para la cual d = ∑ni=1 di2 es mı́nima, donde di = r0 + r1 ai − bi ; es decir, la
diferencia entre el valor experimental bi y la ordenada de esta recta en ai .
contenido en la figura 4-16. Podemos ver en esta figura que parece ser que la relación entre los pares
(ai , bi ) es aproximadamente lineal.21 Por tanto, lo que se pretende encontrar es la lı́nea recta que mejor
se ajuste a estos datos. Entonces, si y = r0 + r1 x es la relación buscada, se debe tener bi ≈ r0 + r1 ai ,
∀i = 1, 2, . . . , n; lo cual se puede expresar matricialmente como
⎡
⎢
⎢
⎢
⎣
b1
b2
..
.
bn
⎤
⎡
⎥ ⎢
⎥ ⎢
⎥≈⎢
⎦ ⎣
⎤
1 a1
1 a2 ⎥
⎥ r0
.. .. ⎥ r
1
. . ⎦
1 an
O, b ≈ Ar, con
⎡
⎢
⎢
A=⎢
⎣
⎡
⎤
1 a1
⎢
1 a2 ⎥
⎥ ⎢
,
b
=
⎢
⎥
.. ..
⎣
. . ⎦
1 an
b1
b2
..
.
⎤
⎥
r0
⎥
.
⎥ yr =
r1
⎦
bn
Entonces, una manera de definir la recta de mejor ajuste a este conjunto de datos, es pidiendo que sea
aquella para la cual la distancia entre Ar y b sea mı́nima; es decir, eligiendo r0 y r1 de tal manera que
b − Ar
sea mı́nima; lo cual se obtiene por el teorema 4.15, cuando Ar = p, con p la proyección de b sobre el
subespacio W = gn((1, 1, . . . , 1, 1), (a1 , a2 , . . . , an )). Y, entonces, por 4.16
r = [(At A)−1 At ]b
1Recuerde que, cuando se recopilan datos experimentales, existen errores en las mediciones.
21
Page (PS/TeX): 62 / 296, COMPOSITE
(4.32)
Espacios con producto interior 297
SECCIÓN 4.1
Notemos, de la figura 4-16, que
d = b − Ar2 = d12 + d22 + · · · + dn2
(4.33)
donde di = r0 + r1 ai − bi para i = 1, 2, . . . , n. Ası́ que, con este criterio, la recta que mejor se ajusta al
conjunto de datos (ai , bi ) es aquella para la cual d es mı́nima. Dado que se busca el mı́nimo de la suma
de los cuadrados en el lado derecho de 4.33, a este criterio de ajuste se le llama aproximación (discreta)
por mı́nimos cuadrados.22
Ejemplo 4.37 Ajustar linealmente por mı́nimos cuadrados el siguiente conjunto de datos:
Solución
ai
2
4
5
6
bi
6.5
8.5
11
12.5
Para este caso
⎤
2
4 ⎥
⎥,
5 ⎦
6
⎡
1
⎢ 1
A=⎢
⎣ 1
1
At A =
4
17
17
81
At =
1 1 1 1
2 4 5 6
,
,
1
81 −17
4
35 17
81/35 −17/35
=
,
17/35
4/35
(At A)−1 =
r =
=
−17/35
4/35
81/35
17/35
3.13
1.53
1 1 1 1
2 4 5 6
⎤
6.5
⎢ 8.5 ⎥
⎥
⎢
⎣ 11 ⎦
12.5
⎡
.
Y la recta de ajuste por mı́nimos cuadrados de este conjunto de datos es
y = 3.13 + 1.53x
En general, si se desean ajustar los datos (ai , bi ) a un polinomio de grado k
pk (x) = r0 + r1 x + r2 x2 + · · · + rk xk ,
1Cuando aproximamos con polinomios de Legendre y polinomios trigonométricos se hizo mı́nima una integral de la forma
2
a ( f (x) − q(x)) dx para una f dada. A este tipo de optimización también se le dice aproximación (continua) por mı́nimos cuadrados.
22
b
Page (PS/TeX): 63 / 297, COMPOSITE
298 CAPÍTULO 4
Espacios con producto interior y espacios normados
ponemos:
⎡
⎤
⎡
⎥
⎢
⎥
⎥ yA=⎣
⎦
r0
r1
..
.
⎢
⎢
r = ⎢
⎣
rk
1
..
.
a1
..
.
1
an
a21
..
.
a2n
⎤
ak1
.. ⎥ ;
. ⎦
akn
...
..
.
...
entonces,
r = (At A)−1 Atb.
Pues ahora el mı́nimo de Ar −b se alcanza cuando Ar es la proyección de b sobre el subespacio
W = gn (1, 1, . . . , 1), (a1 , a2 , . . . , an ), (a21 , a22 , . . . , a2n ), . . . , (ak1 , ak2 , . . . , akn )
de Rn .
Ejemplo 4.38 Un objeto se deja caer desde un acantilado y se registra su posición, s, desde ese nivel
(considerando positiva la dirección hacia abajo); y resultan los datos de la tabla siguiente:
t
1
2
3
4
s
4.85
19.55
44.04
78.35
donde t, el tiempo, se mide en segundos y s en metros. Realizar el ajuste por mı́nimos cuadrados a un
polinomio de grado 2 para estimar s(t) en cualquier instante t. Escriba el resultado final redondeando a
una cifra decimal.
Solución
En este caso:
⎡
1
⎢ 1
⎢
A=⎣
1
1
⎡
⎤
⎡
4.85
1 1
⎢
2 4 ⎥
⎥ , b = ⎢ 19.55
⎣ 44.04
3 9 ⎦
78.35
4 16
1
At A = ⎣ 1
1
⎡
4
= ⎣ 10
30
1 1
2 3
4 9
10
30
100
⎤
⎡
1
1
⎢ 1
⎢
⎦
4
⎣ 1
16
1
⎤
30
100 ⎦ .
354
⎤
⎥
⎥
⎦
y
⎤
1 1
2 4 ⎥
⎥
3 9 ⎦
4 16
Por el método de Gauss-Jordan, obtenemos (los detalles se dejan de ejercicio al lector):
⎡ 31
⎤
5
− 27
4
4
4
⎢ 27
⎥
129
(At A)−1 = ⎢
− 54 ⎥
20
⎣ −4
⎦.
5
5
1
−4
4
4
Page (PS/TeX): 64 / 298, COMPOSITE
Espacios con producto interior 299
SECCIÓN 4.1
Entonces,
−1
r = (At A)
⎡ 31
4
⎢ 27
=⎢
⎣ −4
⎡
⎢
=⎢
⎣
5
4
9
4
31
− 20
1
4
!
At b
5
4
− 27
4
129
20
− 54
− 34
23
20
− 14
⎤
−.0 375
= ⎣ −.0 135 ⎦ ,
4. 9025
⎡
⎤
⎡
⎥ 1 1
⎣
− 54 ⎥
⎦ 1 2
1 4
1
4
⎤⎡
3
− 54
4
⎥⎢
27
⎥⎢
− 19
20
20 ⎦ ⎣
1
− 14
4
⎤
4.85
1 1
⎢ 19.55 ⎥
⎥
3 4 ⎦⎢
⎣ 44.04 ⎦
9 16
78.35
⎤
4.85
19.55 ⎥
⎥
44.04 ⎦
78.35
⎤
⎡
que redondeado a una cifra decimal produce
⎤
0
r = ⎣ 0 ⎦ .
4.9
⎡
Luego, el ajuste es
y = 4.9t 2 .
Mı́nimos cuadrados y factorización QR
Recordemos que, en el método de mı́nimos cuadrados, al ajustar un conjunto de datos (ai , bi ) a un
polinomio r0 + r1 x + · · · + rk xk , si b = (b1 , . . . , bn ), r = (r0 , r1 , . . . , rk ) y A es la matriz que tiene por
t
t
t
t
columnas a 1 · · · 1 , a1 · · · an , a21 · · · a2n , . . . , ak1 · · · akn , entonces
r = (At A)−1 Atb.
Sea Q la matriz ortogonal y R la matriz triangular superior del teorema 4.13 para la factorización QR de
la matriz A, entonces, puesto que Q es ortogonal (Q t Q = I) y la matriz R es invertible, se tiene
r = ((QR)t QR)−1 (QR)tb
= (R t Q t QR)−1 (R t Q t )b
= (R t IR)−1 (R t Q t )b
= (R t R)−1 (R t Q t )b
= R−1 (R t )−1 R t Q tb
= R−1 IQ tb
= R−1 Q t b
y, por tanto,
Rr = Q tb;
luegor es la única solución del sistema
Page (PS/TeX): 65 / 299, COMPOSITE
300 CAPÍTULO 4
Espacios con producto interior y espacios normados
Rx = Q tb,
el cual se puede resolver (puesto que la matriz R es triangular superior) simplemente haciendo sustitución regresiva. Esto puede representar una ventaja en algunos casos al simplificar los cálculos, pues no
se tiene que calcular la inversa de la matriz At A.
Ejemplo 4.39 Ajustar, por mı́nimos cuadrados, el conjunto de datos contenido en la siguiente tabla
a un polinomio de grado 3.
Solución
ai
−2
−1
0
1
2
bi
−3.98
0.90
0
−1.02
3.95
En este caso:
⎡
1
1
1
1
1
⎢
⎢
A=⎢
⎢
⎣
−2
−1
0
1
2
⎤
4 −8
1 −1 ⎥
⎥
0
0 ⎥
⎥
1
1 ⎦
4
8
y primero aplicamos el proceso de ortogonalización a las columnas de A:
√
(1, 1, 1, 1, 1) = 5,
u1 = √15 (1, 1, 1, 1, 1).
w2 = (−2, −1, 0, 1, 2) − ((−2, −1, 0, 1, 2) ·u1 )u1
= (−2, −1, 0, 1, 2),
u2 =
u2 =
1
w2
w2 1
√ (−2, −1, 0, 1, 2).
10
w3 = (4, 1, 0, 1, 4) − ((4, 1, 0, 1, 4) ·u1 )u1 − ((4, 1, 0, 1, 4) ·u2 )u2
√
= (4, 1, 0, 1, 4) − 2 5u1 − 0u2
= (2, −1, −2, −1, 2) ,
u3 =
u3 =
1
w3
w3 1
√ (2, −1, −2, −1, 2).
14
w4 = (−8, −1, 0, 1, 8) − ((−8, −1, 0, 1, 8) ·u1 )u1 − ((−8, −1, 0, 1, 8) ·u2 )u2
−((−8, −1, 0, 1, 8) ·u3 )u3
√
= (−8, −1, 0, 1, 8) −0 − 17
10u2 −0
5
34 17 17 34 = (−8, −1, 0, 1, 8) − − 5 , − 5 , 0, 5 , 5
12 6
w4 = − 65 , 12
5 , 0, − 5 , 5 ,
Page (PS/TeX): 66 / 300, COMPOSITE
Espacios con producto interior 301
SECCIÓN 4.1
u4 =
1
w4
w4 √
√ 1 √ 1√
1
u4 = − 10
10, 5 10, 0, − 15 10, 10
10 .
⎡
⎢
⎢
⎢
⎢
Q=⎢
⎢
⎢
⎢
⎣
√1
5
√1
5
√1
5
√1
5
√1
5
− √210
− √110
0
√1
10
√2
10
√2
14
− √114
− √214
− √114
√2
14
−
√
10
10
√
10
5
⎤
⎥
⎥
⎥
⎥
0 ⎥
⎥.
√
⎥
10 ⎥
− 5 ⎦
√
10
10
Y ya que
v1 ·u1 = (1, 1, 1, 1, 1) ·u1
√
= 5,
v2 ·u1 = (−2, −1, 0, 1, 2) ·u1
= 0,
v3 ·u1 = (4, 1, 0, 1, 4) ·u1
√
= 2 5,
v4 ·u1 = (−8, −1, 0, 1, 8) ·u1
= 0,
v2 ·u2 = (−2, −1, 0, 1, 2) ·u2
√
= 10,
v3 ·u2 = (4, 1, 0, 1, 4) ·u2
= 0,
v4 ·u2 = (−8, −1, 0, 1, 8) ·u2
√
= 17
10,
5
v3 ·u3 = (4, 1, 0, 1, 4) ·u3
√
= 14,
v4 ·u3 = (−8, −1, 0, 1, 8) ·u3
= 0,
v4 ·u4 = (−8, −1, 0, 1, 8) ·u4
√
= 65 10;
se tiene que
⎡ √
⎢
⎢
R=⎢
⎢
⎣
Page (PS/TeX): 67 / 301, COMPOSITE
5
√
√
0 2 5
0
0
√
14
0
0
0
0
10
0
0
⎤
√
⎥
10 ⎥
⎥;
0 ⎥
⎦
√
6
10
5
17
5
302 CAPÍTULO 4
Espacios con producto interior y espacios normados
y puesto que
⎡
Q tb =
√
1
5 5
⎢ 1√
⎢ − 5 10
⎢ √
⎢ 1 14
⎣ 7
√
1
10
− 10
⎡
√
1
5 5
√
1
− 10
10
√
1
− 14 14
√
1
5 10
1
5
− 17
⎤
√
−.0 3 5
√
⎢
⎥
⎢
⎥
1. 394 10
⎢
√ ⎥
=⎢
−3
14 ⎥
⎣ 4. 2857 × 10
⎦
√
1. 177 10
el sistema a resolver es
⎡ √
√
5
0 2 5
√
⎢
⎢ 0
10
0
⎢
√
⎢ 0
14
0
⎣
0
0
0
√
0
0
√
14
0
⎤⎡
√
⎥⎢
10 ⎥
⎥⎢
⎢
0 ⎥
⎦⎣
√
6
5 10
17
5
5
r0
r1
r2
r3
√
1
5 5
√
1
10 10
√
1
− 14
14
√
− 15 10
⎤
⎡
⎥ ⎢
⎥ ⎢
⎥=⎢
⎦ ⎢
⎣
√
⎤⎡
√
−.0 3 5
√
1. 394 10
√
4. 2857 × 10−3 14
√
1. 177 10
cuya solución es, al hacer sustitución regresiva:
⎡
⎤ ⎡
−3. 8571 × 10−2
r0
⎢ r ⎥ ⎢
−1. 9408
⎢ 1 ⎥ ⎢
⎢
⎥=⎢
⎣ r2 ⎦ ⎣ 4. 2857 × 10−3
r3
. 98083
⎤
1
−3.98
5 5
√ ⎥ ⎢ 0.90 ⎥
1
⎥
⎢
⎥
5 10 ⎥ ⎢
⎥
√
0.00
⎥
⎢
⎥
1
7 14 ⎦ ⎣ −1.02 ⎦
√
1
3.95
10 10
⎤
⎥
⎥
⎥
⎥
⎦
⎤
⎥
⎥
⎥.
⎦
Al redondear a dos cifras decimales, se obtiene el polinomio ajuste de tercer grado
p(x) = −0.04 − 1.94x + 0.98x3 .
Las gráficas de los datos (ai , bi ) y el polinomio de ajuste p(x) se encuentran bosquejados en la figura
4-17. 4
ajuste
datos
3
2
1
0
–1
–2
–3
–4
Figura 4-17 •
Page (PS/TeX): 68 / 302, COMPOSITE
–2
–1.5
–1
–0.5
0
0.5
1
1.5
2
SECCIÓN 4.2
Espacios vectoriales normados 303
4.2 Espacios vectoriales normados
En este capı́tulo hemos visto cómo en un espacio vectorial con producto interior existe una manera
natural de precisar la idea de proximidad entre sus vectores por medio de la norma inducida por el producto interior y la distancia que esta norma define. Pero no en todo espacio vectorial se puede definir
un producto interior que sea interesante y, sobre todo, útil. Sin embargo, aunque no se cuente con un
producto interior en un espacio, la idea de proximidad entre sus elementos se puede llevar a cabo si se
generaliza el concepto de norma de un vector; pues, por medio de la norma se puede definir la distancia
entre vectores. Para generalizar el concepto de norma (o módulo) en un espacio necesitamos, como hicimos antes en otras generalizaciones (espacio vectorial, producto interior, etc.), abstraer las propiedades
más elementales (o esenciales) que tiene la norma en Rn y en los espacios con producto interior. Estas
propiedades son precisamente las que establecimos en los teoremas 3.3 y 4.6 (cfr. páginas 127 y 256).
4.2.1 Definiciones y ejemplos
A partir de aquı́, ya no supondremos que los espacios vectoriales con los que se trabaje son espacios con
producto interior necesariamente.
Definición 4.11 (Norma en un espacio vectorial) Sea E un espacio vectorial. Una norma en E es
una función, · : E →R, que a cada vector u ∈ E le asigna un número real denotado como u,
llamado la norma (o módulo) de este vector, que satisface las siguientes condiciones:
1. u ≥ 0 ∀u ∈ E.
2. u = 0 ⇔ u = 0E .
3. λu = |λ| u ∀λ ∈ R, ∀u ∈ E.
4. u +v ≤ u + v ∀u,v ∈ E (desigualdad triangular).
Si en E se ha definido una norma, diremos que E es un espacio vectorial normado.
Ejemplo 4.40 Ya vimos en el teorema 4.6 que si E es un espacio vectorial con producto interior ·, ·,
entonces u = u,u satisface las cuatro condiciones de la definición precedente; por tanto, la norma
inducida por el producto interior es una norma en el espacio E. Ası́, en particular, en los espacios Rn ,
Mm×n , 2 y C [a, b],
∑
(x1 , x2 , . . . , xn ) =
[ai j ] =
i=1
xi2
∑
,
1/2
a2
1≤i≤m i j
1≤ j≤n
(xn ) =
1/2
n
∞
= tra ([ai j ]t [ai j ]) ,
1/2
∑ xn2
y
n=1
f =
Page (PS/TeX): 69 / 303, COMPOSITE
a
b
[ f (x)]2 dx
1/2
son normas en sendos espacios.
304 CAPÍTULO 4
Espacios con producto interior y espacios normados
Ejemplo 4.41 (Norma cúbica) Para cada u = (x1 , x2 , . . . , xn ) ∈ Rn si definimos23
u∞ = máx |xi | ,
1≤i≤n
entonces · ∞ es una norma en Rn , la llamada norma cúbica24 (o norma infinita o norma uniforme).
En efecto:
1. Claramente u∞ ≥ 0 ∀u ∈ Rn .
2. Es evidente que 0Rn ∞ = 0. Supongamos que u = (x1 , x2 , . . . , xn ) y u∞ = 0, entonces 0 ≤ |xk | ≤
u∞ = 0 para cada k = 1, 2, . . . , n; por tanto, |xk | = 0 ∀k, y por ende u = 0Rn .
3. Si λ ∈ R y u = (x1 , x2 , . . . , xn ) ∈ Rn , entonces
λu∞ = máx |λxi |
1≤i≤n
= máx |λ| |xi |
1≤i≤n
= |λ| máx |xi |
1≤i≤n
= |λ| u∞ .
4. Sean u = (x1 , x2 , . . . , xn ),v = (y1 , y2 , . . . , yn ) ∈ Rn . Sabemos, por las propiedades del valor absoluto
(cfr. pág. 127), que si a, b ∈ R, entonces |a + b| ≤ |a| + |b|; por tanto,
|xi + yi | ≤ |xi | + |yi |
∀i = 1, 2, . . . , n.
Dado que, para cada i = 1, 2, . . . , n,
|xi | ≤ u∞ y
|yi | ≤ v∞
se tiene
|xi + yi | ≤ |xi | + |yi | ≤ u∞ + v∞ ;
de donde
máx |xi + yi | ≤ u∞ + v∞ .
1≤i≤n
Es decir,
u +v∞ ≤ u∞ + v∞ .
De 1, 2, 3 y 4, · ∞ es una norma en Rn .
1La notación máx |xi | significa el valor máximo del conjunto de números reales {|x1 |, |x2 |, . . . , |xn |}.
23
1≤i≤n
1Más adelante aclararemos la razón del nombre de esta norma (norma cúbica) y de la notación · ∞ .
24
Page (PS/TeX): 70 / 304, COMPOSITE
SECCIÓN 4.2
Espacios vectoriales normados 305
Ejemplo 4.42 (Norma · 1 ). Sean u = (x1 , x2 , . . . , xn ) ∈ Rn y
u1 = |x1 | + |x2 | + · · · + |xn | .
Mostrar que · 1 es una norma en Rn .
DEMOSTRACIÓN
Q 1. Es claro que u1 = ∑ni=1 |xi | ≥ 0 ∀u = (x1 , x2 , . . . , xn ) ∈ Rn .
2. Es evidente que 0Rn = 0. Supongamos que u = (x1 , x2 , . . . , xn ) y que u1 = 0, entonces, para
cada k = 1, 2, . . . , n,
n
|xk | ≤ ∑ |xi | = u1 = 0;
i=1
de donde |xk | = 0 ∀k = 1, 2, . . . , n, por tanto, u = 0Rn .
3. Sean λ ∈ R y u = (x1 , x2 , . . . , xn ) ∈ Rn , entonces
λu1 = (λx1 , λx1 , . . . , λxn )
n
= ∑ |λxi |
i=1
n
= ∑ |λ| |xi |
i=1
n
= |λ| ∑ |xi |
i=1
= |λ| u1 .
4. Sean u = (x1 , x2 , . . . , xn ),v = (y1 , y2 , . . . , yn ) ∈ Rn , entonces
n
u +v1 = ∑ |xi + yi |
i=1
n
≤ ∑ (|xi | + |yi |)
i=1
n
n
i=1
i=1
= ∑ |xi | + ∑ |yi |
= u1 + v2 .
De 1, 2, 3 y 4, · 1 es una norma en Rn .
Q
Ejemplo 4.43 (Norma · ∞ en Mm×n ). Sea A = [ai j ] ∈ Mm×n , definimos
A∞ = máx |ai j | .
1≤i≤m
1≤ j≤m
Ası́, por ejemplo
−1
2
Page (PS/TeX): 71 / 305, COMPOSITE
−5
3
1 −5
= 5.
306 CAPÍTULO 4
Espacios con producto interior y espacios normados
De manera análoga al ejemplo 4.41, se puede probar que ·∞ es una norma en Mm×n ; esta demostración
se deja de ejercicio al lector.
Ejemplo 4.44 (Norma · 1 en Mm×n ). En Mm×n se define, para cada A = [ai j ],
A1 =
∑
|ai j | .
1≤i≤m
1≤ j≤n
Análogamente al ejemplo 4.42, se puede demostrar que · 1 es una norma en Mm×n (lo cual se deja
como ejercicio al lector).
P Nota 4.8 Observemos que es posible identificar el espacio de matrices Mm×n con el espacio Rmn ;
pues a toda matriz A = [ai j ] ∈ Mm×n se le puede asociar el vector
A = (a11 , a12 , . . . , a1n , a21 , a22 , . . . , a2n , . . . , am1 , am2 , . . . , amn ) .
Luego,
A∞ = A∞
y
A1 = A1 .
Por esta identificación, las demostraciones de los dos ejemplos anteriores deben ser evidentes para el
lector; y, por esta razón, hemos empleado las mismas notaciones, · ∞ y · 1 , para las normas en Rn y
en Mm×n .
Ejemplo 4.45
1. (−1, 5, −7)∞ = máx{| − 1|, |5|, |7|} = 7.
2. (−1, 5, −7)1 = |−1| + |5| + |−7| = 13.
−1
2 4 = máx{| − 1|, |2|, |4|, |1|, | − 5|, |7|} = 7.
3. 1 −5 7 ∞
−1
2 4 = |−1| + |2| + |4| + |1| + |−5| + |7| = 20.
4. 1 −5 7 1
Ejemplo 4.46 (Norma · 1 en C[a, b]). Definimos · 1 : C [a, b] → R como
f 1 =
a
b
| f (x)|dx
para cada f ∈ C [a, b]. Mostrar que f es una norma en C [a, b] .
DEMOSTRACIÓN
Q 1. Dado que la integral de una función no negativa es un número no negativo, se tiene que f 1 ≥ 0
∀ f ∈ C [a, b].
2.
b
a 0·dx = 0, por tanto, θ1 = 0 (recordemos que hemos denotado por θ la función constante cero).
Supongamos que f 1 = 0 y que f = θ, entonces existe un punto x0 ∈ [a, b], tal que f (x0 ) = 0. Por
Page (PS/TeX): 72 / 306, COMPOSITE
Espacios vectoriales normados 307
SECCIÓN 4.2
tanto, | f (x0 )| > 0. Por continuidad de | f | existe un intervalo J, de una de estas tres formas: [a, δ],
[x0 − δ, x0 + δ] o [δ, b], contenido en [a, b] tal que | f (x)| > 0 ∀x ∈ J. Luego,25
J
| f (x)| dx > 0.
Pero, también
J
| f (x)| dx ≤
b
a
| f (x)|dx = 0 ;
de donde
J
Entonces
J
| f (x)| dx > 0 y
J
| f (x)| dx = 0.
| f (x)| dx = 0; lo cual es una contradicción. Por tanto, el suponer que
f no es la función constante cero, aunque f 1 = 0, nos lleva a una conclusión absurda.26 Ası́, f
tiene que ser necesariamente la función constante cero en [a, b].
3. Si f ∈ C [a, b] y λ ∈ R, entonces
λ f 1 =
=
b
a
b
a
= |λ|
|λ f (x)| dx
|λ| | f (x)| dx
b
a
| f (x)| dx
= |λ| f 1 .
4. Si f , g ∈ C [a, b], entonces
f + g1 =
≤
=
b
a
b
a
a
b
| f (x) + g(x)| dx
(| f (x)| + |g(x)|) dx
| f (x)| dx +
b
a
|g(x)| dx
= f 1 + g1 .
De 1, 2, 3 y 4 · 1 es una norma en C [a, b].
Q
En la figura 4-18 ilustramos la interpretación geométrica de la norma f 1 en C[a, b].
1Hemos utilizado la notación
25
J
| f (x)| dx para cualquiera de las integrales
a
δ
| f (x)| dx,
x0 +δ
x0 −δ
| f (x)| dx
o
b
δ
| f (x)| dx,
según se dé el caso.
1Si el lector no se siente cómodo con esta demostración, puede intentar utilizar el teorema fundamental del cálculo de manera
análoga a como lo hicimos en el ejemplo 4.3 de la página 237.
26
Page (PS/TeX): 73 / 307, COMPOSITE
308 CAPÍTULO 4
Espacios con producto interior y espacios normados
|f|
f
f 1
a
a
b
b
(i)
(ii)
Figura 4-18 • (i) Gráfica de una función f en C[a, b]. (ii) Gráfica de la función | f | y del área bajo esta curva en el
intervalo [a, b]; f 1 es el valor de esta área.
Ejemplo 4.47 (Norma uniforme · ∞ en C[a, b]). Si f ∈ C[a, b] definimos
f ∞ = máx | f (x)| ,
a≤x≤b
entonces · ∞ es una norma en C[a, b]. A ésta se le llama la norma uniforme27 en el espacio de
funciones continuas en el intervalo [a, b]. En efecto:
1. f ∞ = máxa≤x≤b | f (x)| ≥ 0
∀x ∈ [a, b].
2. Claramente θ = 0. Puesto que
| f (x)| ≤ f ∞
∀x ∈ [a, b],
se sigue que
f ∞ = 0 ⇒ | f (x)| ≤ f ∞ = 0
⇒ | f (x)| = 0
⇒ f (x) = 0
∀x ∈ [a, b]
∀x ∈ [a, b]
∀x ∈ [a, b]
⇒ f = θ.
3. Si f ∈ C[a, b] y λ ∈ R, entonces
λ f ∞ = máx |λ f (x)|
a≤x≤b
= |λ| máx | f (x)|
a≤x≤b
= |λ| f ∞ .
4. Si f , g ∈ C[a, b], entonces para todo x ∈ [a, b].
| f (x) + g(x)| ≤ | f (x)| + |g(x)|
≤ f ∞ + g∞ .
1También se le dice norma cúbica o norma infinito. Hemos utilizado nuevamente la notación · ∞ por su analogı́a con esta
norma en Rn . La notación máxa≤x≤b | f (x)| significa el máximo de los valores | f (x)| en el intervalo [a, b]; la existencia de este valor
está garantizada debido a la continuidad de la función en el intervalo cerrado [a, b].
27
Page (PS/TeX): 74 / 308, COMPOSITE
Espacios vectoriales normados 309
SECCIÓN 4.2
De donde,
f + g∞ ≤ f ∞ + g∞
Por 1, 2, 3 y 4 ·∞ es una norma en C[a, b].
f
a
b
(i)
|f|
f ∞
a
b
(ii)
Figura 4-19 • (i) Gráfica de una función f en C[a, b]. (ii) Gráfica de la función | f |; la norma f ∞ es el máximo
valor que toma esta función en el intervalo [a, b].
En la figura 4-19, se ilustra el significado geométrico de la norma uniforme en C[a, b].
4.2.2 Distancia en espacios vectoriales normados
Definición 4.12 Si · es una norma en un espacio vectorial E y u,v ∈ E, se denota y define la
distancia entre este par de vectores (distancia relativa a la norma · ) como
d(u, v) = u −v .
Ejemplo 4.48
1. En R4 con la norma cúbica,
d ((−1, 2, 0, 1), (2, 0, 1, 1)) = (−1, 2, 0, 1) − (2, 0, 1, 1)∞
= (−3, 2, −1, 0)∞
= 3.
Page (PS/TeX): 75 / 309, COMPOSITE
310 CAPÍTULO 4
Espacios con producto interior y espacios normados
2. En R4 con la norma · 1
d ((−1, 2, 0, 1), (2, 0, 1, 1)) = (−1, 2, 0, 1) − (2, 0, 1, 1)1
= (−3, 2, −1, 0)1
= 6.
3. En M2×2 con la norma · ∞ ,
1 −1
0 1
d
,
=
3
2
1 1
=
1
2
0 1 −
1 1 ∞
−2 1 ∞
1
3
−1
2
1
3
−1
2
= 2.
4. En M2×2 con la norma · 1 ,
1 −1
0 1
d
,
=
3
2
1 1
=
−
−2 1 1
1
2
0 1
1 1
1
= 6.
Ejemplo 4.49 En C [0, 2] con la norma f 1 =
2
0
| f (x)| dx, si f (x) = x2 y f (x) = x, entonces
d ( f , g) = f − g1
=
=
2
2
0
| f (x) − g(x)| dx
2
x2 − x dx .
0
2
Puesto que x ≤ x en [0, 1] y x ≥ x en [1, 2], tenemos
'
x − x2
| f (x) − g(x)| =
x2 − x
si 0 ≤ x ≤ 1,
si 1 ≤ x ≤ 2;
como se ilustra en la figura 4-20. Entonces,
1
2
x2 − x dx =
x − x2 dx +
x2 − x dx
2
0
0
1
= 1.
Luego,
d( f , g) = 1.
De manera análoga a la norma inducida por el producto interior f , g =
interpretación geométrica de
f − g1 =
Page (PS/TeX): 76 / 310, COMPOSITE
a
b
| f (x) − g(x)| dx
a
b
f (x)g(x)dx en [a, b], la
SECCIÓN 4.2
Espacios vectoriales normados 311
4
3.5
y = x2
y=x
3
y = |x2 − x|
2.5
2
1.5
1
0.5
x2 − x1
0
0
0.5
1.5
1
2
2
2
Figura 4-20 • Gráficas de las funciones y = x ; y = x; y = |x − x|; y el área bajo esta última curva en el intervalo
[0, 2], x2 − x1 .
es el valor del área bajo la gráfica de la función y = | f (x) − g(x)| en el intervalo [a, b]; como ilustramos
en la figura 4-20 para el caso particular de f (x) = x2 y g(x) = x.
P Nota 4.9 De aquı́ en adelante, aunque no se mencione explı́citamente, supondremos que E es un
espacio normado con norma · . Los casos concretos, ya sea para espacios o normas, los haremos
patentes especı́ficamente.
Bolas y esferas en espacios normados
Definición 4.13 Si u0 es un vector del espacio normado E y r > 0, a los conjuntos
1.
S(u0 , r) = {v ∈ E | u0 −v = r} ,
2.
B(u0 , r) = {v ∈ E | u0 −v < r} ,
3.
B[u0 , r] = {v ∈ E | u0 −v ≤ r} ,
se les llama esfera, bola abierta y bola cerrada, respectivamente, de centro u0 y radio r.
Ejemplo 4.50 En R3 , (x, y, z) − (0, 0, 0) = x2 + y2 + z2 ; luego,
,
+
S(0R3 , r) = (x, y, z) | x2 + y2 + z2 = r2
Es decir, la esfera de centro 0R3 y radio r ilustrada en la figura 4-21.
Figura 4-21 • Esfera S(0R3 , r) respecto a la norma (x, y, z) =
Page (PS/TeX): 77 / 311, COMPOSITE
x2 + y2 + z2 .
312 CAPÍTULO 4
Espacios con producto interior y espacios normados
r
u0
u0
0
||u
r
u0
(a)
v||
−
v
(b)
(c)
Figura 4-22 • Bolas y esferas en R respecto a la norma (x, y) = x2 + y2 : (a) Esfera de centro u0 y radio r;
consta de los puntos de la circunferencia de centro u0 y radio r. (b) Bola cerrada de centro u0 y radio r; se compone
de todos los puntos de la circunferencia de centro u0 y radio r, y los puntos que ésta encierra. (c) Bola abierta de
centro u0 y radio r; está formada por todos los puntos dentro de la circunferencia de centro u0 y radio r; i.e., los
vectores cuya distancia a u0 es inferior a r.
2
Por generalización, al conjunto del inciso 1 de la definición 4.13 también se le dice esfera. Notemos
que el conjunto B(0R3 , r) está formado por todos los puntos dentro de la esfera S(0R3 , r); mientras que
B[0R3 , r] contiene a todos los puntos sobre y dentro de la esfera S(0R3 , r). Por analogı́a a estos conjuntos,
es que a B[u0 , r] y a B(u0 , r) se les llama bola cerrada y bola abierta (de centro u0 y radio r), respectivamente, en cualquier espacio normado. Finalmente, notemos que, en cualquier espacio normado, B(u0 , r)
consiste de los vectores v cuya distancia a u0 es menor que r; mientras que B[u0 , r] está formado por todos los vectores cuya distancia a u0 es inferior o igual a r y S(u0 , r) consta de los vectores cuya distancia
a u0 es exactamente r. En la figura 4-22 hemos bosquejado la esfera, la bola abierta y la bola cerrada de
centro u0 y radio r en R2 para la norma usual (x, y) = x2 + y2 .
Ejemplo 4.51 Bosquejar
B[0R2 , 1] = {(x, y) | (x, y)∞ ≤ 1}
y
B[0R2 , 1] = {(x, y) | (x, y)1 ≤ 1} .
Solución
1. Si (x, y) pertenece al primer cuadrante, entonces |x| = x y |y| = y, luego
0
≤
x
≤
(x, y)∞
≤
1 y
0
≤
y
≤
(x, y)∞
≤
1
por tanto,
0
≤ x
≤1
0
≤
≤ 1.
y
y
Si (x, y) pertenece al segundo cuadrante, entonces |x| = −x y |y| = y, ası́ que
0
≤ −x
=
|x|
≤
(x, y)∞
≤
1 y
0
≤
=
|y|
≤
(x, y)∞
≤
1
−1
≤
x
≤
0 y
0
≤
y
≤
1.
y
por tanto,
Page (PS/TeX): 78 / 312, COMPOSITE
Espacios vectoriales normados 313
SECCIÓN 4.2
Si (x, y) pertenece al tercer cuadrante, entonces |x| = −x y |y| = −y, ası́ que
0
≤
−x
=
|x|
≤
(x, y)∞
≤
1 y
0
≤
−y
=
|y|
≤ (x, y)∞
≤
1
−1
≤
x
≤
0 y
−1
≤
y
≤
0.
por tanto,
Si (x, y) pertenece al cuarto cuadrante, entonces |x| = x y |y| = −y, ası́ que
0
≤
0
≤ −y
x
=
|x|
≤ (x, y)∞
≤
1
=
|y|
≤ (x, y)∞
≤
1
0
≤ x
≤
1 y
−1
≤ y
≤
0.
y
por lo cual
Entonces B[0R2 , 1] (relativa a la norma cúbica) es el cuadrado con centro en el origen y arista 2 mostrado
en la figura 4-23(a).
2. Si (x, y) pertenece al primer cuadrante, entonces |x| = x y |y| = y, entonces
x + y = |x| + |y| = (x, y)1 ≤ 1;
por tanto,
y ≤ 1 − x.
Es decir, en este cuadrante los puntos contenidos en B[0R2 , 1] (respecto a la norma · 1 ) son los
puntos sobre y por debajo de la lı́nea recta
y = 1 − x.
Si (x, y) pertenece al segundo cuadrante, entonces |x| = −x y |y| = y, entonces
−x + y = |x| + |y| = (x, y)1 ≤ 1
por tanto,
y ≤ 1 + x.
Es decir, en este cuadrante los puntos contenidos en B[0R2 , 1] (respecto a la norma · 1 ) son los
puntos sobre y por debajo de la lı́nea recta
y = 1 + x.
Si (x, y) pertenece al tercer cuadrante, entonces |x| = −x y |y| = −y, luego
−x − y = |x| + |y| = (x, y)1 ≤ 1
por tanto,
y ≥ −1 − x.
Page (PS/TeX): 79 / 313, COMPOSITE
314 CAPÍTULO 4
Espacios con producto interior y espacios normados
Es decir, en este cuadrante los puntos contenidos en B[0R2 , 1] (respecto a la norma · 1 ) son los
que están sobre y por encima de la lı́nea recta
y = −1 − x.
Si (x, y) pertenece al cuarto cuadrante, entonces |x| = x y |y| = −y, ası́
x − y = |x| + |y| = (x, y)1 ≤ 1
por tanto,
y ≥ −1 + x.
Es decir, en este cuadrante los puntos contenidos en B[0R2 , 1] (respecto a la norma · 1 ) son los
puntos sobre y por encima de la lı́nea recta
y = −1 + x.
Entonces, B[0R2 , 1] (relativa a la · 1 ) es el conjunto de puntos sobre las lı́neas rectas y = 1 − x,
y = 1 + x, y = −1 − x y y = −1 + x; y los puntos dentro del rombo con centro en el origen y lados
estas rectas, ilustrado en la figura 4-23(b). (a)
(b)
Figura 4-23 (a) B[0R2 , 1], respecto a la norma · ∞ , consta de los puntos sobre y dentro del cuadrilátero de
centro el origen y arista 2. (b) B[0R2 , 1], respecto a la norma · 1 , consiste en los puntos sobre las lı́neas rectas
y = 1 − x, y = 1 + x, y = −1 − x y y = −1 + x y dentro del rombo con centro el origen y lados estas lı́neas rectas.
•
u0
Figura 4-24 • En R3 la bola cerrada de centro u0 y radio r, respecto a la norma · ∞ , es el cubo con centro en
este punto y arista 2r; i.e., los puntos sobre sus seis caras y dentro de la región que éstas encierran.
Page (PS/TeX): 80 / 314, COMPOSITE
SECCIÓN 4.2
S||·||1 (0, 1)
Espacios vectoriales normados 315
S||·||∞ (0, 1)
S||·|| (0, 1)
Figura 4-25 • Esferas en R2 de
centro (0, 0) y radio 1 relativas a las normas cúbica (cuadrado con centro el origen),
la norma canónica (x, y) = x2 + y2 (circunferencia con centro en el origen) y la norma · 1 (paralelogramo
con centro en el origen).
Es fácil ver, razonando de manera similar al inciso 1 de la solución del ejemplo precedente, que en
R geométricamente el conjunto B[u0 , r], respecto a la norma · ∞ , es el cubo de centro u0 arista 2r,
ilustrado en la figura 4-24. Por esta razón, a la norma · ∞ se le acostumbra llamar norma cúbica.
También hemos bosquejado en la figura 4-25 las esferas S[0R2 , 1] para las normas (x, y) = x2 + y2 ,
(x, y)∞ y (x, y)1 en R2 para que el lector pueda compararlas geométricamente.
3
P Nota 4.10
1. En los espacios Rn llamaremos a la norma inducida por el producto punto norma canónica (euclidiana, estándar o natural) y la representaremos siempre por el sı́mbolo · , sin subı́ndices ni
supraı́ndices.
2. En cualquier espacio con producto interior representaremos la norma inducida por este producto
con el sı́mbolo · y, a menos que se diga lo contrario, si no se especifica la norma en este espacio,
supondremos que es la norma inducida por el producto interior.
3. Es costumbre llamar a los espacios con producto interior espacios euclideanos, debido a su origen
intuitivo en los espacios geométricos R2 y R3 ; cuyo estudio sistemático fue llevado a cabo por
Euclides, el célebre matemático griego. Por ende, a la norma canónica en Rn también se le dice
norma euclidiana; pues además su definición está inspirada en el teorema de Pitágoras conocido
en geometrı́a elemental.
4. Como es natural a las esferas y a las bolas en R2 se les dice, respectivamente, circunferencias y
discos.
Ejemplo 4.52 (Bola abierta en C[a, b] respecto a · ∞ ). Si f0 ∈ C [a, b], bosquejar B( f0 , r) respecto
a la norma · ∞ .
Solución
Si g ∈ B( f0 , r),
f0 − g∞ < r
Entonces, ∀x ∈ [a, b]
|g(x) − f0 (x)| ≤ f0 − g∞ < r
Page (PS/TeX): 81 / 315, COMPOSITE
(4.34)
316 CAPÍTULO 4
Espacios con producto interior y espacios normados
r
f0̂ + r
r
f0̂
f0̂ − r
a
b
Figura 4-26 • B( f0 , r) en C[a, b], respecto a f ∞ , consta de todas las funciones g ∈ C[a, b] cuyas gráficas están
contenidas entre las funciones f0 − r y f0 + r, pero que no intersecan a estas funciones.
y, por tanto,
−r < g(x) − f0 (x) < r
∀x ∈ [a, b] ;
lo cual implica
f0 (x) − r < g(x) < f0 (x) + r
∀x ∈ [a, b]
(4.35)
Inversamente, si se cumple (4.35), se deduce (4.34). Luego B( f0 , r) se compone de todas las funciones
continuas en C[a, b], cuya gráfica está contenida entre las gráficas de las funciones f0 − r y f0 + r; pero
que no se intersecan en punto alguno de estas dos gráficas; es decir, las funciones contenidas en la
“franja abierta” acotada por las gráficas de las funciones f0 − r y f0 + r, mostrada en la figura 4-26. Las bolas, de centro un vector u0 , son como los intervalos en los números reales; sirven para establecer
con precisión el significado de proximidad. Si un intervalo abierto y acotado tiene centro x0 , entonces
es de la forma (x0 − r, x0 + r) para algún número real r > 0; y si x ∈ (x0 − r, x0 + r), |x − x0 | < r. Ası́, la
diferencia entre cualquier punto de este intervalo y el centro del mismo, x0 , es inferior a r y este número
es el que define el grado de proximidad para puntos respecto a x0 . Por ejemplo, si r = 10−6 , entonces la
diferencia entre x0 y cualquier punto del intervalo (x0 − r, x0 + r) es inferior a 0.000001. Dependiendo
del valor de r es el grado de proximidad a x0 y ese grado de proximidad es relativo y convencional. Lo
mismo sucede con las bolas abiertas en espacios normados, pues en estos casos se utiliza simplemente
u0 −u en lugar del valor absoluto. Observe que si g ∈ B( f0 , r) en la figura 4-26 y r es pequeño, dado
que | f0 (x) − g(x)| ≤ f0 − g∞ < r, entonces g(x) es muy cercano a f0 (x), para cada x ∈ [a, b]; y, por
tanto, la gráfica de la función g es muy próxima a la gráfica de la función f0 ; por esta razón, la norma
uniforme es una herramienta muy útil para medir proximidad en el espacio de funciones continuas.
P Nota 4.11 Hemos utilizado los sı́mbolos u∞ y f ∞ en los espacios Rn y C[a, b]. Cuando se haga
uso de este sı́mbolo en Rn , siempre utilizaremos el término norma cúbica; mientras que cuando se
emplee en C[a, b] diremos que se trata de la norma uniforme (o de algunos sinónimos que veremos más
adelante). El contexto en cada caso será suficientemente claro para evitar cualquier confusión.
Page (PS/TeX): 82 / 316, COMPOSITE
SECCIÓN 4.2
Espacios vectoriales normados 317
4.2.3 Normas que provienen de productos interiores
Sabemos que todo producto interior ·, · en un espacio vectorial induce una norma en éste, a saber
u = u,u. Supongamos que en el espacio E se tiene dada una norma · , surgen naturalmente las
siguientes dos cuestiones:
1. ¿Esta norma proviene de un producto interior en E? Es decir, ¿existe un producto interior ·, · en
E cuya norma inducida es precisamente la norma dada · ?
2. ¿Bajo qué condiciones se puede definir un producto interior en el espacio E por medio de esa
norma, de tal suerte que coincida con la norma inducida por ese producto interior?
Por fortuna, estos dos interrogantes tienen una respuesta completa; para dar ésta haremos uso nuevamente del origen geométrico que tienen el producto interior y la norma.
Identidad del paralelogramo
θ1
||u
−
||u
||
β
θ
v||
||u
||
Consideremos el paralelogramo ilustrado en (i), (ii) y (iii) de la figura 4-27:
v||
||u +
β
θ
||v||
(i)
||v||
(ii)
(iii)
Figura 4-27 •
• De (i) de esta figura se desprende que θ = θ1 por ser ángulos correspondientes y, por tanto,
β = 180 − θ .
• De (ii) y la ley de cosenos, tenemos
u −v2 = u2 + v2 − 2 u v cos θ
(4.36)
• De (iii) y la ley de cosenos, se desprende
u +v2 = u2 + v2 − 2 u v cos β
= u2 + v2 − 2 u v cos (180 − θ)
= u2 + v2 − 2 u v (− cos (θ))
u +v2 = u2 + v2 + 2 u v cos (θ)
∴
(4.37)
• Tenemos entonces de (4.36) y (4.37)
u +v2 + u −v2 = 2 u2 + v2
Page (PS/TeX): 83 / 317, COMPOSITE
(4.38)
318 CAPÍTULO 4
Espacios con producto interior y espacios normados
La igualdad (4.38) se llama identidad del paralelogramo y es un hecho conocido de geometrı́a elemental: en todo paralelogramo la suma de los cuadrados de las longitudes de sus diagonales es igual a
la suma de los cuadrados de las longitudes de los lados del paralelogramo.
Ahora supongamos que tenemos un espacio vectorial E con producto interior ·, ·. Sean u,v un par
de vectores en este espacio, entonces
u +v2 = u +v,u +v
= u,u + u,v + v,u + v,v
2
2
u +v = u + 2 u,v + v
∴
2
(4.39)
y
u −v2 = u −v,u −v
= u,u − u,v − v,u + v,v
2
2
u −v = u − 2 u,v + v
2
∴
(4.40)
Al sumar lado a lado las igualdades (4.39) y (4.40) se obtiene la identidad del paralelogramo en espacios
con producto interior:
u +v2 + u −v2 = 2 u2 + v2
Hemos probado ası́ el siguiente teorema.
Teorema 4.16 (Identidad del paralelogramo) Sea E un espacio con producto interior ·, · y norma
inducida · . Entonces, ∀u,v ∈ E, se cumple
u +v2 + u −v2 = 2 u2 + v2
(4.41)
Por otra parte, si E es un espacio normado con norma · que proviene de un producto interior,
entonces la norma dada y la inducida por este producto deben coincidir y, por tanto, · tiene que
satisfacer la identidad del paralelogramo (4.41) del teorema 4.16. Es decir, para que una norma provenga de un producto interior es necesario que satisfaga la identidad del paralelogramo. Resumimos este
resultado en el siguiente teorema.
Teorema 4.17 Sea E un espacio normado con norma · . Para que · provenga de un producto
interior, es necesario que esta norma cumpla con la identidad del paralelogramo (4.41).
Ası́, para probar que una norma no proviene de algún producto interior basta probar, con un contraejemplo, que no cumple con la identidad del paralelogramo.
Ejemplo 4.53 Determinar si la norma cúbica, · ∞ , proviene de un producto interior en Rn .
Page (PS/TeX): 84 / 318, COMPOSITE
SECCIÓN 4.2
Solución
Espacios vectoriales normados 319
Sean u = (1, 2, 0, . . . , 0),v = (2, −3, 0, . . . , 0) ∈ Rn . Por un lado
u +v2∞ + u −v2∞ = (3, −1, 0 . . . , 0)2∞ + (−1, 5, 0 . . . , 0)2∞
= 9 + 25
= 34
y, por otro,
2 u2∞ + v2∞ = 2 (1, 2, 0, . . . , 0)2∞ + (2, −3, 0, . . . , 0)2∞
= 2 (4 + 9)
= 26.
De donde se desprende que la norma cúbica no cumple con la identidad del paralelogramo (4.41), por
lo que no proviene de un producto interior. P Nota 4.12 El lector debe reflexionar con cuidado el significado del hecho mostrado en el ejemplo
anterior: no existe producto interior en Rn cuya norma inducida sea la norma cúbica.
Supongamos nuevamente que tenemos un espacio con producto interior ·, · y norma inducida por
este producto · , entonces, al restar miembro a miembro las igualdades (4.39) y (4.40) se obtiene
u +v2 − u −v2 = 4 u,v ;
de donde,
u,v =
!
1
u +v2 − u −v2 .
4
Con lo que hemos probado el siguiente teorema.
Teorema 4.18 (Identidad de polarización) Sea E un espacio con producto interior ·, · y norma
inducida · . Entonces, ∀u,v ∈ E se cumple la siguiente igualdad
u,v =
!
1
u +v2 − u −v2
4
(4.42)
llamada identidad de polarización.
Ası́, para que una norma · provenga de un producto interior ·, ·, necesita primero satisfacer la
identidad del paralelogramo (4.41); y en caso de que ası́ sea, el producto interior de donde proviene debe
cumplir con la identidad de polarización (4.42). Entonces, conjeturamos que si una norma satisface la
identidad del paralelogramo, el producto interior definido por (4.42) es, efectivamente, un producto escalar cuya norma inducida es precisamente esta norma. En el siguiente teorema probamos esta conjetura.
Page (PS/TeX): 85 / 319, COMPOSITE
320 CAPÍTULO 4
Espacios con producto interior y espacios normados
Teorema 4.19 Sea E un espacio normado con norma · que satisface la identidad del paralelogramo (4.41). Si se define, para cada u,v ∈ E,
u,v =
!
1
u +v2 − u −v2 ,
4
entonces ·, · es un producto interior cuya norma inducida es precisamente · .
DEMOSTRACIÓN
Q 1. Sea u ∈ E, entonces
!
1
u +u2 − 0E 2
4
1
= 2u2
4
4
= u2
4
= u2 ≥ 0
u,u =
y, por tanto,
u,u = 0 ⇔ u = 0E .
Puesto que
u,u = u ,
siendo · la norma dada del espacio, se sigue que, de ser ·, · un producto interior, la norma
inducida coincide con la norma dada en el espacio; es decir, · proviene de este producto interior.
2. Si u,v ∈ E,
!
1
u +v2 − u −v2
4
!
1
v +u2 − v −u2
=
4
= v,u .
u,v =
3. Sean u,v ∈ E, entonces
u,v =
!
1
u +v2 − u −v2 .
4
Por la identidad del paralelogramo (4.41) (recuerde que la norma de este espacio la cumple por
hipótesis)
u +v2 = 2 u2 + 2 v2 − u −v2 .
Y, por tanto,
u,v =
Page (PS/TeX): 86 / 320, COMPOSITE
!
1
2 u2 + 2 v2 − u −v2 − u −v2
4
SECCIÓN 4.2
Espacios vectoriales normados 321
esto es,
u,v =
!
1
u2 + v2 − u −v2
2
Sean ahora u,v,w ∈ E tres vectores arbitrarios. Entonces, por (4.43),
u,v =
!
1
u2 + v2 − u −v2
2
y
u,w =
!
1
u2 + w2 − u − w2 .
2
Donde
u,v + u,w =
!
1
u2 + v2 − u −v2 + u2 + w2 − u − w2 .
2
Por otra parte,
u,v + w =
!
1
u +v + w2 − u −v − w2 .
4
Por la identidad del paralelogramo
u +v + w2 = (u +v) + w2
= 2 u +v2 + 2 w2 − u +v − w2
= 2 2 u2 + 2 v2 − u −v2 + 2 w2
− u +v − w2
y
u −v − w2 = (u − w) −v2
= 2 u − w2 + 2 v2 − (u − w) +v2 .
Por tanto,
u,v + w
=
1 2 2 u2 + 2 v2 − u −v2 + 2 w2
4
= − u +v − w2 − 2 u − w2 − 2 v2
!
= + (u − w) +v2
!
1
4 u2 + 2 v2 − 2 u −v2 + 2 w2 − 2 u − w2
4
1
2 u2 + 2 v2 − 2 u −v2 + 2 u2 + 2 w2
=
4
!
= −2 u − w2
!
1
u2 + v2 − u −v2 + u2 + w2 − u − w2
=
2
=
Page (PS/TeX): 87 / 321, COMPOSITE
(4.43)
322 CAPÍTULO 4
Espacios con producto interior y espacios normados
Esto es,
u,v + w = u,v + u,w
(4.44)
4. Sean u,v ∈ E un par de vectores fijos pero arbitrarios. Mostraremos por inducción28 que para todo
entero no negativo m se cumple
u, mv = m u,v
(4.45)
Para m = 1,
u,v = 1 u,v .
Sea k > 1 un entero y supongamos que:
u, kv = k u,v
(4.46)
Entonces,
u, (k + 1)v = u, kv +v
y por (4.44) y la hipótesis de inducción (4.46)
u, (k + 1)v = u, kv +v
= u, kv + u,v
= k u,v + u,v
= (k + 1) u,v .
Por inducción se sigue que (4.45) es válida para todo entero no negativo m. Por otra parte,
!
1
u −v2 − u +v2
u, −v =
4
!
1
= − u +v2 − u −v2
4
= − u,v
Por tanto,
u, mv = m u,v
para todo entero m. Sea ahora λ = 0 un número real. Entonces, por (4.43),
!
1
λu2 + v2 − λu −v2
λu,v =
2
!
1 2
λ u2 + λ2 (1/λ)v2 − λ2 u − (1/λ)v2
=
2
!
1
= λ2 u2 + (1/λ)v2 − u − (1/λ)v2
2
2
= λ u, (1/λ)v .
1En el apéndice A se puede consultar un breve estudio del principio de inducción, herramienta fundamental para demostraciones
que involucran a los números enteros.
28
Page (PS/TeX): 88 / 322, COMPOSITE
SECCIÓN 4.2
Espacios vectoriales normados 323
Sea q = 0 un entero, entonces
1
1
u,v = 2 u, qv
q
q
q
= 2 u,v
q
1
= u,v .
q
En sı́ntesis, hemos probado que
u, mv = m u,v
para todo entero m,
1
1
u,v = u,v
q
q
para todo entero q = 0; y por simetrı́a se tiene también
mu,v = m u,v ,
1
1
u, v = u,v .
q
q
Sean ahora p, q un par de enteros con q = 0. Entonces,
p
1
u,v = p u ,v
q
q
1
= p u,v
q
p
= u,v .
q
Sea la función f : R → R definida por
f (λ) = λu .
Entonces, por la desigualdad triangular,
| f (λ1 ) − f (λ2 )| = |λ1u − λ2u|
≤ λ1u − λ2u
= |λ1 − λ2 | u ;
de donde f es una función continua en R y, por tanto, la función
ϕ(λ) =
!
1
λu2 + v2 − λu − v2
2
también es continua en R. Sea λ ∈ R un número real cualquiera fijo; sea pn una sucesión de
números racionales pn = an /bn que converge a λ; esto es,
lı́m pn = λ.
n→∞
Page (PS/TeX): 89 / 323, COMPOSITE
324 CAPÍTULO 4
Espacios con producto interior y espacios normados
Por la continuidad de29 ϕ,
lı́m ϕ (pn ) = ϕ(λ);
n→∞
es decir,
λu,v = ϕ(λ)
= lı́m ϕ (pn )
n→∞
!
1
pnu2 + v2 − pnu − v2
n→∞ 2
= lı́m pnu,v
= lı́m
n→∞
= lı́m pn u,v
n→∞
= λ u,v .
Por ende,
λu,v = λ u,v
para todo λ ∈ R y ∀u,v ∈ E.
De 1, 2, 3 y 4 ·, · es un producto interior y la norma inducida por éste coincide con la norma del
espacio, lo cual demuestra el teorema. Q
P Nota 4.13 Observe que con el resultado precedente se prueba que una condición necesaria y también
suficiente para que una norma en un espacio vectorial provenga de un producto interior, es que cumpla
con la identidad del paralelogramo (4.41). En tal caso, el producto de donde proviene está definido por
la identidad de polarización (4.42).
4.2.4 Normas equivalentes
El concepto de proximidad es relativo a la norma con la que se mide la distancia entre los vectores. No es lo
1/2
b
2
( f (x) − g(x)) dx
mismo que dos funciones f , g ∈ C[a, b] estén próximas con la norma f − g =
a
que con la norma uniforme f (x) − g(x)∞ . Sin embargo, existen pares de normas para las que dos
vectores son próximos respecto a una de ellas si y sólo si son próximos respecto a la otra norma. A este
tipo de normas se les dice equivalentes y nos abocamos a su estudio en este apartado.
Definición 4.14 Sean E un espacio vectorial y · , · un par de normas en E. Diremos que la
primera norma es equivalente a la segunda si existen α, β ∈ R positivos tales que
α u ≤ u ≤ β u
∀u ∈ E.
En tal caso escribiremos u ∼ u .
1La continuidad de g en λ ∈ R equivale a lı́m | f (xn ) − λ| = 0 para toda sucesión (xn ) tal que lı́m |xn − λ| = 0.
29
n→∞
Page (PS/TeX): 90 / 324, COMPOSITE
n→∞
SECCIÓN 4.2
Espacios vectoriales normados 325
1/2
Ejemplo 4.54 En Rn la norma canónica (x1 , x2 , . . . , xn ) = ∑nk=1 xk2
es equivalente a la norma
cúbica (x1 , x2 , . . . , xn )∞ = máx1≤k≤n |xk |. En efecto, si u = (x1 , x2 , . . . , xn ), entonces, puesto que |xk | ≤
u∞ ∀u ∈ E, se tiene
1/2
n
∑
u =
k=1
n
∑
≤
k=1
=
√
xk2
1/2
u2∞
n u∞ .
Por otra parte, dado que u2∞ ≤ ∑nk=1 |xk |2 ,
u∞ ≤
n
∑
k=1
1/2
u2∞
.
Por tanto,
u∞ ≤ u ≤
√
n u∞
∀u ∈ E.
Luego,
u ∼ u∞ .
El siguiente teorema es sencillo de probar y su demostración se deja de ejercicio al lector.
Teorema 4.20 Sea E un espacio vectorial y · , · , · normas en este espacio. Entonces:
1. · ∼ · (Reflexividad).
2. · ∼ · ⇒ · ∼ · (Simetrı́a).
3. · ∼ · y · ∼ · ⇒ · ∼ · (Transitividad).
Ası́, del teorema anterior, si una norma es equivalente a una segunda, por simetrı́a ésta será equivalente a la primera. Por esta razón, de aquı́ en adelante, diremos que dos normas son equivalentes si
satisfacen la definición 4.14.
Sean ahora · , · un par de normas equivalentes en el espacio E, u0 ∈ E y B(u0 , r1 ) y B (u0 , r1 )
bolas abiertas respecto a sendas normas. Sean α, β números positivos tales
α u ≤ u ≤ β u
∀u ∈ E.
1. Sea r = r1 /β, entonces
v ∈ B (u0 , r) ⇒ u0 −v < r
⇒ u0 −v ≤ β u0 −v < βr = β
⇒ v ∈ B(u0 , r1 )
⇒ B (u0 , r) ⊂ B(u0 , r1 ).
Page (PS/TeX): 91 / 325, COMPOSITE
r1
= r1
β
326 CAPÍTULO 4
Espacios con producto interior y espacios normados
2. Sea r = αr2 , entonces
v ∈ B(u0 , r ) ⇒ u0 −v < r 1
1
1
u0 −v < r = αr2 = r2
α
α
α
⇒ v ∈ B (u0 , r2 )
⇒ u0 −v ≤
⇒ B(u0 , r ) ⊂ B (u0 , r2 ).
Con lo cual, hemos probado el siguiente teorema que justifica la discusión dada al inicio de esta subsección respecto a la proximidad entre vectores relativa a distintas normas.
Teorema 4.21 Sea E un espacio vectorial y · , · un par de normas equivalentes en este espacio.
Entonces:
1. Toda bola B(u0 , r1 ) relativa a la norma · contiene una bola B (u0 , r) relativa a la norma
· .
2. Toda bola B (u0 , r2 ) relativa a la norma · contiene una bola B(u0 , r) relativa a la norma
· .
La figura 4-28 ilustra este teorema en el caso de las normas equivalentes del ejemplo 4.54 para n = 2.
u0
Figura 4-28 • Toda bola relativa a la norma canónica contiene una bola del mismo centro relativa a la norma
cúbica y viceversa.
Ejemplo 4.55 Determinar si las normas
f 1 =
0
1
| f (x)|dx
y la norma f ∞ = máx0≤x≤1 | f (x)| son equivalentes en C[0, 1].
Solución
Supongamos que existen α > 0 y β > 0, un par de números reales tales
α f ∞ ≤ f 1 ≤ β f ∞
Page (PS/TeX): 92 / 326, COMPOSITE
∀ f ∈ C[0, 1].
SECCIÓN 4.2
Espacios vectoriales normados 327
Sea, para cada número entero positivo m, la función continua fm (x) = e−mx , 0 ≤ x ≤ 1. Entonces, para
cada m,
fm ∞ = máx |e−mx | = e−m·0 = 1 y
0≤x≤1
fm 1 =
=
=
1
0
1
0
| fm (x)|dx
e−mx dx
1
1 − e−m .
m
Por tanto,
α·1 ≤
1
1 − e−m
m
∀m = 1, 2, . . .
Pero, el lado derecho de la precedente desigualdad tiende a 0 cuando m tiende a infinito. Luego, existe
1
m0 tal que
(1 − e−m0 ) < α, tendrı́amos entonces
m0
α≤
1 1 − e−m0 < α,
m0
lo cual es una contradicción. Por tanto, estas normas no pueden ser equivalentes.30
El ejemplo precedente muestra que no todas las normas son equivalentes. La dificultad intrı́nseca
de este ejemplo radica en el hecho de que la dimensión del espacio C[0, 1] es infinta. Sin embargo, en
espacios de dimensión finita, la situación cambia completamente; pues en ellos resulta ser que todas
las normas son equivalentes. Este importantı́simo resultado lo hacemos patente en el siguiente teorema,
aunque no lo demostraremos aquı́; e invitamos al lector a consultar, si ası́ lo desea, la demostración dada
en el apéndice C.
Teorema 4.22 (Equivalencia de normas en dimensión finita) Si E un espacio vectorial, entonces
cualquier par de normas en E son equivalentes; es decir, en un espacio de dimensión finita todas las
normas en él son equivalentes.
La proximidad de vectores es un concepto fundamental de las matemáticas. A través de la idea de
proximidad es como se pueden definir lı́mites, continuidad, derivación, diferenciación, derivadas parciales, optimización (máximos y mı́nimos locales) para funciones de una y de varias variables; convergencia de sucesiones y series; y conceptos geométricos avanzados que tienen que ver con una importante
rama de las matemáticas llamada topologı́a (particularmente de los espacios vectoriales normados en
nuestro caso); etc. En todos estos temas de estudio, la proximidad depende de las normas con la que
se trabaje; sin embargo, todo aquello que, en términos de proximidad, valga para ciertas normas, seguirá siendo válido si éstas se cambian por sendas normas equivalentes. Por ello, el teorema 4.22 bien
1Note que en este caso sı́ existe β tal que f 1 ≤ β f ∞ ∀ f ∈ C[a, b]; pues, dado que | f (x)| ≤ f ∞ para todo x ∈ [a, b], se tiene
1
0 | f (x)|dx ≤ 0 f ∞ dx = (b − a) f ∞ . Luego β = b − a es un escalar que funciona para este fin.
30
1
Page (PS/TeX): 93 / 327, COMPOSITE
328 CAPÍTULO 4
Espacios con producto interior y espacios normados
podrı́a ser llamado el teorema fundamental de espacios vectoriales normados de dimensión finita, pues
significa que en estos espacios se puede trabajar con las normas que se deseen, evidentemente las más
cómodas, pues todo lo que sea válido para ellas (en términos de proximidad) será valido para cualesquiera otras normas de estos espacios. Ası́ que el lector debe tener muy en cuenta esto, utilizar las normas
que más convengan y no necesariamente trabajar con normas que, por ser históricas en las matemáticas
o por desconocimiento del teorema 4.22, se utilizan con gran frecuencia como es el caso de la norma
euclidiana, la norma canónica en el espacio Rn .
Normas p
Terminamos este apartado con un ejemplo de normas que son generalización directa de la norma canónica en Rn , las normas · p (p ≥ 1). Este ejemplo bien podrı́a haberse dado al inicio de esta subsección;
pero por la dificultad que entraña se decidió ponerlo al final. Además, es una buena excusa para ilustrar
el concepto de equivalencia de normas en Rn en este extenso conjunto de normas y explicar el porqué de
la notación ·∞ para la norma cúbica.
Definición 4.15 Sea p ≥ 1 un número real y u = (x1 , x2 , . . . , xn ) ∈ Rn . Se define
u p =
n
∑ |xi |
1/p
p
.
i=1
A u p se le llama norma p del vector u.
P Nota 4.14 Observe que si p = 2, se obtiene la norma canónica en Rn . Y si p = 1 se obtiene la norma
·1 que estudiamos en el ejemplo 4.42.
Antes de mostrar que u p es efectivamente una norma, necesitamos probar algunos resultados
preliminares. En el lema 3.1 (cfr. pág. 123) vimos que
2ab ≤ a2 + b2
para cualquier par de números reales a y b. El lema 4.2 es una generalización de este resultado que
utilizaremos para demostrar la desigualdad triangular de las normas p.
Definición 4.16 Sean p > 1 y p∗ > 1 números reales. Se dice que p y p∗ son ı́ndices conjugados si
1
1
+
= 1.
p p∗
Ejemplo 4.56
• p = 2 y p∗ = 2 son ı́ndices conjugados.
• p = 3 y p∗ = 3/2 son ı́ndices conjugados.
Las siguientes propiedades de ı́ndices conjugados, contenidas en el lema 4.1, son fáciles de probar y
su demostración se deja de ejercicio al lector.
Page (PS/TeX): 94 / 328, COMPOSITE
SECCIÓN 4.2
Espacios vectoriales normados 329
Lema 4.1 Sean p y p∗ ı́ndices conjugados. Entonces:
1.
1
1
= 1− .
p∗
p
3. p∗ (p − 1) = p .
2.
1
1
= 1− ∗ .
p
p
4. p(p∗ − 1) = p∗ .
Lema 4.2 Sean a, b ∈ R un par de números positivos y p, p∗ ı́ndices conjugados. Entonces,
∗
a1/p b1/p ≤
DEMOSTRACIÓN
b
a
+
p p∗
(4.47)
Q Sea α ∈ R, 0 < α < 1, y sea f : [0, ∞) → R la función definida por
f (x) = xα − αx + α.
Entonces,
f (x) = α(xα−1 − 1)
f (x) = α(α − 1)x
y
α−2
< 0 en (0, ∞).
Por tanto, el máximo de f en [0, ∞) se alcanza en x = 1 y, por ende,
xα − αx + α ≤ f (1) = 1
∀x ∈ [0, ∞)
(4.48)
Sean α = 1/p y x = a/b. Entonces 0 < α < 1 y a/b ∈ (0, ∞), por tanto, al sustituir estos valores en
(4.48) se obtiene:
a1/p 1 a 1
+ ≤1
−
b1/p p b p
Multipliquemos ambos lados de la desigualdad (4.49) por b para tener:
a1/p b a b
− + ≤ b,
p p
b1/p
que equivale a
b
a
+b−
p
p
1
a
.
= +b 1−
p
p
a1/p b1−1/p ≤
Pero 1 −
1
= p∗ (por el lema 4.1); por tanto, la desigualdad precedente se transforma en
p
∗
a1/p b1/p ≤
que es lo que se querı́a demostrar.
Page (PS/TeX): 95 / 329, COMPOSITE
Q
b
a
+ ∗
p p
(4.49)
330 CAPÍTULO 4
Espacios con producto interior y espacios normados
P Nota 4.15 Si sustituimos el caso particular p = 2 en (4.47) se obtiene
a1/2 b1/2 ≤
a b
+
2 2
y al elevar al cuadrado ambos lados de la desigualdad anterior
ab ≤
(a + b)2
,
4
que equivale a
4ab ≤ a2 + 2ab + b2 ;
esto es,
2ab ≤ a2 + b2
Es decir, que la desigualdad (4.47) tiene como caso particular la desigualdad (3.5) del lema 3.1 (cfr. pág.
123); que se utilizó para probar la desigualdad de Schwarz (teorema 3.1, cfr. pág. 124).
El siguiente lema establece una generalización de la desigualdad de Schwarz en Rn , la desigualdad
de Hölder, que como en el caso de la desigualdad de Schwarz, servirá para demostrar la desigualdad
triangular de la norma p.
Lema 4.3 Sean u = (x1 , x2 , . . . , xn ) y v = (y1 , y2 , . . . , yn ) un par de vectores en Rn y p, p∗ ı́ndices
conjugados. Entonces
n
1.
(4.50)
∑ xi yi ≤ u p v p∗ (Desigualdad de Hölder)
i=1 2.
DEMOSTRACIÓN
u +v p ≤ u p + v p
(Desigualdad de Minkowski)
(4.51)
Q 1. Sea i ∈ {1, 2, . . . , n} un ı́ndice fijo por el momento y pongamos31
a=
|xi | p
u pp
∗
b=
y
|yi | p
∗
v pp∗
en la desigualdad (4.47) del lema 4.2, entonces
∗
|xi | |yi |
1 |xi | p
1 |yi | p
≤
∗
p + ∗
u p v p∗
p u p p v pp∗
∀i = 1, 2, . . . , n.
Al sumar todos los ı́ndices desde i = 1 hasta i = n en la precedente desigualdad obtenemos
n
n
1
∑ u v ∗ |xi ||yi | ≤ ∑
p
p
i=1
i=1
∗
1 |xi | p
1 |yi | p
∗
p + ∗
p u p p v pp∗
1Observe la analogı́a que hay con la demostración de la desigualdad de Schwarz (teorema 3.1, cfr. pág. 124).
31
Page (PS/TeX): 96 / 330, COMPOSITE
Espacios vectoriales normados 331
SECCIÓN 4.2
que equivale a
1
u p v p∗
n
1
n
n
1
∑ |xi ||yi | ≤ p u p ∑ |xi | p + p∗ v p∗ ∑ |yi | p
p i=1
i=1
∗
p∗ i=1
∗
1
1
u pp +
v pp∗
=
p∗
∗
p u pp
p v p∗
1
1
+
=1
p p∗
=
y, por tanto,
n
∑ |xi ||yi | ≤ u p v p∗
(4.52)
i=1
Pero, puesto que |xi ||yi | = |xi yi | y por la desigualdad triangular para el valor absoluto de números
reales, |∑ni=1 xi yi | ≤ ∑ni=1 |xi yi |, la desigualdad (4.52) implica
n
∑ xi yi ≤ u p v p∗ .
i=1 2. Para cada i = 1, 2, . . . , n se tiene
|xi + yi | p = |xi + yi ||xi + yi | p−1
≤ (|xi | + |yi |) |xi + yi | p−1
= |xi ||xi + yi | p−1 + |yi ||xi + yi | p−1
y, por tanto,
n
n
n
i=1
i=1
i=1
∑ |xi + yi | p ≤ ∑ |xi ||xi + yi | p−1 + ∑ |yi ||xi + yi | p−1 .
Por (4.52), si w = |x1 + y1 | p−1 , |x2 + y2 | p−1 , . . . , |xn + yn | p−1 ,
n
∑ |xi ||xi + yi | p−1 ≤ u p w p∗
y
i=1
n
∑ |yi ||xi + yi | p−1 ≤ v p w p∗
i=1
Por lo que
n
∑ |xi + yi | p ≤ u p w p∗ + v p w p∗
i=1
= u p + v p w p∗ .
Pero,
w p∗ =
∑ |xi + yi |
n
∑ |xi + yi |
i=1
Page (PS/TeX): 97 / 331, COMPOSITE
1/p∗
(p−1)p∗
i=1
=
n
1/p∗
p
.
332 CAPÍTULO 4
Espacios con producto interior y espacios normados
Por tanto,
n
∑ |xi + yi |
p
i=1
1/p∗
n
∑ |xi + yi |
≤ u p + v p
p
,
i=1
de donde
∑ni=1 |xi + yi | p
(∑ni=1 |xi + yi | p )
≤ u p + v p ;
1/p∗
esto es:
1−1/p∗
n
∑ |xi + yi | p
≤ u p + v p
i=1
que equivale (pues 1 − 1/p∗ = 1/p) a
n
1/p
∑ |xi + yi |
p
≤ u p + v p .
i=1
Es decir,
u +v p ≤ u p + v p .
Q
P Nota 4.16 Observe que la desigualdad de Hölder (4.50) tiene como caso particular la desigualdad
de Schwarz en Rn ; pues si sustituimos p = 2 en ésta obtenemos |u ·v| ≤ u2 v2 ; pero ·2 es precisamente la norma canónica inducida por el producto punto de vectores en Rn .
Estamos ya capacitados para demostrar que las normas p son efectivamente normas en Rn , lo cual
hacemos en el siguiente teorema.
Teorema 4.23 Si p ≥ 1 es un número real, entonces
u p =
n
∑ |xi |
1/p
p
,
n=1
u = (x1 , x2 , . . . , xn ), es una norma en Rn .
DEMOSTRACIÓN
Q Si p = 1, ya probamos esta afirmación en el ejemplo 4.42 (cfr. pág. 305). Supongamos entonces que
p > 1.
1. u p = (∑nn=1 |xi | p )1/p ≥ 0
∀u = (x1 , x2 , . . . , xn ) ∈ Rn .
2. Claramente 0Rn p = 0. Supongamos que u p = 0, entonces
|xi | p ≤
n
∑ |xi | p = u pp = 0 ⇒ xi = 0 ∀i ⇒ u = 0Rn .
n=1
Page (PS/TeX): 98 / 332, COMPOSITE
SECCIÓN 4.2
Espacios vectoriales normados 333
3. Si λ ∈ R y u = (x1 , x2 , . . . , xn ) ∈ Rn , entonces
1/p
n
∑ |λxi |
u p =
p
n=1
=
|λ|
p
1/p
n
∑ |xi |
n=1
n
∑ |xi |
= |λ|
p
1/p
p
n=1
= |λ| u p .
4. La desigualdad triangular ya se probó en el lema 4.3 (desigualdad de Minkowski (4.51)). Q
Ejemplo 4.57 Mostrar, sin utilizar el teorema de equivalencia de normas en espacios de dimensión
finita, que si p > 1, entonces
· p ∼ ·∞
en el espacio euclidiano Rn .
DEMOSTRACIÓN
Q Sea u = (x1 , x2 , . . . , xn ) ∈ Rn , entonces
|xi | p ≤ u∞p
∀i = 1, 2, . . . , n.
Por tanto,
n
n
i=1
i=1
∑ |xi | p ≤ ∑ u∞p = n u∞p .
Luego,
n
1/p
∑ |xi |
p
≤ n1/p u∞
i=1
(4.53)
Por otra parte, es claro que
n
u∞p ≤ ∑ |xi | p ,
i=1
de donde
u∞ ≤
n
∑ |xi |
1/p
p
(4.54)
i=1
De (4.53) y (4.54) se desprende
u∞ ≤ u p ≤ n1/p u∞
Y, por ende, · p ∼ ·∞ con α = 1 y β = n1/p .
Page (PS/TeX): 99 / 333, COMPOSITE
Q
(4.55)
334 CAPÍTULO 4
Espacios con producto interior y espacios normados
p=8
p=5
p=3
p=2
p=1
S||·||∞
Figura 4-29 • La norma p de cualquier vector tiende a la norma cúbica de éste cuando p toma valores cada vez
más grandes. En esta figura hemos graficado las esferas S(0, r) relativas a la norma p = 1, 2, 3, 5, 8 y la esfera S·∞
de mismo centro y radio relativa a la norma cúbica. Observe cómo las esferas para las normas p son cada vez más
cercanas a la esfera para la norma cúbica en la medida en que p crece.
Ahora estamos listos para explicar la razón de la notación ·∞ para la norma cúbica. Para ello,
fijemos un vector arbitrario u ∈ Rn y calculemos
lı́m u p .
p→∞
Por (4.55) se tiene
u∞ ≤ lı́m u p ≤ lı́m n1/p u∞ = 1 · u∞ ;
p→∞
n→∞
de donde
lı́m u p = u∞ .
p→∞
Esto es, la norma p tiende a la norma cúbica cuando p tiende a infinito. Debido a este hecho es que
tradicionalmente a la norma cúbica se le denota con el sı́mbolo · ∞ . En la figura 4-29, hemos graficado
las esferas de centro (0, 0) relativas a la norma p para algunos valores crecientes de p y la esfera de
mismo centro relativa a la norma cúbica, todas con el mismo radio r. En ella se puede observar cómo las
p-esferas se aproximan al cuadrado de arista 2r con centro en el origen (la esfera para la norma cúbica)
conforme p aumenta.
4.2.5 Construcción de normas en espacios de dimensión finita a partir de normas en Rn
En esta breve subsección veremos cómo es posible, de manera natural, construir normas en un espacio
de dimensión finita a través de normas en Rn . Esta construción siempre dependerá de la base con la
Page (PS/TeX): 100 / 334, COMPOSITE
SECCIÓN 4.2
Espacios vectoriales normados 335
que se estén describiendo los vectores del espacio. En realidad, el objetivo de este apartado es ahorrar
tiempo al lector para que no tenga que demostrar que las normas que se definen por analogı́a directa
de normas en Rn a espacios de dimensión finita, son efectivamente normas en estos espacios. Sean E
un espacio vectorial de dimensión finita y {e1 ,e2 , . . . ,en } una base de este espacio; entonces si u ∈ E,
existen escalares a1 , a2 , . . . , an tales que
u = a1e1 + a2e2 + · · · + anen
(4.56)
Si b1 , b2 , . . . , bn son escalares tales que también
u = b1e1 + b2e2 + · · · + bnen ,
entonces,
(a1 − b1 )e1 + (a2 − b2 )e1 + · · · + (an − bn )e1 = 0E
y puesto que los vectores ei son L.I., se desprende que
ai = bi
∀i = 1, 2, . . . , n.
Luego, todo vector u ∈ E se puede escribir como combinación lineal de los vectores ei como en (4.56)
de manera única. Si convenimos en que el orden en los términos de (4.56) es el mismo para cualquier
vector (el primer término es un escalar que multiplica al primer vector e1 , el segundo término un escalar
por el vector e2 , etc., y el último término es un escalar que multiplica al vector en ), diremos que la base
está ordenada y escribiremos (e1 ,e2 , . . . ,en ) en lugar de {e1 ,e2 , . . . ,en } para subrayar este hecho.32 En tal
caso a (a1 , a2 , . . . , an ) le llamaremos el vector de coordenadas del vector u relativo a la base ordenada
(e1 ,e2 , . . . ,en ).
Ejemplo 4.58 Sea la base ordenada (3, x − 1, 2x2 ) del espacio de polinomios P2 . Encontrar el vector
de coordenadas del polinomio p(x) = 1 − 3x + 4x2 relativo a esta base ordenada.
Solución
Busquemos escalares a1 , a2 , a3 , tales que
a1 · 3 + a2 · (x − 1) + a3 (2x2 ) = 1 − 3x + 4x2 ;
entonces,
3a1 − a2 + a2 x + 2a3 x2 = 1 − 3x + 4x2
y, por tanto,
3a1 − a2 = 1,
a2 = −3,
2a3 = 4;
1Cfr. la discusión que precede al teorema 4.9 en la página 265.
32
Page (PS/TeX): 101 / 335, COMPOSITE
336 CAPÍTULO 4
Espacios con producto interior y espacios normados
de donde
2
a2 = −3, a3 = 2, a1 = − .
3
Por lo que el vector de coordenadas del polinomio p(x) relativo a esta base ordenada es
(−2/3, −3, 2).
Sea ahora · una norma en Rn (no necesariamente la canónica) y (e1 ,e2 , . . . ,en ) una base ordenada
del espacio E. Entonces, si u ∈ E y (a1 , a2 , . . . , an ) ∈ Rn es el vector de coordenadas de u relativo a la
base ordenada, definimos
uE = (a1 , a2 , . . . , an ) .
Afirmamos que ésta es una norma en E. En efecto:
1. uE = (a1 , a2 , . . . , an ) ≥ 0
∀u ∈ E.
2. 0E = 0 ·e1 + 0 ·e2 + · · · + 0 ·en , por tanto, 0E E = 0Rn = 0. uE = 0 ⇒ (a1 , a2 , . . . , an )
= 0 ⇒ (a1 , a2 , . . . , an ) = 0Rn ⇒ u = a1e1 + a2e2 + · · · + anen = 0E .
3. Si λ ∈ R y u = a1e1 + a2e2 + · · · + anen ∈ E, entonces
λuE = λ (a1e1 + a2e2 + · · · + anen )E
= (λa1 )e1 + (λa2 )e2 + · · · + (λan )en E
= λ(a1 , a2 , . . . , an )
= |λ| (a1 , a2 , . . . , an )
= |λ| uE .
4. Si u,v ∈ E y (a1 , a2 , . . . , an ), (b1 , b2 , . . . , bn ) son los vectores de coordenadas de u y v, respectivamente, entonces
u +vE = (a1 + b1 )e1 + (a2 + b2 )e2 + · · · + (an + bn )en E
= (a1 + b1 , a2 + b2 , . . . , an + bn )
= (a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn )
≤ (a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn )
= uE + vE .
Ejemplo 4.59 Sea el caso dado en el ejemplo 4.58 y la norma canónica en Rn , ·. Entonces
p(x)P2 = (−2/3, −3, 2)
=
11
.
3
Si se toma ·∞ en lugar de la canónica se tiene
p(x)P2 = (−2/3, −3, 2)∞
= 3.
Page (PS/TeX): 102 / 336, COMPOSITE
SECCIÓN 4.2
Espacios vectoriales normados 337
Recı́procamente, toda norma · E del espacio E produce una norma en Rn ; pues si (a1 , a2 , . . . , an )
∈ Rn y u = a1e1 + a2 e2 + · · · + an en , entonces la aplicación
(a1 , a2 , . . . , an ) → (a1 , a2 , . . . , an ) = uE
en una norma en Rn .
4.2.6 Aproximaciones óptimas en espacios normados
Aquı́ veremos cómo es posible encontrar aproximaciones óptimas en espacios normados como lo hicimos en espacios con producto interior; aunque dicha norma no necesariamente provenga de un producto
escalar.
Definición 4.17 (Aproximaciones óptimas) Sean E un espacio vectorial normado con norma · ,
u un vector dado de E y S un subespacio. Decimos que p∗ es aproximación óptima de u en S si
u − p∗ ≤ u −v ∀v ∈ S
o, de manera equivalente, si
mı́n u −v = u − p∗ .
v∈S
El siguiente teorema garantiza la existencia de aproximaciones óptimas en el caso de ser S un subespacio de dimensión finita. Su demostración requiere de algunos conceptos básicos de funciones continuas en espacios vectoriales normados y la postergaremos al apéndice C. Invitamos al lector a que la
consulte en el momento que desee y recomendamos su lectura, pues tiene aspectos muy interesantes y
puede ser de gran provecho el intentar comprenderlos, al menos grosso modo.
Teorema 4.24 (Aproximaciones óptimas en espacios normados) Sean E un espacio vectorial normado con norma · , S un subespacio de dimensión finita en E y u un vector dado de E. Entonces,
existe una aproximación óptima p∗ de u en S.
Aproximaciones óptimas en C[a, b] con la norma uniforme
Sean f ∈ C[a, b] y S = Pn = gn(1, x, x2 , . . . , x n ); por el teorema 4.24 existe un polinomo p∗n (x) de grado
a lo más n tal que
f − p∗n ∞ ≤ f − pn ∞
para todo polinomio pn de grado a lo más n. Esto ocurre para cada n ∈ N; como es natural, surge la
cuestión de si la sucesión de aproximaciones óptimas p∗n , n = 1, 2, . . . , converge a f respecto a la norma
uniforme; esto es,
lı́m f − p∗n ∞ = 0.
n→∞
Page (PS/TeX): 103 / 337, COMPOSITE
338 CAPÍTULO 4
Espacios con producto interior y espacios normados
f +ε
pn
f
ε
ε
f −ε
Figura 4-30 • Si f ∈ C[a, b], para cualquier bola abierta B( f , ε), relativa a la norma uniforme · ∞ , existe un
polinomio de grado n dentro de ella.
Recordemos que en el caso de las aproximaciones óptimas de polinomios trigonométricos a funciones
continuas vimos que esta convergencia se daba en promedio cuadrático; esto es, para la norma f − g =
1/2
b
2
. Para las aproximaciones óptimas, con la norma uniforme, esto también sucede. El
a ( f − g)
teorema que garantiza este hecho es uno de los más célebres e importantes resultados en las matemáticas.
A continuación lo enunciamos y haremos su demostración plausible en la discusión posterior.
Teorema 4.25 (De aproximación de Weierstrass) Sea f ∈ C[a, b]. Entonces, para cada ε > 0 existe
un polinomio pn de grado n (que depende de ε) tal que
f − pn ∞ < ε
(4.57)
La interpretación geométrica de este teorema viene ilustrada en la figura 4-30. En ella se muestra una
función continua f en un intervalo [a, b], una bola de centro f y radio ε respecto a la norma uniforme
· ∞ y un polinomio pn dentro de esta bola; por lo cual (4.57) se cumple para este polinomio.
P Nota 4.17
1. El teorema de aproximación de Weierstrass equivale a que, para cada función f ∈ C[a, b], existe
una sucesión de polinomios (pn ) que converge uniformemente a f , i.e.,
lı́m f − pn ∞ = 0
n→∞
(4.58)
En efecto, si (pn ) es una sucesión de polinomios tal que lı́mn→∞ f − pn ∞ = 0 y ε > 0 es dado,
entonces, por definición de lı́mite, existe n0 ∈ N tal que
f − pn < ε
0 ∞
y se cumple entonces (4.57) del teorema de Weierstrass. Supongamos inversamente que se cumple
(4.57) del teorema 4.25, entonces para cada n ∈ N, existe un polinomio pn tal que
Page (PS/TeX): 104 / 338, COMPOSITE
SECCIÓN 4.2
f − pn ∞ <
Espacios vectoriales normados 339
1
n
de donde se desprende que (4.58) es válida.
2. Si ε > 0 es dado, por el teorema aproximación de Weierstrass existe un polinomio de grado n0 ∈ N
tal que
f − pn < ε.
0 ∞
Sea p∗n una sucesión de aproximaciones óptimas para la función f (cuya existencia está garantizada
por el teorema 4.24), entonces
f − p∗n ≤ f − pn < ε.
0 ∞
0 ∞
Dado que Pn ⊂ Pm si n ≤ m, se desprende que
f − p∗m ≤ f − p∗n .
Por lo que,
f − p∗n ∞ ≤ f − p∗n0 ∞ < ε
∀n ≥ n0 .
Por tanto,
lı́m f − p∗n ∞ = 0
n→∞
como afirmamos en la discusión ulterior al teorema 4.24.
Aproximación por polinomios de Bernstein
Es posible hacer una demostración constructiva del teorema de aproximación de Weierstrass haciendo
explı́cita la sucesión de polinomios que converge uniformemente a la función dada. Esto se realiza
mediante los llamados polinomios de Bernstein.
Definición 4.18 Sean f ∈ C[0, 1] y n ∈ N. Se define el n-ésimo polinomio de Bernstein para la función
f como
n
n k
k
Bn (x) = ∑ f
x (1 − x)n−k
n
k
k=0
donde
n
n!
=
k!(n − k)!
k
es el usual coeficiente binomial.
Ejemplo 4.60 Sea la función continua en [0, 1],
f (x) = x cos(20x) + 4;
Page (PS/TeX): 105 / 339, COMPOSITE
340 CAPÍTULO 4
Espacios con producto interior y espacios normados
entonces:
1 k
k
x (1 − x)1−k
1
k
k=0
1 0
1 1
= f (0)
x (1 − x)1 + f (1)
x (1 − x)0
0
1
B1 (x) =
1.
1
∑f
= 4(1 − x) + (cos(20) + 4) x
= 4 + cos(20)x.
2
2 k
k
x (1 − x)2−k
B2 (x) = ∑ f
2
k
k=0
2 1
2 0
1
2
x (1 − x)1
= f (0)
x (1 − x) + f
2
1
0
2 2
+ f (1)
x (1 − x)0
2
1
cos(10) + 4 x(1 − x)
= 4(1 − x)2 + 2
2
2.
+ (cos(20) + 4) x2
= 4 − (cos 10)x + (cos 20 − cos 10)x2 .
En la figura 4-31 se muestran aproximaciones sucesivas para la función f (x) = x cos(20x) + 4 mediante polinomios de Bernstein Bn para los valores n = 30, 50, 100, 150, 180, 250 y n = 260. En ella se
puede observar cómo f − Bn ∞ → 0, debido a que el máximo de | f (x) − Bn (x)| va tendiendo a cero en
la medida que n aumenta.
5
5
B30
B50
f
4.5
B100
B150
f
4.5
4
4
3.5
3.5
3
3
0
5
0.2
0.4
0.6
0.8
5
B180
B250
f
4.5
0
1
4
3.5
3.5
0.4
0.6
0.8
1
0.4
0.6
0.8
1
B260
f
4.5
4
0.2
3
3
0
0.2
0.4
0.6
0.8
1
0
0.2
Figura 4-31 • Aproximaciones sucesivas de polinomios de Bernstein Bn , para diversos valores n (30, 50, 100, 150,
180, 250 y 260), a la función f (x) = x cos(20x) + 4.
Page (PS/TeX): 106 / 340, COMPOSITE
SECCIÓN 4.2
Espacios vectoriales normados 341
P Nota 4.18 Los polinomios de Bernstein aproximan uniformemente a funciones continuas en el intervalo [0, 1] y el teorema de Weierstrass afirma que este tipo de aproximación uniforme se puede efectuar en cualquier intervalo [a, b]. Pero en realidad, bajo una simple translación, se pueden construir los
polinomios de Bernstein para funciones continuas en un intervalo [a, b]. En efecto, si f ∈ C[a, b], sea
x = g(t) = (b − a)t + a, 0 ≤ t ≤ 1, entonces la función f (x) = f (g(t)) es una función continua en [0, 1] y
los polinomios de Bernstein Bn (x) = Bn (g(t)) aproximan uniformemente a f (g(t)) en [0, 1] y, por tanto,
aproximan uniformemente a f (x) en [a, b].
4.2.7 ¿Qué norma utilizar?
Cuando se busca la aproximación óptima de un elemento de un espacio normado mediante elementos de
un subespacio, dicha aproximación depende de la norma con la que se esté trabajando. La elección de
la norma en el espacio depende a su vez del tipo de problema que se desee resolver. Con el propósito de
aclarar esta situación, planteamos a continuación dos ejemplos clásicos, en donde veremos cómo se elige
la norma en una situación especı́fica, y, de paso, por qué se definen de manera natural, en problemas de
aplicación, dos de las normas más importantes en el espacio C[a, b].
Problema de Chebichev
P. Lvovich Chebichev fue uno de los más grandes matemáticos rusos del siglo XIX; aparte de haber
sido el creador de las bases de varias disciplinas matemáticas, las cuales aún están en pleno desarrollo,
fue un notable ingeniero. Uno de sus intereses como tal, fue la construcción de un mecanismo capaz
de reproducir el movimiento de una trayectoria dada. Sea y = f (x), a ≤ x ≤ b, la trayectoria que se
pretende reproducir. Se desea construir, bajo ciertos requisitos técnicos, un mecanismo tal que uno de
sus dispositivos describa esta curva tan exactamente como sea posible cuando entre en funcionamiento.
Chebichev, como buen ingeniero, construyó inicialmente un mecanismo que obtuviera una aproximación burda de la trayectoria dada. Ası́, un dispositivo de este mecanismo inicial describirá una curva
y = ϕ(x)
(4.59)
parecida a la curva dada y = f (x) como se ilustra en la figura 4-32. Este primer mecanismo consta
de ciertos dispositivos (engranes, palancas, etc.) todos ellos con medidas especı́ficas, α1 , α2 , . . . , αn ,
que lo describen completamente y, por tanto, a la curva (4.59); son estos números los parámetros del
mecanismo y de esta curva. Mejorar la aproximación del mecanismo significa modificar los parámetros
αi para ese fin. Aquı́ fue donde Chebichev abordó el problema matemáticamente. Para ello, consideró los
posibles mecanismos que describirı́an curvas
y = ϕ(x, α1 , α2 , . . . , αn )
(4.60)
para cada conjunto de parámetros αi , i = 1, 2, . . . , n. Cada una de éstas, representa una aproximación de
la trayectoria y = f (x). Sea y = ϕ(x) la curva descrita por (4.60), donde por simplicidad hemos omitido
los parámetros αi , y sea
m = m(α1 , α2 , . . . , αn ) = máx | f (x) − ϕ(x)|
a≤x≤b
Page (PS/TeX): 107 / 341, COMPOSITE
342 CAPÍTULO 4
Espacios con producto interior y espacios normados
y = ϕ(x)
m
y = f (x)
b
a
Figura 4-32 • Una trayectoria dada y = f (x) y una burda aproximación de la misma, y = ϕ(x); esta última está perfectamente determinada por los parámetros αi del mecanismo que la produce.
como se ilustra en la figura 4-32. Entonces, dado que
| f (x) − ϕ(x)| ≤ máx | f (x) − ϕ(x)| = m(α1 , α2 , . . . , αn )
a≤x≤b
se tiene
| f (x) − ϕ(x)| ≤ m(α1 , α2 , . . . , αn )
∀x ∈ [a, b].
Luego, si m(α1 , α2 , . . . , αn ) es pequeño, entonces | f (x) − ϕ(x)| es todavı́a menor, para cada x ∈ [a, b];
por tanto, ϕ(x) será más próximo a f (x), en la medida que m(α1 , α2 , . . . , αn ) sea menor; por ende, las
gráficas de f y ϕ serán muy parecidas si m(α1 , α2 , . . . , αn ) es muy pequeño. En términos de la jerga que
hemos utilizado en este capı́tulo
m(α1 , α2 , . . . , αn ) = f − ϕ∞ .
Luego, de entre todas las funciones y = ϕ(x, α1 , α2 , . . . , αn ), se busca aquella para la cual m(α1 , α2 , . . . ,
αn ) sea mı́nimo; es decir, se tiene que encontrar, de entre todos los conjuntos admisibles de parámetros
α1 , α2 , . . . , αn ,
mı́n f − ϕ(α ,α ,...,α ) 1
(α1 ,α2 ,...,αn )
2
n
∞
donde las ϕ(α1 ,α2 ,...,αn ) son las curvas parametrizadas dadas por (4.60). Es ası́ como Chebichev introduce
la norma uniforme (también llamada norma de Chebichev) para resolver este tipo de problemas. Note
que
mı́n
máx | f (x) − ϕ(x)| ;
mı́n f − ϕ(α ,α ,...,α ) =
(α1 ,α2 ,...,αn )
1
2
n
∞
(α1 ,α2 ,...,αn ) a≤x≤b
razón por la cual algunos métodos actuales de solución de problemas análogos a éste son llamados
métodos “mı́nimax”.
Problema de la cuerda vibrante
Supongamos ahora que una cuerda de longitud L está sujeta en sus dos extremos, el izquierdo en el
origen de coordenadas y el derecho en (0, L). La cuerda se encuentra tensa con una fuerza de tensión
Page (PS/TeX): 108 / 342, COMPOSITE
SECCIÓN 4.2
Espacios vectoriales normados 343
y = f (x)
L
(a)
(b)
Figura 4-33 • (a) Cuerda tensa, sujeta en sus dos extremos, de longitud L en estado de equilibrio (sin vibrar).
(b) “Instantánea”, en el tiempo t = τ , de la cuerda en uno de sus estados de oscilación.
T , como se muestra en la figura 4-33(a). En el instante t = 0 se modifica su estado estirándola de su
posición de equilibrio para que comience a vibrar en el plano x, y (se supone que la amplitud de la vibración es pequeña). En el instante t = τ , la cuerda tiene la forma de una función y = f (x) como se
ilustra en la figura 4-33(b). Se desea encontrar una función y = ϕ(x) que aproxime la forma que tiene
la cuerda en el instante t = τ ; es decir, que aproxime a la curva y = f (x). El criterio de proximidad
en este caso será fı́sico más que geométrico. Para ello pensemos que tenemos otra cuerda exactamente
igual que la primera, sujeta también en sus extremos en sendos puntos (0, 0) y (0, L), pero cuya forma
es precisamente la gráfica de la aproximación y = ϕ(x) como se muestra en la figura 4-34. El criterio de
proximidad que utilizaremos en este caso será mediante la energı́a potencial; es decir, la mejor aproximación será aquella para la cual la diferencia de energı́a potencial entre las cuerdas y = f (x) y y = ϕ(x)
sea mı́nima. Calculemos la energı́a potencial para la cuerda y = f (x); es decir, el trabajo realizado por la
fuerza de tensión para obtener la forma de esta cuerda desde la posición de equilibrio. Sea x un punto en
el intervalo [0, L] y dx un pequeño incremento de x y calculemos el diferencial del trabajo, dU, realizado
por la fuerza de tensión T para estirar el segmento de cuerda [x, x + dx] de la posición de equilibrio a la
forma de la curva y = f (x) en este intervalo.
y = ϕ(x)
y = f (x)
Figura 4-34 • La misma “instantánea” de la cuerda y = f (x) en el instante t = τ y una aproximación a ella,
y = ϕ(x).
Page (PS/TeX): 109 / 343, COMPOSITE
344 CAPÍTULO 4
Espacios con producto interior y espacios normados
y = f (x)
dy
dx
x
x + dx
Figura 4-35 • La cuerda y = f (x) en el instante t = τ . La longitud del segmento de esta curva en el intervalo
[x, x + dx] se puede aproximar mediante la hipotenusa del triángulo rectángulo cuyos catetos son dx y dy.
De la figura 4-35 se desprende que el incremento de longitud en este intervalo es aproximadamente
2
dy
1+
dx
dx
= 1 + ( f (x))2 dx
(dx)2 + (dy)2 =
Al multiplicar por la fuerza de tensión T la diferencia de longitudes entre la cuerda en el estado y = f (x)
y la cuerda en estado de equilibrio en el intervalo [x, x + dx], obtenemos el diferencial de la energı́a
potencial
2
dU = T
1 + ( f (x)) dx − dx ;
esto es,
dU = T
1 + ( f (x))2 − 1 dx.
Dado que la amplitud de las oscilaciones es pequeña, podemos utilizar el desarrollo de Taylor para
obtener
1
2
1 + ( f (x))2 ≈ 1 + ( f (x)) .
2
Luego,
dU ≈
T 2
( f (x)) dx.
2
Por tanto, la energı́a potencial total de la cuerda es
U=
Page (PS/TeX): 110 / 344, COMPOSITE
T
2
L
0
2
( f (x)) dx.
SECCIÓN 4.2
Espacios vectoriales normados 345
Ası́, la diferencia de energı́as potenciales entre las cuerdas y = f (x) y y = ϕ(x) está dada por
T
2
L
0
( f (x))2 dx −
T
2
L
0
(ϕ (x))2 dx.
Ahora bien, pongamos para simplificar por el momento notación,
α2 =
β2 =
L
0
0
L
( f (x))2 dx
y
(ϕ (x))2 dx.
Entonces,
|α2 − β 2 | = |(α + β)(α − β)|
≤ (|α| + |β|)|α − β|;
esto es,
⎛
⎞
L
L
L
L
( f (x))2 dx −
(ϕ (x))2 dx ≤ ⎝
( f (x))2 dx +
(ϕ (x))2 dx⎠
0
0
0
0
L
L
2
2
·
( f (x)) dx −
(ϕ (x)) dx .
0
0
Pero
L
0
(g (x))2 dx = g , la norma inducida por el producto interior g, h =
L
0
g(x)h(x)dx (norma
cuadrado medio); por tanto
⎛
⎞
L
L
L
L
( f (x))2 dx −
(ϕ (x))2 dx ≤ ⎝
( f (x))2 dx +
(ϕ (x))2 dx⎠ f − ϕ .
0
0
0
0
Como hemos supuesto que las oscilaciones son pequeñas y que se trata de la misma
cuerda tanto pa L
( f (x))2 dx ≤ M 2 y
ra y = f (x) como para y = ϕ(x), podemos suponer que existe M > 0 tal que
0
L
0
2
2
(ϕ (x)) dx ≤ M (para cualquier aproximación ϕ). Entonces
L
L
2 ( f (x))2 dx −
(ϕ (x)) dx ≤ 2M f − ϕ .
0
0
Por lo que si f − ϕ es mı́nima, entonces la diferencia de energı́a potencial
L
L
2 ( f (x))2 dx −
(ϕ
(x))
dx
0
0
también será mı́nima. Ası́, eligiendo ϕ de tal suerte que f − ϕ sea mı́nima, se habrá cumplido el
criterio de proximidad.
De esta manera, hemos visto cómo surge, en problemas de aplicación, la norma cuadrado medio
g =
Page (PS/TeX): 111 / 345, COMPOSITE
a
b
(g(x))2 dx en C[a, b] y también cómo se aplica para aproximar una función.
346 CAPÍTULO 4
Espacios con producto interior y espacios normados
Comparación de las normas g =
2
b
a (g(x)) dx
y g∞
Supongamos que se tiene una sucesión de funciones ϕn continuas en [a, b] que converge uniformemente
a f ∈ C[a, b]; i.e.,
lı́m f − ϕn ∞ = 0
n→∞
entonces, dado que
b
a
| f (x) − ϕn (x)|2 dx ≤
a
b
f − ϕn 2∞ dx = (b − a) f − ϕn 2∞
se sigue que
lı́m
n→∞ a
b
| f (x) − ϕn (x)|2 dx = 0;
es decir,
lı́m f − ϕn = 0
n→∞
(4.61)
Por tanto, convergencia uniforme implica convergencia en promedio cuadrático. Sin embargo, no es
difı́cil ver que convergencia en promedio cuadrático no implica convergencia uniforme (cfr. el ejercicio
resuelto 47, pág. 382). Esta es, aparentemente, una ventaja de la norma uniforme respecto a la norma
cuadrado medio. Mas como explicamos arriba, la elección de la norma depende de la naturaleza del problema que se esté tratando y no de una elección arbitraria de ésta.33 Pero, en realidad, la norma cuadrado
medio tiene también una fortaleza muy importante que la convierte en una herramienta con un espectro
de aplicación mayor que la norma uniforme. Aunque la convergencia en promedio cuadrático no implica
convergencia uniforme, se puede probar que si la sucesión (ϕn ) converge en promedio cuadrático a la
función f , i.e., se cumple (4.61), entonces la sucesión (ϕn ) contiene una subsucesión ψn que converge
puntualmente a la función f , excepto en un conjunto de puntos del intervalo [a, b] que tiene medida cero;
esto es
lı́m ψn (x) = f (x)
n→∞
para cada punto x ∈ [a, b] − Z donde Z es un subconjunto de [a, b] de “longitud cero”; por lo general, un
conjunto finito o una sucesión de puntos del intervalo [a, b] (un conjunto numerable). Ası́, la subsucesión
ψn aproxima puntualmente a la función f en “casi todos los puntos” del intervalo [a, b] y se puede
mostrar que también converge en promedio a la función f . En muchos problemas, con esto es suficiente,
ahı́ radica la importancia que tiene la norma cuadrado medio y la convergencia en promedio cuadrático.
P Nota 4.19 Se puede probar que en realidad dicha subsucesión, (ψn ), se puede elegir de tal suerte
que dado cualquier ε > 0, existe un subconjunto M del intervalo [a, b] de longitud inferior a ε, tal que
la subsucesión (ψn ) converge uniformemente a la función f en [a, b] − M (y, por tanto, también en
promedio).
1Recuerde que este no es el caso de espacios vectoriales de dimensión finita; pues en ellos todo par de normas son equivalentes.
33
Page (PS/TeX): 112 / 346, COMPOSITE
SECCIÓN 4.3
Ejercicios resueltos y ejercicios propuestos 347
4.3 Ejercicios resueltos y ejercicios propuestos
4.3.1 Ejercicios resueltos
Espacios con producto interior
11 En R3 si x = (x1 , x2 , x3 ) y y = (y1 , y2 , y3 ) se define
x,y = y1 x1 − 2y1 x2 − 2y2 x1 + 6y2 x2 + y2 x3 + y3 x2 + y3 x3 .
Probar que x,y es un producto interior en R3 .
DEMOSTRACIÓN
Q Sean u = (u1 , u2 , u3 ),v = (v1 , v2 , v3 ),w = (w1 , w2 , w3 ) ∈ R3 y λ ∈ R:
1. (Simetrı́a)
u,v = v1 u1 − 2v1 u2 − 2v2 u1 + 6v2 u2 + v2 u3 + v3 u2 + v3 u3
y
v,u = u1 v1 − 2u1 v2 − 2u2 v1 + 6u2 v2 + u2 v3 + u3 v2 + u3 v3
= v1 u1 − 2v1 u2 − 2v2 u1 + 6v2 u2 + v2 u3 + v3 u2 + v3 u3 ;
es decir, u,v = v,u.
2. (Homogeneidad)
λu,v = (λu1 , λu2 , λu3 ), (v1 , v2 , v3 )
= v1 (λu1 ) − 2v1 (λu2 ) − 2v2 (λu1 )
+ 6v2 (λu2 ) + v2 (λu3 ) + v3 (λu2 ) + v3 (λu3 )
= λ(v1 u1 − 2v1 u2 − 2v2 u1 + 6v2 u2 + v2 u3 + v3 u2 + v3 u3 )
= λ u,v .
3. (Aditividad)
u,v + w = (u1 , u2 , u3 ), (v1 + w1 , v2 + w2 , v3 + w3 )
= (v1 + w1 )u1 − 2(v1 + w1 )u2 − 2(v2 + w2 )u1
+ 6(v2 + w2 )u2 + (v2 + w2 )u3 + (v3 + w3 )u2 + (v3 + w3 )u3
= v1 u1 − 2v1 u2 − 2v2 u1 + 6v2 u2 + v2 u3 + v3 u2 + v3 u3
+ w1 u1 − 2w1 u2 − 2w2 u1 + 6w2 u2 + w2 u3 + w3 u2 + w3 v3
= u,v + u,w .
4. (Positividad)
u,u = u21 − 4u1 u2 + 6u22 + 2u2 u3 + u23
= u21 − 4u1 u2 + 4u22 + u22 + 2u2 u3 + u23 + u22
= (u1 − 2u2 )2 + (u2 + u3 )2 + u22
≥ 0.
Page (PS/TeX): 113 / 347, COMPOSITE
348 CAPÍTULO 4
Espacios con producto interior y espacios normados
u,u = 0 ⇔
5. (Positividad)
(u1 − 2u2 )2 + (u2 + u3 )2 + u22 = 0 ⇔
u1 = u2 = u3 = 0 ⇔
u = 0R3 .
De 1, 2, 3, 4 y 5, x,y es un producto interior.
Q
En los ejercicios 2 a 4, P es el espacio de polinomios.
12 Probar que para todo f ∈ P la integral impropia
∞
f (x)e−x dx
0
converge.
DEMOSTRACIÓN
Q Sea f un polinomio; claramente si f = θ es el polinomio constante cero, la integral impropia converge
al valor real cero. Si f tiene grado 0, f es un polinomio constante, f (x) = k ∀x; entonces
∞
0
f (x)e−x dx = lı́m
r
r→∞ 0
ke−x dx
x=r
x=0
= k lı́m −e−x
r→∞
= k lı́m −e−r + 1
r→∞
= k.
Si f tiene grado n = 1, entonces f (x) = a + bx para algún par de números reales a, b y
0
∞
f (x)e−x dx = lı́m
r
r→∞ 0
=
∞
0
(a + bx)e−x dx
ae−x dx + b lı́m
= a + b lı́m
r→∞
r
r→∞ 0
xe−x dx
x=r
−xe−x x=0 +
r
0
−x
e dx
x=r
x=r
= a + b lı́m −xe−x x=0 − e−x x=0
r→∞
!
r
= a + b lı́m − r − (e−r − 1)
r→∞
e
= a + b;
ası́
que la integral impropia converge. Sea f un polinomio de grado n y suponga que la integral impropia
∞
0
g(x)e−x dx converge para todo polinomio de grado n − 1. Entonces, ya que
∞
0
f (x)e−x dx = lı́m
r→∞ 0
r
f (x)e−x dx
x=r = lı́m − f (x)e−x x=0 +
r→∞
= lı́m f (0) −
r→∞
Page (PS/TeX): 114 / 348, COMPOSITE
r
0
f (r)
+ lı́m
r→∞
er
f (x)e−x dx
r
0
f (x)e−x dx
Ejercicios resueltos y ejercicios propuestos 349
SECCIÓN 4.3
y por hipótesis de inducción
0
∞
f (x)e−x dx converge ( f (x) es un polinomio de grado n − 1) y
f (r)
=0
er
lı́m
r→∞
(al aplicar sucesivamente la regla de L’Hôpital eventualmente se obtendrá el cociente de una constante
sobre la función r → er que tiende a cero conforme r tiende a infinito), se deduce que
∞
f (x)e−x dx
0
converge.
Q
13 Deducir del ejercicio precedente que para cada par de polinomios f , g ∈ P la integral impropia
∞
f (x)g(x)e−x dx
0
converge.
Solución
converge.
Si f , g ∈ P, entonces f g es un polinomio también, por el ejercicio precedente
∞
0
f (x)g(x)e−x dx
14 Por el ejercicio anterior,
f , g =
∞
f (x)g(x)e−x dx
0
está definido para cada par de polinomios f y g. Probar que f , g es un producto interior en P.
DEMOSTRACIÓN
Q Sean f , g, h ∈ P y λ ∈ R:
(a)
f , g =
∞
0
= lı́m
f (x)g(x)e−x dx
∞
f (x)g(x)e−x dx
r→∞ 0
= lı́m
=
∞
r→∞ 0
∞
g(x) f (x)e−x dx
g(x) f (x)e−x dx
0
= g, f .
(b)
λ f , g =
∞
0
(λ f (x))g(x)e−x dx
= lı́m
r
r→∞ 0
= λ lı́m
=λ
(λ f (x))g(x)e−x dx
r
r→∞ 0
∞
0
f (x)g(x)e−x dx
= λ f , g .
Page (PS/TeX): 115 / 349, COMPOSITE
f (x)g(x)e−x dx
350 CAPÍTULO 4
Espacios con producto interior y espacios normados
f , g + h = lı́m
(c)
∞
f (x)(g(x) + h(x))e−x dx
r→∞ 0
= lı́m
r→∞
= lı́m
r
0
r
0
r
0
f (x)g(x)e−x dx + lı́m
r→∞ 0
∞
=
f (x)g(x)e−x dx +
f (x)g(x)e−x dx +
f (x)h(x)e−x dx
r
r→∞ 0
∞
0
f (x)h(x)e−x dx
f (x)h(x)e−x dx
= f , g + f , h .
f , f = lı́m
(d)
r
r→∞ 0
( f (x))2 e−x dx ≥ 0.
(e) Claramente si f = θ es el polinomio constante cero, f , f = 0. Suponga que f ∈ P y f , f = 0,
entonces
r
lı́m
r→0 0
( f (x))2 e−x dx = 0.
Si f = θ (la función constante cero), existe, por continuidad, un intervalo [a, b] ⊂ [0, ∞) tal que
f 2 (x) = 0 para todo x ∈ [a, b]; luego
0<
b
a
( f (x))2 e−x dx ≤
0
∞
( f (x))2 e−x dx = 0
lo cual es imposible; por tanto, f (x) = 0 para todo x ∈ [0, ∞) y puesto que f es un polinomio,
f (x) = 0 para todo x ∈ R; es decir, f es el polinomio constante cero (el único polinomio que tiene
una infinidad de raı́ces es el polinomio constante cero).
De los 5 incisos precedentes se concluye que f , g es un producto interior.
Q
En los ejercicios 5 a 9, f , g es el producto interior en el espacio de polinomios P, definido en el
ejercicio 4 y · es la norma inducida por este producto.
15 Calcular 1 + x, x.
Solución
1 + x, x =
∞
0
(1 + x)xe−x dx
= lı́m
r→∞
= lı́m
r
0
r→∞
r
0
−x
xe dx +
−x
xe dx −
r
0
2 −x
x e dx
r
x2 e−x 0 + 2
0
r
−x
xe
r r −x
r
− x2 e−x 0
e
= lı́m 3 − xe−x 0 +
r→∞
0
r
r r
= lı́m 3 − xe−x 0 − e−x 0 − x2 e−x 0
r→∞
= lı́m 3 −re−r − e−r + 1 − r2 e−r
r→∞
=3
Page (PS/TeX): 116 / 350, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 351
SECCIÓN 4.3
16 Calcular x.
x2 = x, x
Solución
=
∞
0
= lı́m
x2 e−x dx
r
r→∞ 0
x2 e−x dx
r
r
= lı́m −x2 e−x 0 + 2 xe−x dx
r→∞
= lı́m
r→∞
0
r
−x2 e−x 0 + 2
r
−xe−x 0 +
0
r
−x
e dx
r
r
r = lı́m −x2 e−x 0 + 2 −xe−x 0 + e−x 0
r→∞
= lı́m −r2 e−r + 2 −re−r − e−r + 1
r→∞
= 2.
Por tanto x =
√
2.
17 Encontrar el ángulo φ entre f (x) = 1 y g(x) = x.
12 =
Solución
∞
0
e−x dx
r
e−x dx
r
= lı́m −e−x 0
= lı́m
r→∞ 0
r→∞
= lı́m −e−r + 1
r→∞
Por el ejercicio 6 x =
√
= 1.
2, y ya que
1, x =
∞
0
xe−x dx
r
xe−x dx
r
r
= lı́m −xe−x 0 −e−x 0
= lı́m
r→∞ 0
r→∞
=1
se tiene
1, x
φ = arc cos
1 x
1
= arc cos √
2
√ 2
= arc cos
2
=
Page (PS/TeX): 117 / 351, COMPOSITE
π
.
4
352 CAPÍTULO 4
Espacios con producto interior y espacios normados
18 Hallar una base ortonormal del subespacio S = gn(1, x, x2 ).
12 =
Solución
∞
0
= lı́m
e−x dx
r
r→∞ 0
e−x dx
= lı́m −e−x
r→∞
r
0
= lı́m 1 − e−r
= 1,
por tanto, u1 = 1
w2 = x − x, 1 1
= x−
∞
0
xe−x dx
= x − 1,
w2 2 =
∞
0
(x − 1)2 e−x dx
=1
por lo que,
u2 = x − 1.
6
7
6
7
w3 = x2 − x2 , 1 1 − x2 , x − 1 (x − 1)
= x2 −
∞
0
x2 e−x dx −
∞
0
x2 (x − 1)e−x dx(x − 1)
= x2 − 2 − 4(x − 1)
= x2 − 4x + 2,
w3 2 =
0
∞
2
x2 − 4x + 2 e−x dx
=4
y, por tanto,
u3 =
La base ortonormal es entonces
1 2
x − 4x + 2 .
2
8
9
2
1, x − 1, x2 − 2x + 1 .
19 Encontrar la aproximación óptima para f (x) = x3 en el subespacio S = gn(1, x, x2 ).
8
9
2
Por el ejercicio precedente 1, x − 1, x2 − 2x + 1 es una base ortonormal para el subespacio
S; por el teorema 4.15 el vector proyección p de f sobre S, es la aproximación óptima de este subespacio
sobre f y por 4.14 del teorema 4.11 (cfr. pág. 269), el vector proyección está dado por:
Solución
Page (PS/TeX): 118 / 352, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 353
SECCIÓN 4.3
3
p = ∑ f , ui ui .
i=1
6
6
7 x3 , 1 =
7 x3 , x − 1 =
∞
0
∞
0
* 2
x3 , x2 − 2x + 1 =
)
∞
0
x3 e−x dx = 6,
x3 (x − 1)e−x dx = 18,
x3
x2
2
− 2x + 1 e−x dx = 18.
Por tanto,
2
p = 6 + 18(x − 1) + 18( x2 − 2x + 1)
= 6 − 18x + 9x2 .
10 (Representación matricial de un producto interior). Sea u,v un producto interior definido en Rn .
Probar que existe una matriz simétrica A ∈ Mn tal que
u,v = u t Av
para todo par de vectores u,v ∈ Rn . Se dice entonces que la matriz A es una representación matricial del
producto interior u,v.
DEMOSTRACIÓN
Q Sean ei , i = 1, . . . , n los vectores que forman la base canónica del espacio Rn y A = [ei ,e j ]. Si
u = (u1 , . . . , un ) y v = (v1 , . . . , vn ) son un par vectores en Rn , entonces
%
n
&
n
∑ uiei , ∑ viei
u,v =
i=1
n
i=1
n
= ∑ ∑ ui ei ,e j v j
i=1 j=1
⎡
=
u1
···
un
=
u1
···
un
= u t Av.
⎤
∑nj=1 e1 ,e j v j
⎢
⎥
..
⎣
⎦
.
∑nj=1 en ,e j v j
⎡
⎤
⎤⎡
e1 ,e1 · · · e1 ,en v1
⎢
⎥ ⎢ .. ⎥
..
..
..
⎣
⎦⎣ . ⎦
.
.
.
en ,e1 · · · en ,en vn
Q
11 Utilizar el ejercicio 10 para encontrar una representación matricial del producto interior definido en el
ejercicio resuelto 1 de este apartado; es decir, una matriz simétrica A ∈ M3 tal que u,v = u t Av.
Solución
En este caso el producto interior está definido para cada par de vectores x = (x1 , x2 , x3 ) y
y = (y1 , y2 , y3 ), por
x,y = y1 x1 − 2y1 x2 − 2y2 x1 + 6y2 x2 + y2 x3 + y3 x2 + y3 x3 ,
Page (PS/TeX): 119 / 353, COMPOSITE
354 CAPÍTULO 4
Espacios con producto interior y espacios normados
e1 ,e1 e1 ,e2 e1 ,e3 e2 ,e2 e2 ,e3 e3 ,e3 entonces,
por lo que
=
=
=
=
=
=
(1, 0, 0), (1, 0, 0) = 1,
(1, 0, 0), (0, 1, 0) = −2,
(1, 0, 0), (0, 0, 1) = 0,
(0, 1, 0), (0, 1, 0) = 6,
(0, 1, 0), (0, 0, 1) = 1,
(0, 0, 1), (0, 0, 1) = 1,
⎤
−2 0
6 1 ⎦.
1 1
⎡
1
A = ⎣ −2
0
Comprobación:
⎤⎡
⎤
y1
−2 0
6 1 ⎦ ⎣ y2 ⎦ = y1 x1 − 2y1 x2 − 2y2 x1 + 6x2 y2
1 1
y3
⎡
x1
x2
x3
1
⎣ −2
0
+ y2 x3 + y3 x2 + y3 x3
= x,y .
En los ejercicios 12 a 14, E es el conjunto de funciones continuas en el intervalo [a, ∞) tales que la
integral impropia
∞
a
converge.
2
( f (x))2 e−x dx
12 Mostrar que si f , g ∈ E, entonces f g ∈ E. Probar, de hecho, que la integral impropia
∞
converge absolutamente; i.e., que la integral impropia
DEMOSTRACIÓN
2
∞
a
2
f (x) g(x) e−x dx
| f (x)g(x)| e−x dx converge.
a
Q Dado que | f |2 = f 2 , la implicación f ∈ E ⇒
) | f | ∈ E es2 válida. Sean2 f ,*g ∈ E y r > a. Por la desigualdad de Schwarz, aplicada al producto interior | f (x)| e−x /2 , |g(x)| e−x /2 en C[a, r], se tiene
r
a
−x2
| f (x)g(x)| e
≤
r
a
2 −x2
( f (x)) e
1/2 dx
a
r
2 −x2
(g(x)) e
1/2
dx
.
Puesto que f , g ∈ E, las integrales impropias
∞
a
2
( f (x))2 e−x dx
y
∞
a
2
( f (x))2 e−x dx
convergen; entonces, para todo r > a,
a
r
−x2
| f (x)g(x)| e
≤
a
∞
( f (x)) e
ası́ que la función creciente
r →
Page (PS/TeX): 120 / 354, COMPOSITE
2 −x2
r
a
1/2 dx
| f (x)g(x)| e−x
a
2
∞
2 −x2
( f (x)) e
1/2
dx
;
Ejercicios resueltos y ejercicios propuestos 355
SECCIÓN 4.3
es acotada y, por tanto,
a
∞
∞
a
−x2
f (x)g(x)e
dx converge.
r
r→∞ a
existe. Dado que la convergencia de
2
| f (x)g(x)| e−x dx = lı́m
∞
a
| f (x)g(x)| e−x
2
|u(x)| dx implica la convergencia de
∞
a
u(x)dx, se tiene que
Q
13 Demostrar que E, con las operaciones usuales de suma entre funciones y multiplicación de un escalar
con una función, es un espacio vectorial.
DEMOSTRACIÓN
Q Claramente la función constante cero en el intervalo [a, ∞) pertenece a E. Puesto que la suma de
funciones continuas y la multiplicación de un escalar con una función continua también es una función
continua y E ⊂F ([a, ∞)), el espacio de funciones con dominio el intervalo [a, ∞), basta probar que
f , g ∈ E y α, β ∈ R implican α f + βg ∈ E. En efecto:
⎡
lı́m
r→∞ a
r
r
2 −x2
dx
a ( f (x)) e
r
−x2
+2αβ a f (x)g(x)e dx
2
+β 2 ar (g(x))2 e−x dx
α2
⎢
2
(α f (x) + βg(x))2 e−x dx = lı́m ⎢
⎣
r→∞
y ya que f , g ∈ E, por definición de E y por el ejercicio precedente,
∞
a
2
(g(x))2 e−x dx convergen y, por tanto,
a
14 Por el ejercicio 12, la integral impropia
∞
∞
a
a
2
( f (x))2 e−x dx,
2
f , g =
=
a
∞
a
∞
α f , g =
2
2
f (x)g(x)e−x dx
∞
2
g(x) f (x)e−x dx
a
∞
a
=α
f , g + h =
=
2
α f (x)g(x)e−x dx
∞
a
∞
a
a
∞
2
f (x)(g(x) + h(x))e−x dx
2
f (x)g(x)e−x dx +
= f , g + f , h .
Page (PS/TeX): 121 / 355, COMPOSITE
2
f (x)g(x)e−x dx
= α f , g .
a
2
f (x)g(x)e−x dx,
f (x)g(x)e−x dx probar que éste es un producto
= g, f .
(c)
∞
2
Q Sean f , g, h ∈ E y α ∈ R.
(b)
( f (x)g(x))e−x dx converge para todo par de funciones en el
interior en E.
(a)
∞
⎥
⎥
⎦
(α f (x) + βg(x))2 e−x dx converge; es decir, α f + β g ∈ E.
Q
espacio E del ejercicio anterior, si se define f , g =
DEMOSTRACIÓN
⎤
∞
a
2
f (x)h(x)e−x dx
356 CAPÍTULO 4
Espacios con producto interior y espacios normados
f, f =
(d)
∞
2
f 2 (x)e−x dx ≥ 0.
a
(e) Claramente si θ es la función constante cero en [a, ∞), θ, θ = 0. Sean f ∈ E tal que f , f = 0 y
r > 0 un número real fijo. Entonces,
0≤
r
a
1/2
2
a (u(x)) dx
r
de donde, para la norma u =
2
( f (x))2 e−x dx ≤
∞
a
2
( f (x))2 e−x dx = 0;
en C[a, r], se tiene
2 f (x)e−x /2 = 0
y, por tanto,
f (x)e−x
2 /2
= 0 ∀x ∈ [a, r]
2
y ya que e−x /2 = 0 para todo x ∈ [a, r], se concluye que f es la función constante cero en el
intervalo [a, r]. Dado que r es cualquier número real mayor que a, entonces f (x) = 0 para todo
x ∈ [a, ∞); es decir, f = θ, el neutro aditivo de E. Q
∞
2
f (x)g(x)e−x dx es el producto interior definido en el ejercicio 14,
a
1/2
∞
2
( f (x))2 e−x dx
la norma inducida por este producto
E es el espacio del ejercicio 13 y f =
En los ejercicios 15 a 18, f , g =
a
escalar, para el caso particular a = 0.
15 Probar que f ∈ E y calcular f si f (x) = 1.
f 2 =
Solución
∞
0
2
12 e−x dx =
∞
0
2
e−x dx.
Sean R > 0, QR la región de los puntos (x, y) ∈ R2 con 0 ≤ x ≤ R, 0 ≤ y ≤ R y CR la región de puntos
(x, y) ∈ R2 con x2 + y2 ≤ R2 en el primer cuadrante. Entonces
−x2 −y2
CR
e
dA ≤
−x2 −y2
QR
e
dA ≤
C√
e−x
2 −y2
dA.
2R
Ya que,
QR
−x2 −y2
e
dA =
R R
0
0
−x2 −y2
e
dydx =
R
0
e
y, al emplear coordenadas polares,
Cρ
e−x
2 −y2
dA =
π
2
0
0
π
2
ρ
2
e−r rdrdθ
1 2
− e−r
2
0
!
π
2
1 − e−ρ
=
4
=
Page (PS/TeX): 122 / 356, COMPOSITE
ρ
dθ
0
−x2
2
dx
Ejercicios resueltos y ejercicios propuestos 357
SECCIÓN 4.3
se tiene
!
1 2
π
1 − e− 2 R ≤
4
R
0
−x2
e
2
≤
dx
!
π
2
1 − e−R
4
y, por tanto,
!
1 2
π
1 − e− 2 R ≤ lı́m
lı́m
R→∞ 4
R→∞
R
0
−x2
e
2
!
π
2
1 − e−R ;
R→∞ 4
≤ lı́m
dx
de donde
lı́m
R→∞
R
0
2
e−x dx
2
=
π
.
4
Luego,
∞
0
2
e−x dx =
√
π
;
2
lo cual implica 1 ∈ E y
1 =
16 Probar que la función f (x) =
√
x, x ≥ 0, pertenece a E y calcular f .
DEMOSTRACIÓN
√ 1/2 √
4
π
π
= √ .
2
2
Q
0
∞
r
√
2
2
( x)2 e−x dx = lı́m
xe−x dx
r→∞ 0
r
1 2
= lı́m − e−x
r→∞
2
0
1 1 −r2
− e
= lı́m
r→∞ 2
2
=
1
.
2
Lo cual prueba que f ∈ E. Por último,
f =
√
2
( x)2 e−x dx
∞
0
√
2
.
=
2
1/2
Q
17 Demostrar que f ∈ E y calcular f si f (x) = x.
DEMOSTRACIÓN
Q
Page (PS/TeX): 123 / 357, COMPOSITE
0
r
2
x2 e−x dx =
0
r
2
xe−x x dx
r
1 −x2 1 r −x2
= − xe +
e dx.
2
2 0
0
358 CAPÍTULO 4
Espacios con producto interior y espacios normados
Luego,
∞
2
x2 e−x dx = lı́m
r
2
x2 e−x dx
r
1 −x2 1 r −x2
= lı́m − xe +
e dx
r→∞
2
2 0
0
r
1
1
2
2
e−x dx
= lı́m − re−r + lı́m
r→∞
2
2 r→∞ 0
√
π
= 0+
4
√
π
.
=
4
r→∞ 0
0
Por lo que f ∈ E y
f =
√ 1/2 √
4
π
π
.
=
4
2
Q
18 Sean α ∈ R, f (x) = cos(αx). Probar que f ∈ E y calcular 1, f (ya se probó en el ejercicio 15 que la
función constante 1 pertenece a E).
DEMOSTRACIÓN
2
2
Q Puesto que cos2 (αx)e−x ≤ e−x para todo x y
que
0
∞
∞
0
2
e−x dx converge (cfr. ejercicio 15), se concluye
2
cos2 (αx)e−x dx converge y, por tanto, f ∈ E para todo α ∈ R. Sea
ϕ(α) =
∞
0
2
e−x cos(αx)dx.
2
2
Entonces, puesto que la función (x, α) → e−x cos(αx) y su derivada parcial ∂/∂α( e−x cos(αx)) =
2
−xe−x sen(αx) son continuas,
2
2
−x
e cos(αx) ≤ e−x ,
2
2
−xe−x sen(αx) ≤ |x| e−x
y las integrales impropias
0
∞
2
e−x dx,
0
∞
ϕ (α) =
=
Al integrar por partes,
2
|x| e−x dx convergen (por los ejercicios 15 y 16), se tiene
∞
0
0
∞
∂ −x2
e cos(αx) dx
∂α
2
−xe−x sen(αx)dx.
x=r
1 −x2
α ∞ −x2
e sen(αx)
−
e cos(αx)dx
r→∞ 2
2 0
x=0
1 −r2
α
= lı́m e sen(αr) − ϕ(α).
r→∞ 2
2
ϕ (α) = lı́m
Y puesto que
1 −r2
1 2
0 ≤ e sen(αr) ≤ e−r
2
2
Page (PS/TeX): 124 / 358, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 359
SECCIÓN 4.3
se desprende que
lı́m
r→0
y, por tanto,
1 −r2
e sen(αr) = 0
2
α
ϕ (α) = − ϕ(α);
2
es decir,
dϕ
α
= − ϕ.
dα
2
Al separar variables se obtiene
dϕ
1
= − αdα,
ϕ
2
y al integrar
1
ln |ϕ| = − α2 +C
4
para alguna constante C. Esto es,
ϕ(α) = Ae−
α2
4
para alguna constante A. Por el ejercicio 15 se sabe que
ϕ(0) =
y, por tanto, A =
√
π
2 .
∞
0
−x2
e
√
π
dx =
2
Luego
1, f = 1, cos(αx)
=
∞
0
2
e−x cos(αx)dx
√
π −α2 /4
e
. Q
2
19 Calcular el ángulo entre las funciones f (x) = 1 y g(x) = x.
=
Solución
De los ejercicios 16, 17 y 15
1, x =
∞
1
2
xe−x dx = ,
2
0
√
4
π
x =
y
2
√
4
π
1 = √ .
2
Por lo que,
1, x
1 x
⎡
⎤
φ = arc cos
1
⎢
⎥
2
⎥
√
√
= arc cos ⎢
4
4
⎣ π π⎦
√ √
2 2
Page (PS/TeX): 125 / 359, COMPOSITE
360 CAPÍTULO 4
Espacios con producto interior y espacios normados
1
= arc cos √
π
≈ 0. 97134
o
φ ≈ 55. 65◦ .
20 Encontrar una base ortonormal para el subespacio S = gn(1, x) utilizando el proceso de ortogonalización
de Gram-Schmidt.
Solución
Por los ejercicios 16, 17 y 15
√
2
1
1
= √4 = √
u1 =
4
π
1
π
√
2
w2 = v2 − v2 , u1 u1
% √ &√
2
2
√
.
= x − x, √
4
4
π
π
% √ & √ 2
2 ∞ −x2
√
x, √
=
xe dx
4
4
π
π 0
1 √
= √
2,
24π
% √ &√
√
2
2
2
1 √
√
x, √
= √
2√
4
4
4
4
π
π 2 π
π
1
=√
π
y, por tanto,
% √ &√
2
2
1
√ = x− √ .
w2 = x − x, √
4
π 4π
π
∞
1
2
e−x (x − √ )2 dx
π
∞
1
x
2
=
e−x (x2 − 2 √ + )dx
π π
0
1 −2 + π
√ .
=
4
π
w2 2 =
Ası́ que,
La base ortonormal es, entonces,
Page (PS/TeX): 126 / 360, COMPOSITE
0
√
1
24π
√
u2 =
(x − √ ).
π
π−2
$√
(
√
2 24π
1
√
,√
(x − √ ) .
4
π π−2
π
Ejercicios resueltos y ejercicios propuestos 361
SECCIÓN 4.3
21 Encontrar la aproximación óptima para u(x) = x2 en el subespacio S = gn(1, x).
La aproximación óptima para u en el subespacio S viene dada por la proyección ortogonal p
√
√
2
1
24π
√
√
(x − √ ) forman una base
de u sobre S. Y ya que por el ejercicio precedente u1 = 4 y u2 =
π
π
π−2
ortonormal de S, por (4.14) del teorema 4.11 (cfr. pág. 269)
Solución
p = u, u1 u1 + u, u2 u2 .
Del ejercicio 17,
u, u1 u1 =
=
=
u, u2 =
=
0
∞
√
24π
√
π−2
√
4
2 π
√
π−2
2
x3 e−x dx =
∞
0
∞
0
√
2
√
4π
√
π
√2
π 4
1
2,
2
∞
0
2
x2 e−x dx
2
x3 e−x dx − √1π
2
x3 e−x dx −
∞
∞
0
√
π
√1
π 4
2
x2 e−x dx
2
x2 xe−x dx
0
r
r
−x2
1 2 −x2 1
2xe dx
= lı́m − 2 x e + 2
r→∞
0
0
!
!
2
2 r
= lı́m − 12 r2 e−r − 12 e−x
r→∞
0
= 12 .
Por lo que,
u, u2 =
=
√
24π 1
√
π−2 2
√
4
√ π
2 π−2
− 14
y
u, u2 u2 =
=
√
√
4
24π
√ π √
(x − √1π )
2 π−2 π−2
√
π
√1
π−2 x − π .
Por tanto, la aproximación óptima de u(x) = x2 en el espacio S = gn(1, x) es
√ π
1
1
√
x−
.
p= +
2 π−2
π
22 Encontrar los valores de las constantes a, b, c tales que
1
−1
alcance el valor más pequeño posible.
Page (PS/TeX): 127 / 361, COMPOSITE
e x − a − bx − cx2
2
dx
362 CAPÍTULO 4
Espacios con producto interior y espacios normados
El problema se resuelve si a + bx + cx2 es la aproximación óptima a la función f (x) = e x en
1
el espacio S = gn(1, x, x2 ) relativa a la norma inducida por el producto interior g, h = −1
g(x)h(x)dx
en C[−1, 1]. Se construye primero una base ortonormal {u1 , u2 , u3 } para el espacio S a partir de los
generadores L.I. 1, x y x2 :
Solución
12 =
1
−1
dx = 2
y, por tanto,
1
u1 = √ .
2
w2 = x − x, u1 u1
1
2
= x−
1
−1
x
= x,
w2 2 =
=
1
−1
x2 dx
2
3
y, entonces,
u2 =
3
x.
2
7
7
6
6
w 3 = x 2 − x 2 , u 1 u1 − x 2 , u 2 u2
1
2
1
2
=x − ,
3
= x2 −
w3 2 =
=
y, por tanto,
3
u3 =
2
1
−1
1
x2 dx −
x2 −
−1
3
2
1
3
1
−1
x3 dx
2
dx
8
45
5 2 1
x −
.
2
3
Del teorema 4.11 (cfr. pág. 269) la aproximación óptima está dada por
3
p = ∑ f , ui ui .
i=1
√ *
e x , 1/ 2 =
)
=
Page (PS/TeX): 128 / 362, COMPOSITE
√1
2
1
2
1
−1
e−x dx
√ −1
2 −e + e ,
Ejercicios resueltos y ejercicios propuestos 363
SECCIÓN 4.3
x
e ,
3
2x
=
=
e x , 32
5
2
x2 − 13
√
3
2
1
−1
xe x dx
6e−1 ,
e x x2 − 13 dx
−1
√ 2
−1
3
.
= 4 10 3 e − 14
3 e
=
3
2
5
2
1
Luego,
√
√ −1
3
2 −e + e √12 +
6e−1
2x
√ 2
3 5 2 1
3
14 −1
= + 4 10 3 e − 3 e
2
2 x −3
2
−1
105 −1
x .
− 34 e + 3e−1 x + 15
= 33
4 e
4 e− 4 e
p=
1
2
Entonces,
a =
33 −1
− 34 e,
4 e
−1
b = 3e ,
c=
15
105 −1
4 e− 4 e .
Espacios vectoriales normados
23 Calcular f ∞ , si f (x) =
x
x2 + 4
en C[−3, 4].
Solución
El máximo absoluto de | f | se alcanza en los extremos del intervalo [−3, 4] o en los puntos
crı́ticos de la función f que están en el intervalo (−3, 4).
f (x) =
4 − x2
= 0 ⇒ x = ±2.
x2 + 4
−3 = 3 ,
| f (−3)| = (−3)2 + 4 13
1
2
= = | f (2)| ,
| f (−2)| = (−2)2 + 4 4
4 1
= .
| f (4)| = 2
(4) + 4 5
Por tanto,
1
f ∞ = .
4
24 Encontrar la distancia entre las funciones f (x) = 2 sen x y g(x) = − cos 2x relativa a la norma uniforme
· en C[0, π].
Solución
Page (PS/TeX): 129 / 363, COMPOSITE
d( f , g) = f − g∞ .
364 CAPÍTULO 4
Espacios con producto interior y espacios normados
( f (x) − g(x)) = (2 sen x + cos 2x)
= 2 cos x − 2 sen(2x).
2 cos x − 2 sen(2x) = 0 ⇒
2 cos x − 4 cos x sen x = 0 ⇒
2 cos(x)(1 − 2 sen x) = 0.
Los puntos crı́ticos de f − g en (0, π) son entonces x = π2 , x =
π
6
y
5π
6 .
Puesto que,
π
π 2 sen + cos 2 = 1,
2
2
π
π 3
2 sen + cos 2 = ,
6
6
2
2 sen 5π + cos 2 5π = 3 ,
6
6 2
2 sen 5π + cos 2 5π = 1 y
6
6 2 sen 5π + cos 2 5π = 1,
6
6 se tiene
3
d( f , g) = . 2
En los ejercicios 25 y 26, f 1 = ab | f (x)| dx en el espacio C[a, b].
x
, a = −1 y b = 1.
1 + x2
25 Calcular f 1 si f (x) =
f 1 =
Solución
1
−1
| f (x)| dx
1
−x
x
=
dx
+
dx
2
1
+
x
1
+
x2
−1
0
0
1
1
1
2 2 = − ln(1 + x ) + − ln(1 + x )
2
2
−1
0
0
= ln(2). 26 Calcular d( f , g) en C[a, b] relativa a la norma f 1 =
b = π.
b
a
| f (x)| dx si f (x) = sen x y g(x) = cos x y a = 0,
d( f , g) = f − g1
Solución
0
π
|sen x − cos x| dx =
0
π/4
(cos x − sen x)dx +
π/4
π
π/4
(sen x − cos x)dx
= [sen x + cos x]0 + [− cos x − senx]ππ/4
√
√
= 2−1+1+ 2
√
= 2 2. Page (PS/TeX): 130 / 364, COMPOSITE
SECCIÓN 4.3
Ejercicios resueltos y ejercicios propuestos 365
27 Un conjunto no vacı́o de números reales A es acotado si existe M ≥ 0 tal que |x| ≤ M para todo x ∈ A. Se
dice entonces que M es una cota de A. A la menor cota s de un conjunto acotado, se le llama el supremo
de este conjunto y se denota por
s = sup A.
(a) Sea B(R) el conjunto de todas las sucesiones de números reales que son acotadas. Probar que B(R)
es un subespacio de R∞ , el espacio de sucesiones reales.
(b) Si (an ) ∈ B(R) se define
(an ) = sup {|an | : n ∈ N} .
Probar que (an ) es una norma en B(R).
DEMOSTRACIÓN
Q (a) Obviamente la sucesión constante cero es acotada. Sean (an ), (bn ) ∈ B(R) y M1 , M2 ≥ 0 cotas de
sendas sucesiones, entonces
|an + bn | ≤ |an | + |bn | ≤ M1 + M2 ∀n
Ası́ que la sucesión (an + bn ) es también acotada. Si α ∈ R, entonces
|αan | = |α| |an | ≤ |α| M1 ∀n
y, por tanto, la sucesión (αan ) es acotada, lo cual prueba que B(R) es un subespacio de R∞ .
(b) Sean (an ), (bn ) ∈ B(R) y α ∈ R.
(i) Puesto que
0 ≤ |an | ≤ (an ) ∀n
se tiene (an ) ≥ 0.
(ii) Es claro que la norma de la sucesión constante cero es cero. Si (an ) = 0, entonces
0 ≤ |an | ≤ (an ) = 0 ∀n
de donde se desprende que an = 0 para todo n y, por tanto, (an ) es la sucesión constante cero.
(iii) Si α = 0, es claro que α(an ) = |α| (an ) = 0. Suponga que α = 0; puesto que |an | ≤ (an )
para todo n, se cumple
|αan | = |α| |an | ≤ |α| (an ) ∀n,
ası́ que |α| (an ) es una cota de la sucesión (αan ); y puesto que (αan ) es la menor cota,
(αan ) ≤ |α| (an ) .
Por otra parte,
|α| |an | = |αan | ≤ (αan ) ∀n
|an | ≤
Page (PS/TeX): 131 / 365, COMPOSITE
1
(αan ) ∀n
|α|
∴
366 CAPÍTULO 4
Espacios con producto interior y espacios normados
y, por ende,
(an ) ≤
1
(αan ) .
|α|
Luego,
|α| (an ) ≤ (αan ) ≤ |α| (an )
lo cual implica
(αan ) = |α| (an ) .
(iv) Puesto que |an | ≤ (an ) y |bn | ≤ (bn ) para todo n, se tiene
|an + bn | ≤ (an ) + (bn ) ∀n.
Entonces, (an ) + (bn ) es una cota para (an + bn ) y, por tanto, ya que (an + bn ) es la
menor cota,
(an + bn ) ≤ (an ) + (bn ) .
Q
En los ejercicios 28 a 29 (i) probar que la sucesión (an ) pertenece a B(R) y (ii) calcular (an ).
28 an =
1
n
+ (−1)n .
Solución
(i) Para todo n ∈ N,
1
+ (−1)n ≤ 1 + |(−1)n |
n
n
1
= +1
n
≤ 2.
y, por tanto, (an ) es acotada. (ii) Para cada n:
1
+ (−1)2n = 1 + 1 ≤ 3
2n
2n 2
y
1
1
2n+1 2n + 1 + (−1)
= 2n + 1 − 1
= 1−
1
2
≤
2n + 1 3
Puesto que todo número natural es par o impar, se concluye que
3
|an | ≤ .
2
Y ya que |a2 | = 32 , se tiene
3
(an ) = .
2
Page (PS/TeX): 132 / 366, COMPOSITE
SECCIÓN 4.3
29 an =
Ejercicios resueltos y ejercicios propuestos 367
n
.
n+1
Solución
(i) Para todo n ∈ N:
|an | =
n
≤ 1.
n+1
n
Por tanto, 1 es cota de (an ). (ii) Suponga que M es cota de (an ) con 0 < M < 1. Ya que lı́mn→∞ n+1
= 1,
existe n0 tal que
n0 n0
= 1 −
< 1−M
1−
n0 + 1
n0 + 1 de donde:
M<
n0
,
n0 + 1
por lo que M no puede existir. Por ende, la menor cota de (an ) es 1; entonces
(an ) = 1.
30 Sea Mm×n el espacio vectorial de las matrices de tamaño m × n y A ∈ Mm×n . Si ·2 representa la norma
1/2
, para k = n, m, probar que el conjunto
euclidiana en Rk ; esto es, (x1 , . . . , xk )2 = ∑ki=1 xi2
SA = {Ax2 :x ∈ Rn , x2 = 1}
es acotado.
DEMOSTRACIÓN
Q Sean ei , i = 1, . . . , n, la base canónica de Rn y M = máx1≤i≤n Aei 2 . Si x = (x1 , . . . , xn ) ∈ Rn y
x2 = 1, entonces
Ax2 = A(x1e1 + · · · + xnen 2
≤ |x1 | Ae1 2 + · · · + |xn | Aen 2
≤ (|x1 | + · · · + |xn |) M
≤ Mn x∞
≤ Mn x2
= Mn.
Q
31 Sean A ∈ Mm×n , ·2 y SA como en el ejercicio precedente. Se define
A = sup SA .
(a) Mostrar que Ax2 ≤ A x2 para todo x ∈ Rn .
(b) Probar que A es una norma en Mm×n .
DEMOSTRACIÓN
Q Sean A, B ∈ Mm×n y α ∈ R.
(a) Si x = 0Rn , entonces Ax2 = 0Rm = 0 = A x. Sean x ∈ Rn − {0Rn } y x1 =
x1 2 = 1 y, por tanto,
Page (PS/TeX): 133 / 367, COMPOSITE
2
1
x,
x2 entonces
368 CAPÍTULO 4
Espacios con producto interior y espacios normados
1
1
Ax2 = A x
x 2
x2
2
= Ax1 2
≤ A ,
lo cual implica
Ax2 ≤ A x2
(b)
(i) Si x ∈ Rn y x2 = 1, entonces
0 ≤ Ax2 ≤ A .
(ii) Si A = O, la matriz cero, entonces,
Ax2 = 0Rm = 0
para todo x ∈ Rn , con x2 = 1 y por tanto A = 0. Suponga que A = 0, entonces
Ax2 ≤ A x2 = 0 · x2 = 0
para todo x ∈ Rn ; de donde se desprende que
Ax = 0Rm
para todo x ∈ Rn . Del lema 5.1 (cfr. pág 436) se concluye que A = O.
(iii) Si α = 0, entonces αA = O = 0 = |α| A. Si α = 0, entonces, para cada x ∈ Rn , con
x2 = 1, se tiene
(αA)x2 = A(αx)2
≤ A αx2
= A |α| x2
= |α| A
y, por tanto,
αA ≤ |α| A ;
y
|α| Ax2 = A(αx)2
= (αA)x2
≤ αA ;
de donde,
Ax2 ≤
1
αA .
|α|
Entonces,
A ≤
Page (PS/TeX): 134 / 368, COMPOSITE
1
αA ;
|α|
Ejercicios resueltos y ejercicios propuestos 369
SECCIÓN 4.3
luego,
|α| A ≤ αA ≤ |α| A ;
ası́ que αA = |α| A .
(iv) Para todo vector unitario x ∈ Rn (x2 = 1), se tiene
(A + B)x2 = Ax + Bx2
≤ Ax2 + Bx2
≤ A + B
y, por tanto,
A + B ≤ A + B .
Q
32 Sean A ∈ Mm×n , B ∈ Mn×p y C = sup SC la norma del ejercicio precedente. Probar que
AB ≤ A B .
DEMOSTRACIÓN
Q Sea x ∈ R p con x2 = 1, entonces
(AB)x2 = A(Bx)2
≤ A Bx2
≤ A B ,
por lo que
AB ≤ A B .
Q
En los ejercicios 33 a 35, C[α, β] es el espacio de funciones continuas en el intervalo [α, β], p > 1 es un
número real y, para cada f ∈ C[α, β],
β
1/p
p
| f (x)| dx
f p =
α
p
(puesto que f ∈ C[α, β], la función | f | también y por tanto es integrable en [α, β]).
33 Si f , g ∈ C[α, β] y p, p∗ > 1 son ı́ndices conjugados ( 1p +
β
α
1
p∗
= 1), probar que
| f (x)g(x)|dx ≤ f p g p∗ .
Es decir,
| f , g| ≤ f p g p∗
donde f , g =
DEMOSTRACIÓN
β
α
f (x)g(x)dx es el producto interior usual en C[α, β].
Q Si f o g es la función constante cero en [α, β], la afirmación es evidentemente verdadera. Suponga que
ambas funciones no son nulas en [α, β]; entonces, por continuidad, f p = 0 = g p∗ . Sean x ∈ [α, β]
un punto fijo de este intervalo y
Page (PS/TeX): 135 / 369, COMPOSITE
370 CAPÍTULO 4
Espacios con producto interior y espacios normados
a=
| f (x)| p
f pp
y
∗
b=
|g(x)| p
∗
g pp∗
en el lema 4.2 (cfr. pág. 329). Entonces, por (4.47) de este lema
∗
| f (x)| |g(x)|
1 | f (x)| p
1 |g(x)| p
≤
+
∗
f p g p∗
p f pp
p∗ g pp∗
para cada x ∈ [α, β]. Luego,
1
f p g p∗
β
α
| f (x)| |g(x)| dx ≤
1
p f pp
+
=
β
α
1
p∗ f | f (x)| p dx
p∗
p∗
β
α
∗
|g(x)| p dx
1
1
p∗
p
∗ g p∗
p f p +
p
p f p
p∗ g p∗
1
1
+
p p∗
=1
=
y, por tanto,
β
α
| f (x)| |g(x)| dx ≤ f p g p∗ .
Finalmente,
β
| f , g| = f (x)g(x)dx
α
≤
β
| f (x)| |g(x)| dx
α
≤ f p g p∗ .
Q
34 Si f , g ∈ C[α, β], demostrar que
f + g p ≤ f p + g p .
DEMOSTRACIÓN
Q Para cualquier x ∈ C[α, β]
| f (x) + g(x)| p = | f (x) + g(x)| | f (x) + g(x)| p−1
≤ | f (x)| | f (x) + g(x)| p−1 + |g(x)| | f (x) + g(x)| p−1
y, por tanto,
β
α
| f (x) + g(x)| p dx ≤
β
α
+
Page (PS/TeX): 136 / 370, COMPOSITE
| f (x)| | f (x) + g(x)| p−1 dx
β
α
|g(x)| | f (x) + g(x)| p−1 dx.
SECCIÓN 4.3
Ejercicios resueltos y ejercicios propuestos 371
Por el ejercicio precedente,
β
α
β
α
| f (x)| | f (x) + g(x)| p−1 dx ≤ f p ( f + g) p−1 p∗
y
|g(x)| | f (x) + g(x)| p−1 dx ≤ g p ( f + g) p−1 p∗ .
Entonces,
β
α
| f (x) + g(x)| p dx ≤ f p ( f + g) p−1 p∗ + g p ( f + g) p−1 p∗
= f p + g p ( f + g) p−1 p∗
β
1/p∗
∗
| f (x) + g(x)|(p−1)p dx
= f p + g p
= f p + g p
α
β
α
p
| f (x) + g(x)| dx
1/p∗
.
Ası́ que,
β
α
| f (x) + g(x)| p dx
1−1/p∗
≤ f p + g p
esto es,
β
α
| f (x) + g(x)| p dx
1/p
≤ f p + g p .
O sea
f + g p ≤ f p + g p .
Q
35 Demostrar que
f p =
β
α
p
1/p
| f (x)| dx
es una norma en C[α, β].
DEMOSTRACIÓN
Q Sean f , g ∈ C[α, β], λ ∈ R.
(a) Es evidente que f p ≥ 0.
(b) Si f = θ, la función constante cero en [α, β], es claro que f p = 0. Suponga que f p = 0,
entonces
β
α
| f (x)| p = 0,
por continuidad34 se desprende que | f (x)| p = 0 y, por tanto, f (x) = 0 para todo x ∈ [α, β].
1A lo largo de este texto, la demostración de que una función no negativa, continua y cuya integral en un intervalo es cero tiene
que ser una función nula se ha realizado varias veces y por esta razón ya no se repite aquı́.
34
Page (PS/TeX): 137 / 371, COMPOSITE
372 CAPÍTULO 4
Espacios con producto interior y espacios normados
λ f p =
(c)
=
β
α
β
α
|λ f (x)| p dx
p
1/p
p
|λ| | f (x)| dx
= |λ| p
= |λ|
1/p
β
α
β
1/p
p
| f (x)| dx
| f (x)| p dx
α
1/p
= |λ| f p .
(d) Por el ejercicio anterior
f + g p ≤ f p + g p .
Q
36 Calcular, en relación con el ejercicio precedente, f p si f (x) = cos x, p = 3, α = 0 y β = π.
f 33 =
Solución
=
cos3 x dx =
=
=
π
0
|cos x|3 dx
π/2
0
f 33
cos x dx −
π
π/2
cos3 x dx.
cos2 x cos x dx
(1 − sen2 x) cos x dx
cos x dx −
= sen x −
Por tanto,
3
sen3 x
= sen x −
3
sen2 x cos x dx
sen3 x
+C
3
π/2
0
sen3 x
− sen x −
3
π
π/2
2 2
= +
3 3
4
=
3
y, entonces,
f 3 =
3
4
.
3
37 Sean a ∈ R y L1 [a, ∞) el conjunto de funciones continuas f : [a, ∞) → R tales que
∞
a
| f (x)| dx converge.
(a) Probar que L1 [a, ∞) es un espacio vectorial con las operaciones suma de funciones y multiplicación de un escalar con una función usuales.
(b) Sea f 1 =
Page (PS/TeX): 138 / 372, COMPOSITE
∞
a
| f (x)| dx, para cada f ∈ L1 [a, ∞). Mostrar que f 1 es una norma en L1 [a, ∞).
Ejercicios resueltos y ejercicios propuestos 373
SECCIÓN 4.3
DEMOSTRACIÓN
Q (a) Dado que L1 [a, ∞) ⊂ C[a, ∞), basta probar que L1 [a, ∞) < C[a, ∞).
(i) Es evidente que la función constante cero pertenece a L1 [a, ∞).
(ii) Sean f , g ∈ L1 [a, ∞), entonces, para todo x ∈ [a, ∞),
| f (x) + g(x)| ≤ | f (x)| + |g(x)|
y, por tanto, para todo r ≥ a,
r
a
| f (x) + g(x)| dx ≤
∞
a
| f (x)| dx +
a ∞
≤
de donde
r
| f (x)| dx +
a
r
a
| f (x)| dx
∞
a
| f (x)| dx,
| f (x) + g(x)| dx converge, entonces f + g ∈ L1 [a, ∞).
(iii) Sea α ∈ R y f ∈ L1 [a, ∞), entonces
r
lı́m
r→∞ a
|α f (x)| dx = |α| lı́m
= |α|
y, por tanto,
∞
a
r
r→∞ a
∞
a
| f (x)| dx
| f (x)| dx
|α f (x)| dx converge, ası́ que α f ∈ L1 [a, ∞) y α f 1 = |α| f 1 .
(b) Sean f , g ∈ L1 [a, ∞) y α ∈ R.
f 1 =
(i)
∞
| f (x)| dx ≥ 0.
a
(ii) Es claro que θ1 = 0 para la función constante cero. Si f = 0, entonces
a
y, por tanto,
r
a
r
| f (x)| dx ≤
∞
a
| f (x)| dx = 0
| f (x)| dx = 0; de aquı́ que, por continuidad, f (x) = 0 para todo intervalo
[a, r]; es decir, f es la función constante cero en [a, ∞).
(iii) Se probó en 37(a)(iii).
(iv) Puesto que
r
a
se tiene
a
∞
| f (x) + g(x)| dx ≤
| f (x) + g(x)| dx ≤
r
a
a
∞
| f (x)| dx +
| f (x)| dx +
r
a
|g(x)| dx
∞
a
|g(x)| dx
es decir,
f + g1 ≤ f 1 + g1 .
38 Sean L [0, ∞) y f 1 =
∞
0
Q
| f (x)| dx el espacio y la norma del ejercicio precedente para el caso parti-
cular a = 0. Probar que si f (x) = e−x , entonces f ∈ L [0, ∞) y calcular f 1 .
Page (PS/TeX): 139 / 373, COMPOSITE
374 CAPÍTULO 4
Espacios con producto interior y espacios normados
DEMOSTRACIÓN
Q
r
e−x dx = lı́m
e−x dx
∞
0
r→∞ 0
= lı́m −e−x
r→∞
r
0
= lı́m 1 − e−r
r→∞
= 1,
lo cual demuestra que f ∈ L [0, ∞) y f 1 = 1.
Q
En los ejercicios 39 a 41, S = gn((−1, 1)) y u = (0, 1) en R2 .
39 Hallar la aproximación óptima, p∗ , de u en el subespacio S respecto a la norma euclidiana (x, y) =
x2 + y2 .
Solución
Los elementos de S tienen la forma (−a, a) con a ∈ R.
u − (−a, a)2 = (a, 1 − a)2
= a2 + (1 − a)2 .
Si ψ(a) = a2 + (1 − a)2 , a ∈ R, entonces
ψ (a) = 4a − 2 = 0 ⇒
1
a=
2
y, puesto que,
ψ (a) = 4 > 0
la función ψ alcanza un mı́nimo en a = 1/2. Luego u − (−a, a)2 es mı́nima (y, por tanto, u − (−a, a)
es mı́nima) cuando a = 1/2. Ası́ la aproximación óptima de u en S es
p∗ = (−1/2, 1/2)
y
√
u − p∗ = 2/2.
Note que en este caso p∗ también se puede calcular utilizando la proyección de u sobre S, pues la norma
euclidiana proviene del producto punto de vectores. 40 Encontrar todas las aproximaciones óptimas de u en el subespacio S respecto a la norma cúbica
(x, y)∞ = máx {|x| , |y|} .
Solución
Los elementos de S tienen la forma (−a, a) con a ∈ R.
u − (−a, a)∞ = (a, 1 − a)∞
= máx {|a| , |1 − a|} .
Page (PS/TeX): 140 / 374, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 375
SECCIÓN 4.3
f
f = −a
f =a
f = 1−a
f = a−1
1
2
1
2
1
a
Figura 4-36 •
De la figura 4-36 se desprende que
'
máx {|a| , |1 − a|} =
a, si a ≥ 1/2
1 − a, si a < 1/2
y de la misma gráfica se deduce que
mı́n u − (−a, a)∞ = mı́n máx {|a| , |1 − a|}
a∈R
a∈R
se alcanza en a = 1/2. Ası́,
p∗ = (−1/2, 1/2)
es la única aproximación óptima de u en S y
u − (−1/2, 1/2)∞ = 1/2 . 41 Encontrar todas las aproximaciones óptimas de u en el subespacio S respecto a la norma
(x, y)1 = |x| + |y| .
Solución
Los elementos de S tienen la forma (−a, a) con a ∈ R.
u − (−a, a)1 = (a, 1 − a)1
= |a| + |1 − a| .
De la figura 4-36 se desprende que
⎧
⎪
⎨ 2a − 1, si a ≥ 1
1,
si 0 ≤ a < 1
|a| + |1 − a| =
⎪
⎩ 1 − 2a, si a < 0
es decir, para cada a ∈ R se tiene
⎧
⎪
⎨ 2a − 1, si a ≥ 1
1,
si 0 ≤ a < 1
u − (−a, a)1 =
⎪
⎩ 1 − 2a, si a < 0
Page (PS/TeX): 141 / 375, COMPOSITE
376 CAPÍTULO 4
Espacios con producto interior y espacios normados
f
1
a
1
Figura 4-37 •
La figura 4-37 contiene la gráfica de f = u − (−a, a)1 cuando a varı́a en R; de ella se deduce que
mı́n u − (−a, a)1
a∈R
se alcanza en todos los valores a del intervalo [0, 1]. Por tanto, u tiene una infinidad de aproximaciones
óptimas en S; a saber, todos los vectores de la forma
p∗ = a(−1, 1) con a ∈ [0, 1]
y en todos ellos
u − (−a, a)1 = 1.
42 Encontrar las aproximaciones óptimas del vector u = (1, 0, 0) en el plano x − y = 0, relativas a la norma
(x, y, z)1 = |x| + |y| + |z| en R3 .
Solución
Un primer método Este plano es el subespacio S = gn((1, 1, 0), (0, 0, 1)). Siv = r(0, 0, 1) +
s(1, 1, 0) = (s, s, r) ∈ S, entonces
u −v1 = (1, 0, 0) − (s, s, r)1
= |s − 1| + |s| + |r| .
(a) Suponga r ≥ 0:
(i) si s ≥ 1, entonces |s − 1| + |s| + |r| = s − 1 + s + r = 2s − 1 + r;
(ii) si 0 ≤ s < 1, entonces |s − 1| + |s| + |r| = 1 − s + s + r = 1 + r;
(iii) si s < 0, entonces |s − 1| + |s| + |r| = 1 − s − s + r = 1 − 2s + r.
(b) Suponga r < 0:
(i) si s ≥ 1, entonces |s − 1| + |s| + |r| = s − 1 + s − r = 2s − 1 − r;
(ii) si 0 ≤ s < 1, entonces |s − 1| + |s| + |r| = 1 − s + s − r = 1 − r;
(iii) si s < 0, entonces |s − 1| + |s| + |r| = 1 − s − s − r = 1 − 2s − r.
Page (PS/TeX): 142 / 376, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 377
SECCIÓN 4.3
De esta manera, si
ψ(r, s) = u −v1 ,
entonces,
⎧
si r > 0
⎪
⎨ 1,
∂ψ
−1, si r < 0
(r, s) =
⎪
∂r
⎩ 0,
si r = 0
y
⎧
si s > 1
⎪
⎨ 2,
∂ψ
0,
si 0 ≤ s ≤ 1
(r, s) =
⎪
∂s
⎩ −2, si s < 0
Por lo que los puntos crı́ticos de ψ tienen la forma (s, s, 0) con 0 ≤ s ≤ 1. En todos ellos
u −v1 = |s − 1| + |s| + |r| = 1
y si r = 0 y/o s ∈
/ [0, 1], entonces u −v1 = |s − 1| + |s| + |r| > 1; por lo que las aproximaciones óptimas
de u en S están dadas por los vectores
p∗ = s(1, 1, 0) con 0 ≤ s ≤ 1.
Un segundo método Este plano es el subespacio S = gn((1, 1, 0), (0, 0, 1)). Siv = r(0, 0, 1)+s(1, 1, 0) =
(s, s, r) ∈ S, entonces
u −v1 = (1, 0, 0) − (s, s, r)1
= |s − 1| + |s| + |r| .
r
III
r − 2s + 1
II
I
2s + r − 1
r+1
1
s
1
1 − 2s − r
Figura 4-38 •
Page (PS/TeX): 143 / 377, COMPOSITE
1−r
2s − r − 1
378 CAPÍTULO 4
Espacios con producto interior y espacios normados
En la figura 4-38 se ha dividido el plano en zonas sombreadas para evaluar u −v1 = |s − 1| + |s| + |r|.
Por ejemplo, en la zona s ≥ 1 y r > 0, |s − 1| + |s| + |r| = 2s + r − 1; en la zona 0 ≤ s < 1 y r < 0,
|s − 1| + |s| + |r| = r + 1; etc. En realidad, la información dada en esta figura se puede resumir aún más:
(a) En la franja vertical I, s ≥ 1,
u −v1 = |s − 1| + |s| + |r| = 2s − 1 + |r| .
(b) En la franja vertical II, 0 ≤ s ≤ 1,
u −v1 = |s − 1| + |s| + |r| = 1 + |r| .
(c) En la franja vertical III, s ≤ 0,
u −v1 = |s − 1| + |s| + |r| = 1 + 2 |s| + |r| .
En la franja I, dado que s ≥ 1,
1 ≤ 2s − 1 + |r|
para todo (s, r) en esta franja. Y, puesto que 2s − 1 + |r| = 1 cuando s = 1 y r = 0, se tiene
mı́n{2s − 1 + |r| : (s, r) está en la franja I} = 1
y se alcanza en (s, r) = (1, 0).
En la franja III,
u −v1 = |s − 1| + |s| + |r| = 1 + 2 |s| + |r| ≥ 1
para todo (s, r) en esta franja y ya que este valor se alcanza en (0, 0), se tiene que
mı́n{1 + 2 |s| + |r| : (s, r) está en la franja I} = 1
y se alcanza en (0, 0).
En la franja II, puesto que 0 ≤ s ≤ 1,
u −v1 = |s − 1| + |s| + |r| = 1 + |r| ≥ 1
para todo (s, r) en esta franja y ya que este valor se alcanza en todos los puntos de forma (s, 0) con
0 ≤ s ≤ 1, se tiene que
mı́n{1 + |r| : (s, r) está en la franja I} = 1
y este valor se alcanza en los puntos (s, 0) con 0 ≤ s ≤ 1. Ası́, el conjunto de aproximaciones óptimas
para el vector u en el espacio S están dados por los vectores
p∗ = s(1, 1, 0) con 0 ≤ s ≤ 1.
y para todos estos puntos
u − p∗ = 1.
1
Page (PS/TeX): 144 / 378, COMPOSITE
SECCIÓN 4.3
Ejercicios resueltos y ejercicios propuestos 379
43 Encontrar las aproximaciones óptimas del vector u = (1, 0, 0) en el plano x − y = 0, relativas a la norma
(x, y, z)∞ = máx {|x| , |y| , |z|} en R3 .
Solución
Este plano es el subespacio S = gn((1, 1, 0), (0, 0, 1)). Si v = r(0, 0, 1) + s(1, 1, 0) = (s, s, r)
∈ S, entonces
u −v∞ = (1, 0, 0) − (s, s, r)∞
= máx {|s − 1| , |s| , |r|} .
En la figura 4-39 se ha dividido el plano en zonas sombreadas para calcular
u −v∞ = máx {|s − 1| , |s| , |r|} .
(a) En la franja I, puesto que s ≥ 1, |s − 1| = s − 1 y s − 1 < s; por tanto,
(1, 0, 0) − (s, s, r)∞ = máx {s, |r|} .
(b) En la franja II, ya que 1/2 ≤ s ≤ 1, |s − 1| = 1 − s < s; por tanto,
(1, 0, 0) − (s, s, r)∞ = máx {s, |r|} .
(c) En la franja III, dado que 0 ≤ s ≤ 1/2, |s − 1| = 1 − s y 1 − s > s; entonces
(1, 0, 0) − (s, s, r)∞ = máx {1 − s, |r|} .
(d) En la franja IV, ya que s ≤ 0, |s − 1| = 1 − s = 1 + |s| ≥ |s| y, por ende,
(1, 0, 0) − (s, s, r)∞ = máx {1 + |s| , |r|} .
r
III
1/2
Figura 4-39 •
Page (PS/TeX): 145 / 379, COMPOSITE
máx{s, |r|}
I
máx{s, |r|}
1
II
máx{1 − s, |r|}
máx{1 + |s|, |r|}
IV
1
s
380 CAPÍTULO 4
Espacios con producto interior y espacios normados
En todos los puntos (s, r) de las franjas I y II, se tiene
1/2 ≤ máx{s, |r|}
pues s ≥ 1/2; y ya que el punto (1/2, 0) pertenece a la reunión de ambas franjas
mı́n (1, 0, 0) − (s, s, r)∞ = 1/2
y se alcanza el punto (1/2, 0). En los puntos de la franja III, 0 ≤ s ≤ 1/2 y, por tanto, 1/2 ≤ 1 − s ≤ 1;
luego,
1/2 ≤ máx{1 − s, |r|}
para todos los puntos en esta franja y puesto que 1/2 se alcanza en el punto (s, r) = (1/2, 0), se concluye
que
mı́n (1, 0, 0) − (s, s, r)∞ = 1/2.
en esta franja y dicho valor se alcanza en s = 1/2, r = 0. En la franja IV
1 ≤ máx{1 + |s| , |r|}
para todo par (s, r) en esta franja; y puesto que 1 se alcanza en (0, 0), se deduce que
mı́n (1, 0, 0) − (s, s, r)∞ = 1
en esta franja y se alcanza en (s, r) = (0, 0). De lo precedente se deduce que
(1, 0, 0) − (s, s, r)∞
es mı́nima cuando s = 1/2 y r = 0; luego la aproximación óptima para u en el subespacio S está dada
por
p∗ = (1/2, 1/2, 0).
44 Encontrar una aproximación óptima para la función f (x) = x en el subespacio S = gn(1) de C[0, 1]
respecto a la norma
f 4 =
1
0
4
1/4
| f (x)| dx
del ejercicio resuelto 35 (con p = 4).
Solución
Sea a ∈ gn(1), entonces
x − a44
=
1
0
(x − a)4 dx
1
= a4 − 2a3 + 2a2 − a + .
5
Si
1
ϕ(a) = a4 − 2a3 + 2a2 − a + , a ∈ R,
5
Page (PS/TeX): 146 / 380, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 381
SECCIÓN 4.3
ϕ (a) = 4a3 − 6a2 + 4a − 1 = (2a − 1) 2a2 − 2a + 1
entonces
y
ϕ (1/2) = 1 > 0.
Por tanto, ϕ es mı́nima en a = 1/2; luego una aproximación óptima para f (x) = x en S = gn(1) es
p∗ (x) = 1/2 y
1
1/4 1/4
1
4
x − 1/24 =
(x − 1/2) dx
=
80
0
es el valor mı́nimo que alcanza x − a4 cuando a varı́a en R. De lo precedente se desprende que f tiene
sólo una aproximación óptima en S. 45 Encontrar la aproximación óptima de f (x) = e x en el subespacio S = gn(1) de C[0, 1] respecto a la
norma uniforme g∞ .
Solución
De la figura 4-40(i) se desprende que
'
e − a, si a ≤ (e + 1)/2
x
e − a∞ =
a − 1, si a > (e + 1)/2
y de la misma figura (ii) se deduce que
mı́n e x − a∞ = mı́n máx |e x − a|
a∈R
a∈R
se alcanza en a = (1 + e)/2 y tiene un valor de (e − 1)/2. Entonces, la aproximación óptima para
f (x) = e x en el subespacio S está dada por
p∗ =
1+e
2
y
f − p∗ ∞ =
y
e−1
.
2
y
y=e
x
y = ||e x − a||∞
a
e+1
2
1
e−1
2
1
x
e+1
2
a
(i)
Figura 4-40 •
Page (PS/TeX): 147 / 381, COMPOSITE
(ii)
a
382 CAPÍTULO 4
Espacios con producto interior y espacios normados
46 Encontrar las aproximaciones óptimas de f (x) = e x en el subespacio S = gn(1) de C[0, 1] respecto de la
1
norma g1 =
0
Solución
|g(x)| dx.
f − a1 =
0
1
|e x − a| dx =
⎧ 1
⎪
⎪
(e x − a)dx,
⎪
⎪
0
⎪
⎪
⎪
⎨ ln a
(a − e x )dx +
⎪
0
⎪
⎪
⎪
⎪
1
⎪
⎪
⎩
(a − e x )dx,
si a ≤ 1
1
ln a
(e x − a)dx,
0
esto es,
⎧
⎨ e − a − 1,
2a ln a − 3a + 1 + e,
f − a1 =
⎩
a − e + 1,
si 1 < a ≤ e
si a > e
si a ≤ 1
si 1 < a ≤ e
si a > e
Ası́, la función continua a → f − a1 , a ∈ R, es decreciente en el intervalo (−∞, 1) (pues es una lı́nea
recta con pendiente negativa en éste) y creciente en el intervalo (e, ∞) (en éste es una lı́nea recta con
pendiente positiva); entonces, los puntos donde alcanza el mı́nimo son a = 1, a = e o los puntos crı́ticos
de la función ψ(a) = 2a ln a − 3a + 1 + e.
ψ (a) = 2 ln a − 1 = 0 ⇒
a = e1/2 ∈ (1, e);
y ya que
f − 11 = e − 2,
f − e1 = 1,
ψ(e1/2 ) = −2e1/2 + 1 + e
se tiene
mı́n f − a1 = 1 + e − 2e1/2
a∈R
y se alcanza en a = e1/2 . Luego la aproximación óptima de f en S está dada por la función constante
a = e1/2 . 47 Sean C[a, b] el espacio de funciones continuas en el intervalo [a, b], f ∞ la norma uniforme y f =
1/2
b
a
f 2 (x) dx
la norma cuadrado medio; demostrar que la convergencia respecto a la norma cuadra-
do medio no implica la convergencia respecto a la norma uniforme; esto es, si
lı́m fn − f = 0
n→∞
entonces, no necesariamente
lı́m fn − f ∞ = 0
n→∞
en el espacio C[a, b].
Sean n un entero positivo y fn la función continua en [a, b], cuya gráfica está contenida en
la figura 4-41; esto es
Solución
Page (PS/TeX): 148 / 382, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 383
SECCIÓN 4.3
y
fn
1
x
a
a+b
2
− b−a
2n
a+b
2
a+b
2
+ b−a
2n
b
Figura 4-41 •
⎧
2n
a + b n−1
a+b b−a a+b
⎪
⎪
x
+
1
−
2
−
si
x
∈
,
⎪
⎪
⎪
b−a
b−a
2
2n
2
⎪
⎪
⎪
⎨ 2n
a + b n−1
a+b a+b b−a
x+ 1−
2
,
+ n
si x ∈
fn (x) =
⎪
a−b
a−b
2
2
2
⎪
⎪
⎪
⎪
⎪
a+b b−a a+b b−a
⎪
⎪
− n ,
+ n
si x ∈ [a, b] −
⎩ 0
2
2
2
2
Es fácil ver que
a
b
fn2 (x)dx =
1 (b − a)
3 2n−1
para todo n = 1, 2, . . . Por tanto,
lı́m fn − θ = 0,
n→∞
donde la función θ es la función constante cero en el intervalo [a, b]. Sin embargo, es claro que
fn ∞ = 1
para todo n = 1, 2, . . . y, por tanto,
lı́m fn − θ∞ = 1.
n→∞
Es decir, convergencia en promedio cuadrático no implica convergencia uniforme.
4.3.2 Ejercicios propuestos
El lector encontrará la respuesta a los ejercicios en cursiva en el apéndice E al final del libro.
Espacios con producto interior (respuestas en páginas 1080-1082)
En los ejercicios 1 a 4, determinar si (x1 , x2 ), (y1 , y2 ), definido por la fórmula dada, es o no un producto interior en R2 . En caso positivo demostrar rigurosamente que se cumplen las 5 condiciones de la
Page (PS/TeX): 149 / 383, COMPOSITE
384 CAPÍTULO 4
Espacios con producto interior y espacios normados
definición 4.1 (cfr. pág. 236) y en caso negativo mostrar, mediante contraejemplos, las propiedades que
no se satisfacen.
1 (x1 , x2 ), (y1 , y2 ) = x1 y1 − x2 y2 .
12 (x1 , x2 ), (y1 , y2 ) = x1 y2 − x2 y1 .
3 (x1 , x2 ), (y1 , y2 ) = x1 x2 − y1 y2 .
14 (x1 , x2 ), (y1 , y2 ) = 2y1 x1 + y1 x2 + y2 x1 + y2 x2 .
En los ejercicios 5 a 19 probar que la asignación (x,y) → x,y ahı́ definida, donde x = (x1 , . . . , xn ) y
y = (y1 , . . . , yn ), es un producto interior en el espacio Rn indicado.
15 x,y = 2x1 y1 + x2 y1 + x1 y2 + 5x2 y2 en R2 .
16 x,y = 5y1 x1 − 11y1 x2 − 11y2 x1 + 25y2 x2 en R2 .
17 x,y = x1 y1 + 2x2 y1 + 2x1 y2 + 5x2 y2 en R2 .
18 x,y = 5x1 y1 − x2 y1 − x1 y2 + x2 y2 en R2 .
19 x,y = 4x1 y1 − 2x2 y1 − 2x1 y2 + 2x2 y2 en R2 .
10 x,y = 3x1 y1 − 2x2 y1 − 2x1 y2 + 2x2 y2 en R2 .
11 x,y = x1 y1 + 4x2 y2 + x3 y3 en R3 .
12 x,y = x1 y1 + 5x2 y2 + x3 y2 + x2 y3 + x3 y3 en R3 .
13 x,y = 2x1 y1 + x2 y1 + x1 y2 + x2 y2 + x3 y3 en R3 .
14 x,y = x1 y1 + x3 y1 + x2 y2 + x1 y3 + 2x3 y3 en R3 .
15 x,y = 6x1 y1 − x1 y2 − x2 y1 + 6x2 y2 + x2 y3 + x3 y2 + 2x3 y3 en R3 .
16 x,y = 2x1 y1 − x3 y1 + x2 y2 + x3 y2 − x1 y3 + x2 y3 + 2x3 y3 en R3 .
17 x,y = x1 y1 + x2 y2 + 5x3 y3 − x4 y3 − x3 y4 + 2x4 y4 en R4 .
18 x,y = x1 y1 + 5x2 y2 − 3x3 y2 − 3x2 y3 + 2x3 y3 + x4 y4 en R4 .
19 x,y = 2x1 y1 + 2x2 y2 + x3 y3 − x4 y3 − x3 y4 + 2x4 y4 + x5 y5 en R5 .
20 Sean x,y el producto interior dado en el ejercicio 5, · la norma inducida por este producto (i.e.,
x = x,y1/2 ), x = (−1, 2), y = (1, −1) y w = (−1, 3); calcular:
Page (PS/TeX): 150 / 384, COMPOSITE
SECCIÓN 4.3
Ejercicios resueltos y ejercicios propuestos 385
(a) x,w.
(b) w.
(c) d(x,y), la distancia entre x y y con la norma inducida.
21 Sean x,y el producto interior dado en el ejercicio 6, · la norma inducida por este producto (i.e.,
x = x,y1/2 ), x = (−3, 2), y = (−1, 2) y w = (−1, −3); calcular:
(a) x,w.
(b) w.
(c) d(x,y), la distancia entre x y y con la norma inducida.
22 Sean x,y el producto interior dado en el ejercicio 12, · la norma inducida por este producto (i.e.,
x = x,y1/2 ), x = (1, −2, 1), y = (2, −2, −1) y w = (1, 1, −3); calcular:
(a) x,w.
(b) w.
(c) d(x,w), la distancia entre x y w con la norma inducida.
23 Sean x,y el producto interior dado en el ejercicio 19, · la norma inducida por este producto (i.e.,
x = x,y1/2 ), x = (1, −1, 3, −1, 1), y = (2, 1, −1, 0, 1) y w = (1, 0, −3, −1, 2); calcular:
(a) x,w.
(b) w.
(c) d(x,w), la distancia entre x y w con la norma inducida.
En los ejercicios 24 a 29 utilizar el ejercicio resuelto 10 de esta sección para encontrar la representación
matricial del producto interior dado (cfr. ejercicio resuelto 11).
24 Del producto interior del ejercicio propuesto 5.
25 Del producto interior del ejercicio propuesto 6.
26 Del producto interior del ejercicio propuesto 8.
27 Del producto interior del ejercicio propuesto 12.
28 Del producto interior del ejercicio propuesto 14.
29 Del producto interior del ejercicio propuesto 16.
30 Sea A una matriz simétrica de orden n.
(a) Se define x,y =x t Ay, para cadax,y ∈ Rn . Probar que x,y satisface las primeras tres condiciones
de la definición 4.1 de producto interior.
(b) Dar un ejemplo de una matriz cuadrada simétrica de orden n = 2 que no cumpla con las últimas
dos condiciones de la definición 4.1 de la página 236.
Page (PS/TeX): 151 / 385, COMPOSITE
386 CAPÍTULO 4
Espacios con producto interior y espacios normados
(c) La matriz A se define positiva si x t Ax > 0 para todo x ∈ Rn − {0Rn }. Dar un ejemplo de una matriz
simétrica A de orden n = 2 que sea definida positiva.
(d) Probar que si A es una matriz simétrica definida positiva, entonces x,y = x t Ay es un producto
interior en Rn .
31 Sea A una matriz simétrica de orden n = 2, A =
a b
b d
.
(a) Si a > 0, probar que A es definida positiva (cfr. ejercicio precedente) si y sólo si ad − b2 > 0.
(b) Si a < 0, mostrar que A no es definida positiva.
En los ejercicios 32 a 37, x = (x1 , . . . , xn ) y y = (y1 , . . . , yn ); determinar si x,y, definido por la fórmula
dada, es o no un producto interior. En caso afirmativo, demostrar rigurosamente que se cumplen las 5
condiciones de la definición 4.1, y en caso negativo mostrar, mediante contraejemplos, las propiedades
que no se satisfacen.
32 x,y = ∑ni=1 xi |yi |.
33 x,y = ∑ni=1 xi2 y2i
1/2
.
34 x,y = ∑ni=1 |xi yi |.
35 x,y = ∑ni=1 xi ∑ni=1 yi .
36 x,y = ∑ni=1 (xi + yi )2 − ∑ni=1 xi2 − ∑ni=1 y2i .
37 x,y = |∑ni=1 xi yi |.
En los ejercicios 38 a 59 (x1 , . . . , xn ), (y1 , . . . , yn ) = ∑ni=1 xi yi es el producto interior canónico en los
espacios Rn ; u = (−1, −1, 2), v = (−1, 2, 1), w = (−1, −1, 1); u1 = (2, −1, 1, 1), v1 = (−1, 0, 1, 0), w1 =
(1, −2, 1, 0) yz1 = (1, −2, 1, 0)
38 Calcular u,v.
39 Hallar u, v − w.
40 Encontrar 2
w −v, 3u − 2v.
41 Calcular w.
42 Hallar d(u,
w).
43 Estimar el ángulo entre u y v.
44 Hallar el vector proyección de u sobre el vector w.
45 Encontrar el vector proyección del vector u sobre el subespacio S = gn(v,
w).
46 Hallar la matriz de proyección para el subespacio S = gn(u,
w).
Page (PS/TeX): 152 / 386, COMPOSITE
SECCIÓN 4.3
Ejercicios resueltos y ejercicios propuestos 387
47 Encontrar la proyección del vector v sobre el subespacio S = gn(u,
w).
48 Hallar la proyección del vector u sobre el plano x1 − 2x2 + x3 = 0.
49 Encontrar la proyección del vector v sobre el plano 2x1 − x2 + 3x3 = 0.
50 Calcular w1 ,v1 .
51 Hallar 3z1 ,v1 −u1 .
52 Encontrar 2
w1 − 3v1 ,u1 − 2z1 .
53 Calcular z1 .
54 Hallar d(z1 ,
w1 ).
55 Estimar el ángulo entre u1 y w1 .
56 Hallar el vector proyección de v1 sobre el vector w1 .
57 Encontrar el vector proyección para el subespacio S = gn(v1 ,
w1 ).
58 Hallar la matriz de proyección para el subespacio S = gn(u1 ,
w1 ,z1 ).
59 Encontrar la proyección del vector v1 sobre el subespacio S = gn(u1 ,
w1 ,z1 ).
En los ejercicios 60 a 72 f , g =
b
a
f (x)g(x)dx es el producto interior en el espacio C[−1, 1] (cfr.
ejemplo 4.3, pág. 237) y · es la norma inducida correspondiente a este producto. Encontrar el valor
indicado.
60 1, x.
61 x, 1 + x.
62 x, e x .
63 x.
64 e x .
65 1 + x.
66 d(x, x2 ).
67 d(x, e x ).
68 El ángulo entre f (x) = 1 y g(x) = x.
Page (PS/TeX): 153 / 387, COMPOSITE
388 CAPÍTULO 4
Espacios con producto interior y espacios normados
69 El ángulo entre f (x) = x y g(x) = e x .
70 La proyección de f (x) = e x sobre la función g(x) = x.
71 La proyección de f (x) = x sobre g(x) = 1.
72 La proyección de f (x) = e x sobre el subespacio S = gn(1, x).
En los ejercicios 73 a 82 A, B = tra(B t A) es el producto interior en el espacio de matrices (cfr. ejemplos
4.6 y 4.8, págs. 240 y 242) y · es la norma inducida correspondiente a este producto. Encontrar el valor
indicado.
73
1 −1
1
2
2
74 0
75
−1
1
,
.
.
1
,
0
2 −1 1
1 −1 1
1
76 2
1 0
−1 1
0
1
2 −3
−1 1
1 1
.
.
77 El ángulo entre A =
78 El ángulo entre A =
1 1
0 1
1
0
79 La proyección de A =
80 La proyección de A =
81 La proyección de A =
yB=
0 1
−1 1
−1 1
1 1
yB=
−1
1
1
1
−1 2
1 0
3
1
−2
1
sobre B =
sobre B =
82 La proyección de A =
.
.
−1 4 1
0 1 0
.
sobre el subespacio
−1 1
−1 2
S = gn
1 0
1 1
0 1
,
.
1 1
sobre el subespacio
Page (PS/TeX): 154 / 388, COMPOSITE
2
1
−1 0
0 3
1 −1
1
1
S = gn
.
2
−1
2
1
−1 0 1
0 1 0
0
,
1
−1 1
−1 2
.
SECCIÓN 4.3
Ejercicios resueltos y ejercicios propuestos 389
En los ejercicios 83 a 94 (an ), (bn ) = ∑∞n=1 an bn es el producto interior en el espacio 2 de sucesiones
de cuadrado sumable (cfr. ejemplo 4.9, pág. 243) y · es la norma inducida correspondiente a este
producto. Probar que las sucesiones dadas pertenecen a 2 y encontrar los valores indicados.
83 A =
84 A =
85 A =
1
n+1
,B=
1
2n+1
,B=
1
n+2
; A, B.
1
2n−1
; A, B.
1 1
2n , n! ; A, B.
2
1
86 A = (− π16 )n , B = ( (2n)!
) ; A, B
87 A =
1
,B=
5n
− √13
n
; A, B, A, B y el ángulo entre A y B.
88 A = (− √1 )n ; A.
5
89 A =
90 A =
1
3n+1
1
4n+3
,B=
,B=
1
3n−2
1
4n−1
; A, B; A, B y el ángulo entre A y B.
; A, B; A, B y el ángulo entre A y B.
91 A = 2n 5−n+2 , B = 3n−2 4n−3 ; A, B, A, B y el ángulo entre A y B.
92 A =
93 A =
1
, B = (− 14 )n ; la proyección de A sobre B.
3n
1
2n
,B=
2
3n
, C = (− 51 )n ; la proyección de C sobre gn(A, B).
94 A = (− √1 )n , B =
2
√1
3
n
1
,C=
3n
; la proyección de C sobre gn(A, B).
95 (Complemento ortogonal de un subespacio). Sea E un espacio con producto interior ·, · y S un
subespacio de E. Probar que
S⊥ = {u ∈ E |u ⊥v
∀v ∈ S}
es un subespacio de E (el llamado complemento ortogonal se S).
En los ejercicios 96 a 101 se hace referencia al complemento ortogonal definido en el ejercicio precedente.
96 Probar que S ⊂ (S⊥ )⊥ .
97 Dar un ejemplo en el que (S⊥ )⊥ = S.
98 Probar que L (S) ⊂ (S⊥ )⊥ .
99 Probar que si E tiene dimensión finita, entonces (S⊥ )⊥ = S.
Page (PS/TeX): 155 / 389, COMPOSITE
390 CAPÍTULO 4
Espacios con producto interior y espacios normados
100 Sean S1 y S2 un par de subespacios en un espacio con producto interior. Probar que:
(a) (S1 + S2 )⊥ = S1⊥ ∩ S2⊥ .
(b) (S1 ∩ S2 )⊥ = S1⊥ + S2⊥ .
101 Probar que si S < E y E tiene dimensión finita, entonces
E = S ⊕ S⊥
(cfr. ejercicio resuelto 27 del capı́tulo 3, pág. 187).
En los ejercicios 102 a 109 los espacios a los que se hace referencia están dotados de los productos interiores usuales como se han definido en este texto (ejemplos 4.2, 4.3, 4.6 y 4.8). En cada caso encontrar
S⊥ , el complemento ortogonal del subespacio indicado S (cfr. ejercicio 95).
102 S = gn((−1, 2, 1), (2, −2, 1)) en R3 .
103 S = gn((1, 0, 1), (−2, 1, 1)) en R3 .
104 S = gn((−2, 1, 1, 1), (−3, 2, 1, 1), (2, 2, −2, 3)) en R4 .
105 S = gn((1, −3, 2, 1), (2, −3, 4, −5), (−1, −4, 1, 1)) en R4 .
106 S = gn
107 S = gn
−1 1
0 1
2 1
−3 1
,
,
2
−2
−3
4
1 2
−1 3
en M2 .
en M2 .
108 En P1 con el producto interior f , g =
109 En P2 con el producto interior f , g =
1
0
1
0
f (x)g(x)dx, S = gn(1).
f (x)g(x)dx, S = gn(1, x).
110 Sean C[−1, 1] el espacio de funciones continuas dotado del producto interior usual
f , g =
1
−1
f (x)g(x)dx,
SP y SI los subespacios de funciones pares e impares, respectivamente, probar que SP⊥ = SI (cfr. ejercicio
95).
111 ¿Es cierta la conclusión del ejercicio anterior si se trabaja en el espacio C[0, 1]? ¿Cómo deben ser a, b
para que la conclusión del ejercicio precedente sea válida en C[a, b] con el producto interior
f , g =
a
b
f (x)g(x)dx?
112 Sean u y v un par de vectores en un espacio con producto interior ·, ·.
Page (PS/TeX): 156 / 390, COMPOSITE
SECCIÓN 4.3
Ejercicios resueltos y ejercicios propuestos 391
(a) Si u ⊥v, calcular 3u − 2v, 2u +v.
(b) Si u = 2 y v = 7, calcular u − 4v,u + 4v.
113 Sea E un espacio con producto interior ·, ·. Demostrar el recı́proco del teorema de Pitágoras; i.e., si
u,v ∈ E y
u +v2 = u2 + v2 ,
entonces u ⊥v.
114 Probar que en cualquier espacio con producto interior:
(a) u −v ≤ u + v.
(b) |u − v| ≤ u −v.
Para todo par de vectores u,v ∈ E.
115 Probar que en un espacio con producto interior los vectores uv+vu y uv−vu son ortogonales.
En los ejercicios 116 a 119 E es un espacio con producto interior y u y v son un par de vectores en él.
Probar la afirmación dada.
116 u ⊥v ⇔ u +v = u −v.
117 u +v ⊥ u −v ⇔ u = v.
118 u ⊥v ⇒ u + αv ≥ u para todo α ∈ R.
119 Si u,v = 0E , entonces
u −v2 = u2 + v2 − 2 u v cos θ.
120 Sea E un espacio vectorial y ·, ·1 , ·, ·2 un par de productos interiores en él. Se define, u,v = u,v1 +
u,v2 . ¿Es u,v un producto interior en E?
En los ejercicios 121 a 145 los espacios considerados están dotados de los productos interiores usuales
definidos en los ejemplos 4.2, 4.3, 4.6, 4.8 y 4.9 de este texto; encontrar una base ortonormal para el
subespacio generado por el conjunto L.I. dado o para el subespacio indicado utilizando el proceso de
ortogonalización de Gram-Schmidt (cfr. teorema 4.12, pág. 275).
121 {(−1, 1), (1, 2)} en R2 .
122 {(2, 2), (1, −1)} en R2 .
123 {(0, 2), (3, 1)} en R2 .
124 {(1, 1), (0, 1)} en R2 .
Page (PS/TeX): 157 / 391, COMPOSITE
392 CAPÍTULO 4
Espacios con producto interior y espacios normados
125 {(3, 1, 1), (−1, 2, 2)} en R3 .
126 {(0, 1, 1), (1, 2, −1)} en R3 .
127 {(−1, 1, 0), (2, −1, 2), (1, 1, 1)} en R3 .
128 {(2, 1, −1), (1, −1, 1), (−1, 1, 1)} en R3 .
129 {(−1, 1, 0), (2, −1, 1), (1, 1, 1)} en R3 .
130 {(3, 1, −3), (1, −1, 2), (−1, 1, −1)} en R3 .
131 {(1, 0, 1, 0), (1, 1, 1, 0), (1, −1, 0, 1)} en R4 .
132 {(1, −1, 1, 0, 0), (−1, 0, 0, 0, 1), (0, 0, 1, 0, 1), (1, 0, 0, 1, 1)} en R5 .
133 {sen x, cos x} en C[0, π].
134 {1, x, x2 } en C[−1, 1].
135 {1, x, x2 } en C[0, 1].
136 {1, e x } en C[−1, 1].
'
137
'
138
'
139
−1 1
1 0
2 1
1 0
:
2 −1
,
en M2 .
1
1
,
1 1 1
0 1 0
1 3
−1 1
,
1
−1
−1
,
0
0
1
1
0
0
1
:
en M2 .
:
1 0 0
,
en M2×3 .
1 0 1
140 El plano x − 2y + z = 0 en R3 .
141 El espacio solución del sistema
x−y+z−w = 0
2x + y − 4z + 2w = 0
3x − y + 4z + w = 0
en R4 .
142 El espacio nulo de la matriz
⎡
1
⎢ −1
⎢
⎣ 2
1
en R4 .
Page (PS/TeX): 158 / 392, COMPOSITE
−1
2
2 −2
−1
0
1 −2
⎤
1
3 ⎥
⎥
0 ⎦
3
SECCIÓN 4.3
Ejercicios resueltos y ejercicios propuestos 393
143 El espacio nulo de la matriz
⎤
−1 1
3
⎣ 2 1 −5 ⎦
−1 4
4
⎡
en R3 .
' :
1
1
, n
en 2 .
144
2n
3
' :
1
1
1
, n , n
en 2 .
145
2n
3
4
En los ejercicios 146 a 159 f , g =
1
−1
f (x)g(x)dx es el producto interior usual en el espacio C[−1, 1],
· la norma inducida correspondiente, f (x) = 1, g(x) = x, h(x) = 1 + x y r(x) = x2 .
146 Calcular f , g.
147 Hallar 1, h.
148 Calcular g, r.
149 Encontrar g.
150 Calcular h.
151 Hallar r
152 Hallar el ángulo entre f y g.
153 Calcular el ángulo entre f y h.
154 Hallar el ángulo entre g y h.
155 Encontrar la proyección de r sobre f .
156 Encontrar la proyección de g sobre r.
157 Hallar la proyección de r sobre el subespacio S = gn(1, x).
158 Encontrar todos los vectores en S = gn(1, x) que son ortogonales a f .
159 Hallar una base ortonormal para el espacio S = gn(1, x, x2 ).
En los ejercicios 160 a 167 f , g es el producto interior definido en el ejercicio resuelto 4 de esta
sección.
160 Si fn (x) = x n , n = 0, 1, 2, . . . , probar que fm , fn = (m + n)!
161 Si f (x) = (1 + x)2 y g(x) = x2 + 1, calcular f , g.
Page (PS/TeX): 159 / 393, COMPOSITE
394 CAPÍTULO 4
Espacios con producto interior y espacios normados
162 Encontrar todos los polinomios en gn(1, x) que son ortogonales a f (x) = 1 + x.
163 Hallar el ángulo entre f (x) = x y g(x) = x2 .
164 Encontrar la proyección de f (x) = x sobre g(x) = x2 .
165 Encontrar la proyección de g(x) = x2 sobre el subespacio S = gn(1, x).
166 Hallar una base ortonormal para el subespacio S = gn(1, x).
167 Encontrar una base ortonormal para el subespacio S = gn(1, x, x2 ).
168 Sea C[1, e] el espacio de funciones continuas en [1, e], se define
e
f , g =
1
f (x)g(x) ln(x)dx
para cada f , g ∈ C[1, e]. Probar que f , g es un producto interior en C[1, e].
En los ejercicios 169 a 179 f , g =
1
e
f (x)g(x) ln(x)dx es el producto interior definido en el ejercicio
precedente en el espacio C[1, e], · la norma inducida por este producto, f (x) = 1, g(x) = x, h(x) = x2
√
y r(x) = x.
169 Calcular f , g.
170 Hallar 1, h.
171 Calcular g, r.
172 Encontrar g.
173 Calcular h.
174 Hallar r
175 Encontrar la proyección de r sobre f .
176 Encontrar la proyección de g sobre r.
177 Hallar la proyección de r sobre el subespacio S = gn(1, x).
178 Encontrar todos los vectores en S = gn(1, x) que son ortogonales a f .
179 Hallar una base ortonormal para el espacio S = gn(1, x, x2 ).
180 En el espacio de polinomios de grado a lo más n, Pn , se define, para cada par de polinomios f y g,
k
k
f , g = ∑ f
g
.
n
n
k=0
n
Probar que f , g es un producto interior en Pn .
Page (PS/TeX): 160 / 394, COMPOSITE
SECCIÓN 4.3
Ejercicios resueltos y ejercicios propuestos 395
k
k
g
es el producto interior en el espacio Pn dado en
En los ejercicios 181 a 186 f , g = ∑ f
n
n
k=0
el ejercicio anterior y · la norma inducida por este producto.
n
181 Calcular f , g si f (x) = x y g(x) = a0 + a1 x.
182 Calcular g(x) si g(x) = 1.
183 Calcular f si f (x) = x.
184 Encontrar el ángulo entre f (x) = 1 y g(x) = x.
185 Encontrar todos los polinomios de grado a lo más uno que son ortogonales a f (x) = x.
186 Encontrar una base ortonormal para el subespacio S = gn(1, x).
En los ejercicios 187 a 189 E es el conjunto de todas las funciones continuas f : [0, ∞) → R tales que
∞
0
[ f (x)]2 e−x dx
converge.
187 Probar que
0
converge absolutamente (i.e.,
0
∞
∞
f (x)g(x)e−x dx
| f (x)g(x)| e−x dx converge) para todo par de funciones f , g ∈ E.
188 Mostrar que E, con la suma de funciones y producto de un escalar por una función usuales, es un espacio
vectorial.
189 Probar que f , g =
0
∞
f (x)g(x)e−x dx define un producto interior en el espacio vectorial E.
En los ejercicios 190 a 210 f , g =
0
∞
f (x)g(x)e−x dx es el producto interior en el espacio E definido
en los ejercicios 187 a 189 y · es la norma inducida por este producto.
190 Probar que toda función de la forma fn (x) = x n , n = 0, 1, 2, . . . , pertenece a E.
191 ¿La función f (x) = e x pertenece a E?
192 Probar que f (x) = e−x pertenece a E.
193 Encontrar 1, x.
194 Calcular 1.
195 Hallar x.
Page (PS/TeX): 161 / 395, COMPOSITE
396 CAPÍTULO 4
Espacios con producto interior y espacios normados
196 Hallar la proyección de f (x) = x sobre g(x) = 1.
197 Hallar una base ortonormal para el subespacio S = gn(1, x).
198 Encontrar una base ortonormal para el subespacio S = gn(1, x, x2 ).
199 Si f (x) = x n , n = 0, 1, . . . , y g(x) = e−x , calcular f , g.
200 Encontrar el ángulo entre f (x) = 1 y g(x) = e−x .
201 Calcular e−x .
202 Encontrar la proyección de f (x) = e−x sobre g(x) = 1.
203 Encontrar la proyección de f (x) = e−x sobre S = gn(1, x).
204 Probar que f (x) = cos x y g(x) = sen(x) pertenecen a E.
205 Calcular cos x, e−x y sen x, e−x .
206 Hallar cos x .
207 Calcular sen x.
208 Encontrar la proyección de f (x) = e−x sobre g(x) = cos x.
209 Hallar una base ortonormal para el subespacio S = gn(cos x, sen x).
210 Encontrar la proyección de f (x) = e−x sobre S = gn(cos x, sen x).
En los ejercicios 211 a 214: (i) probar que las columnas de la matriz A son L.I. (ii) Encontrar una
factorización QR para la matriz A; i.e., una matriz Q cuyas columnas son ortonormales y una matriz R
que es triangular superior e invertible tales que A = QR (cfr. teorema 4.13, pág. 279).
⎤
1
2
1
⎢ 2 −1
0 ⎥
⎥.
211 A = ⎢
⎣ −1
3
1 ⎦
1
2 −1
⎡
⎤
1 1 −1
1 ⎦.
212 A = ⎣ 0 1
1 1
0
⎡
⎡
1
⎢ 0
213 A = ⎢
⎣ 1
−1
⎤
1 −1
1
0 ⎥
⎥.
0
1 ⎦
1
0
Page (PS/TeX): 162 / 396, COMPOSITE
SECCIÓN 4.3
Ejercicios resueltos y ejercicios propuestos 397
⎤
0 1
−1 1 ⎦.
0 0
⎡
1
214 A = ⎣ 2
1
En los ejercicios 215 a 221, determinar si la matriz dada es o no ortogonal (cfr. teorema 4.14, pág. 282).
215
√1
2
216
√1
5
217
⎡
⎢
218 ⎣
1
2
1
−1
1
3
2
3
2
3
2
3
1
3
− 23
⎡
−3
220 15 ⎣ 4
0
0
⎢
⎢ 0 1
221 ⎢
⎢
⎣
2
3
2
3
.
.
2
3
− 23
1
3
⎤
⎥
⎦.
⎤
1
1
1
1 −1 −1 ⎥
⎥.
−1
1 −1 ⎦
−1 −1
1
1
⎢
1
219 12 ⎢
⎣ 1
1
1
3
.
2
−1
1
1
⎡
⎡
1 1
−1 1
0
0
⎤
0 4
0 3 ⎦.
−5 0
2
3
0
1
3
− 23
⎤
2
3
⎥
0 ⎥
⎥.
− 23 ⎥
⎦
1
3
En los ejercicios 222 a 228, A ∈ Mn es un matriz ortogonal y x,y ∈ Rn .
222 Probar que Ax · Ay =x ·y.
223 Mostrar que Ax = x.
224 Demostrar que el ángulo entre Ax y Ay es el mismo que entre x y y.
225 Probar que Ax = A−1x.
226 Demostrar que A2 también es una matriz ortogonal.
227 Probar que det(A) = ±1.
228 Si C ∈ Mn es tal que D = A−1CA es una matriz diagonal, mostrar que C es simétrica.
Page (PS/TeX): 163 / 397, COMPOSITE
398 CAPÍTULO 4
Espacios con producto interior y espacios normados
229 Dar un ejemplo de una matriz A tal que det(A) = 1, pero A no es ortogonal.
230 Probar que si A es una matriz cuadrada de orden n y Ax · Ay = x ·y para todo par de vectores x,y ∈ Rn ,
entonces A es una matriz ortogonal.
231 Si A es una matriz cuadrada de orden n tal que Ax = x para todo x ∈ Rn , demostrar que A es una
matriz ortogonal.
232 Probar que si A es una matriz cuadrada de orden n que es ortogonal y {u1 , . . . ,un } es una base ortonormal
de Rn , entonces {Au1 , . . . , Aun } es también una base ortonormal de este espacio.
En los ejercicios 233 a 241, E y f , g =
0
∞
2
f (x)g(x)e−x dx son el espacio y el producto interior de los
ejercicios resueltos 13 y 14 y · es la norma inducida por este producto escalar.
233 Calcular cos x.
234 Probar que si f (x) = sen x, entonces f ∈ E y calcular f .
235 Probar que si f (x) = cos x, entonces f ∈ E y calcular f .
236 Calcular x, sen x.
237 Si f (x) = x n , mostrar que f ∈ E para todo n = 0, 1, . . .
238 Mostrar que todo polinomio pertenece a E.
6
7
239 Calcular x2 , cos x .
240 Hallar la aproximación óptima de f (x) = cos x en el subespacio S = gn(1, x2 ).
241 Hallar la aproximación óptima de f (x) = sen x en el subespacio S = gn(x, x3 ).
En los ejercicios 242 a 255, encontrar la aproximación óptima ( p∗ ) del elemento u en el subespacio S
del espacio E, con el producto interior ·, · indicado (cfr. apartado 4.1.5, pág. 283).
242 E =R3 , x,y =x ·y, S = gn((−1, 1, 2), (−2, 1, 1)), u = (1, 1, 1).
243 E =R3 , x,y =x ·y, S = gn((0, 1, 1), (−1, 1, −1)), u = (1, 0, 1).
244 E =R4 , x,y =x ·y, S = gn((1, 1, 2, 1), (−1, 1, 1, 0), (2, −1, 1, 3)), u = (1, −2, 4, 1).
245 E =R4 , x,y =x ·y, S = gn((1, 0, 1, 1), (1, −1, −1, 0), (1, 1, 1, 1)), u = (0, −1, 2, −1).
246 E = C[1, 3], f , g =
247 E = C[0, 1], f , g =
Page (PS/TeX): 164 / 398, COMPOSITE
3
1
1
0
f (x)g(x)dx, S = gn(1), u = f ; donde f (x) = 1/x.
f (x)g(x)dx, S = gn(1, x), u = f ; donde f (x) =
1
x−2 .
Ejercicios resueltos y ejercicios propuestos 399
SECCIÓN 4.3
248 E = C[0, 1], f , g =
249 E = C[0, 1], f , g =
250 E = C[0, 2], f , g =
1
f (x)g(x)dx, S = gn(1, x), u = f ; donde f (x) = e−x .
0
1
f (x)g(x)dx, S = gn(1, x, x2 ), u = f ; donde f (x) = e−x .
0
2
f (x)g(x)dx, S = gn(1), u = f ; donde f (x) = e x .
0
251 E = C[−1, 1], f , g =
252 E = C[0, 2π], f , g =
1
−1
2π
0
f (x)g(x)dx, S = gn(1, x), u = f ; donde f (x) = e x .
f (x)g(x)dx, S = gn(1, cos x, sen x), u = f ; donde f (x) = x.
253 E es el espacio del ejercicio 187, f , g =
∞
0
f (x)g(x)e−x dx, S = gn(1, x), u = f ; donde f (x) = e−x .
254 E es el espacio del ejercicio resuelto 4, f , g =
∞
f (x)g(x)e−x dx, S = gn(1, x), u = f ; donde f (x) = x2 .
0
√
n
n
255 E = 2 , f , g = ∑∞
u = ((1/ 2)n ).
n=0 an bn , S = gn((1/2 ), ((1/3 )), En los ejercicios 256 a 263, ajustar por mı́nimos cuadrados el conjunto de datos (xi , yi ) a un polinomio
del grado n indicado.
256
257
258
259
260
261
262
xi
0
1
2
3
4
yi
−1.98
1.01
3.98
6.95
10.01
xi
−1
−2
0
3
4
yi
3.97
5.02
3.01
0
−1.02
; n = 1.
xi
−1
2
3
5
7
yi
−0.97
5.01
6.98
11.03
14.99
xi
−3
2
1
2
4
yi
11.04
0.96
3.01
1.01
−3.02
xi
0
1
2
3
yi
1.02
3.99
8.97
16.01
xi
−1
0
1
2
yi
−1.02
1.97
3.02
1.98
xi
0
1
2
3
yi
0.02
−.01
2.03
6.01
Page (PS/TeX): 165 / 399, COMPOSITE
; n = 2.
; n = 2.
; n = 2.
; n = 1.
; n = 1.
; n = 1.
400 CAPÍTULO 4
263
Espacios con producto interior y espacios normados
xi
1
2
3
4
yi
1.02
6.95
16.97
31
; n = 2.
264 En el laboratorio de electricidad los estudiantes de la materia de circuitos eléctricos intentan encontrar
una relación entre la variación de una resistencia con su temperatura. Han realizado las mediciones que
se resumen en la siguiente tabla:
T ◦C
R (omhs)
20.22
765
32.65
826
52
872
73.3
941
95.6
1,032.3
(a) Graficar los datos de esta tabla para conjeturar que la relación entre la resistencia y la temperatura
es lineal; i.e., R = mT + b y ajustar estos datos por mı́nimos cuadrados para determinar m y b.
(b) Estimar la resistencia que corresponde a una temperatura de 90 ◦ C.
(c) ¿Cuáles son las dimensiones de m y b?
265 La siguiente tabla contiene información respecto al número de pobladores, p, en diversos meses t, de
cierta clase de roedores que se reproducen rápidamente en condiciones de laboratorio:
ti
0
1
2
3
4
5
6
8
10
pi
2
3
5
7
10
15
20
40
109
(a) Graficar estos datos para conjeturar que la relación entre p y t es exponencial; i.e.,
p = rest .
(b) Poner zi = ln pi = ln r + sti y añadir esta nueva fila a la tabla precedente.
(c) Hacer un ajuste lineal por mı́nimos cuadrados a los datos (ti , zi ) para calcular r y s.
(d) Estimar la población en el mes 12.
Espacios vectoriales normados (respuestas en páginas 1082-1084)
En los ejercicios 266 a 275 se consideran un espacio Rn o un espacio Mm×n provistos de las normas
·∞ o ·1 tratados en los ejemplos 4.40, 4.41, 4.42, 4.43, 4.44 (cfr. págs. 303 a 306) y d(·, ·) la correspondiente distancia definida por cada norma, calcular:
266 (−1, 2, 1, −2)∞ en (R4 , ·∞ ).
√
267 λu∞ , si u = (−1, 2, 1, 4, 2) y λ = − 2, en (R5 , ·∞ ).
268 d(u, v) , si u = (2, −3, 2, −5, 1) y v = (−1, 5, 2, −3, 0), en (R5 , ·1 ).
Page (PS/TeX): 166 / 400, COMPOSITE
SECCIÓN 4.3
Ejercicios resueltos y ejercicios propuestos 401
269 (−1, 2, 1, 4, 2)1 en (R5 , ·1 ).
270 d((−2, 3, −3, 4, −2), (−1, −1, 2, −3 − 5)) en (R5 , ·1 ).
−1
2 en (M2 , · ).
271 ∞
−7 −4 ∞
⎡
⎤
−1
2 3 4 ⎣
3 2 5 ⎦
272 en (M3×4 , ·∞ ).
−1
−5 −7 6 2 ∞
⎡
⎤
−3 −1
2
3 ⎣ 2
3
6 −4 ⎦
273 en (M3×4 , ·1 ).
−4
5 −8
3 1
274 d(A, B) en (M2×3 , ·∞ ) si A =
−1
2 3
2 −3 5
yB=
0 −3
6
3
4
−5
.
275 d(A, B) en (M3×4 , ·1 ) si
⎤
⎤
⎡
1 −1
1 −1
1 −2
0 −1
1 ⎦.
2 −2 ⎦ y B = ⎣ 0 −2 −3
A = ⎣ 0 −1
2 −3
1
1
−1
2 −2
3
⎡
En los ejercicios 276 a 288, ·∞ es la norma uniforme en el espacio indicado C[a, b]; esto es,
f ∞ = máx | f (x)| para cada f ∈ C[a, b] (cfr. ejemplo 4.47, pág. 308). Calcular f ∞ para cada función
a≤x≤b
f en el espacio dado C[a, b].
276 f (x) = x2 − 2x − 8 en C[−1, 4].
277 f (x) = 4 − 4x − x2 en C[−4, 4].
278 f (x) = 3x − x3 en C[−2, 2].
√ √
279 f (x) = x4 − 2x2 en C[− 2,
2].
280 f (x) = x2/3 + 1 en C[0, 8].
281 f (x) = x − x2 en C[−4, 2].
282 f (x) =
√
x2 + 4 en C[−2, 1].
283 f (x) = (x − 1)1/3 + 12 (x + 1)2/3 en C[−3, 7].
284 f (x) = 2 − e x + 2x en C[0, 1].
285 f (x) = 1 + e− cos(x−1) en C[0, 2].
286 f (x) = ∑ni=1 (x − i)2 en C[1, n].
Page (PS/TeX): 167 / 401, COMPOSITE
402 CAPÍTULO 4
Espacios con producto interior y espacios normados
287 f (x) = ∑ni=1 |x − i| en C[0, 1].
288 f (x) =
x+1
en C[−2, 4].
x2 + 1
En los ejercicios 289 a 298, f 1 =
a
b
| f (x)| dx es la norma del ejemplo 4.46 (pág. 306) en el espacio
C[a, b] dado y d(·, ·) es la distancia definida por esta norma. Calcular:
289 f 1 si f (x) = x2 − 2x + 2 en C[0, 5].
290 f 1 si f (x) = ln x en C[1/2, 2].
291 f 1 si f (x) = cos 2x si C[0, 2π].
292 d( f , g) si f (x) =
√
x y g(x) = x2 en C[0, 1].
293 d( f , g) si f (x) = 5x2 − 6x y g(x) = x3 en C[−1, 4].
294 d( f , g) si f (x) = 2x − x2 y g(x) = x3 en C[−2, 2].
295 d( f , g) si f (x) = e x y g(x) = 1 en C[−1, 1].
296 d( f , g) si f (x) = cos x y g(x) = sen x en C[0, π/2].
297 f 1 si f (x) = x3 − x en C[−2, 1].
298 f 1 si f (x) = tan x en C[− π4 , π4 ].
299 Sea C0 el conjunto de sucesiones reales (an ) tales que lı́mn→∞ an = 0.
(a) Probar que C0 < R∞ y, por tanto, un espacio vectorial con las operaciones usuales de suma de
sucesiones y producto de un escalar con una sucesión.
(b) Mostrar que para toda sucesión (an ) ∈ C0 existe n0 tal que |an | ≤ an0 ∀n ∈ N.
300 Sea C0 el espacio vectorial del ejercicio precedente. Si A = (an ) es cualquier sucesión en él, se define
A = máxn∈N |an |. Probar que A es una norma en C0 .
En los ejercicios 301 a 310, C0 es el espacio vectorial del ejercicio anterior provisto de la norma ahı́ definida:
C0 = {(an ) ∈ R∞ | lı́m an = 0},
n→∞
(an ) = máx |an |.
n∈N
Mostrar que la sucesión (an ) pertenece a C0 y calcular (an ) si:
301 an =
1
.
n
Page (PS/TeX): 168 / 402, COMPOSITE
SECCIÓN 4.3
302 an =
Ejercicios resueltos y ejercicios propuestos 403
1
.
n+2
303 an = e1/n − 1.
304 an =
n−1
.
e(n−1)2
305 an =
1
.
n2
π
sen (2n − 1)
2 .
306 an =
n
307 an =
ln n
.
n
308 an =
n−1
.
n2 + 1
309 an =
2n−1
.
(n − 1)!
310 an =
1 − cos n
.
n
311 Sean · y · un par de normas sobre un mismo espacio vectorial E, mostrar que u = u + u
es también una norma en E.
312 Sea n un número entero positivo y Cn [a, b] el conjunto de funciones f : [a, b] → R tales que f tiene
derivada hasta el orden n con continuidad en el intervalo [a, b] (la derivabilidad y continuidad en los
extremos se considera por la derecha y por la izquierda, respectivamente). Se representa, para cada
k = 1, . . . , n, la k-ésima derivada de f por el sı́mbolo f (k) y f (0) denota la función f .
(a) Probar que Cn [a, b] es un subespacio de C[a, b].
(b) Mostrar que
9
8
(n) f = máx f ∞ , f ∞ , f (2)
,
.
.
.
,
f
,
∞
∞
f ∈ Cn [a, b], es una norma en Cn [a, b], donde f (k) ∞ es la norma uniforme en el espacio Ck [a, b],
para cada k = 0, 1, . . . , n.
En los ejercicios 313 a 316, Cn [a, b] y f son el espacio y la norma definidos en el ejercicio precedente.
313 Determinar si f (x) = xe−x pertenece a C1 [0, 3]; en caso afirmativo calcular f .
'
314 Determinar si f (x) =
'
315 Determinar si f (x) =
Page (PS/TeX): 169 / 403, COMPOSITE
x2 ln x, si x = 0
pertenece a C1 [0, 3]; en caso afirmativo calcular f .
0, si x = 0
x3 ln x, si x = 0
pertenece a C1 [0, 3]; en caso afirmativo calcular f .
0, si x = 0
404 CAPÍTULO 4
Espacios con producto interior y espacios normados
'
316 Determinar si f (x) =
2
e−1/x , si x = 0
pertenece a C1 [−1, 1]; en caso afirmativo calcular f .
0, si x = 0
317 Sea Cn [a, b] el espacio de funciones f : [a, b] → R tales que la función f tiene derivada hasta el orden n
con continuidad en el intervalo [a, b] del ejercicio 312. Se representa, para cada k = 1, . . . , n, la k-ésima
derivada de f por el sı́mbolo f (k) y f (0) denota la función f . Se define, para cada f ∈ Cn [a, b],
f =
∑ f (k) n
k=0
∞
donde f (k) ∞ es la norma uniforme en el espacio Ck [a, b], para cada k = 0, 1, . . . , n. Mostrar que f es
una norma en Cn [a, b].
En los ejercicios 318 a 320, Cn [a, b] y f = ∑nk=0 f (k) ∞ son el espacio y la norma del ejercicio precedente.
318 Determinar si f (x) = xe−x pertenece a C1 [0, 3]; en caso afirmativo calcular f '
319 Determinar si f (x) =
'
320 Determinar si f (x) =
x3 ln x, si x = 0
pertenece a C1 [0, 3]; en caso afirmativo calcular f .
0, si x = 0
2
e−1/x , si x = 0
pertenece a C1 [−1, 1]; en caso afirmativo calcular f .
0, si x = 0
321 Calcular f = máx { f ∞ , f ∞ }, en C1 [− π4 , π4 ] si f (x) = x sen x.
322 Calcular f = f ∞ + f ∞ , en C1 [− π4 , π4 ] si f (x) = x sen x.
2
323 Calcular f = máx { f ∞ , f ∞ , f ∞ }, en C2 [−2, 2] si f (x) = e x .
2
324 Calcular f = f ∞ + f ∞ + f ∞ , en C2 [−2, 2] si f (x) = e x .
tra(At A) la norma canónica en los espacios de matrices (cfr. ejemplo 4.40,
pág. 303). Probar que si A ∈ Mm×n y B ∈ Mn×p son cualquier par de matrices, entonces
325 Sea A una matriz y A =
AB ≤ A B .
326 Sea A = [ai j ] una matriz y la norma A1 = ∑ |ai j | donde la suma se toma sobre todos los subı́ndices i, j
(cfr. ejemplo 4.44, pág. 306). Mostrar que si A ∈ Mm×n y B ∈ Mn×p son un par de matrices cualesquiera,
entonces
AB1 ≤ A1 B1 .
327 Sea A = [ai j ] es una matriz y A∞ = máx |ai j |, la norma cúbica definida en el ejemplo 4.43 (cfr. pág.
305). ¿Se cumple la relación de orden
AB∞ ≤ A∞ B∞
para todo par de matrices A ∈ Mm×n y B ∈ Mn×p ?
Page (PS/TeX): 170 / 404, COMPOSITE
SECCIÓN 4.3
Ejercicios resueltos y ejercicios propuestos 405
328 Sea 1 el conjunto de todas las sucesiones (an ) ∈ R∞ tales que la serie
∞
∑ |an | converge.
n=1
(a) Probar que 1 es un subespacio de R∞ .
(b) Se define, para cada (an ) ∈ 1 ,
(an )1 =
∞
∑ |an | .
n=1
Mostrar que (an )1 es una norma en 1 .
En los ejercicios 329 a 338, 1 y (an )1 =
anterior.
∞
∑ |an | son el espacio y la norma definidos en el ejercicio
n=0
329 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =
1
.
n(n + 1)
330 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =
1
.
16n2 − 4
331 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =
1
.
n!
332 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =
4n+1
.
(n − 1)!
333 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =
1
.
2n−1
334 Mostrar que (an ) ∈ 1 y calcular (an )1 si an = (−3)n−4 52−n .
2n
.
n!
335 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =
1
.
42n
1 1
.
337 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =
2n n
336 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =
338 Mostrar que (an ) ∈ 1 y calcular (an )1 si an =
1
3n−1
1
.
n
339 Sea p ≥ 1 un número real dado y p el conjunto de sucesiones (an ) ∈ R∞ tales que
∞
∑ |an | p
n=1
converge. Se define, para cada (an ) ∈ p ,
(an ) p =
Page (PS/TeX): 171 / 405, COMPOSITE
∞
∑ |an |
n=1
1/p
p
.
406 CAPÍTULO 4
Espacios con producto interior y espacios normados
(a) Mostrar que p es un subespacio de R∞ .
(b) Demostrar que (an ) p es una norma en p .
(c) Probar que si p, p∗ > 1 son ı́ndices conjugados; i.e.,
(an bn ) ∈ 1 y además
1
p
+
1
p∗
= 1, y (an ) ∈ p , (bn ) ∈ p∗ , entonces
∞
∑ |an bn | ≤ (an ) p (bn ) p∗
n=1
es decir,
(an bn )1 ≤ (an ) p (bn ) p∗
(Sugerencia: Utilizar las desigualdades de Hölder (4.50) y Minkowski (4.51), pág. 330.)
En los ejercicios 340 a 345, p y · p son el espacio y la norma definidos en el ejercicio anterior. Determinar si la sucesión (an ) pertenece a p y, en caso afirmativo, calcular (an ) p si:
340 an =
1
, p = 3.
2n
1
n
341 an = √ , p = 2.
342 an = (−1)
n
1
, p = 2.
n!
343 an = rn , p > 1 cualquier número real mayor que 1 y −1 < r < 1.
344 an =
5
345 an =
3
n+1
, p = 5.
3n
1
, p = 3.
2n n
En los ejercicios 346 a 355, f p =
a
b
| f (x)| p dx
1/p
es la norma definida en el ejercicio resuelto 35
para un número p > 1. Calcular f p para la función f y el número p en el espacio indicado.
346 f (x) = x−1 , p > 1 en C[1, 2].
347 f (x) = x, p > 1 en C[0, 1].
348 f (x) = xe x , p = 2 en C[0, 1].
349 f (x) = x cos x, p = 2 en C[0, 2π].
350 f (x) = x sen1/3 x, p = 3 en C[0, 2π].
351 f (x) = x ln2/3 x, p = 3/2 en C[1, e].
Page (PS/TeX): 172 / 406, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 407
SECCIÓN 4.3
352 f (x) = cos1/3 x sen x, p = 3 en C[0, π/2].
353 f (x) = e x sen1/4 x, p = 4 en C[0, 2π].
354 f (x) = tan x, p = 2 en C[0, π/4].
355 f (x) = tan−1/4 x, p = 2 en C[0, π/4].
356 Sean p ≥ 1 y a un
par de números reales dados y L p [a, ∞) el conjunto de funciones reales continuas en
[a, ∞) tales que
∞
a
| f (x)| p dx es convergente. Se define, para cada
∞
1/p
| f (x)| p dx
f ∈ L p [a, ∞), f p =
.
a
(a) Mostrar que L p [a, ∞) es un subespacio de C[a, ∞) y, por tanto, un espacio vectorial con la suma
de funciones y multiplicación de un escalar con una función usuales.
(b) Probar que f p es una norma en L p [a, ∞).
(c) Si p, p∗ > 1 son ı́ndices conjugados ( 1p + p1∗ = 1), f ∈ L p [a, ∞) y g ∈ L p∗ [a, ∞), demostrar que
f g ∈ L1 [a, ∞) (cfr. ejercicio resuelto 37) y que
∞
a
En los ejercicios 357 a 363, L p [a, ∞) y f p =
| f g| ≤ f p g p∗
∞
a
p
| f (x)| dx
1/p
son el espacio y la norma definidos
en el ejercicio precedente. Determinar si la función f pertenece al espacio L p [a, ∞) y en caso afirmativo
calcular f p si:
357 f (x) =
1
, p = 1 y a = 1.
x
358 f (x) =
1
, p = 1 y a = 2.
(x − 1)2
359 f (x) =
1
, p > 1 y a > 1.
x
360 f (x) =
ln x
, p = 1 y a = 1.
x
361 f (x) =
(ln x)1/2
, p = 2 y a = 1.
x
362 f (x) = xe−x/p , p = 1, 2, . . . y a = 0.
363 f (x) =
(ln x)−1
√ , p = 2, a = 2.
x
Una seminorma en un espacio vectorial E es una función N : E → R tal que:
• N (u) ≥ 0 ∀u ∈ E.
• N (λu) = |λ|u para todo λ ∈ R y para todo u ∈ E.
Page (PS/TeX): 173 / 407, COMPOSITE
408 CAPÍTULO 4
Espacios con producto interior y espacios normados
• N (u +v) ≤ N (u) + N (v).
• Existe u ∈ E, con u = 0E , tal que N (u) = 0.
Probar, en los ejercicios 364 a 366, que el conjunto E es un espacio vectorial (con las operaciones
usuales) y que N (u) es una seminorma en él.
364 (Seminorma de Taylor). Sean n un entero positivo, J un intervalo abierto que contiene a un punto dado
a, E el conjunto de funciones f : J→ R tales que f tiene derivada hasta el orden n en el punto a y
N (f) =
n
∑ f (k) (a) .
k=0
donde f (0) (a) = f (a) y f (k) (a) es la k-ésima derivada de f en a, k = 1, . . . , n.
365 (Seminorma de interpolación). Sean n un entero positivo fijo, E = F ([a, b]) el conjunto de funciones
f : [a, b] → R, x0 , x1 , . . . , xn ∈ [a, b] puntos fijos distintos entre sı́ y
n
N (f) =
∑ | f (xk )| .
k=0
366 Sean n un entero positivo, J un intervalo abierto que contiene a un punto dado a, E el conjunto de
funciones f : J→ R tales que f tiene derivada hasta el orden n en el punto a y
N (f) =
n
1 ∑ k! f (k) (a)
k=0
donde f (0) (a) = f (a) y f (k) (a) es la k-ésima derivada de f en a, k = 1, . . . , n.
367 Demostrar que la seminorma del ejercicio 366 satisface la relación de orden
N ( f g) ≤ N ( f )N (g)
para cualquier par de funciones f , g ∈ E.
368 ¿Satisfacen las seminormas de Taylor e interpolación de los ejercicios 364 y 365 la relación de orden
N ( f g) ≤ N ( f )N (g)?
369 Sea E un espacio vectorial y N una seminorma en él.
(a) Probar el conjunto SN de todos los f ∈ E tales que N ( f ) = 0, es un subespacio de E.
(b) Sea C1 [a, b] el espacio de funciones con primera derivada continua en el intervalo [a, b]. Probar que
N ( f ) = máx | f (x)|
a≤x≤b
es una seminorma en C1 [a, b]. Determinar SN para este caso.
370 Sean E un espacio vectorial, N una seminorma y N1 una norma en él. Probar que
u = N (u) + N1 (u)
es una norma en E.
Page (PS/TeX): 174 / 408, COMPOSITE
SECCIÓN 4.3
Ejercicios resueltos y ejercicios propuestos 409
Sea C[a, b] el espacio de funciones continuas en [a, b] dotado de la norma uniforme f ∞ = máx | f (x)|.
a≤x≤b
En los ejercicios 371 a 374, bosquejar B[ f , ε], la bola de centro f y radio ε respecto a esta norma para
cada f dada.
371 f (x) = 1, a = 0 y b = 2.
372 f (x) = x2 , a = −1 y b = 1.
373 f (x) = e−x , a = −1 y b = 2.
374 f (x) = cos x, a = −π y b = π.
En los ejercicios 375 a 384, se define una función (x1 , . . . , xn ) → (x1 , . . . , xn ) en el espacio Rn indicado.
Utilizar los teoremas 4.17 y 4.19 (cfr. págs. 318 y 320) para:
(a) Probar que (x1 , . . . , xn ) es una norma y que proviene de un producto interior.
(b) Hallar el producto interior del cual proviene la norma.
375 (x1 , x2 ) = 2x12 − 2x2 x1 + x22 en R2 .
376 (x1 , x2 ) = x12 − 2x2 x1 + 2x22 en R2 .
377 (x1 , x2 ) = 5x12 + 6x1 x2 + 2x22 en R2 .
378 (x1 , x2 ) = x12 − 6x1 x2 + 10x22 en R2 .
379 (x1 , x2 , x3 ) = 5x12 − 2x1 x2 − 4x1 x3 + 2x22 + x32 en R3 .
380 (x1 , x2 , x3 ) = 2x12 − 2x1 x3 + x22 + 2x2 x3 + 2x32 en R3 .
381 (x1 , x2 , x3 ) = x12 + x22 + 2x2 x3 + 2x32 en R3 .
382 (x1 , x2 , x3 ) = 2x12 − 2x1 x2 − 2x1 x3 + 5x22 + x32 en R3 .
383 (x1 , x2 , x3 , x4 ) = x12 + 2x22 + 2x2 x3 − 2x2 x4 + x32 + 2x42 en R4 .
384 (x1 , x2 , x3 , x4 , x5 ) = x12 − 2x1 x5 + x22 + 2x32 − 2x3 x5 + x42 + 2x52 en R5 .
En los ejercicios 385 a 398, determinar si la norma en el espacio indicado proviene o no de un producto
interior; en caso afirmativo, hallar el producto escalar del cual proviene la norma (cfr. teoremas 4.17 y
4.19).
385 (x1 , . . . , xn )1 = ∑ni=1 |xi | en Rn .
386 (ai j )1 = ∑ |ai j | en M2×3 .
387 (ai j )∞ = máx |ai j | en M3×2 .
Page (PS/TeX): 175 / 409, COMPOSITE
410 CAPÍTULO 4
Espacios con producto interior y espacios normados
388 f ∞ = máx | f (x)| en C[0, 1].
0≤x≤1
389 f 1 =
390 f 2 =
391 f 3 =
1
0
| f (x)| dx en C[0, 1].
1
0
1
0
392 (an )1 =
[ f (x)]3 dx
en C[0, 1].
1/3
en C[0, 1].
∞
n=0
∞
∑ |an |
393 (an )2 =
1/2
2
en 2 .
n=0
∞
∑ |an |
394 (an )3 =
1/3
3
en 3 .
n=0
0
∞
∑ |an |
395 (an ) p =
0
[ f (x)] dx
∑ |an | en 1 .
396 f =
∞
1/2
2
1/p
p
en p , con p = 2.
n=0
∞
[ f (x)]2 e−x dx
1/2
en el espacio vectorial de las funciones continuas f : [0, ∞) → R tales que
[ f (x)]2 e−x dx converge.
397 f = máx ( f ∞ , f ∞ ) en C1 [0, 1].
398 f = f ∞ + f ∞ en C1 [0, 1].
399 Demostrar, sin utilizar el teorema 4.22 (cfr. pág. 327), que las normas
n
(x1 , . . . , xn )1 = ∑ |xi |
(x1 , . . . , xn )∞ = máx |xi |
y
1≤i≤n
i=1
del espacio Rn , son equivalentes.
400 Demostrar, sin utilizar el teorema 4.22, que las normas
(x1 , . . . , xn ) =
n
∑ xi2
i=1
1/2
y
(x1 , . . . , xn )∞ = máx |xi |
1≤i≤n
(del espacio Rn ) son equivalentes.
401 Encontrar (sin utilizar el teorema 4.22) α > 0 y β > 0 tales que para todo u = (x1 , . . . , xn ) ∈ Rn se cumpla
1/2
α u ≤ u1 ≤ β u donde u = ∑i=1 xi2
y u1 = ∑i=1 |xi |.
Page (PS/TeX): 176 / 410, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 411
SECCIÓN 4.3
402 Sean C[0, 1] el espacio de funciones continuas en el intervalo [0, 1],
f 2 =
1
0
| f (x)|2 dx
1/2
y
f ∞ = máx | f (x)|.
a≤x≤b
(a) Encontrar β > 0 tal que
f 2 ≤ β f ∞
para todo f ∈ C[0, 1].
(b) Demostrar que no puede existir α > 0 tal que
α f ∞ ≤ f 2
para todo f ∈ C[0, 1].
(c) ¿Son equivalentes f 2 y f ∞ ?
403 Sean las normas f 1 =
b
a
| f (x)| dx y f 2 =
b
a
f 1 ≤
√
2
1/2
[ f (x)] dx
en el espacio C[a, b]. Probar que
b − a f 2
para toda función f ∈ C[a, b].
404 Probar que las normas
f 1 =
1
0
| f (x)| dx
y
f 2 =
0
1
2
1/2
[ f (x)] dx
en el espacio C[0, 1] no son equivalentes.
Sean E un espacio vectorial
y a,b ∈ E. Se define el segmento
con punto inicial a y punto final b como
8
9
el conjunto [a, b] = u ∈ E |u = a + t(b −a), 0 ≤ t ≤ 1 .
405 Un conjunto M ⊂ E es convexo si el segmento [a,b] ∈ M para todo par a,b ∈ M.
(a) Probar que todo subespacio S de E es un conjunto convexo.
(b) Sean r > 0 y u0 ∈ E, demostrar que la bola cerrada B[u0 , r] es un conjunto convexo.
406 Sean α, ai ∈ R, i = 1, . . . , n, números reales dados. Se llama semiplano al conjunto de puntos (x1 , . . . , xn )
∈ Rn tales que
a1 x1 + · · · + an xn ≥ α.
(a) En referencia al ejercicio 405, probar que todo semiplano es convexo.
(b) Demostrar que el complemento de un semiplano (al que también se le llama semiplano) es un
conjunto convexo.
407 Probar que toda intersección finita de conjuntos convexos en un espacio vectorial es también un conjunto
convexo (cfr. ejercicio 405).
408 Sean S un subespacio de dimensión finita de un espacio normado E y u ∈ E − S. Probar que el conjunto
S∗ de las aproximaciones óptimas de u en S es un conjunto convexo (cfr. ejercicio 405).
Page (PS/TeX): 177 / 411, COMPOSITE
412 CAPÍTULO 4
Espacios con producto interior y espacios normados
409 Sea la función continua, en el intervalo [0, 1], f (x) = x cos x + 4. Calcular los polinomios de Bernstein
B1 , B2 , B3 , B4 y B5 (cfr. pág. 339) para esta función.
410 Sea f (x) = e x . f ∈ C[0, 1]; calcular los polinomios de Bernstein Bi , i = 1, 2, 3, 4.
411 Sea f (x) = x3 ; f ∈ C[0, 1]; calcular los polinomios de Bernstein Bi , i = 1, 2, 3, . . . para f . Mostrar direc-
tamente que para este caso
lı́m f − Bn ∞ = 0.
n→∞
412 Sea f (x) = sen x, 0 ≤ x ≤ 1. Calcular los polinomios de Bernstein Bi , i = 1, 2, 3, para la función f
(cfr. pág. 339).
413 Sea f (x) = cos x, 0 ≤ x ≤ 1. Calcular los polinomios de Bernstein Bi , i = 1, 2, 3, para la función f
(cfr. pág. 339).
414 Sean n un entero positivo, J un intervalo abierto que contiene un punto dado a, E el espacio de las
funciones que tienen derivada hasta el orden n en el punto a y
N (f) =
n
∑ f (k) (a)
k=0
la seminorma de Taylor (cfr. ejercicio 364). Sean f ∈ E y el polinomo de grado a lo más n
p∗n (x) =
n
∑
k=0
f (k) (a)
(x − a)k .
k!
(a) Probar que p∗n (x) es aproximación óptima de f en el subespacio Pn de E respecto a la seminorma
de Taylor.
(b) Mostrar que si p∗1 (x) también aproximación óptima de f en Pn , entonces p∗ = p∗1 .
En los ejercicios 415 a 417, S = gn((−1, 1)) y u = (1, 1) en el espacio R2 .
415 Hallar la aproximación óptima p∗ de u en S respecto a la norma euclidiana (x, y) =
x2 + y2 .
416 Hallar todas las aproximaciones óptimas de u en S respecto a la norma cúbica (x, y)∞ = máx {|x| , |y|}.
417 Hallar todas las aproximaciones óptimas de u en S respecto a la norma (x, y)1 = |x| + |y|.
En los ejercicios 418 a 420, S = gn((2, 1)) y u = (−1, 1) en el espacio R2 .
418 Hallar la aproximación óptima p∗ de u en S respecto a la norma euclidiana (x, y) =
x2 + y2 .
419 Hallar todas las aproximaciones óptimas de u en S respecto a la norma cúbica (x, y)∞ = máx {|x| , |y|}.
420 Hallar todas las aproximaciones óptimas de u en S respecto a la norma (x, y)1 = |x| + |y|.
En los ejercicios 421 a 423, S = gn((−2, 1)) y u = (3, 1) en el espacio R2 .
421 Hallar la aproximación óptima p∗ de u en S respecto a la norma euclidiana (x, y) =
x2 + y2 .
422 Hallar todas las aproximaciones óptimas de u en S respecto a la norma cúbica (x, y)∞ = máx {|x| , |y|}.
Page (PS/TeX): 178 / 412, COMPOSITE
SECCIÓN 4.3
Ejercicios resueltos y ejercicios propuestos 413
423 Hallar todas las aproximaciones óptimas de u en S respecto a la norma (x, y)1 = |x| + |y|.
En los ejercicios 424 a 426, S = gn((−1, 1, 2)) y u = (1, 1, 1) en el espacio R3 .
424 Hallar la aproximación óptima p∗ de u en S respecto a la norma euclidiana (x, y, z) =
x2 + y2 + z2 .
425 Hallar todas las aproximaciones óptimas de u en S respecto a la norma cúbica
(x, y, z)∞ = máx {|x| , |y| , |z|}.
426 Hallar todas las aproximaciones óptimas de u en S respecto a la norma (x, y, z)1 = |x| + |y| + |z|.
En los ejercicios 427 a 429, S = gn(1, −1, 3) y u = (1, 0, −1) en el espacio R3 .
427 Hallar la aproximación óptima p∗ de u en S respecto a la norma euclidiana (x, y, z) =
x2 + y2 + z2 .
428 Hallar todas las aproximaciones óptimas de u en S respecto a la norma cúbica
(x, y, z)∞ = máx {|x| , |y| , |z|}.
429 Hallar todas las aproximaciones óptimas de u en S respecto a la norma (x, y, z)1 = |x| + |y| + |z|.
En los ejercicios 430 a 432, S = gn((0, −1, −2)) y u = (1, −1, 1) en el espacio R3 .
430 Hallar la aproximación óptima p∗ de u en S respecto a la norma euclidiana (x, y, z) =
x2 + y2 + z2 .
431 Hallar todas las aproximaciones óptimas de u en S respecto a la norma cúbica
(x, y, z)∞ = máx {|x| , |y| , |z|}.
432 Hallar todas las aproximaciones óptimas de u en S respecto a la norma (x, y, z)1 = |x| + |y| + |z|.
En los ejercicios 433 a 434, S es el plano y − z = 0 y u = (0, 1, 0) en el espacio R3 .
433 Hallar la aproximación óptima p∗ de u en S respecto a la norma euclidiana (x, y, z) =
x2 + y2 + z2 .
434 Hallar todas las aproximaciones óptimas de u en S respecto a la norma (x, y, z)1 = |x| + |y| + |z|.
En los ejercicios 435 a 436, S es el plano x + y − z = 0 y u = (0, 1, 0) en el espacio R3 .
435 Hallar la aproximación óptima p∗ de u en S respecto a la norma euclidiana (x, y, z) =
x2 + y2 + z2 .
436 Hallar todas las aproximaciones óptimas de u en S respecto a la norma (x, y, z)1 = |x| + |y| + |z|.
En los ejercicios 437 a 439, S = gn(1) y f (x) = x en el espacio C[0, 1].
∗
437 Hallar la aproximación óptima, p , de f en S respecto a la norma g =
Page (PS/TeX): 179 / 413, COMPOSITE
0
1
2
(g(x)) dx
1/2
.
414 CAPÍTULO 4
Espacios con producto interior y espacios normados
438 Hallar todas las aproximaciones óptimas de f en S respecto a la norma cúbica g∞ = máx0≤x≤1 |g(x)|.
439 Hallar todas las aproximaciones óptimas de f en S respecto a la norma g1 =
1
0
|g(x)| dx.
En los ejercicios 440 a 442, S = gn(1) y f (x) = ln x en el espacio C[1, e].
∗
440 Hallar la aproximación óptima, p , de f en S respecto a la norma g =
e
1
1/2
2
(g(x)) dx
.
441 Encontrar todas las aproximaciones óptimas de f en S respecto a la norma uniforme g∞ .
442 Encontrar todas las aproximaciones óptimas de f en S respecto a la norma g1 =
e
1
|g(x)| dx.
En los ejercicios 443 a 445, S = gn(1) y f (x) = cos x en el espacio C[0, π/2].
∗
443 Hallar la aproximación óptima, p , de f en S respecto a la norma g =
π/2
0
1/2
2
(g(x)) dx
.
444 Encontrar todas las aproximaciones óptimas de f en S respecto a la norma uniforme g∞ .
445 Encontrar todas las aproximaciones óptimas de f en S respecto a la norma g1 =
π/2
0
|g(x)| dx.
En los ejercicios 446 a 448, S = gn(1) y f (x) = sen x en el espacio C[0, π/2].
∗
446 Hallar la aproximación óptima, p , de f en S respecto a la norma g =
0
π/2
1/2
2
(g(x)) dx
.
447 Encontrar todas las aproximaciones óptimas de f en S respecto a la norma uniforme g∞ .
448 Encontrar todas las aproximaciones óptimas de f en S respecto a la norma g1 =
Page (PS/TeX): 180 / 414, COMPOSITE
π/2
0
|g(x)| dx.
5 Transformaciones lineales,
valores y vectores propios
En las primeras secciones de este capı́tulo estudiaremos cierto tipo de funciones entre espacios vectoriales: las transformaciones lineales. Estas funciones son relativamente muy simples de tratar ya que
exhiben un comportamiento que preserva la estructura de las operaciones de espacio vectorial. A pesar
de su sencillez, las transformaciones lineales son muy importantes tanto en matemáticas como en fı́sica, ingenierı́a y ciencias sociales. Podrı́amos afirmar, grosso modo, que independientemente de la gran
variedad de sus aplicaciones, mucho del éxito que tienen las funciones lineales entre espacios vectoriales radica en que con frecuencia pueden transformar un problema complejo en uno más simple. En las
subsecuentes secciones trataremos el tema no menos importante, y estrechamente relacionado con las
transformaciones lineales, de valores y vectores propios. Como antes, la última sección está dedicada a
ejercicios resueltos y a ejercicios propuestos al lector.
5.1 Transformaciones lineales
Las funciones más sencillas (después de las constantes) de una
variable con valores reales son las funciones de la forma
y = f (x)
f (x) = kx; cuya gráfica, para un valor fijo k, es una lı́nea recf (x0 )
ta con pendiente k que pasa por el origen. La forma simple que
tienen estas funciones las hace sumamente importantes para estudiar el comportamiento de funciones más complicadas. Por
ejemplo, una función que es derivable en un punto x0 se puede
x0
aproximar localmente por medio de la lı́nea recta tangente a la
gráfica de la función en el punto (x0 , f (x0 )); y esta lı́nea recta no es más que una traslación afı́n de la
recta y = f (x0 )x. Una gran variedad de fenómenos se pueden modelar a través de soluciones de cierto
tipo de ecuaciones que exhiben un comportamiento lineal, en el sentido de que la suma de dos soluciones
y el producto de un escalar por una solución también son soluciones; dichos fenómenos y sus respectivos
modelos son llamados, por antonomasia, lineales también. Con base en la caracterı́stica de linealidad
de estos fenómenos es posible, en general, determinar el comportamiento de los mismos en una forma
relativamente sencilla. Ası́, como las funciones lineales de una variable sirven para aproximar funciones
más complicadas, los modelos lineales se pueden utilizar para aproximar fenómenos más complejos. Por
sı́ solos los fenómenos lineales son sumamente interesantes y cubren una gran variedad de importantes
aplicaciones. Las funciones lineales de una variable tienen una inmediata extensión a funciones de varias
variables y, más aún, a funciones entre espacios vectoriales. En esta sección estudiaremos en un contexto
general este tipo de funciones que llamaremos transformaciones lineales.
415
Page (PS/TeX): 1 / 415, COMPOSITE
416 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
5.1.1 Definición, ejemplos y propiedades
Recordemos que si A y B son un par de conjuntos no vacı́os, la
notación f : A → B significa que f es una función con dominio A
x
y valores en B o, en forma más compacta, f es una función de A
en B (cfr. definición 3.7, pág. 133); que en la notación y = f (x)
a y se le llama el valor de la función f en x o la imagen de x bajo
la función f ; a x se le dice variable independiente (o argumento
de la función) y a y variable dependiente; y que al conjunto B se
le dice contradominio de la función. Una manera muy útil de inf (x)
terpretar una función f es como un conjunto de procedimientos,
una máquina, que transforma cada elemento x (materia prima) de
A en un producto y = f (x) elemento de B. El resultado de esta
transformación, el elemento y = f (x), depende de la materia prima x que se introduzca cada vez a la
máquina, y esta transformación está perfectamente determinada por esta máquina o conjunto de procedimientos f (la función o transformación). En este sentido interpretaremos, de aquı́ en adelante, el
significado de una función entre espacios vectoriales: como una transformación de un espacio en otro.
Definición 5.1 (Transformación lineal) Sean E y F dos espacios vectoriales y T : E → F una función.
Diremos que T es una transformación lineal de E en F si:1
1. T (x +y) = T (x) + T (y), ∀x,y ∈ E.
2. T (αx) = αT (x), ∀x ∈ E, ∀α ∈ R.
Ejemplo 5.1 Sea T : R → R la función definida por T (x) = 3x, entonces para x1 , x2 ∈ R y para todo
escalar α,
T (x1 + x2 ) = 3(x1 + x2 )
= 3x1 + 3x2
= T (x1 ) + T (x2 )
y
T (αx) = 3(αx)
= α(3x)
= αT (x).
Por tanto, T es una transformación lineal.
Ejemplo 5.2 De manera análoga al ejemplo precedente, toda lı́nea recta que pasa por el origen es
una transformación lineal de R en R. En efecto, una lı́nea recta que pasa por el origen es la gráfica de
una función de la forma y = T (x) = ax, donde a es una constante. Entonces, si x1 , x2 ∈ R y α es un
escalar, se tiene
11 Se le dice también aplicación lineal u homomorfismo.
Page (PS/TeX): 2 / 416, COMPOSITE
SECCIÓN 5.1
Transformaciones lineales 417
T (x1 + x2 ) = a(x1 + x2 )
= ax1 + ax2
= T (x1 ) + T (x2 )
y
T (αx1 ) = a(αx1 )
= α(ax1 )
= αT (x1 ).
Vimos en el ejemplo anterior que toda lı́nea recta que pasa por el origen es una transformación lineal
de R en R; de hecho, estas lı́neas rectas son las únicas transformaciones lineales que existen de R en R,
como hacemos patente en el siguiente ejemplo.
Ejemplo 5.3 (Transformaciones lineales de R en R) Sea T : R → R una transformación lineal. Sea
x ∈ R, entonces T (x) = T (x · 1) = xT (1). Sea a = T (1), entonces T (x) = ax ∀x ∈ R. Es decir, T es una
lı́nea recta que pasa por el origen.
Ejemplo 5.4 (La transformación derivación) Si E = C1 [0, 1] (cfr. el ejemplo 3.24, pág. 142) y
F = C[0, 1], sea T : E → F, definida por T ( f ) = f . Ası́, por ejemplo, si f (x) = x2 y g(x) = 2x, T ( f ) = g.
T es una transformación lineal. En efecto:
1. T ( f + g) = ( f + g) = f + g = T ( f ) + T (g) ∀ f , g ∈ E.
2. T (α f ) = (α f ) = α f ∀α ∈ R, ∀ f ∈ E.
Ejemplo 5.5 Sea T : R3 → R2 definida como T (x1 , x2 , x3 ) = (x1 − 2x2 , x2 + 3x3 ). Mostrar que T es
lineal.
DEMOSTRACIÓN
Q 1. Si a = (x1 , x2 , x3 ) y b = (y1 , y2 , y3 ),
T (a +b) = T (x1 + y1 , x2 + y2 , x3 + y3 )
= (x1 + y1 − 2(x2 + y2 ), x2 + y2 + 3(x3 + y3 )).
T (a) + T (b) = T (x1 , x2 , x3 ) + T (y1 , y2 , y3 )
= (x1 − 2x2 , x2 + 3x3 ) + (y1 − 2y2 , y2 + 3y3 )
= (x1 + y1 − 2(x2 + y2 ), x2 + y2 + 3(x3 + y3 ))
= T (a +b).
2. Si a = (x1 , x2 , x3 ) y α ∈ R,
T (αa) =
=
=
=
=
=
Page (PS/TeX): 1 / 417, COMPOSITE
T (α(x1 , x2 , x3 ))
T (αx1 , αx2 , αx3 )
T (αx1 − 2αx2 , αx2 + 3αx3 )
α(x1 − 2x2 , x2 + 3x3 )
αT (x1 , x2 , x3 )
αT (a). Q
418 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Ejemplo 5.6 Sea T : R2 → R2 , definida por T (x, y) = xy, T no es lineal:
T (3(1, 2)) =
=
3T (1, 2) =
=
T (3, 6)
18.
3·2
6.
Por lo que T (3(1, 2)) = 3T (1, 2).
Ejemplo 5.7 (Transformación integración) Sea T : C[0, 1] → R definida por:
T(f) =
1
0
f (x)dx.
Ası́, por ejemplo, si f (x) = x2 , T ( f ) = 1/3. T es lineal porque:
1. Si f , g ∈ C[0, 1],
T ( f + g) =
=
=
1
0
1
0
1
0
( f + g)(x)dx
( f (x) + g(x))dx
f (x)dx +
1
0
g(x)dx
= T ( f ) + T (g).
2. Si α ∈ R y f ∈ C[0, 1],
T (α f ) =
=
1
0
1
0
=α
(α f )(x)dx
α f (x)dx
1
0
f (x)dx
= αT ( f ).
Ejemplo 5.8 (Operador identidad) Si E es un espacio vectorial, claramente I : E → E definido por
I(u) = u
para todo u ∈ E, es una transformación lineal del espacio E en sı́ mismo. A I se le llama el operador
identidad del espacio E.
Propiedades
Sabemos que si A es cualquier conjunto no vacı́o y F es cualquier espacio vectorial, entonces el conjunto
de funciones con dominio A y valores en F es un espacio vectorial (cfr. nota 3.7, pág. 138) con las operaciones usuales suma de funciones y multiplicación de un escalar con una función (cfr. definición 3.9,
pág. 134). Por ende, el conjunto de todas las transformaciones de un espacio vectorial E en un espacio
vectorial F con las operaciones usuales de suma de funciones y multiplicación de un escalar con una
Page (PS/TeX): 2 / 418, COMPOSITE
SECCIÓN 5.1
Transformaciones lineales 419
función dadas en la definición 3.9 es un espacio vectorial. Ahora supongamos que T1 y T2 son un par
de transformaciones del espacio E en el espacio F que además son lineales y sea k ∈ R; entonces, si
x,y ∈ E y α ∈ R, se tiene:
(T1 + T2 )(x +y) = T1 (x +y) + T2 (x +y)
1.
= T1 (x) + T1 (y) + T2 (x) + T2 (y)
= T1 (x) + T2 (x) + T1 (y) + T2 (y)
= (T1 + T2 )(x) + (T1 + T2 )(y).
(T1 + T2 )(αx) = T1 (αx) + T2 (αx)
2.
= αT1 (x) + αT2 (x)
= α(T1 (x) + T2 (x))
= α(T1 + T2 )(x).
(kT1 )(x +y) = kT1 (x +y)
3.
= k(T1 (x) + T2 (y))
= kT1 (x) + kT2 (y)
= (kT1 )(x) + (kT2 )(y).
(kT1 )(αx) = kT1 (αx)
4.
= k(αT1 (x))
= α(kT1 (x))
= α(kT1 )(x).
5. Claramente la transformación constante cero, θ : E → F, θ(x) = 0F ∀x ∈ E, es lineal.
1 y 2 demuestran que la transformación T1 + T2 es lineal y 3, 4 prueban que kT1 es lineal también. Por
ende, al adjuntar 5, el subconjunto de transformaciones lineales del espacio E en el espacio F es un
subespacio vectorial del espacio de funciones de E en F. Con esto hemos probado el siguiente teorema.
Teorema 5.1 (Espacio de transformaciones lineales) Sean E y F un par de espacios vectoriales y
sea
L (E, F) = { T : E → F | T es una transformación lineal } ,
entonces L (E, F) es un espacio vectorial con las operaciones usuales de suma de funciones y multiplicación de un escalar con una función.
Teorema 5.2 (Propiedades básicas de transformaciones lineales) Sean E y F un par de espacios
vectoriales y T ∈ L (E, F), entonces:
1. T (0E ) = 0F .
2. T (αx + βy) = α T (x) + β T (y)
3. T (−x) = −T (x)
∀x ∈ E.
4. T (x −y) = T (x) − T (y)
Page (PS/TeX): 3 / 419, COMPOSITE
∀x,y ∈ E, ∀α, β ∈ R.
∀x,y ∈ E.
420 CAPÍTULO 5
DEMOSTRACIÓN
Transformaciones lineales, valores y vectores propios
T (0E ) = T (0 ·0E )
= 0 · T (0E )
Q 1.
= 0F .
T (αx + βy) = T (αx) + T (βy)
2.
= αT (x) + βT (y).
T (−x) = T ((−1)x)
3.
= (−1)T (x)
= −T (x).
T (x −y) = T (x + (−y))
4.
= T (x) + T (−y)
= T (x) − T (y).
Q
Transformaciones matriciales y representación matricial de una transformación T ∈ L (Rn , Rm )
Vimos en los ejemplos 5.2 y 5.3 que las transformaciones lineales de R en R son las funciones de la
forma T (x) = ax, donde a es una constante. El sı́mil para transformaciones de Rn en Rm está contenido
en el siguiente ejemplo.
Ejemplo 5.9 (Transformaciones matriciales) Si A ∈ Mm×n , sea TA : Rn → Rm definida para cada
x ∈ Rn por TA (x) = Ax. Entonces T es lineal; pues ∀x,y ∈ Rn y ∀α ∈ R:
TA (x +y) = A(x +y)
= Ax + Ay
= TA (x) + TA (y) y
TA (αx) = A(αx)
= α(Ax)
= αTA (x).
Ejemplo 5.10 Dar una transformación lineal de R3 en R4 .
Solución
Sea
⎤
1 −1 2
⎢ 0 −1 3 ⎥
⎥
A=⎢
⎣ 3 −1 4 ⎦ ∈ M4×3
2
1 2
⎡
y TA : R3 → R4 definida por
⎡
1 −1
⎢ 0 −1
TA (x, y, z) = ⎢
⎣ 3 −1
2
1
⎤
2 ⎡ ⎤
x
3 ⎥
⎥ ⎣ y ⎦ = (x − y + 2z, −y + 3z, 3x − y + 4z, 2x + y + 2z).
4 ⎦
z
2
Por el ejemplo anterior TA es lineal.
Page (PS/TeX): 4 / 420, COMPOSITE
Transformaciones lineales 421
SECCIÓN 5.1
Sabemos, del ejemplo 5.9, que toda transformación matricial TA es lineal. Recı́procamente, si T :
R → Rm es una transformación lineal, ¿existe una matriz A ∈ Mm×n tal que T = TA ? La respuesta es
por lo menos afirmativa cuando m = n = 1 para el caso de transformaciones lineales de R en R como
probamos en el ejemplo 5.3 (pág. 417). Esto nos induce a intentar probar el caso general. Sean
n
i
ei = (0, . . . , 0, 1, 0, . . . , 0),
i = 1, 2, . . . , n,
n
la base canónica de R y
n
j
f j = (0, . . . , 0, 1, 0, . . . , 0),
j = 1, 2, . . . , m,
m
la base canónica de Rm . Entonces, si u = (x1 , x2 , . . . , xn ) ∈ Rn ,
u = x1e1 + x2e2 + · · · + xnen ;
ası́ que
T (u) = T (x1e1 + x2e2 + · · · + xnen )
= T (x1e1 ) + T (x2e2 ) + · · · + T (xnen )
= x1 T (e1 ) + x2 T (e2 ) + · · · + xn T (en ).
Sea A la matriz m × n que tiene por columnas a los vectores T (ei ), i = 1, 2, . . . , n, descritos de acuerdo
con la base canónica {f j }. Entonces
T (u) = x1 T (e1 ) + x2 T (e2 ) + · · · + xn T (en )
⎡
=
T (e1 )
⎡
⎢
⎢
= A⎢
⎣
x1
x2
..
.
T (e2 )
⎤
···
T (en )
⎢
⎢
⎢
⎣
x1
x2
..
.
⎤
⎥
⎥
⎥
⎦
xn
⎥
⎥
⎥ = Au
⎦
xn
(cfr. ejemplo 1.15, pág. 12); luego T = TA . Hemos probado ası́ el siguiente teorema.
Teorema 5.3 Sean {ei }, {f j } las bases canónicas de Rn y Rm , respectivamente, y T : Rn → Rm una
transformación lineal. Entonces existe una matriz A ∈ Mm×n tal que T = TA . De hecho, una matriz A
que sirve para este propósito es aquella cuyas columnas son los vectores T (ei ), i = 1, . . . , n, descritos
en la base canónica de Rm .
P Nota 5.1
1. El teorema 5.3 significa que las únicas transformaciones lineales que existen entre espacios Rk
son las transformaciones matriciales TA . Éste es un resultado muy sencillo, pero también muy
importante, que el lector debe tener siempre presente.
2. La matriz A del teorema 5.3 no es única en el sentido de que se pueden tener resultados análogos
a este teorema utilizando otras bases (cfr. sección 5.2).
Page (PS/TeX): 5 / 421, COMPOSITE
422 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Definición 5.2 Sean T ∈ L (Rn , Rm ), {ei } y {f j } las bases canónicas de Rn y Rm , respectivamente.
A la matriz A ∈ Mm×n cuyas columnas son los vectores T (ei ), i = 1, 2, . . . , n, descritos en la base
canónica {f j }, se le dice la representación matricial de la transformación lineal2 T relativa a las
bases canónicas de Rn y Rm .
El teorema 5.3 también es muy útil para determinar si una transformación T : Rn → Rm es lineal
o no.3 Para ello basta tomar la matriz A como antes y comprobar si T (u) = Au ∀u ∈ Rn ; pues en caso
afirmativo T = TA y, por ende, T será lineal; en caso contrario, por el teorema precedente, T no puede
ser lineal.
Ejemplo 5.11 Sea T : R2 → R3 la transformación definida por T (x, y) = (−x + 2y, x, 2x − y). Mostrar
que T es lineal y encontrar la representación matricial de T relativa a las bases canónicas.
DEMOSTRACIÓN
Q
T (1, 0) = (−1, 1, 2),
T (0, 1) = (2, 0, −1).
Si
⎤
−1
2
0 ⎦
A=⎣ 1
2 −1
se tiene, para todo u = (x, y) ∈ R2 ,
⎡
⎤
−1
2 x
0 ⎦
Au = ⎣ 1
y
2 −1
⎤
⎡
−x + 2y
x ⎦ = T (x, y).
=⎣
2x − y
⎡
Esto es
T = TA .
Lo cual prueba que T es lineal y A es entonces la representación matricial de T (relativa a las bases
canónicas). Q
5.1.2 Núcleo e imagen de una transformación lineal
Funciones inversas
Sean A y B un par de conjuntos no vacı́os y f : A → B. Una función g : B → A es función inversa de f
si
f (g(y)) = y ∀y ∈ B y
g( f (x)) = x ∀x ∈ A.
12 Más adelante, en la sección 5.2, extenderemos este concepto a transformaciones T ∈ L (E, F) en espacios de dimensión finita.
13 Lo cual es generalmente laborioso y tedioso aunque no difı́cil de hacer.
Page (PS/TeX): 6 / 422, COMPOSITE
Transformaciones lineales 423
SECCIÓN 5.1
f
A
g
B
B
A
Figura 5-1 • Diagrama de flechas que define un par de funciones. La función f queda definida mediante la asignación que a cada elemento del conjunto A se hace con un elemento del conjunto B por medio de la flecha que se
indica; f (♦) = , f (♣) = ♥, etc. De manera análoga queda definida la función g.
En tal caso, se dice que la función f es invertible. Por ejemplo, si A = [0, 2], B = [0, 4] y f : A → B se
√
define por f (x) = x2 ; sea g : B → A definida por g(y) = y , entonces g es función inversa de f . En
efecto:
√
f (g(y)) = f ( y) = y
y
g( f (x)) = g(x2 ) = x
para todo y ∈ B = [0, 4] y para todo x ∈ A = [0, 2]. De existir una inversa de una función ésta es única,
la demostración de este hecho se deja como ejercicio al lector. Entonces, si f tiene inversa ésta se
denota por f −1 y se le llama la función inversa de f (por ser única, la notación y el artı́culo están
justificados). En la figura 5-1 se bosquejan dos diagramas de flechas que definen sendas funciones
f : A → B y g : B → A. Claramente, se tiene g = f −1 . De la misma figura se observa que, en este
caso, para cada y ∈ B existe un único x ∈ A tal que f (x) = y, entonces la función f −1 (y) = x está bien
definida y coincide con la función g; luego f es una función invertible. Ası́, para que una función sea
invertible, es necesario y suficiente que para cada elemento del contradominio exista un único elemento
del dominio cuya imagen, bajo la función, sea dicho elemento. Estas caracterı́sticas están especificadas
en las siguientes definiciones.
Definición 5.3 (Funciones inyectivas) Sean A y B un par de conjuntos y f : A → B. La función f es
inyectiva (uno a uno) si elementos distintos del dominio tienen imágenes distintas; esto es,
x1 = x2 ⇒ f (x1 ) = f (x2 )
para x1 , x2 ∈ A; o equivalentemente,
f (x1 ) = f (x2 ) ⇒ x1 = x2 .
Ejemplo 5.12 Sea f : R → R la función definida por f (x) = x3 , para cada x ∈ R. Si x1 , x2 ∈ R y
x1 = x2 , entonces
x12 + x1 x2 + x22 = 0.
Page (PS/TeX): 7 / 423, COMPOSITE
(5.1)
424 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
En efecto, si uno de x1 , x2 es cero, el otro debe ser distinto de cero (pues x1 = x2 ); y por tanto, x13 = x23 ;
ası́ que podemos suponer que x1 y x2 son ambos distintos de cero; por tanto, ya que la ecuación cuadrática (5.1) en x1 tiene discriminante −3x22 < 0, se tiene que ésta no tiene raı́ces reales; por lo que
x13 − x23 = (x12 + x1 x2 + x22 )(x1 − x2 ) = 0.
Luego,
x1 = x2 ⇒ x13 = x23 ;
por tanto, la función f (x) = x3 es inyectiva. De manera gráfica también se puede observar que la función
f es inyectiva.
Definición 5.4 Se dice que una función f : A → B es suprayectiva (sobre) si para todo y ∈ B existe
x ∈ A tal que f (x) = y. Si f es una función suprayectiva, se acostumbra decir que f es una función
de A sobre B en lugar de f es una función de A en B.
y = ln(x)
Figura 5-2 •
Ejemplo 5.13 De la gráfica de la función f (x) = ln x, figura
5-2, se puede ver que ésta es una función suprayectiva de R sobre R. De hecho, si y ∈ R, entonces x = ey satisface ln(x) = y,
como el lector puede comprobar utilizando las propiedades del
logaritmo natural y la exponencial.
Definición 5.5 f : A → B es una función biyectiva si f es inyectiva y suprayectiva.
Ejemplo 5.14 La función f : R → R, definida por f (x) = ln(x), es inyectiva y suprayectiva (cfr. figura 5-2), luego f es biyectiva.
Resumimos, en el siguiente teorema, los resultados precedentes.
Teorema 5.4 Sea f : A → B. Entonces f es invertible si y sólo si f es biyectiva.
P Nota 5.2 Observe que f : A → B es biyectiva si y sólo si f −1 : B → A es biyectiva, y que en tal caso
( f −1 )−1 = f .
Ejemplo 5.15 La función f : R → R, definida por f (x) = ln(x), es biyectiva y f −1 (x) = e x .
Núcleo
En el caso de una transformación lineal de un espacio vectorial en otro, la inyectividad es una caracterı́stica muy fácil de verificar mediante lo que llamaremos el núcleo de dicha aplicación; mientras que
la suprayectividad será también una propiedad sencilla de comprobar mediante la imagen de la transformación. Desarrollamos estos conceptos a continuación.
Page (PS/TeX): 8 / 424, COMPOSITE
SECCIÓN 5.1
Transformaciones lineales 425
Definición 5.6 Si T ∈ L (E, F), se define el núcleo (kernel) de T como:
Ker(T ) = x ∈ E | T (x) = 0F .
Ejemplo 5.16 Si T ∈ L (R3 , R2 ) está definida por 4
T (x1 , x2 , x3 ) = (x1 − 2x2 , x2 + 3x3 ).
Entonces x = (x1 , x2 , x3 ) ∈ Ker(T ) si y sólo si T (x1 , x2 , x3 ) = (0, 0). Luego se debe tener
x1 − 2x2 = 0
x2 + 3x3 = 0.
Resolvamos el sistema homogéneo escalonado
1
0
x2 = −3x3
x1 = 2x2 = −6x3 .
haciendo sustitución regresiva:
De donde
−2 0
1 3
⎤
⎤
⎡
⎤ ⎡
−6
−6r
x1
⎣ x2 ⎦ = ⎣ −3r ⎦ = r ⎣ −3 ⎦ .
1
r
x3
⎡
Ası́,
Ker(T ) = {u ∈ R3 |u = (−6r, −3r, r), r ∈ R }.
Ejemplo 5.17 (Núcleo de una transformación matricial) Sean A ∈ Mm×n y la transformación matricial TA : Rn → Rm , TA (x) = Ax. Entonces x ∈ Ker(T ) ⇔ Ax = 0Rm ⇔ x está en el espacio nulo de
la matriz A; esto es, en el espacio solución del sistema homogéneo Ax = 0. Es decir, el núcleo de una
transformación matricial TA es el espacio nulo5 de la matriz A.
Ejemplo 5.18 Sea E = C1 [0, 1] y T : E → C[0, 1], la transformación lineal T ( f ) = f (cfr. ejemplo
5.4). Entonces
Ker(T ) =
=
=
=
{f
{f
{f
{f
∈ C1 [0, 1] | T ( f ) = 0 }
∈ C1 [0, 1] | f = 0 }
∈ C1 [0, 1] | f (x) = 0 ∀x ∈ [0, 1] }
∈ C1 [0, 1] | f es constante en [0, 1] }.
Sean ahora T ∈ L (E, F), x1 ,x2 ∈ Ker(T ), y α, β ∈ R; entonces T (x1 ) = T (x2 ) = 0F . Luego
T (αx1 + βx2 ) = αT (x1 ) + βT (x2 ) = 0F +0F = 0F ,
14 Queda como ejercicio para el lector comprobar que efectivamente T es una transformación lineal (cfr. ejemplo 5.5 y la definición
de transformación lineal o el ejemplo 5.11 y la discusión que lo precede).
15 Cfr. ejemplo 3.20, página 141.
Page (PS/TeX): 9 / 425, COMPOSITE
426 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
por lo que αx1 + βx2 ∈ Ker(T ); y puesto que6 T (0E ) = 0F , se sigue que el núcleo de toda transformación lineal es un subespacio vectorial y por ende un espacio vectorial. Resumimos este resultado en el
siguiente teorema.
Teorema 5.5 Si L (E, F), entonces7 Ker(T ) < E.
En el teorema 5.6 se ve la relación entre la inyectividad y el núcleo de una transformación lineal que
acabamos de mencionar.
Teorema 5.6 (Núcleo e inyectividad) Si E y F son espacios vectoriales y T ∈ L (F, F), entonces T
es inyectiva si y sólo si Ker(T ) = {0E }.
DEMOSTRACIÓN
Q 1. Supongamos que T es inyectiva. Si x ∈ Ker(T ), T (x) = 0F y puesto que T (0E ) = 0F , x = 0E ; por
tanto, Ker(T ) = {0E }.
2. Supongamos ahora que Ker(T ) = {0E }. Si x,y ∈ E y T (x) = T (y), entonces T (x −y) = T (x) −
T (y) = 0F . Por tanto, x −y ∈ Ker(T ) = {0E }. Ası́ que x −y = 0E ; es decir, x = y; lo cual prueba
que T es inyectiva.
Q
Ejemplo 5.19 Si A ∈ Mn×n , la transformación matricial TA de Rn en Rn es inyectiva si y sólo si A es
invertible. En efecto:
TA es inyectiva ⇔ Ker(TA ) = {0Rn }
⇔ la única solución de Ax = 0Rn es x = 0Rn
⇔ A es invertible.
Definición 5.7 Si T ∈ L (E, E); es decir, T es una transformación lineal de un espacio E en sı́ mismo,
se acostumbra decir que T es un operador lineal en el espacio E.
Más adelante veremos que a todo operador lineal T en un espacio E de dimensión finita le corresponde una transformación matricial TA ; de tal suerte que el operador se puede evaluar por medio de
esta transformación matricial. Por esta razón y el ejemplo precedente, es común decir que un operador
lineal es no singular cuando es invertible. En este texto utilizaremos indistintamente los calificativos
invertible y no singular cuando un operador lineal sea invertible.
1 −1
Ejemplo 5.20 Sea A =
y TA : R2 → R2 la transformación matricial definida por TA (x, y) =
2
1
x
A
; puesto que
y
1 −1
1 −1
A=
∼
∼ I2 ,
2
1
0
3
se deduce que A es invertible, luego el operador lineal TA es inyectivo.
16 Cfr. teorema 5.2, página 419.
17 Recuerde que la notación S < E significa que S es un subespacio vectorial de E (cfr. definición 3.10, pág. 139).
Page (PS/TeX): 10 / 426, COMPOSITE
SECCIÓN 5.1
Transformaciones lineales 427
Ejemplo 5.21 Sea T : R2 → R3 definida por T (x, y) = (2x, 3x + 4, x + y), se deja como ejercicio al
lector comprobar que T es lineal. Determinar si T es inyectiva.
T (x, y) = (0, 0, 0) ⇒
Solución
(2x, 3x + y, x + y) = (0, 0, 0) ⇒
x = 0,
Por tanto, Ker(T ) = {(0, 0)}, por lo que T es inyectiva.
y = 0.
Ejemplo 5.22 Sea T : R3 → R3 definida por T (x, y, z) = (z, 0, x + y). Sean (x1 , y2 , z3 ), (x1 , y2 , z3 ) ∈ R3
y α ∈ R, entonces
T ((x1 , y1 , z1 ) + (x2 , y2 , z2 )) = T (x1 + x2 , y1 + y2 , z1 + z2 )
= (z1 + z2 , 0, x1 + x2 + y1 + y2 )
= (z1 , 0, x1 + y1 ) + (z2 , 0, x2 + y2 )
= T (x1 , y1 , z1 ) + T (x2 , y2 , z2 )
y
T (α(x1 , y1 , z1 )) = T (αx1 , αy1 , αz1 )
= (αz1 , 0, αx1 + αy1 )
= α(z1 , 0, x1 + y1 )
= αT (x1 , y1 , z1 ).
Lo cual demuestra que T es un operador lineal. Por otra parte, si u = (−1, 1, 0), entonces
T (u) = (0, 0, −1 + 1) = (0, 0, 0),
por lo que u ∈ Ker(T ) y por tanto Ker(T ) = {(0, 0, 0)}. Luego el operador lineal T no es inyectivo.
Imagen de una transformación
Definición 5.8 Sean E, F un par de espacios vectoriales, T ∈ L (E, F) y S ⊂ E un subconjunto no
vacı́o:
1. Al conjunto
T (S) = { T (x) |x ∈ S } = {y ∈ F | existe x ∈ S con T (x) =y }
se le llama la imagen de S bajo T . También se dice que S se transforma en T (S) bajo la
aplicación T .
2. En particular, T (E) se llama la imagen de la transformación T .
Ejemplo 5.23 Sea T : R2 → R2 definida por T (x, y) = (2x, y) para todo (x, y) ∈ R2 . Puesto que
2 0
x
T (x, y) =
,
0 1
y
Page (PS/TeX): 11 / 427, COMPOSITE
428 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
y
v
S
T (S)
u
x
(a)
(b)
y
p
T (p)
x
2x
(d)
(c)
Figura 5-3 •
es inmediato que T es una transformación lineal. Sea
S = {(x, y) ∈ R2 | x2 + y2 = 1};
i.e., S es la circunferencia con centro en el origen y radio 1. El objetivo es determinar geométricamente
en qué se transforma el conjunto S bajo T ; es decir, T (S). Para ello podemos bosquejar el plano R2 y
una copia del mismo donde, para mejor comprensión, hemos elegido la letra u en el eje de las abscisas y
la letra v para el eje de las ordenadas en lugar de x y y, respectivamente, del plano original, para graficar
la imagen de S bajo la transformación T , como se ilustra en la figura 5-3(a) y (b). Entonces, si
(u, v) = T (x, y) = (2x, y)
se tiene
u = 2x,
v = y.
Luego, si (x, y) ∈ S,
u 2
2
+ v2 = x2 + y2 = 1.
De esta manera todo punto (x, y) de la circunferencia S (cfr. figura 5.23(a)) se transforma en un punto
T (x, y) = (u, v) de la elipse (u2 /4) + v2 = 1 bosquejada en la figura 5-3(b). Por tanto, la imagen de la circunferencia S, bajo la transformación T , es la elipse T (S) con ecuación, en el plano u, v, (u2 /4) + v2 = 1.
Naturalmente, es posible utilizar el mismo plano para bosquejar S y su imagen T (S) (figura 5-3(c)). En
general, esta aplicación transforma un vector p en otro vector T (p) que sufre una dilatación, en un factor
de 2, en la abscisa y que permanece invariante en la ordenada (figura 5-3(d)).
Page (PS/TeX): 12 / 428, COMPOSITE
SECCIÓN 5.1
Transformaciones lineales 429
Teorema 5.7 Sean E, F espacios vectoriales y T ∈ L (E, F):
1. Si S < E, entonces T (S) < F.
2. T (E) < F.
un )).
3. Si S = gn(u1 ,u2 , . . . ,un ), entonces T (S) = gn(T (u1 ), T (u2 ), . . . , T (
DEMOSTRACIÓN
Q 1. (a) Como S < E, 0E ∈ S y entonces, al ser T lineal, T (0E ) = 0F ; luego 0F ∈ T (S).
(b) Si y1 ,y2 ∈ T (S), existen x1 ,x2 ∈ S tales que T (x1 ) = y1 y T (x2 ) = y2 ; entonces, dado que
x1 +x2 ∈ S (porque S < E), y1 +y2 = T (x1 ) + T (x2 ) = T (x1 +x2 ) ∈ T (S).
(c) Seay ∈ T (S) y α ∈ R, entonces existe x ∈ E tal quey = T (x); dado que αx ∈ S (porque S < E),
αy = αT (x) = T (αx) ∈ T (S).
De (a), (b) y (c) se tiene que T (S) < F.
2. Es consecuencia inmediata del inciso 1.
3. Si v ∈ gn(u1 ,u2 , . . . ,un ), existen α1 , α2 , . . . , αn ∈ R tales que
v = α1u1 + α2u2 + · · · + αnun ,
entonces
T (v) = T (α1u1 + α2u2 + · · · + αnun )
= T (α1u1 ) + T (α2u2 ) + · · · + T (αnun )
= α1 T (u1 ) + α2 T (u2 ) + · · · + αn T (un );
un )).
de donde T (S) = gn(T (u1 ), T (u2 ), . . . , T (
Q
Ejemplo 5.24 Sea T ; R3 → R3 la transformación definida como
T (x, y, z) = (x + 2y − z, y + z, x + y − 2z).
1. Encontrar una matriz A ∈ M3×3 tal que T (u) = Au ∀u ∈ R3 .
2. Demostrar que T es un operador lineal en R3 .
3. Hallar una base y dim(T (R3 )).
4. Hallar una base de Ker(T ) y dim(Ker(T )).
5. ¿Cuál es el valor de dim(Ker(T )) + dim((T (E))?
T (e1 ) = T (1, 0, 0) = (1, 0, 1),
T (e2 ) = T (1, 0, 0) = (2, 1, 1),
T (e3 ) = T (0, 0, 1) = (−1, 1, −2).
⎤
⎤⎡ ⎤ ⎡
⎤
⎡
⎡
x + 2y − z
x
1 2 −1
1 2 −1
y + z ⎦ = T (x, y, z).
1 ⎦⎣ y ⎦ = ⎣
1 ⎦, entonces ⎣ 0 1
Sea A = ⎣ 0 1
x + y − 2z
z
1 1 −2
1 1 −2
Solución
1.
Esto es, T (u) = Au
Page (PS/TeX): 13 / 429, COMPOSITE
∀u ∈ R3 .
430 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
2. Puesto que T = TA , se sigue que T es lineal.
3. Sabemos quee1 = (1, 0, 0),e2 = (0, 1, 0),e3 = (0, 0, 1) forman una base de R3 ; ası́ T (e1 ), T (e2 ), T (e3 )
generan a T (R3 ).
Entonces,
T (R3 ) = gn(T (e1 ), T (e2 ), T (e3 ))
= gn((1, 0, 1), (2, 1, 1), (−1, 1, −2)).
Ahora extraigamos una base para T (R3 ) a partir de estos generadores (cfr. teorema 3.18 y ejemplo
3.61, pág. 166) llevando la matriz A a forma escalonada.
⎤ ⎡
1
1 2 −1
⎣ 0 1
1 ⎦∼⎣ 0
0
1 1 −2
⎡
⎤ ⎡
1
2 −1
1
1 ⎦∼⎣ 0
0
−1 −1
⎤
2 −1
1
1 ⎦.
0
0
Una base para T (R3 ) es entonces B = {(1, 0, 1), (2, 1, 1)} y dim(T (R3 )) = 2.
4. Para hallar el núcleo de T tenemos
T (x, y, z) = (0, 0, 0) ⇔
(x − 2y − z, y + z, x + y − 2z) = (0, 0, 0);
que equivale a resolver el sistema homogéneo
x
−
x
+
2y
y
y
−
+
−
z =
z =
2z =
0
0
0
Resolvamos este sistema llevando la matriz de coeficientes a forma escalonada:
⎤
⎤ ⎡
⎡
1 2 −1
1 2 −1
⎣ 0 1
1 ⎦,
1 ⎦∼⎣ 0 1
0 0
0
1 1 −2
y después haciendo sustitución regresiva:
⎤
⎤ ⎡
⎤
⎡
3
x
3r
⎣ y ⎦ = ⎣ −r ⎦ = r ⎣ −1 ⎦ .
1
z
r
⎡
Por tanto,
Ker(T ) = gn((3, −1, 1)).
Entonces, una base para Ker(T ) es B = {(3, −1, 1)} y dim(Ker(T )) = 1.
5.
dim(Ker(T )) + dim((T (E)) = 1 + 2 = 3 = dim(R3 ). El precedente ejemplo motiva los resultados contenidos en los teoremas 5.8 y 5.9.
Page (PS/TeX): 14 / 430, COMPOSITE
SECCIÓN 5.1
Transformaciones lineales 431
Teorema 5.8 Si T ∈ L (E, F) y dim(E) = n, entonces
dim(T (E)) + dim(Ker(T )) = n
DEMOSTRACIÓN
(5.2)
Q Sea {e1 ,e2 , . . . ,ek } una base de Ker(T ). Completemos ésta a una base
{e1 ,e2 , . . . ,ek , f1 , f2 , . . . , fn−k }
de E (cfr. el procedimiento para este fin dado en la pág. 167). Entonces, si u = a1e1 + · · · + akek + b1 f1 +
· · · + bn−k fn−k ∈ E,
T (u) = a1 T (e1 ) + · · · + ak T (ek ) + b1 T (f1 ) + · · · + bn−k T (fn−k )
= 0F + · · · +0F + b1 T (f1 ) + · · · + bn−k T (fn−k )
= b1 T (f1 ) + · · · + bn−k T (fn−k );
de donde T (E) = gn(T (f1 ), . . . , T (fn−k )). Sean β1 , . . . , βn−k ∈ R tales que
β1 T (f1 ) + · · · + βn−k T (fn−k ) = 0F ,
entonces
T (β1 f1 + · · · + βn−k fn−k ) = β1 T (f1 ) + · · · + βn−k T (fn−k )
= 0F .
Por lo que β1 f1 + · · · + βn−k fn−k ∈ Ker(T ); por tanto existen −α1 , . . ., −αk ∈ R tales que
β1 f1 + · · · + βn−k fn−k = (−α1 )e1 + · · · + (−αk )ek
(pues {e1 , . . . ,ek } es una base de Ker(T )). Entonces
α1e1 + · · · + αkek + β1 f1 + · · · + βn−k fn−k = 0E
y ya que los vectorese1 , . . . ,ek , f1 , . . . , fn−k son L.I., se tiene que los escalares α1 , . . . , αk , β1 , . . . , βn−k son
todos nulos; en particular
β1 = · · · = βn−k = 0.
Luego los vectores T (f1 ), . . . , T (fn−k ) son L.I y, ya que generan a T (E), forman una base de T (E). Ası́,
dim(T (E)) = n − k; por ende,
dim(Ker(T )) + dim(T (E)) = n = dim(E). Q
Definición 5.9 Si E tiene dimensión finita y T ∈ L (E, F), a la dimensión del subespacio T (E) se le
llama el rango de la transformación T y se denota por Rang(T ); es decir,
Rang(T ) = dim(T (E)).
Page (PS/TeX): 15 / 431, COMPOSITE
432 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Teorema 5.9 Sean T ∈ L (Rn , Rm ) y A la representación matricial de T relativa a las bases canónicas de Rn y Rm . Entonces:
1. T (Rn ) = Ec (A),8 esto es, v ∈ T (Rn ) si y sólo si el sistema Au =v tiene solución.
2. dim(T (Rn )) = Rang(A), el rango de la matriz A.
3. u ∈ Ker(T ) ⇔ u pertenece al espacio nulo de A; esto es, u es solución del sistema homegéneo
Au = 0Rm .
4. dim(Ker(T )) = Nul(A), la nulidad de A, la dimensión del espacio solución del sistema
Ax = 0Rm .
5. Si m = n, el operador lineal T es inyectivo (por tanto biyectivo) si y sólo si A es invertible.
La demostración de este teorema es sencilla y se deja como ejercicio al lector.
Ejemplo 5.25 ¿Es posible construir una transformación lineal T ∈ L (R4 , R3 ) que sea inyectiva?
Supongamos que sı́. Por 5.2 del teorema 5.8 tenemos
4 = dim(T (R4 )) + dim(Ker(T )) = dim(T (R4 )) + 0 = dim(T (R4 ))
pues T es inyectiva y por ende Ker(T ) = {0E }, luego dim(Ker(T )) = 0. Pero T (R4 ) < R3 y entonces
dim(T (R4 )) es a lo más 3. Ası́
4 = dim(T (R4 )) ≤ 3.
Lo cual es una contradicción; por tanto es imposible que T sea inyectiva.
El mismo razonamiento del ejemplo precedente es válido para cualquier T ∈ L (E, F) donde E tiene
dimensión finita y dim(F) < dim(E) para mostrar que T no puede ser inyectiva.
Como mencionamos más arriba, para el caso de espacios vectoriales y de una transformación lineal
entre ellos, hay condiciones sencillas para probar la suprayectividad e inyectividad.
Teorema 5.10 Sean E y F un par de espacios vectoriales y T : E → F una transformación lineal.
Entonces:
1. T es suprayectiva ⇔ T (E) = F.
2. Si dim(E) = n < ∞, T es suprayectiva si y sólo si dim(T (E)) = dim(F).
3. Si dim(E) = n < ∞ y T es suprayectiva, entonces dim(F) ≤ n.
4. Si dim(E) = dim(F) = n < ∞, T es suprayectiva ⇔ T es inyectiva.
5. Si E tiene dimensión n y T es biyectiva, entonces
dim(E) = dim(F).
DEMOSTRACIÓN
Q 1. Es evidente.
18 Recuerde que Ec (A) representa el espacio columna de A (cfr. definición 3.13, pág. 146).
Page (PS/TeX): 16 / 432, COMPOSITE
SECCIÓN 5.2
Representaciones matriciales de transformaciones lineales 433
2. (⇒)Si T es suprayectiva, T (E) = F; y, por tanto, dim(T (E)) = dim(F). (⇐) Si dim(T (E)) =
dim(F), entonces T (E) = F.
3. Sea {ei }, i = 1, 2, . . . , n una base de E, entonces
F = T (E) = gn(T (e1 ), . . . , T (en ));
luego
dim(F) ≤ n.
4. Es consecuencia inmediata de la igualdad (5.2).
5. F = T (E) por ser T suprayectiva, dim(Ker(T )) = 0 por ser T inyectiva, y por (5.2) se tiene
dim(F) = dim(T (E)) + dim(Ker(T )) = n = dim(E). Q
Si T : E → F es una transformación lineal biyectiva, entonces existe la transformación inversa de T ,
T −1 : F → E; ¿es también lineal T −1 ? La respuesta es afirmativa.
Teorema 5.11 Sea T : E → F una transformación lineal biyectiva y sea T −1 : F → E la transformación inversa de T , entonces T −1 es lineal.
DEMOSTRACIÓN
Q Seanu1 ,u2 ∈ F y α, β ∈ R. Puesto que T es biyectiva, existenu,v ∈ E tales que T (u) =u1 y T (v) =u2 ;
por tanto T −1 (u1 ) = u y T −1 (u2 ) =v. Entonces
T −1 (αu1 + βu2 ) =
=
=
=
T −1 (αT (u) + βT (v))
T −1 (T (αu + βv))
αu + βv
αT −1 (u1 ) + βT −1 (u2 ).
Q
5.2 Representaciones matriciales de transformaciones lineales
En el teorema 5.3 (cfr. pág. 421) vimos que para toda transformación lineal T : Rn → Rm existe una
matriz A ∈ Mm×n tal que T = TA ; esto es, T (u) = Au ∀u ∈ Rn . En esta sección veremos que este
resultado se puede extender a transformaciones T ∈ L (E, F) cuando los espacios vectoriales E y F
tienen dimensiones finitas.
5.2.1 Vectores de coordenadas, cambio de bases
Recordemos (cfr. pág. 335) que si B = {e1 ,e2 , . . . ,en } es una base fija de un espacio vectorial E, entonces, para cada u ∈ E, existen escalares únicos α1 , α2 , . . . , αn tales que
Page (PS/TeX): 17 / 433, COMPOSITE
434 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
u = α1e1 + α2e2 + · · · + αnen
(5.3)
Si convenimos que todo vector se va a escribir respetando el mismo orden de los términos en el lado
derecho de (5.3); es decir, un escalar que multiplica a e1 , más un escalar que multiplica a e2 , etc., más
un escalar que multiplica a en , diremos que B es una base ordenada del espacio E y escribiremos, con
frecuencia, (e1 ,e2 , . . . ,en ) en lugar de {e1 ,e2 , . . . ,en } para hacer énfasis en este hecho.9 Es claro que si se
conoce el vector (α1 , α2 , . . . , αn ) se conoce el vector u y viceversa. Esto motiva la siguiente definición.
Definición 5.10 Sea B = (e1 ,e2 , . . . ,en ) una base ordenada del espacio E y u ∈ E. Al único vector
(α1 , α2 , . . . , αn ) ∈ Rn tal que
u = α1e1 + α2e2 + · · · + αnen
se le llama el vector coordenado o el vector de coordenadas de u relativo a la base B, y se denota
por10 [u]B ; i.e.,
⎡
⎤
α1
⎢ α2 ⎥
⎢
⎥
[u]B = ⎢ . ⎥ .
⎣ .. ⎦
αn
Ejemplo 5.26 En P3 sea la base ordenada B = (1, x, x2 , x3 ). Entonces
3x − 4 = −4(1) + 3(x) + 0 · x2 + 0 · x3 ;
luego,
⎤
−4
⎢ 3 ⎥
⎥
[3x − 4]B = ⎢
⎣ 0 ⎦ .
0
⎡
Ejemplo 5.27 En el subespacio
S = gn(1, cos(2x))
de las funciones continuas de R en R,
cos2 (x) =
1 1
+ cos(2x).
2 2
Entonces,
2
cos (x)
B
=
1/2
1/2
para la base ordenada B = (1, cos(2x)) de S.
19 De una manera más rigurosa, pero más simple, una base ordenada de un espacio vectorial de dimensión finita es una sucesión
finita de vectores L.I. que genera a este espacio.
10
1Recordemos que hemos convenido en representar un vector de Rn indistintamente por una n-ada ordenada o por una matriz
columna.
Page (PS/TeX): 18 / 434, COMPOSITE
Representaciones matriciales de transformaciones lineales 435
SECCIÓN 5.2
Ejemplo 5.28 Para la base ordenada
1 0
0 1
0 0
0 0
B=
,
,
,
0 0
0 0
1 0
0 1
de M2×2 ,
−1 1
0 2
= (−1)
1 0
0 0
+ (1)
0
0
1
0
+ (0)
0 0
1 0
+ (2)
0 0
0 1
.
Luego
Ejemplo 5.29 Dado que
−1 1
0 2
⎤
−1
⎢ 1 ⎥
⎥
=⎢
⎣ 0 ⎦ .
B
2
⎡
⎤ ⎡
1
1 −1
3
⎣ 1
2 −1 ⎦ ∼ ⎣ 0
0
0 −1
2
⎡
1
∼⎣ 0
0
⎡
−1
3
−1
−1
3
0
⎤
3
−4 ⎦
2
⎤
3
−4 ⎦ ,
2
se sigue que {(1, 1, 0), (−1, 2, −1), (3, −1, 2)} es una base de R3
vector (2, 1, 3) de R3 y resolvamos el sistema
⎤⎡
⎤ ⎡
⎡
α1
1 −1
3
⎣ 1
2 −1 ⎦ ⎣ α2 ⎦ = ⎣
0 −1
2
α3
(cfr. teorema 3.13, pág. 158). Sea el
⎤
2
1 ⎦
3
por el método de Gauss:
⎡
1
⎣ 1
0
⎤ ⎡
1 −1
3 2
−1
3 2
3 −4 −1
2 −1 1 ⎦ ∼ ⎣ 0
0 −1
2 3
−1
2 3
⎡
1 −1
3 2
3 −4 −1
∼⎣ 0
0
0
2 8
⎡
∴
⎤
⎤ ⎡
α1
−5
⎣ α2 ⎦ = ⎣ 5 ⎦ .
4
α3
Por lo que
⎤
−5
[(2, 1, 3)]B = ⎣ 5 ⎦
4
⎡
para la base ordenada ((1, 1, 0), (−1, 2, −1), (3, −1, 2)).
Page (PS/TeX): 19 / 435, COMPOSITE
⎤
⎦
⎤
⎦
436 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Comprobación:
−5(1, 1, 0) + 5(−1, 2, −1) + 4(3, −1, 2) = (2, 1, 3) .
Las siguientes propiedades de los vectores de coordenadas son sencillas de probar y se dejan como
ejercicio al lector.
Teorema 5.12 Sean E un espacio vectorial de dimensión n y B una base ordenada de él. Entonces:
1. [u +v]B = [u]B + [v]B
2. [αu]B = α[u]B
∀u,v ∈ E.
∀u ∈ E,
∀α ∈ R.
3. [u]B = [v]B ⇔ u =v.
4. [u]B = 0Rn ⇔ u = 0E .
5. u1 , . . . ,uk son L.I. en E ⇔ [u1 ]B , . . . , [uk ]B son L.I. en Rn .
6. Para todo x = (x1 , . . . , xn ) ∈ Rn existe un único u ∈ E tal que [u]B =x y viceversa.
En la ulterior discusión necesitaremos del siguiente lema.
Lema 5.1
1. Sea A ∈ Mm×n una matriz tal que Ax = 0Rm para todo x ∈ Rn . Entonces A = O, la matriz cero
de tamaño m × n.
2. Sea A ∈ Mn×n una matriz tal que Ax =x para todox ∈ Rn . Entonces A = In , la matriz identidad
de orden n.
DEMOSTRACIÓN
Q 1. Sean ei los vectores de la base canónica de Rn (la componente i de ei es 1 y las demás son 0).
i es la columna i de A, se tiene
Entonces, si K
0Rm = Aei = K
i;
de donde A = O.
2. Es consecuencia inmediata del inciso anterior, pues
Ax =x ⇒ (A − In )x = 0Rn .
Q
Supongamos ahora que B1 = (e1 ,e2 , . . . ,en ) y B2 = (f1 , f2 , . . . , fn ) son bases ordenadas de un mismo
espacio vectorial E. Sea
⎡
⎢
⎢
[u]B2 = ⎢
⎣
α1
α2
..
.
⎤
⎥
⎥
⎥
⎦
αn
el vector de coordenadas de u relativo a la base B2 . Escribamos cada vector fi como combinación lineal
de los elementos de la base ordenada B1 :
Page (PS/TeX): 20 / 436, COMPOSITE
Representaciones matriciales de transformaciones lineales 437
SECCIÓN 5.2
f1 = a11e1 + a12e2 + · · · + a1nen ,
f2 = a21e1 + a22e2 + · · · + a2nen ,
..
.. ..
.
. .
fn = an1e1 + an2e2 + · · · + annen .
Entonces
u = α1 f1 + α2 f2 + · · · + αn fn
= α1 (a11e1 + a12e2 + · · · + a1nen )
+ α2 (a21e1 + a22e2 + · · · + a2nen )
+···
+ αn (an1e1 + an2e2 + · · · + annen )
= (α1 a11 + α2 a21 + · · · + αn an1 )e1
+ (α1 a12 + α2 a22 + · · · + αn an2 )e2
+···
+ (α1 a1n + α2 a2n + · · · + αn ann )en .
Esto es,
⎡
⎢
⎢
[u]B1 = ⎢
⎣
⎡
⎢
⎢
=⎢
⎣
α1 a11 + α2 a21 + · · · + αn an1
α1 a12 + α2 a22 + · · · + αn an2
..
.
α1 a1n + α2 a2n + · · · + αn ann
⎤⎡
a11 a21 · · · an1
α1
⎢ α2
a12 a22 · · · an2 ⎥
⎥⎢
.. ⎥ ⎢ ..
..
..
..
.
. ⎦⎣ .
.
.
a1n
···
a2n
⎤
⎥
⎥
⎥
⎦
⎤
⎥
⎥
⎥.
⎦
αn
ann
Entonces, si
⎡
⎢
⎢
P=⎢
⎣
a11
a12
..
.
a21
a22
..
.
···
···
..
.
an1
an2
..
.
a1n
a2n
···
ann
⎤
⎥
⎥
⎥
⎦
y conocemos el vector de coordenadas del vector u relativo a la base B2 , podemos conocer también el
vector de coordenadas de u relativo a la base B1 mediante la matriz P:
[u]B1 = P [u]B2
(5.4)
Ahora escribamos los vectores de la base ordenada B1 como combinaciones lineales de los vectores de
la base B2 :
e1 = b11 f1 + b12 f2 + · · · + b1n fn ,
e2 = b21 f1 + b22 f2 + · · · + b2n fn ,
.. ..
. .
..
.
en = bn1 f1 + bn2 f2 + · · · + bnn fn .
Page (PS/TeX): 21 / 437, COMPOSITE
438 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Sea
⎡
⎢
⎢
Q=⎢
⎣
b11
b12
..
.
b21
b22
..
.
···
···
..
.
bn1
bn2
..
.
b1n
b2n
···
bnn
⎤
⎥
⎥
⎥,
⎦
entonces, por analogı́a, se tiene
[u]B2 = Q [u]B1 .
(5.5)
Es decir, podemos calcular el vector de coordenadas de u relativo a la base B2 si conocemos el vector
de coordenadas del mismo vector relativo a la base B1 multiplicando éste por la matriz Q. Ahora bien,
de (5.4) y (5.5) tenemos
[u]B1 = P [u]B2
= P Q [u]B1
= (PQ) [u]B1
para todo vector [u]B1 ∈ Rn . Esto implica, por el lema 5.1, que PQ = In ; es decir, P es invertible y
P−1 = Q. Hemos probado ası́ el siguiente teorema.
Teorema 5.13 Sean B1 = (e1 ,e2 , . . . ,en ) y B2 = (f1 , f2 , . . . , fn ) dos bases ordenadas de un mismo
espacio vectorial. Sean ai j ∈ R escalares tales que
f1
f2
..
.
fn
y sea11
=
=
..
.
a11e1 + a12e2 + · · · + a1nen
a21e1 + a22e2 + · · · + a2nen
..
.
=
an1e1 + an2e2 + · · · + annen
⎡
⎢
⎢
P=⎢
⎣
a11
a12
..
.
a21
a22
..
.
···
···
..
.
an1
an2
..
.
a1n
a2n
···
ann
⎤
⎥
⎥
⎥.
⎦
Entonces, la matriz P es invertible y para todo u ∈ E se tiene:
1.
[u]B1 = P [u]B2 .
2.
[u]B2 = P−1 [u]B1 .
Definición 5.11 Sean las condiciones del teorema anterior.
1. A la matriz P se le dice matriz cambio de base de la base B2 a la base B1 .
2. A la matriz P−1 se le dice matriz cambio de base de la base B1 a la base B2 .
1Observe que P es la transpuesta de la matriz de los coeficientes de los vectores ei del sistema (5.6).
11
Page (PS/TeX): 22 / 438, COMPOSITE
(5.6)
Representaciones matriciales de transformaciones lineales 439
SECCIÓN 5.2
Ejemplo 5.30 Sean e1 = (1, 0), e2 = (0, 1), f1 = (1, 1), f2 = (−1, 0) y B1 = {e1 ,e2 }, B2 = {f1 , f2 }.
Ambas son bases de R2 y
f1 = 1 ·e1 + 1 ·e2
f2 = (−1)e1 + 0 ·e2 .
Entonces,
P=
1
1
−1
0
y P−1 =
0 1
−1 1
luego,
[u]B2 = P−1 [u]B1 .
Ası́, por ejemplo, podemos escribir (−4, 3) como combinación lineal de f1 , f2 , al hallar [(−4, 3)]B2 ;
pues
[(−4, 3)]B2 = P−1 [(−4, 3)]B1
0 1
−4
=
−1 1
3
3
=
;
7
y por tanto
(−4, 3) = 3f1 + 7f2 ,
como el lector puede comprobar fácilmente.
Ejemplo 5.31 En el ejemplo 5.29 vimos que
B2 = {(1, 1, 0), (−1, 2, −1), (3, −1, 2)}
es una base de R3 . Sea B1 = {(1, 0, 0), (0, 1, 0), (0, 1, 0)} la base canónica de este espacio. Entonces para
este caso, claramente
⎤
⎡
1 −1
3
2 −1 ⎦ .
P=⎣ 1
0 −1
2
Calculemos P−1 por el método de Gauss-Jordan:
⎡
1
⎣ 1
0
Page (PS/TeX): 23 / 439, COMPOSITE
−1
2
−1
3
−1
2
⎤ ⎡
1 0 0
1
0 1 0 ⎦∼⎣ 0
0 0 1
0
⎡
1
∼⎣ 0
0
⎡
1
∼⎣ 0
0
−1
3 3 −4 −1
2 −1
3 3 −4 0
2 −1
3 3 −4 0
1 ⎤
1 0 0
−1 1 0 ⎦
0 0 1
⎤
1 0 0
−1 1 0 ⎦
−1 1 3
⎤
1
0
0
−1
1
0 ⎦
−1/2 1/2 3/2
440 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
⎡
1
∼⎣ 0
0
⎡
1
∼⎣ 0
0
⎡
1
∼⎣ 0
0
⎤
1
0
0
−1 3 −3
3
6 ⎦
3 0 0 1 −1/2 1/2 3/2
⎤
−1 0 5/2 −3/2 −9/2
−1
1
2 ⎦
1 0 1/2
3/2
0 1 −1/2
⎤
0 0 3/2 −1/2 −5/2
1
2 ⎦
1 0 −1
1/2
3/2
0 1 −1/2
y por tanto
⎤
3/2 −1/2 −5/2
−1
1
2 ⎦.
P−1 = ⎣
−1/2
1/2
3/2
⎡
Ası́, si [u]B1 es el vector de coordenadas de u relativo a la base canónica B1 , entonces el vector de
coordenadas de éste relativo a la base B2 es
[u]B2 = P−1 [u]B1 .
⎡ ⎤
2
Por ejemplo, si u = (2, 1, 3), por tanto, [u]B1 = ⎣ 1 ⎦ y
3
⎤
⎤ ⎡
⎤⎡
⎡
−5
2
3/2 −1/2 −5/2
−1
1
2 ⎦⎣ 1 ⎦ = ⎣ 5 ⎦.
[u]B2 = ⎣
4
3
−1/2
1/2
3/2
Que es el mismo resultado que obtuvimos en el ejemplo 5.29.
P Nota 5.3 Aunque en el ejemplo anterior no hicimos énfasis por medio de notación, hemos considerado las dos bases como bases ordenadas. Esto lo haremos frecuentemente en aras de brevedad; es decir,
toda base, a lo largo de lo que resta de este capı́tulo, se considera una base ordenada aun si esto no se
hace notar explı́citamente.
Ejemplo 5.32 Sean las bases B1 = {1, x} y B2 = {4, 2 − x} del espacio de polinomios de grado a
lo más 1 (note que en ambos casos claramente los respectivos elementos de cada conjunto son L.I. y
recuerde que la dimensión de P1 es 2; razón por la que ambas son, efectivamente, bases de este espacio).
1. Encontrar la matriz cambio de base de la base B1 a la base B2 .
2. Hallar el vector de coordenadas del polinomio p(x) = 4 − 5x relativo a la base B2 .
3. Escribir el polinomio p(x) como combinación lineal de los elementos de la base B2 .
Solución
1. Tenemos que
4 = 4·1+0·x
2 − x = 2 · 1 + (−1)x
por lo que
P=
Page (PS/TeX): 24 / 440, COMPOSITE
4
2
0 −1
Representaciones matriciales de transformaciones lineales 441
SECCIÓN 5.2
y, por el método de la adjunta,
P−1 = −
1
4
−1 −2
0
4
.
La cual es la matriz cambio de base de B1 a B2 .
2. Ya que p(x) = 4 · 1 + (−5) x,
[p(x)]B1 =
4
−5
.
Entonces
[p(x)]B2 = P−1 [p(x)]B1
1 −1 −2
4
=−
0
4
−5
4
−3/2
=
.
5
3. Finalmente
3
4 + (5) (2 − x)
p (x) = −
2
como el lector puede fácilmente verificar. 5.2.2 Representaciones matriciales de un operador lineal
Ahora generalizaremos el concepto de representación matricial que se dio para transformaciones lineales
de Rn en Rm a operadores lineales en un espacio vectorial; esto es, para transformaciones lineales de un
espacio en sı́ mismo cuando éste tiene dimensión finita. Para ello, sean T ∈ L (E, E) un operador lineal
y B = {e1 ,e2 , . . . ,en } una base del espacio E. Sean ai j ∈ R escalares tales que
T (e1 )
T (e2 )
..
.
=
=
..
.
a11e1 + a12e2 + · · · + a1nen
a21e1 + a22e2 + · · · + a2nen
..
.
T (en )
=
an1e1 + an2e2 + · · · + annen .
Sea u = α1e1 + α2e2 + · · · + αnen ∈ E; entonces [u]B = (α1 , α2 , . . . , αn ) y
T (u) = T (α1e1 + α2e2 + · · · + αnen )
= α1 T (e1 ) + α2 T (e2 ) + · · · + αn T (en ).
Por tanto
T (u) = α1 (a11e1 + a12e2 + · · · + a1nen )
+α2 (a21e1 + a22e2 + · · · + a2nen )
+···
+αn (an1e1 + an2e2 + · · · + annen )
Page (PS/TeX): 25 / 441, COMPOSITE
(5.7)
442 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
= (α1 a11 + α2 a21 + · · · + αn an1 )e1
+(α1 a12 + α2 a22 + · · · + αn an2 )e2
+···
+(α1 a1n + α2 a2n + · · · + αn ann )en ;
luego
⎡
⎢
⎢
[T (u)]B = ⎢
⎣
⎡
⎢
⎢
=⎢
⎣
α1 a11 + α2 a21 + · · · + αn an1
α1 a12 + α2 a22 + · · · + αn an2
..
.
α1 a1n + α2 a2n + · · · + αn ann
⎤⎡
α1
a11 a21 · · · an1
⎢ α2
a12 a22 · · · an2 ⎥
⎥⎢
.. ⎥ ⎢ ..
..
..
..
.
. ⎦⎣ .
.
.
a1n
a2n
···
⎤
⎥
⎥
⎥
⎦
⎤
⎥
⎥
⎥.
⎦
αn
ann
Lo cual motiva la definición 5.12 y prueba el teorema 5.14.
Definición 5.12 Sean T : E → E un operador lineal en el espacio E, B = {e1 ,e2 , . . . ,en } una base
(ordenada) de este espacio y ai j ∈ R escalares tales que se tiene el sistema de igualdades (5.7); a la
matriz denotada y definida como
⎡
⎢
⎢
[T ]B = ⎢
⎣
a11
a12
..
.
a21
a22
..
.
···
···
..
.
an1
an2
..
.
a1n
a2n
···
ann
⎤
⎥
⎥
⎥
⎦
se12 le llama la representación matricial del operador T relativa a la base B.
Teorema 5.14 Sean E, T , B y [T ]B como en la definición 5.12. Entonces
[T (u)]B = [T ]B [u]B
(5.8)
para todo u ∈ E.
Ejemplo 5.33 En P3 sean T : P3 → P3 el operador lineal definido por T (p) = p , B = {1, x, x2 , x3 },
y p(x) = −3 + 8x − 5x2 − 7x3 ∈ P3 . Entonces:
T (1) =
0 = 0 · 1 + 0 · x + 0 · x2 + 0 · x3
T (x) =
1 = 1 · 1 + 0 · x + 0 · x 2 + 0 · x3
T (x2 ) = 2x = 0 · 1 + 2 · x + 0 · x2 + 0 · x3
T (x3 ) = 3x2 = 0 · 1 + 0 · x + 3 · x2 + 0 · x3 .
1Observe que [T ]B es la matriz transpuesta de coeficientes de los ei del sistema de igualdades (5.7).
12
Page (PS/TeX): 26 / 442, COMPOSITE
Representaciones matriciales de transformaciones lineales 443
SECCIÓN 5.2
Ası́,
⎡
0
⎢ 0
[T ]B = ⎢
⎣ 0
0
1
0
0
0
0
2
0
0
⎤
0
0 ⎥
⎥
3 ⎦
0
y
T (p(x)) = 8 − 10x − 21x2 = 8 · 1 + (−10) · x + (−21) · x2 + 0 · x3 .
Por tanto,
⎤
8
⎢ −10 ⎥
⎥
[T (p(x))]B = ⎢
⎣ −21 ⎦ .
0
⎡
Por otro lado,
⎡
0
⎢ 0
[T ]B [p(x)]B = ⎢
⎣ 0
0
1
0
0
0
0
2
0
0
⎤⎡
−3
0
⎢ 8
0 ⎥
⎥⎢
3 ⎦ ⎣ −5
−7
0
⎤
8
⎥ ⎢ −10 ⎥
⎥
⎥=⎢
⎦ ⎣ −21 ⎦ = [T (p(x))]B .
0
⎤
⎡
P Nota 5.4 Supongamos que T es un operador lineal en un espacio de dimensión finita E; con [T ]B
la representación de este operador relativa a una base B. Supongamos que A es una matriz cuadrada de
orden n tal que
[T (u)]B = A [u]B
(5.9)
para todo u ∈ E. Entonces
[T ]B [u]B = [T (u)]B = A [u]B ;
y por tanto
([T ]B − A)x = 0Rn
∀x ∈ Rn .
Por el lema 5.1 se tiene entonces [T ]B − A = O; esto es,
[T ]B = A.
Es decir, la única matriz cuadrada de orden n que satisface (5.9) para todo u ∈ E es la representación
matricial, [T ]B , del operador T relativa a la base B.
Como acabamos de ver, en la nota 5.4, la representación matricial de un operador lineal, relativa a
una base B, es la única matriz que satisface (5.9); sin embargo, si se toma otra base B1 del espacio
E, también se cumple (5.8) del teorema 5.14 con B = B1 . ¿Cómo están relacionadas entonces las
representaciones matriciales de un mismo operador lineal relativas a distintas bases? Para responder
esta pregunta supongamos que B1 y B2 son distintas bases del mismo espacio vectorial E y [T ]B1 ,
[T ]B2 son sendas representaciones matriciales del operador T relativas a estas bases. Sea P la matriz
Page (PS/TeX): 27 / 443, COMPOSITE
444 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
cambio de base de la base B2 a la base B1 ; entonces [u]B2 = P−1 [u]B1 y [u]B1 = P [u]B2 para todo
u ∈ E. Luego
[T (u)]B2 = P−1 [T (u)]B1
= P−1 [T ]B1 [u]B1
= P−1 [T ]B1 P [u]B2
= P−1 [T ]B1 P [u]B2
para todo u ∈ E. Por la unicidad de la representación matricial de un operador mostrada en la nota 5.4,
se tiene que
[T ]B2 = P−1 [T ]B1 P.
Hemos probado ası́ el siguiente teorema.
Teorema 5.15 Sean E un espacio vectorial; B1 y B2 bases del mismo; T un operador lineal en E;
y [T ]B1 , [T ]B2 las respectivas representaciones matriciales de T relativas a estas bases. Si P es la
matriz cambio de base de B2 a B1 , entonces
[T ]B2 = P−1 [T ]B1 P.
Ejemplo 5.34 Sea el operador lineal T : R2 → R2 , definido por T (x, y) = (4x − 2y, 2x + y) y B1 =
{(1, 0)(0, 1)}, B2 = {(1, 1), (1, 0)}. Entonces
T (1, 0) = (4, 2) = 4(1, 0) + 2(0, 1),
T (0, 1) = (−2, 1) = −2(1, 0) + 1(0, 1),
y
(1, 1) = 1(1, 0) + 1(1, 0),
(1, 0) = 1(1, 0) + 0(0, 1).
Ası́ que
[T ]B1 =
y
P=
Luego,
Page (PS/TeX): 28 / 444, COMPOSITE
1 1
1 0
,P
4
2
−1
−2
1
=
0
1
1
−1
.
[T ]B2 = P−1 [T ]B1 P
0
1
4 −2
1 1
=
1 −1
2
1
1 0
2
1
1 1
=
2 −3
1 0
3 2
=
.
−1 2
Representaciones matriciales de transformaciones lineales 445
SECCIÓN 5.2
Definición 5.13 Si A y B son matrices cuadradas de orden n, se dice que A es similar a B si existe
una matriz cuadrada C del mismo orden tal que
B = C−1 AC.
Para denotar que la matriz A es similar a la matriz B escribiremos A B.
Las siguientes propiedades, contenidas en el teorema 5.16, son sencillas de probar y la demostración
de cada una de ellas se deja como ejercicio al lector.
Teorema 5.16 Sean A, B,C, D ∈ Mn . Entonces:
1.
2.
3.
4.
5.
A A.
A B ⇒ B A.
A B y B D ⇒ A D.
Si A B, entonces det(A) = det(B).
Si A B, entonces A es invertible si y sólo si B es invertible.
P Nota 5.5
1. Por el inciso 2 del teorema precedente, A B ⇒ B A, diremos que dos matrices son similares si
cumplen con la definición 5.13.
2. El teorema 5.15 implica que dos representaciones cualesquiera de un operador lineal T ∈ L (E, E)
son similares.
Por el teorema 5.16, inciso 4, cualquier par de representaciones matriciales relativas a diferentes
bases de un operador lineal en un espacio tienen el mismo determinante, pues son matrices similares.
Hacemos patente este hecho en la siguiente definición.
Definición 5.14 (Determinante de un operador) Si E es un espacio de dimensión finita y T es un
operador lineal en este espacio, se define el determinante de T , det(T ), como el determinante de
cualquier representación matricial de T .
Ejemplo 5.35 Sea T el operador lineal definido en el ejemplo 5.34. Vimos en este ejemplo que si
B1 = {(1, 0)(0, 1)} y B2 = {(1, 1), (1, 0)},
[T ]B1 =
entonces
4
2
4
det(T ) = 2
−2
1
y [T ]B2 =
3 2
−1 2
,
−2 3 2 = 8.
=
1 −1 2 P Nota 5.6 Dado que dos representaciones matriciales cualesquiera de un operador son similares, por
el teorema 5.16, si una de ellas es una matriz invertible todas las demás también lo son.
Page (PS/TeX): 29 / 445, COMPOSITE
446 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Vimos en el teorema 5.9, inciso 5 (cfr. pág. 432), que para que un operador lineal definido en Rn sea
inyectivo (y por tanto biyectivo) es necesario y suficiente que su representación matricial (relativa a la
base canónica) sea una matriz invertible. Tenemos el caso general de operadores lineales en espacios
vectoriales contemplado en el siguiente teorema.
Teorema 5.17 Sea E un espacio vectorial de dimensión n y T : E → E un operador lineal. Entonces
T es inyectivo (y por tanto biyectivo) si y sólo si cualquier representación matricial de T es una
matriz invertible (si y sólo si det(T ) = 0); en tal caso, si [T ]B es la representación matricial de T
13
−1
relativa
relativa a una base B, [T ]−1
B es la representación matricial del operador lineal inverso T
a la misma base.
DEMOSTRACIÓN
Q Sea [T ]B una representación matricial del operador T .
1. Supongamos que la matriz [T ]B es no singular y sea u ∈ Ker(T ). Entonces
[T ]B [u]B = [T (u)]B = 0Rn .
Luego
([T ]B )−1 ([T ]B [u]B ) = ([T ]B )−10Rn = 0Rn
y por tanto,
[u]B = 0Rn ;
lo cual implica
u = 0E .
2. Supongamos ahora que T es inyectivo, entonces T es suprayectivo pues
dim(Ker(T )) + dim(T (E)) = n.
0
Por tanto, T es biyectivo. Sea T −1 : E → E la transformación inversa de T ; sabemos, del teorema
5.11, que T −1 es también lineal. Sea T −1 B la representación matricial de T −1 relativa a la base
B. Sea v ∈ E, como T es suprayectiva existe u ∈ E tal que T (u) =v; i.e., u = T −1 (v). Entonces
T −1 (v)
B
= [T −1 ]B [v]B
= T −1
−1
B
[T (u)]B
= T B [T ]B [u]B
= T −1 B [T ]B [T −1 (v)]B .
1Recuerde que la transformación inversa de un operador lineal también es un operador lineal (cfr. teorema 5.11).
13
Page (PS/TeX): 30 / 446, COMPOSITE
Representaciones matriciales de transformaciones lineales 447
SECCIÓN 5.2
Por tanto T −1 B [T ]B x = x para todo14 x ∈ Rn . Del lema 5.1 (cfr. pág. 436) se sigue que
−1
T −1 B [T ]B = In . Luego [T ]B es invertible y [T ]−1
. Q
B = T
B
5.2.3 Representaciones matriciales de transformaciones lineales
Ası́ como es posible encontrar representaciones matriciales de operadores lineales, también se pueden
hallar representaciones matriciales para transformaciones lineales en general. El procedimiento es completamente análogo al que realizamos en la subsección anterior; por lo que dejamos al lector que llene
los detalles, en cuanto a deducciones y demostraciones, en forma similar a como lo hicimos antes, de
las definiciones y teoremas que damos a continuación.
Definición 5.15 Sean E, F espacios de dimensiones finitas; B1 = {e1 ,e2 , . . . ,en }, B2 = {f1 , f2 , . . . , fm }
bases de sendos espacios; T ∈ L (E, F) y ai j escalares tales que
T (e1 )
=
T (e2 )
..
.
=
..
.
T (en )
=
a11 f1 + a12 f2 + · · · + a1m fm
a21 f1 + a22 f2 + · · · + a2m fm
..
.
(5.10)
an1 f1 + an2 f2 + · · · + anm fm
Se define la representación matricial de T relativa a las bases B1 y B2 como15
⎡
⎢
⎢
B
[T ]B21 = ⎢
⎣
a11
a12
..
.
a21
a22
..
.
...
...
..
.
an1
an2
..
.
a1m
a2m
...
anm
⎤
⎥
⎥
⎥.
⎦
Teorema 5.18 Sean E, B1 , B2 y T como en la definición precedente, entonces
B
[T (u)]B2 = [T ]B21 [u]B1
∀u ∈ E.
Ejemplo 5.36 Sea la transformación lineal T : R3 → R2 definida por T (x, y, z) = (3x + 2y − 4z, x −
5y + 3z) y B1 = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}, B2 = {(1, 3), (2, 5)}. Encontrar la representación matricial
de T relativa a las bases B1 y B2 .
Solución
T (1, 1, 1) = (1, −1) ,
T (1, 1, 0) = (5, −4) ,
T (1, 0, 0) = (3, 1) .
1Es fácil demostrar, lo cual se deja como ejercicio al lector, que si x = (x1 , . . . , xn ) ∈ Rn , existe v ∈ E tal que [v]B =x.
2
1Note que [T ]B
B1 es la matriz transpuesta de los coeficientes de los vectores f i del sistema de igualdades (5.10).
14
15
Page (PS/TeX): 31 / 447, COMPOSITE
448 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Se requiere encontrar escalares ai j tales que
(1, −1) = a11 (1, 3) + a12 (2, 5),
(5, −4) = a21 (1, 3) + a22 (2, 5),
(3, 1) = a31 (1, 3) + a32 (2, 5).
Esto es, las soluciones de los sistemas (con la misma matriz de coeficientes):
1 2
3 5
a11
a12
1
−1
=
1 2
3 5
1
3
,
2
5
a31
a32
=
3
1
a21
a22
=
5
−4
y
.
Resolvamos estos sistemas con la misma matriz de coeficientes (cfr. el método expuesto en la pág. 27).
1 2 1
3 5 −1
∴
a11
a12
a31
a32
5 3
−4 1
=
=
Entonces,
B
[T ]B21 =
2 1
−1 −4
1
0 −7
∼
0 −1 −4
−7
4
−13
8
−7
4
5
3
−19 −8
1
0
∼
;
a21
a22
=
−33 −13
−19 −8
−33
19
;
y
.
−33 −13
19
8
.
P Nota 5.7 Sean B1 , B2 bases de los espacios E y F, respectivamente. Si T ∈ L (E, F) y A es una
matriz de tamaño m × n tal que
A[u]B1 = [T (u)]B2 ∀u ∈ E
(5.11)
se tiene entonces
(A − [T ]B21 )x = 0Rm
B
∀x ∈ Rn ;
por el lema 5.1 se sigue que16
B
A − [T ]B21 = O.
Es decir, la única matriz que cumple (5.11) es la representación matricial de T relativa a estas bases del
teorema 5.18.
1Cfr. nota 5.4, página 443.
16
Page (PS/TeX): 32 / 448, COMPOSITE
Representaciones matriciales de transformaciones lineales 449
SECCIÓN 5.2
Veamos ahora qué sucede con una representación matricial cuando se cambian bases en los espacios
vectoriales.
Teorema 5.19 Sean E, F espacios de dimensiones finitas; B1 , B 1 bases de E; B2 , B 2 bases de F;
y T ∈ L (E, F). Sean P la matriz cambio de base de B 1 a B1 (i.e. [u]B1 = P[u]B 1 ) y Q la matriz
cambio de base de B 2 a B2 (es decir, [v]B2 = Q[v]B 2 ), entonces
B
B
[T ]B 21 = Q−1 [T ]B21 P.
DEMOSTRACIÓN
Q Sea u ∈ E, entonces
B
B
(Q−1 [T ]B21 P)[u]B1 = (Q−1 [T ]B21 )P[u]B1
B
= (Q−1 [T ]B21 )[u]B1
B
= Q−1 ([T ]B21 [u]B1 )
= Q−1 [T (u)]B2
= [T (u)]B2
y de la nota 5.7 se desprende que
B
B
Q−1 [T ]B21 P = [T ]B2 .
1
Q
Ejemplo 5.37 Sea T : R3 → R2 la transformación lineal del ejemplo 5.36; es decir,
T (x, y, z) = (3x + 2y − 4z, x − 5y + 3z).
Sean B1 la base canónica de R3 y la base B1 = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}; B2 la base canónica de R2
y la base B2 = {(1, 3), (2, 5)}. Entonces, puesto que
T (1, 0, 0) = (3, 1) = 3(1, 0) + 1(0, 1)
T (0, 1, 0) = (2, −5) = 2(1, 0) − 5(0, 1)
T (0, 0, 1) = (−4, 3) = −4(1, 0) + 3(0, 1)
se tiene
B
[T ]B21
=
3
1
2 −4
−5
3
.
Por otra parte, ya que
(1, 1, 1) = 1(1, 0, 0) + 1(0, 1, 0) + 1(0, 0, 1)
(1, 1, 0) = 1(1, 0, 0) + 1(0, 1, 0) + 0(0, 0, 1)
(1, 0, 0) = 1(1, 0, 0) + 0(0, 1, 0) + (0, 0, 1)
y
(1, 3) = 1(1, 0) + 3(0, 1)
(2, 5) = 2(1, 0) + 5(0, 1),
Page (PS/TeX): 33 / 449, COMPOSITE
450 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
se concluye que
⎤
1 1 1
1 2
−5
, y Q−1 =
P = ⎣ 1 1 0 ⎦, Q =
3 5
3
1 0 0
⎡
2
−1
.
Entonces
B
B
[T ]B2 = Q−1 [T ]B21 P
1
=
=
−5
3
−7
4
2 −4
−5
3
−33 −13
.
19
8
2
−1
3
1
⎤
1 1 1
⎣ 1 1 0 ⎦
1 0 0
⎡
Que es el mismo resultado que obtuvimos en el ejemplo 5.36.
Representaciones diagonales de transformaciones lineales
Toda transformación lineal de un espacio en otro tiene diversas representaciones matriciales según las
bases con las que se trabaje. De entre todas estas representaciones serı́a conveniente buscar aquellas
que sean suficientemente “sencillas”. De la experiencia adquirida a lo largo de este libro, sabemos que
las matrices con mayor número de entradas nulas y, más aún, aquellas que son muy parecidas a una
matriz diagonal, son matrices que se prestan mucho para minimizar cálculos y conjeturar propiedades
de las mismas y, por tanto, de las transformaciones que representan. En el siguiente teorema, dada una
transformación lineal, veremos cómo es posible construir bases de tal manera que la correspondiente
representación sea una matriz con entradas nulas fuera de la diagonal principal y unos en ella.
Teorema 5.20 Sean E y F espacios vectoriales de dimensiones n y m, respectivamente, y T ∈
L (E, F). Entonces existen bases B1 = {e1 , . . . ,en } y B2 = { f1 , . . . , fm }, de sendos espacios, tales
B
que la representación matricial de la transformación lineal relativa a estas bases, [T ]B21 = [ai j ], tiene
unos en la diagonal principal y ceros fuera de ella; esto es,
ai j =
DEMOSTRACIÓN
1
0
si i = j
en otro caso
(5.12)
Q Sea r el rango de T ; es decir, dim(T (E)) = r. Sea {f1 , . . . , fr } una base de T (E) y completemos ésta
a una base de F;17 digamos
B2 = {f1 , . . . , fr , fr+1 , . . . , fm }.
Puesto que f1 , . . . , fr ∈ T (E), existen e1 , . . . ,er ∈ E tales que
T (ei ) = fi
para i = 1, . . . , r
1Cfr. el procedimiento que se dio en la página 167 para completar un subconjunto L.I. a una base de un espacio.
17
Page (PS/TeX): 34 / 450, COMPOSITE
(5.13)
SECCIÓN 5.2
Representaciones matriciales de transformaciones lineales 451
Sea k = dim (Ker(T )), entonces, por (5.2) del teorema 5.8 (cfr. pág. 431), n = r + k. Sea {er+1 , . . . ,er+k }
una base de Ker(T ). Por construcción, B2 es una base de F. Afirmamos que
B1 = {e1 , . . . ,er ,er+1 , . . . ,er+k }
es una base de E. En efecto, puesto que B1 tiene n elementos, basta probar que éstos son L.I., lo cual es
cierto pues si α1 , . . . , αr , αr+1 , . . . , αr+k son n-escalares tales que
α1e1 + · · · + αrer + αr+1er+1 + · · · + αr+ker+k = 0E
(5.14)
Entonces, dado que T es lineal,
α1 T (e1 ) + · · · + αr T (er ) + αr+1 T (er+1 ) + · · · + αr+k T (er+k ) = 0F
y puesto que er+1 , . . . ,er+k ∈ Ker(T ), de (5.13) y la precedente igualdad se concluye que
α1 f1 + · · · + αr fr = 0F .
(5.15)
Como los vectores f1 , . . . , fr son L.I. (pues forman una base de T (E)), (5.15) implica
α1 = · · · = αr = 0
(5.16)
αr+1er+1 + · · · + αr+ker+k = 0E
(5.17)
De (5.16) y (5.14) se tiene
y ya que er+1 , . . . ,er+k son L.I. (pues forman una base de Ker(T )), (5.17) implica
αr+1 = · · · = αr+k = 0
(5.18)
De (5.16) y (5.18) se desprende que los vectores e1 , . . . ,er ,er+1 , . . . ,er+k son L.I. Finalmente, puesto que
T (ei ) = fi = 0 · f1 + · · · + 0 · fi−1 + 1 · fi + 0 · fi+1 + · · · + 0 · fm
para i = 1, . . . , r y
T (e j ) = 0F = 0 · f1 + · · · + 0 · fm
para j = r + 1, . . . , r + k, se sigue que
B
[T ]B21 = [ai j ]
con los ai j dados por (5.12). Q
Ejemplo 5.38 Sea T : P3 → P2 la transformación derivación; esto es, T (p) = p . Construyamos,
siguiendo el proceso dado en la demostración del teorema 5.20, bases de P3 y P2 tales que la representación matricial de T relativa a éstas tenga unos en la diagonal principal y ceros fuera de ella. Para ello
notemos antes los dos siguientes hechos:
1. T (P3 ) = P2 (T es suprayectiva). Efectivamente, si q(x) = ax2 + bx + c ∈ P2 , entonces p(x) =
1
1
3
2
3 ax + 2 bx + cx satisface
T (p(x)) = p (x) = ax2 + bx + c = q(x).
Page (PS/TeX): 35 / 451, COMPOSITE
452 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
2. Ker(T ) = gn(1). En efecto,
p ∈ Ker(T ) ⇔ p (x) = 0 ⇔ p(x) = c ⇔ p ∈ gn(1).
Por el inciso 1 podemos tomar como base de T (P3 ) la base canónica de P2 , B2 = {1, x, x2 } ( f1 = 1,
f2 = x, f3 = x2 ). Sean e1 = x, e2 = 12 x2 y e3 = 13 x3 , entonces T (e1 ) = 1, T (e2 ) = x y T (e3 ) = x2 (los
valores de los ei se encuentran por simple inspección o integrando). Siguiendo el proceso del teorema
5.20, la base B1 se construye adjuntando a e1 , e2 y e3 los elementos de la base de Ker(T ), en este caso
el polinomio constante 1; esto es,
B1 = x, 12 x2 , 13 x3 , 1 .
Puesto que
T (x) = 1 = 1 · 1 + 0 · x + 0 · x2 ,
1 2
T 2 x = x = 0 · 1 + 1 · x + 0 · x2 ,
T 13 x3 = x2 = 0 · 1 + 0 · x + 1 · x2 ,
T (1) = 0 = 0 · 1 + 0 · x + 0 · x2 ,
se tiene
⎤
1 0 0 0
= ⎣ 0 1 0 0 ⎦ .
0 0 1 0
⎡
B
[T ]B21
5.2.4 Isomorfismos
Entre dos idiomas diferentes no existe un diccionario perfecto con el cual se pueda traducir literalmente
del uno al otro. La estructura lingüı́stica es demasiado compleja, convencional, evolutiva y varı́a de un
paı́s a otro incluso entre dos regiones de un mismo paı́s. Sin embargo, en las matemáticas es usual que
existan “traductores” perfectos entre entes distintos cuando éstos tienen una estructura algebraica con
un origen común. En álgebra lineal, cierto tipo de transformaciones lineales son los “traductores” que
se emplean de manera natural entre distintos espacios vectoriales porque son funciones que preservan
la estructura de las operaciones. En este breve apartado veremos cómo es posible construir estos traductores y probaremos que cualquier espacio vectorial de dimensión finita, salvo los sustantivos empleados
para designar a sus elementos, es en esencia el espacio de vectores Rn .
Definición 5.16 Sean E y F un par de espacios vectoriales y T : E → F una transformación lineal.
1. T es un isomorfismo18 si T es una transformación biyectiva.
2. Si existe un isomorfismo del espacio E sobre el espacio F, se dice que E es isomorfo a F y se
escribe E ∼
= F.
1Del griego iso-morfo (igual forma o estructura).
18
Page (PS/TeX): 36 / 452, COMPOSITE
SECCIÓN 5.2
Representaciones matriciales de transformaciones lineales 453
Ejemplo 5.39 Sean E = R3 y F = P2 , el espacio de polinomios de grado a lo más 2, y T : E → F
definida por
T (a, b, c) = a + bx + cx2 .
Mostrar que T es un isomorfismo.
DEMOSTRACIÓN
Q Sean (a, b, c), (a1 , b1 , c1 ) ∈ R3 y α, β ∈ R, entonces
T (α(a, b, c) + β(a1 , b1 , c1 )) = T (αa + βa1 , αb + βb1 , αc + βc1 )
= (αa + βa1 ) + (αb + βb1 )x + (αc + βc1 )x2
= α(a + bx + cx2 ) + β(a1 + b1 x + c1 x2 )
= αT (a, b, c) + βT (a1 , b1 , c1 );
ası́ que T es lineal. Si (a, b, c) ∈ Ker(T ), entonces T (a, b, c) = 0; y por tanto,
a + bx + cx2 = 0
de donde a = b = c = 0, y por ende Ker(T ) = {0R3 }; luego T es inyectiva. Si p(x) = a + bx + cx2 ∈ F,
claramente T (a, b, c) = p(x); por lo que T es suprayectiva. Hemos mostrado que T es lineal y biyectiva,
ası́ que T es un isomorfismo. Q
A continuación probamos que ∼
= es una relación de equivalencia entre los espacios vectoriales reales.
Teorema 5.21 Sean E, F y G espacios vectoriales. Entonces
∼ E.
1. E =
2. E ∼
=F⇒F∼
= E.
∼ F, F =
∼G⇒E∼
3. E =
= G.
DEMOSTRACIÓN
Q 1. Sea T : E → E la transformación identidad; es decir, T (u) = u ∀u ∈ E. Claramente T es lineal y
biyectiva.
2. Sea T : E → F un isomorfismo. Como T es biyectiva, entonces es invertible, y por el teorema 5.11,
T −1 : F → E es lineal y biyectiva; luego F ∼
= E.
3. Se deja de ejercicio al lector. Q
∼F⇒F∼
P Nota 5.8 Por el inciso 2 del teorema precedente, E =
= E, diremos simplemente que E y F
son isomorfos si se cumple la propiedad 2 de la definición 5.16.
Ejemplo 5.40 Sean los espacios vectoriales C[0, 1] y C[2, 3]. Mostrar que son isomorfos.
DEMOSTRACIÓN
Q Sea T : C[0, 1] → C[2, 3] la transformación definida por T ( f ) = g, donde g(x) = f (x − 2) ∀x ∈ [2, 3].
Geométricamente la transformación T asigna a cada función f ∈ C[0, 1] su traslación al intervalo [2, 3]
como se ilustra en la figura 5-4.
Page (PS/TeX): 37 / 453, COMPOSITE
454 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Sean f1 , f2 ∈ C[0, 1] y α, β ∈ R. Entonces ∀x ∈ [2, 3] se
tiene
g
f
T (α f1 + β f2 )(x) = (α f1 + β f2 )(x − 2)
1
= α f1 (x − 2) + β f2 (x − 2)
3
2
= (αT ( f1 ))(x) + (βT ( f2 ))(x);
Figura 5-4 •
luego T (α f1 + β f2 ) = αT ( f1 ) + βT ( f2 ) lo cual prueba que T es lineal. Sea f ∈ Ker(T ), entonces
T ( f ) = θ , el neutro aditivo de C[2, 3], por lo que
f (x − 2) = 0
∀x ∈ [2, 3].
Sea u ∈ [0, 1], entonces x = u + 2 ∈ [2, 3], ası́ que
f (u) = f (x − 2) = 0,
y por tanto, f (u) = 0 para todo u ∈ [0, 1]; i.e., f = θ, el neutro aditivo de C[0, 1]; luego Ker(T ) = {θ} y
entonces T es inyectiva. Sean g ∈ C[2, 3] y f : [0, 1] → R la función definida por f (x) = g(x + 2) (puesto
que 0 ≤ x ≤ 1, se tiene 2 ≤ x + 2 ≤ 3). Entonces, ya que g y la función x → x + 2 son continuas, f es
continua en [0, 1]; y para todo u ∈ [2, 3]
T ( f )(u) = f (u − 2) = g(u)
es decir,
T ( f ) = g;
lo cual prueba que T es suprayectiva. Con esto hemos demostrado que T es un isomorfismo y por tanto
C[0, 1] ∼
= C[2, 3]. Q
Del inciso 5 del teorema 5.10 (cfr. pág. 432) se tiene como consecuencia inmediata el siguiente
resultado.
Teorema 5.22 Si E y F son espacios vectoriales isomorfos y uno de ellos tiene dimensión finita n,
entonces el otro tiene también dimensión n.
Ejemplo 5.41 Sean E y F un par de espacios vectoriales reales de dimensiones n y m, respectivamente. Entonces L (E, F) ∼
= Mm×n . En efecto, sean B1 = {e1 , . . . ,en } y B2 = {f1 , . . . , fm } bases de E
B
y F, respectivamente. Para cada T ∈ L (E, F) sea [T ]B21 la representación matricial de T relativa a estas
B
bases. Definimos Ψ : L (E, F) → Mm×n como Ψ(T ) = [T ]B21 . Entonces:
1. Sean α, β ∈ R, T1 , T2 ∈ L (E, F). Para todo u ∈ E se tiene, por 5.12 y 5.12 del teorema 5.12, pág.
436,
B
B
B
B
(α[T1 ]B21 + β[T2 ]B21 )[u]B1 = α[T1 ]B21 [u]B1 + β[T2 ]B21 [u]B1
= α[T1 (u)]B2 + β[T2 (u)]B2
= [αT1 (u) + βT2 (u)]B2 .
Page (PS/TeX): 38 / 454, COMPOSITE
SECCIÓN 5.2
Representaciones matriciales de transformaciones lineales 455
De la unicidad de la representación matricial relativa a bases dadas de una transformación lineal
(cfr. nota 5.7, pág. 448), se tiene
B
B
B
[αT1 + βT2 ]B21 = α[T1 ]B21 + β[T2 ]B21 ;
es decir,
Ψ(αT1 + βT2 ) = αΨ(T1 ) + βΨ(T2 ).
2. Sea T ∈ Ker(Ψ), entonces Ψ(T ) = O, la matriz cero de tamaño m × n. Es decir,
B
[T ]B21 = O;
por tanto, para todo u ∈ E,
[T ]B21 [u]B1 = 0Rm ,
B
luego
[T (u)]B2 = 0Rm .
De 4 del teorema 5.12, la igualdad precedente implica
T (u) = 0F
∀u ∈ E.
Es decir, T es la transformación cero, el neutro aditivo de L (E, F); lo cual prueba que Ψ es
inyectiva.
3. Sea A ∈ Mm×n . Definimos T : E → F, para cada u ∈ E, por
T (u) = α1 f1 + · · · + αm fm ,
donde (α1 , . . . , αm ) = A[u]B1 . Dado que u = v ⇔ [u]B1 = [v]B1 , se desprende que T está bien
definida. Sean α, β ∈ R y u,v ∈ E, entonces
[αu + βv]B1 = α[u]B1 + β[v]B1 ,
y por tanto
A[αu + βv]B1 = αA[u]B1 + βA[v]B1 ;
de donde
T (αu + βv) = αT (u) + βT (v).
Luego T ∈ L (E, F). Puesto que
se tiene A =
Page (PS/TeX): 39 / 455, COMPOSITE
B
[T ]B21 ;
[T (u)]B2 = A[u]B1
esto es
∀u ∈ E,
456 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Ψ(T ) = A.
Lo cual prueba que T es suprayectiva.
Hemos mostrado ası́ que Ψ es un isomorfismo y por tanto L (E, F) ∼
= Mm×n .
Como consecuencia del ejemplo anterior y del teorema 5.22,
dim(L (E, F)) = mn
si dim(E) = n y dim(F) = m.
Ahora mostraremos que cualquier espacio vectorial real de dimensión finita es isomorfo a Rn .
Teorema 5.23 Sea E un espacio vectorial real de dimensión n, entonces E ∼
= Rn .
DEMOSTRACIÓN
Q Sea B = {e1 , . . . ,en } una base de E. Sea T : E →Rn definida como
T (u) = [u]B .
Entonces, por las propiedades 1 y 2 del teorema 5.12 se tiene
T (αu + βv) = [αu + βv]B
= α[u]B + β[v]B
= αT (u) + βT (v);
por lo que T es lineal. Si (α1 , . . . , αn ) ∈ Rn , sea u = α1e1 + · · · + αnen ∈ E, entonces
T (α1e1 + · · · + αnen ) = (α1 , . . . , αn );
ası́ que T es suprayectiva. Si T (u) = 0Rn , entonces [u]B = 0Rn y por la propiedad 5.12 del teorema 5.12
se desprende u =0E ; lo cual demuestra que T es inyectiva. Hemos probado ası́ que T es un isomorfismo,
y por tanto E ∼
= Rn . Q
Si E y F son espacios vectoriales reales con dimensiones iguales a n, entonces, por el teorema
precedente, E ∼
= Rn y F ∼
= Rn ; por tanto, del tercer inciso del teorema 5.21, E ∼
= F. Con lo que queda
demostrado el siguiente teorema.
Teorema 5.24 Cualquier par de espacios vectoriales que tienen la misma dimensión (finita) son
isomorfos.
Ejemplo 5.42
1. Pn ∼
= Rn+1 .
2. Mm×n ∼
= Rmn .
3. L (Pn−1 , Pn−1 ) ∼
= Mn (las matrices cuadradas de orden n).
Page (PS/TeX): 40 / 456, COMPOSITE
Valores y vectores propios, diagonalización 457
SECCIÓN 5.3
5.3 Valores y vectores propios, diagonalización
Las propiedades de un operador lineal T , definido en un espacio de dimensión finita, que son independientes del sistema de coordenadas (la base) con el que se trabaje en el espacio (es decir, que son
independientes de la representación matricial), se denominan propiedades intrı́nsecas del operador; por
ejemplo, el determinante de cualquier representación matricial de un operador lineal es independiente
de la representación y, por tanto, es una propiedad intrı́nseca de éste. Entonces, como mencionamos antes, es sumamente importante encontrar alguna representación matricial lo suficientemente sencilla para
identificar, a partir de esta representación, propiedades que sean intrı́nsecas del operador. En la sección
anterior probamos, en el teorema 5.20, que dada una transformación lineal T : E → F, se pueden construir bases {ei } y {f j } de tal suerte que la representación matricial de T relativa a estas bases tiene unos
en la diagonal principal y ceros fuera de ella; es decir, una representación diagonal19 en ese sentido.
Para operadores lineales las representaciones matriciales se definen a partir de una sola base {ei } para
el espacio vectorial; en este caso no siempre es posible construir una representación matricial diagonal
sin emplear otra base más. El objetivo ahora, en esta sección, es determinar qué tipo de operadores tienen representaciones matriciales (relativas a una sola base para el espacio) que sean diagonales y cómo
encontrar dichas representaciones.
5.3.1 Valores y vectores propios
Supongamos que E es un espacio con dimensión finita n y T : E → E es un operador lineal que tiene
una representación matricial [T ]B , relativa a la base B = {e1 , . . . ,en }, que es una matriz diagonal. Sean
aii = λi , i = 1, . . . , n, los elementos de la diagonal de la matriz [T ]B . Entonces, dado que
i
[ei ]B = (0, . . . , 0, 1, 0, . . . , 0),
para i = 1, . . . , n, y20 [T ]B = diag(λ1 , . . . , λn ),
[T (ei )]B = [T ]B [ei ]B
⎤
⎡
0
⎢ .. ⎥
⎢ . ⎥
⎥
⎢
⎢ 0 ⎥
⎥
⎢
⎥
= ⎢
⎢ λi ⎥ ( → fila i ).
⎢ 0 ⎥
⎥
⎢
⎢ .. ⎥
⎣ . ⎦
0
Por tanto,
T (ei ) = λiei
para cada i = 1, . . . , n.
(5.19)
1Recordemos que una matriz cuadrada es diagonal si todas las componentes fuera de la diagonal son nulas. Abusando un poco
del lenguaje, entenderemos que una matriz no cuadrada es diagonal si todas las componentes fuera de la diagonal principal son
nulas; donde la diagonal principal está formada por las entradas de la forma aii .
20
1Cfr. definición 1.4, página 8.
19
Page (PS/TeX): 41 / 457, COMPOSITE
458 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Ahora supongamos que existe una base B = {e1 , . . . ,en } del espacio E y escalares λ1 , . . . , λn tales que
se cumple la igualdad (5.19). Entonces
T (ei ) = λiei = 0 ·e1 + · · · + 0 ·ei−1 + λi ·ei + 0 ·ei+1 + · · · + 0 ·en
para cada i = 1, . . . , n; luego
[T ]B = diag(λ1 , . . . , λn ).
Esto es, para que un operador lineal T tenga una representación matricial diagonal es necesario y suficiente que existan n-vectores L.I., e1 , . . . ,en , y n-escalares λ1 , . . . , λn que cumplan la igualdad (5.19).
Resumimos lo hasta aquı́ demostrado en el siguiente teorema.
Teorema 5.25 Sean E un espacio vectorial de dimensión n y T : E → E un operador lineal. Entonces
T tiene una representación matricial diagonal si y sólo si existen e1 , . . . ,en ∈ E, vectores L.I., y un
correspondiente conjunto de escalares λ1 , . . . , λn , tales que
T (ei ) = λiei
para cada i = 1, . . . , n.
En ese caso la representación diagonal es
[T ]B = diag(λ1 , . . . , λn ),
donde B = {e1 , . . . ,en }.
De esta manera, el problema de hallar representaciones matriciales diagonales de operadores lineales
se reduce a encontrar los vectores L.I. y los correspondientes escalares que satisfacen (5.19). El primer
paso para resolver este tipo de problemas es encontrar escalares λ y vectores correspondientes u tales
que T (u) = λu. Motivados con este primer objetivo damos la siguiente definición.
Definición 5.17 (Valores propios de operadores lineales) Sean E un espacio vectorial (no necesariamente de dimensión finita) y T : E → E un operador lineal.
1. Se dice que λ ∈ R es un valor propio (valor caracterı́stico, eigenvalor, autovalor) de T si existe
un vector u ∈ E, con u = 0E , tal que
T (u) = λu
(5.20)
2. Si λ es un valor propio de T y u ∈ E es un vector no nulo que satisface (5.20), entonces se
dice que u es un vector propio (vector caracterı́stico, eigenvector, autovector) del operador T
correspondiente al valor propio λ.
P Nota 5.9
1. Si λ es valor propio del operador lineal T , entonces existe u ∈ E − {0E } que satisface (5.20); luego,
si c ∈ R − {0} es un escalar, T (cu) = cT (u) = c(λu) = λ(cu) y, por tanto, cu ∈ E − {0E } es vector
propio de T correspondiente a λ. Ası́ que un valor propio tiene una infinidad de vectores propios
correspondientes.
Page (PS/TeX): 42 / 458, COMPOSITE
SECCIÓN 5.3
Valores y vectores propios, diagonalización 459
2. Supongamos que λ, μ son valores propios con un mismo vector propio correspondiente u, entonces
λu = T (u) = μu, lo cual implica (λ − μ)u = 0E , y por ende λ = μ (pues u = 0E , cfr. la propiedad
9 del teorema 3.4, pág. 138). Es decir, existe un único valor propio correspondiente a un vector
propio dado.
3. Si en la definición 5.17 se permitiera que u = 0E , entonces todo escalar λ serı́a valor propio de T ;
pues 0E = T (0E ) = λ0E . El restringir los vectores propios a vectores no nulos es porque se quieren
encontrar vectores L.I. que satisfagan (5.20), y si 0E se incluye en esta lista entonces este conjunto
se convierte en linealmente dependiente. Otra razón es que se rompe la unicidad de valores propios
correspondientes a un vector propio dado que se mostró en el segundo inciso.
4. Aunque los vectores propios no pueden ser nulos, los valores propios sı́. Por ejemplo, si T es un
operador lineal no inyectivo, entonces T (u) = 0E = 0 ·u para todo u ∈ Ker(T ); puesto que T no es
inyectivo, el núcleo contiene elementos no nulos y ası́ λ = 0 es valor propio de T .
5. Es evidente que λ es valor propio del operador T si y sólo si Ker(T − λI) = {0E }; es decir, si el
operador lineal T − λI es no inyectivo, donde I es el operador identidad del espacio E (cfr. ejemplo
5.8, pág. 418).
Ejemplo 5.43 Sea el espacio vectorial
C ∞ (−∞, ∞) = { f : R → R | f tiene derivada de todo orden para cada x ∈ R}
y sea el operador lineal T : C ∞ (−∞, ∞) → C ∞ (−∞, ∞), T ( f ) = f , el operador derivación. Encontrar los
valores propios y vectores propios correspondientes de T .
Solución
1. Si λ = 0
T(f) = λf = 0· f = θ ⇒
f
= θ ⇒
f (x) = 0 ∀x ;
por tanto, f es una constante. Las funciones constantes distintas de cero son los vectores propios correspondientes al valor propio λ = 0.
2. Si λ = 0
T(f) = λf ⇒
f = λf ⇒
df
= λf ⇒
dx
df
= λ dx ⇒
f
ln | f | = λx + c ⇒
f = keλx
Vectores propios para λ:
Page (PS/TeX): 43 / 459, COMPOSITE
(k = ±ec ).
f (x) = keλx ; k = 0.
460 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
En sı́ntesis: todo número real λ es valor propio de T . Si λ = 0 los vectores propios correspondientes
son todas las funciones constantes no nulas. Si λ = 0, los vectores propios correspondientes a λ son las
funciones f (x) = keλx , k = 0. No todo operador lineal tiene valores propios, como hacemos patente en el siguiente ejemplo.
Ejemplo 5.44 (Un operador sin valores propios) Sea T : C[0, 1] → C[0, 1] el operador definido por
T ( f ) = g, donde
g(x) =
Por ejemplo, si f (x) = x2 , entonces g(x) =
de T .
Solución
x
f (t)dt,
0
x
0
t 2 dt =
x ∈ [a, b].
x3
. Encontrar, si es que existen, los valores propios
3
Supongamos que λ es un valor propio de T . Si f = θ es una función propia de λ se debe
tener
T(f) = λf.
Luego,
λ f (x) =
x
0
f (t)dt
∀x ∈ [0, 1].
(5.21)
Entonces,
(λ f (x)) =
0
x
f (t)dt
y al aplicar el teorema fundamental del cálculo21 se obtiene
f (x) = λ f (x).
De aquı́ que λ debe ser distinto de cero, pues en caso contrario f = θ (la función constante cero). La
igualdad precedente se puede escribir como
df
1
= f
dx
λ
que equivale a
df
1
= dx
f
λ
e integrando se tiene
ln | f | =
1Si f ∈ C[a, b] y F(x) =
21
a
Page (PS/TeX): 44 / 460, COMPOSITE
x
1
x +C,
λ
f (t)dt, entonces F es derivable y F (x) = f (x) ∀x ∈ [a, b].
Valores y vectores propios, diagonalización 461
SECCIÓN 5.3
que al tomar exponencial en ambos lados produce
f (x) = ke x/λ ,
con k = ±eC = 0. Sin embargo, la función f (x) = ke x/λ no satisface el requerimiento (5.21):
λk = λ f (0) =
0
0
f (t)dt = 0
pues λk = 0. Luego T no tiene valores propios. Espacio propio
Sea T : E → E un operador lineal y sea λ un valor propio de T ; si u,v ∈ E son vectores propios correspondientes a λ y α, β ∈ R, entonces
T (αu + βv) = αT (u) + βT (v)
= α(λu) + β(λv)
= λ(αu + βv).
Por lo que si αu + βv = 0E , éste es también un vector propio correspondiente al valor propio λ. Ası́,
el conjunto de todos los vectores u tales que T (u) = λu es un subespacio vectorial de E (este conjunto
también contiene a 0E , ya que T (0)E = 0E = λ0E ) que contiene a todos los vectores propios correspondientes a λ. Hacemos patente este concepto en la siguiente definición.
Definición 5.18 Sean E un espacio vectorial, T : E → E un operador lineal y λ ∈ R un valor propio
de T . Al subespacio vectorial de E
Eλ = {u ∈ E | T (u) = λu}
se le llama el espacio propio del valor propio λ.
Es decir, el espacio propio de un valor propio λ es el conjunto de todos los vectores propios correspondientes a λ uniendo al mismo el vector neutro aditivo del espacio.
Sea A una matriz cuadrada de orden n y consideremos el operador matricial TA : Rn → Rn , TA (u) =
Au. Entonces λ es valor propio de TA si y sólo si existe u ∈ Rn −0Rn tal que Au = λu. De esta manera,
la definición 5.17 tiene como caso particular la siguiente definición.
Definición 5.19 (Valores propios de matrices) Sea A una matriz cuadrada de orden n. Se dice que
λ ∈ R es un valor propio (valor caracterı́stico, autovalor o eigenvalor) de A si existe u ∈ Rn − {0Rn }
tal que
Au = λu.
En tal caso a u se le llama vector propio (vector caracterı́stico, autovector o eigenvector) de la matriz
A correspondiente a λ.
Page (PS/TeX): 45 / 461, COMPOSITE
462 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Ejemplo 5.45 Si A =
2 2
3 1
,
2 2
3 1
1
1
=
4
4
=4
1
1
.
Ası́, 4 es valor propio de A.
Ejemplo 5.46 Sea A la matriz del ejemplo precedente. Encontrar los vectores propios correspondientes al valor propio 4 y E4 (el espacio propio del valor propio 4).
Solución
Los vectores propios de A, correspondientes a este valor propio, son las soluciones no
triviales del sistema
Au = 4u
que equivalen a las soluciones no triviales del sistema homogéneo
(A − 4I2 )u = 0R2 .
Resolvamos entonces este sistema:
Luego
2−4
2
3 1−4
u =
x
y
=
r
r
−2
2
=
3 −3
1 −1
∼
.
0
0
=r
1
1
,
r = 0.
Es decir, el conjunto de vectores propios correspondientes al valor propio 4 son todos los vectores de la
forma r(1, 1) con r = 0 y el espacio propio es E4 = gn((1, 1)). Teorema 5.26 Sean A, B matrices cuadradas de orden n que son similares. Entonces A y B tienen los
mismos valores propios.
DEMOSTRACIÓN
Q Sean λ un valor propio de la matriz A, u ∈ Rn − {0Rn } un vector propio correspondiente, y P una
matriz cuadrada de orden n tal que A = P−1 BP. Entonces
B(Pu) = P(Au) = P(λu) = λ (Pu) .
Puesto que u = 0Rn y P es una matriz invertible, se tiene que Pu = 0Rn ; por tanto, λ es valor propio de
B. Sea μ un valor propio de B y v ∈ Rn − {0Rn } un vector propio correspondiente. Entonces
A(P−1v) = P−1 (Bv) = P−1 (μv) = μ(P−1v)
y nuevamente, dado que P−1 es invertible y v =0Rn , P−1v =0Rn y, por tanto μ es valor propio de B.
Page (PS/TeX): 46 / 462, COMPOSITE
Q
SECCIÓN 5.3
Valores y vectores propios, diagonalización 463
Ya que en un espacio vectorial de dimensión finita cualquier par de representaciones matriciales de
un operador lineal son similares, el teorema precedente tiene como consecuencia inmediata el siguiente
corolario.
Corolario 5.1 Si E es un espacio de dimensión finita y T : E → E es un operador lineal, entonces
todas las representaciones matriciales de T tienen los mismos valores propios.
¿Cuál es entonces la relación entre los valores propios de un operador lineal y los valores propios de
cualquiera de sus representaciones matriciales? Seguramente el lector ya sabe cuál es la respuesta; pero
para hacerla patente la probamos en la siguiente proposición.
Teorema 5.27 Sean E un espacio vectorial de dimensión finita n y T : E → E un operador lineal. Si
[T ]B es cualquier representación matricial de T relativa a una base B = {e1 , . . . ,en }, entonces el
operador T y la matriz [T ]B tienen los mismos valores propios.
DEMOSTRACIÓN
Q Supongamos que λ es un valor propio de T con u ∈ E − {0E } un vector propio correspondiente,
entonces T (u) = λu. Por tanto,
[λu]B = [T (u)]B = [T ]B [u]B .
Luego
[T ]B [u]B = λ [u]B
y dado que22 u =0E ⇒ [u]B =0Rn , se tiene que λ es valor propio de la matriz [T ]B . Ahora supongamos
que μ es un valor propio de la matriz [T ]B , con un vector propio correspondiente v = (v1 , . . . , vn ) ∈
Rn − {0Rn }. Sea u = v1e1 + · · · + vnen , entonces23 u ∈ E − {0E } y
[T (u)]B = [T ]B [u]B
= [T ]B v
= μv
= μ [u]B
= [μu]B
lo cual implica
T (u) = μu
y por ende μ es valor propio de T . Q
1Cfr. teorema 5.12, página 436.
1Cfr. teorema 5.12, página 436.
22
23
Page (PS/TeX): 47 / 463, COMPOSITE
464 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
En resumen, si T : E → E es un operador lineal y E tiene dimensión finita, los valores propios de
T son los valores propios de cualquier representación matricial del mismo. Por tanto, el problema de
hallar los valores propios de un operador lineal definido en un espacio de dimensión finita se reduce a
encontrar los valores propios de una matriz (de una representación matricial cualquiera del mismo). Esta
es una enorme ventaja, pues podemos aprovechar toda la herramienta matricial que hemos desarrollado
a lo largo de este libro para este fin. Por esta razón es que será suficiente restringir nuestro estudio de
encontrar valores propios al caso de matrices cuadradas de orden n.
Cálculo de valores y vectores propios de matrices
En el ejemplo 5.46 vimos cómo calcular los valores propios de una matriz cuadrada resolviendo un sistema homogéneo. Ésta es la idea general para calcular valores y vectores propios de una matriz cuadrada.
Sea A una matriz cuadrada de orden n; dado que un sistema cuadrado homogéneo tiene soluciones no
triviales si y sólo si la matriz de coeficientes del mismo tiene determinante cero, tenemos:
λ es valor propio de A ⇔ existe u ∈ Rn − {0Rn } tal que Au = λu
⇔ el sistema homogéneo (A − λIn )x = 0Rn
tiene soluciones no triviales
⇔ det(A − λIn ) = 0
donde In es la matriz identidad de orden n. Ahora, si λ ∈ R es un valor propio de la matriz A, entonces
debe existir una solución no trivial del sistema homogéneo
(A − λIn )x = 0Rn .
Ası́, los vectores propios correspondientes a λ son las soluciones no triviales de este sistema homogéneo.
Hemos probado ası́ el siguiente resultado.
Teorema 5.28 Sea A una matriz cuadrada de orden n. Entonces
1. Las soluciones reales de la ecuación
det (A − λIn ) = 0
son los valores propios de A.
2. Y si λ ∈ R es un valor propio de A, las soluciones no triviales del sistema homogéneo
(A − λIn )x = 0Rn
son los vectores propios correspondientes a λ.
Ejemplo 5.47 Sea
A=
2 2
3 1
.
Encontrar sus valores propios y los vectores propios correspondientes.
Page (PS/TeX): 48 / 464, COMPOSITE
(5.22)
Valores y vectores propios, diagonalización 465
SECCIÓN 5.3
2−λ
2
det(A − λI2 ) = 3 1−λ
Solución
= (2 − λ)(1 − λ) − 6
= λ2 − 3λ − 4
= (λ − 4)(λ + 1)
y las soluciones de
det(A − λI2 ) = 0
son los valores propios de A:
λ = 4 y λ = −1.
Si λ = 4, el sistema homogéneo (5.22) en este caso es
2−4
2
3 1−4
x
y
=
0
0
;
que podemos resolver por el método de Gauss llevando a forma escalonada
−2
2
3 −3
∼
1
0
−1
0
y haciendo sustitución regresiva
x
y
r
r
=
=r
1
1
.
Ası́, los vectores propios correspondientes a λ = 4 son todos los vectores de la forma r(1, 1) con r = 0.
Análogamente si λ = −1, el sistema homogéneo (5.22) para este caso es
2+1
2
3 1+1
x
y
=
0
0
y
por tanto,
3 2
3 2
x
y
∼
=
3 2
0 0
−(2/3)s
s
−(2/3)3t
=
3t
−2
=t
.
3
Luego los vectores propios correspondientes a λ = −1 son todos los vectores de la forma t(−2, 3) con
t = 0. Page (PS/TeX): 49 / 465, COMPOSITE
466 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
2 2
En el ejemplo precedente obtuvimos det(A − λI2 ) = λ − 3λ − 4 para la matriz A =
. En
3 1
el caso general, si se desarrolla det(A − λIn ) para una matriz cuadrada A de orden n, se obtiene un
polinomio en λ de grado n. Veamos algunos casos particulares:
2
1. Si n = 2
a −λ
det(A − λI2 ) = 11
a21
a12 a22−λ = (a11 − λ)(a22 − λ) − a12 a21
= λ2 − (a11 + a22 )λ + a11 a22 − a12 a21 .
2. Si n = 3, empleando el inciso 1 tenemos
a11 − λ
a21
det(A − λI3 ) = a31
a12
a22 − λ
a32
a −λ
= (a11 − λ) 22
a32
a
a23 − a21 12
a33 − λ a32
a13
a23
a33 − λ
a13
a33 − λ
a12
+ a31 a22 − λ
a13 a23 = (a11 − λ) (λ2 − (a22 + a33 )λ + a22 a33 − a23 a32 )
a12
a12 a13 a13 + a31 −a21 a32 a33 − λ a22 − λ a23 y ya que los dos últimos términos son claramente polinomios de grado a lo más uno, se deduce
que
det(A − λI3 ) = −λ3 + (a22 + a33 + a11 ) λ2 + α1 λ + α0
donde α1 , α0 ∈ R.
3. Si n = 4, empleando los incisos anteriores,
a11 − λ
a12
a13
a
a
−
λ
a
21
22
23
det(A − λI4 ) = a31
a32 a33 − λ
a41
a42
a43
a22 − λ
a23
a32 a33 − λ
= (a11 − λ) a42
a43
a12
a13
a14
a34
−a21 a32 a33 − λ
a42
a43 a44 − λ
a12
a13 a14
a23 a24
−a41 a22 − λ
a32 a33 − λ a34
a24 a34 a44 − λ a12
+ a31 a22 − λ
a42
a14
a24
a34
a44 − λ
a13
a23
a43
a14
a24
a44 − λ
2
= (a11 − λ)(−λ3 + (a22 + a33 + a44
)λ +α1 λ + α0 )
a12
a12
a
a
a14
13
14 a34 − a31 a22 − λ
a24
−a21 a32 a33 − λ
a42
a43 a44 − λ a42 a44 − λ
a12
a13 a14 a23 a24 −a41 a22 − λ
a32 a33 − λ a34 Page (PS/TeX): 50 / 466, COMPOSITE
a13
a23
a43
SECCIÓN 5.3
Valores y vectores propios, diagonalización 467
Por los dos incisos anteriores,24 es claro que al desarrollar los determinantes de los últimos tres
términos se obtienen polinomios de grado 2. Ası́ que
det(A − λI4 ) = λ4 − (a11 + a33 + a44 + a22 ) λ3 + c2 λ2 + c1 λ + c0
con c2 , c1 , c0 ∈ R.
Hemos hecho plausible la demostración, que puede hacerse por inducción, del teorema 5.29; la cual
se deja como ejercicio al lector.
Teorema 5.29 Sea A una matriz de orden n, entonces
det(A − λIn ) = (−1)n λn + cn−1 λn−1 + · · · + c1 λ + c0 ,
donde los ci ∈ R; es decir, det(A − λIn ) es un polinomio de grado n. Además el coeficiente del término
principal (el coeficiente de λn ) es (−1)n y25 cn−1 = (−1)n−1 tra(A).
Definición 5.20 Sea A una matriz cuadrada de orden n e In la matriz identidad de orden n.
1. Se denota y define el polinomio caracterı́stico de la matriz A como
pA (λ) = det(A − λIn ).
2. A la ecuación
pA (λ) = 0;
esto es, det(A − λIn ) = 0, se le llama ecuación caracterı́stica de la matriz A.
Con esta terminologı́a los valores propios de A son las raı́ces reales del polinomio caracterı́stico de A; es decir, las soluciones reales de la ecuación caracterı́stica. Vimos, en el teorema 5.26, que
dos matrices similares tienen los mismos valores propios; ahora veamos que también tienen el mismo
polinomio caracterı́stico.
Teorema 5.30 Sean A y B un par de matrices cuadradas de orden n que son similares. Entonces A y
B tienen el mismo polinomio caracterı́stico.
DEMOSTRACIÓN
Q Sea P una matriz cuadrada invertible de orden n tal que A = P−1 BP. Entonces,
A − λIn = P−1 BP − λIn
= P−1 BP − λP−1 P
= P−1 (B − λIn )P
1Note que intercambiamos dos columnas del determinante que multiplica a31 .
1Cfr. definición 4.2, página 242.
24
25
Page (PS/TeX): 51 / 467, COMPOSITE
468 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
y por tanto
det(A − λIn ) = det(P−1 (B − λIn )P)
= det(P−1 ) det(B − λIn ) det(P)
= (det(P))−1 det(B − λIn ) det(P)
= det(B − λIn );
esto es,
pA (λ) = pB (λ).
Q
Como consecuencia inmediata del teorema anterior tenemos que cualquier par de representaciones
matriciales de un mismo operador lineal en un espacio de dimensión finita, por ser matrices similares,
tiene el mismo polinomio caracterı́stico.
Definición 5.21 Si E es un espacio vectorial de dimensión finita y T : E → E es un operador lineal,
se define el polinomio caracterı́stico de T , pT (λ), como el polinomio caracterı́stico de cualquier
representación matricial de T .
De lo precedente se concluye que una matriz cuadrada tiene a lo más n valores propios, pues un
polinomio de grado n tiene a lo más n raı́ces reales. Lo mismo ocurre obviamente para un operador
lineal en un espacio de dimensión finita n.
Teorema 5.31
1. Si A es una matriz cuadrada de orden n, entonces A tiene a lo más n valores propios.
2. Si T : E → E es un operador lineal y dim(E) = n, entonces T tiene a lo más n valores propios.
Método sintetizado para encontrar los valores y vectores propios correspondientes de una matriz
Resumimos a continuación la información precedente para calcular los valores y vectores propios correspondientes de una matriz cuadrada A de orden n:
1. Se calculan las soluciones reales, λi , de la ecuación caracterı́stica
det(A − λIn );
es decir, las raı́ces reales del polinomio caracterı́stico pA (λ).
2. Para cada λi se encuentran las soluciones no triviales del sistema no homogéneo
(A − λi In )x = 0Rn
y dichas soluciones serán los vectores propios correspondientes a λi .
Page (PS/TeX): 52 / 468, COMPOSITE
Valores y vectores propios, diagonalización 469
SECCIÓN 5.3
P Nota 5.10
1. Dado que un polinomio de grado n puede tener raı́ces múltiples26 (o repetidas), es obvio que el
paso 2 únicamente se lleva a cabo para los valores propios λi distintos entre sı́; es decir, para las
raı́ces simples del polinomio caracterı́stico.
2. Si E es un espacio de dimensión finita y T : E → E es un operador lineal, para calcular los valores
propios y vectores propios correspondientes de T se aplica el procedimiento precedente a cualquier
representación matricial de T .
⎤
⎡
2 1 0
Ejemplo 5.48 Sea A = ⎣ −1 0 1 ⎦.
1 3 1
1. Encontrar los valores propios de A.
2. Hallar los vectores y espacios propios correspondientes.
3. Calcular las dimensiones de los espacios propios.
Primero encontremos las raı́ces del polinomio caracterı́stico. Para ello desarrollamos por
cofactores |A − λI3 | por la tercera columna:
Solución
pA (λ) = |A − λI3 |
2−λ
1
= −1 −λ
1
3
2−λ 1
= − 1 3
0
1
1−λ
+ (1 − λ) 2 − λ
−1
1 −λ = −(3(2 − λ) − 1) + (1 − λ)(−λ(2 − λ)) + 1)
= −(5 − 3λ) + (1 − λ)(λ2 − 2λ + 1)
= −(λ − 1)3 − (5 − 3λ).
Sin embargo, este resultado no produce una factorización adecuada para calcular las raı́ces. Pero si
desarrollamos el determinante por la primera fila obtenemos
−λ
1
pA (λ) = (2 − λ) 3 1−λ
−1
−
1
1 1−λ = (2 − λ)[−λ(1 − λ) − 3] − (λ − 1 − 1)
= (2 − λ)[λ2 − λ − 3] − (λ − 2)
= (2 − λ)[λ2 − λ − 3] + (2 − λ)
= (2 − λ)(λ2 − λ − 3 + 1)
= (2 − λ)(λ2 − λ − 2)
= (2 − λ)(λ − 2)(λ + 1)
= −(λ − 2)(λ − 2)(λ + 1)
= −(λ − 2)2 (λ + 1).
1Por ejemplo, el polinomio de grado tres p(λ) = (1 − λ)2 (λ + 2) tiene las raı́ces distintas λ = 1 (raı́z de multiplicidad 2) y la
raı́z simple λ = −2.
26
Page (PS/TeX): 53 / 469, COMPOSITE
470 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Ası́ que las raı́ces de pA (λ) son λ = 2 (raı́z doble) y λ = −1 (raı́z simple).
1. Valores propios distintos: λ1 = 2 y λ2 = −1.
2. Los valores propios de λi , i = 1, 2, son las soluciones del sistema homogéneo (A − λi I3 )v = 0R3 .
⎡
Para λ1 = 2:
0
⎣ −1
1
⎤
⎤ ⎡
1
3 −1
1
0
−2
1 ⎦ ∼ ⎣ −1 −2 1 ⎦
0
1
0
3 −1
⎤
⎡
1 3 −1
0 ⎦
∼⎣ 0 1
0 1
0
⎤
⎡
1 3 −1
0 ⎦;
∼⎣ 0 1
0 0
0
⎡
⎤
⎤ ⎡
x1
r
∴ ⎣ x2 ⎦ = ⎣ 0 ⎦
r
x3
⎡ ⎤
1
= r⎣ 0 ⎦.
1
Luego el conjunto de vectores propios para λ1 = 2 es
{(r, 0, r) | r = 0}.
⎡
Para λ2 = −1:
3
⎣ −1
1
⎤
⎤ ⎡
3 1 0
0
1 ⎦∼⎣ 0 4 3 ⎦
0 8 6
2
⎤
⎡
3 1 0
∼ ⎣ 0 4 3 ⎦;
0 0 0
⎡
⎤
⎤ ⎡
x1
s
∴ ⎣ x2 ⎦ = ⎣ −3r ⎦
4r
x3
⎤
⎡
1
= r ⎣ −3 ⎦
4
1
1
3
y el conjunto de vectores propios de λ2 = −1 es
{(r, −3r, 4r) | r = 0}.
3. Por lo precedente
E2 = gn((1, 0, 1)) y
Por tanto
Page (PS/TeX): 54 / 470, COMPOSITE
E−1 = gn((1, −3, 4)).
dim(E2 ) = 1,
dim(E−1 ) = 1.
SECCIÓN 5.3
Valores y vectores propios, diagonalización 471
En el ejemplo precedente pA = −(λ − 1)3 − (5 − 3λ) no tiene una forma adecuada para factorizar y
calcular las raı́ces. Pero si desarrollamos, obtenemos
pA (λ) = −λ3 + 3λ2 − 4
y la ecuación caracterı́stica se puede escribir entonces como
λ3 − 3λ2 + 4 = 0.
Las raı́ces se pueden hallar mediante división sintética. Recuerde que en un polinomio que tiene coeficientes enteros y es mónico (el coeficiente de la mayor potencia es 1) si una raı́z es entera, entonces debe
dividir exactamente al término independiente, en este caso 4; y que si r es raı́z del polinomio, entonces
el residuo de dividir el polinomio entre λ − r es cero. Para este caso, los divisores de 4 son ±1, ±2, ±4.
Al hacer división sintética se obtiene
1
−3
2
0
−2
4
−4
1
−1
−2
0
2 .
Los coeficientes del cociente son los primeros tres números de la última fila y el residuo está dado en la
última columna de esta fila (0); por tanto, λ3 − 3λ2 + 4 = (λ − 2)(λ2 − λ − 2); esto es, λ3 − 3λ2 + 4 =
(λ − 2)(λ − 2)(λ + 1) = (λ − 2)2 (λ + 1). Las raı́ces son entonces λ = 2 (doble o de multiplicidad 2) y
λ = 1 (simple o de multiplicidad 1), que son las mismas que encontramos antes.
5.3.2 Diagonalización
Al inicio de esta sección planteamos la posibilidad de encontrar una representación diagonal de un
operador lineal T en un espacio de dimensión finita n; y en el teorema 5.25 (cfr. pág. 458) mostramos que las condiciones necesarias y suficientes para este fin son que existan n escalares reales λ j y
n vectores L.I. e j , j = 1, . . . , n, tales que T (e j ) = λ je j ∀ j. Esto es, que T tenga n valores propios λ j
con sendos vectores propios correspondientes e j que sean linealmente independientes; es decir, que
formen una base del espacio. En tal caso dicha representación diagonal es diag(λ1 , . . . , λn ). Si A es la
representación matricial de T relativa a una base B, los valores propios de T y de A son los mismos;
por tanto, que T tenga una representación matricial diagonal equivale a que exista una matriz C tal que
D = C−1 AC, donde D = diag(λ1 , . . . , λn ); pues las representaciones matriciales del operador T son matrices similares. Entonces el objetivo se limita nuevamente a trabajar con matrices cuadradas y determinar
bajo qué condiciones se puede llevar a efecto esta “diagonalización”.
Definición 5.22 Sea A ∈ Mn una matriz cuadrada real de orden n. A es diagonalizable si existe un
par de matrices C, D ∈ Mn , con D una matriz diagonal y C una matriz invertible, tales que
D = C−1 AC.
Se dice entonces que el par (C, D) es una diagonalización para la matriz A.
Page (PS/TeX): 55 / 471, COMPOSITE
472 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Sea A una matriz diagonalizable de orden n, y (C, D) una diagonalización para A, con D = diag
(λ1 , . . . , λn ). Puesto que A y D son similares tienen los mismos valores propios (cfr. teorema 5.26); de
1, . . . , K
n las columnas de la matriz C; entonces,
ahı́ que los valores propios de A son27 λ1 , . . . , λn . Sean K
puesto que AC = CD, se tiene, de (1.2), página 11,
2 · · · AK
n ] = [λ1 K
1 AK
1 λ2 K
2 · · · λn K
n ];
[AK
i es un vector propio de la matriz A correspondiente al valor propio
i y por ende K
i = λi K
por lo que AK
λi para cada i = 1, . . . , n. De esto y del teorema 5.25, con T = TA , se demuestra el siguiente teorema.
Teorema 5.32 Sea A una matriz cuadrada de orden n. Entonces A es diagonalizable si y sólo si A
tiene n valores propios λ j ∈ R con vectores propios correspondientes u j , de sendos valores propios,
linealmente independientes; es decir, los vectores propios u1 , . . . ,un forman una base de Rn . En tal
caso una diagonalización para A está dada por el par (C, D); donde C es la matriz cuyas columnas
son los vectores u j , j = 1, 2, . . . , n, y D = diag(λ1 , λ2 , . . . , λn ).
Necesitaremos del siguiente lema para tener una consecuencia inmediata del teorema anterior y
poder probar el principal resultado de esta sección (el teorema 5.33).
Lema 5.2
1. Sean T un operador lineal definido en un espacio vectorial y λ1 , . . . , λk valores propios de
T distintos entre sı́. Supongamos que {u11 , . . . ,u1m1 } es un conjunto de vectores propios L.I
correspondientes a λ1 , {u21 , . . . , u2m2 es un conjunto de vectores propios L.I. correspondientes a λ2 , etc., y {uk1 , . . . ,ukmk } es un conjunto de vectores propios L.I. correspondientes a λk .
Entonces los vectores
u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,uk1 , . . . ,ukmk
(5.23)
son linealmente independientes.
2. Sean A una matriz cuadrada de orden n y λ1 , . . . , λk valores propios de A distintos entre sı́. Sean
{u j1 , . . . ,u jm j } conjuntos L.I. de vectores propios correspondientes a λ j para cada j = 1, . . . , k.
Entonces los vectores
u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,uk1 , . . . ,ukmk
son linealmente independientes.
DEMOSTRACIÓN
Q 1. Procedamos por inducción sobre k. Si k = 1, por hipótesis {u11 , . . . ,u1m1 } es L.I. Sea k un entero
mayor a 1 y supongamos que el resultado es cierto para todo conjunto de k − 1 valores propios de
T distintos entre sı́. Si uno de los vectores en (5.23) es combinación lineal de los demás, digamos
ukmk (de ser necesario podemos renombrar estos vectores y los valores propios para que esto suceda
ası́), entonces existen escalares
α11 , . . . , α1m1 , α21 , . . . , α2m2 , . . . , αk1 , . . . , αkmk −1
1Es evidente que los valores propios de una matriz diagonal D = diag(λ1 , . . . , λn ) son los elementos λi de su diagonal.
27
Page (PS/TeX): 56 / 472, COMPOSITE
Valores y vectores propios, diagonalización 473
SECCIÓN 5.3
tales que
m1
m2
mk −1
i=1
i=1
i=1
ukmk = ∑ α1iu1i + ∑ α2iu2i + · · · +
∑
αkiuki
(5.24)
Por tanto
m1
m2
mk −1
i=1
i=1
i=1
m1
m2
mk −1
i=1
i=1
i=1
m1
m2
mk −1
i=1
i=1
i=1
T (ukmk ) = ∑ α1i T (u1i ) + ∑ α2i T (u2i ) + · · · +
∑
αki T (uki )
y entonces
λkukmk = ∑ α1i λ1u1i + ∑ α2i λ2u2i + · · · +
∑
αki λkuki
(5.25)
αki λkuki
(5.26)
Pero, por (5.24),
λkukmk = ∑ α1i λku1i + ∑ α2i λku2i + · · · +
∑
De (5.25) y (5.26) se desprende
m1
mk−1
i=1
i=1
∑ α1i (λ1 − λk )u1i + · · · +
∑ α(k−1)i (λk−1 − λk )u(k−1)i = 0E
(5.27)
Por hipótesis de inducción, ya que los λ j , j = 1, . . . , k − 1, son distintos entre sı́, se tiene que los
vectores
u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,u(k−1)1 , . . . ,u(k−1)mk−1
son L.I.; ası́ que (5.27) implica
α11 (λ1 − λk )
α21 (λ2 − λk )
= ··· =
= ··· =
..
.
α1m1 (λ1 − λk )
α2m2 (λ2 − λk )
= 0
= 0
α(k−1)1 (λk−1 − λk ) = · · · = α(k−1)mk−1 (λk−1 − λk ) = 0
y puesto que λ j − λk = 0 para todo j = 1, 2, . . . , k − 1, se concluye que
α11
α21
= ··· =
= ··· =
α1m1
α2m2
..
.
= 0
= 0
α(k−1)1 = · · · = α(k−1)mk−1 = 0.
Al sustituir estos αi j en (5.24) obtenemos
ukmk =
mk −1
∑
αkiuki
i=1
que es imposible, pues por hipótesis los vectores uk1 , . . . ,u1mk son L.I. Luego, los vectores en (5.23)
tienen que ser independientes.
2. Es consecuencia inmediata del inciso anterior al tomar T = TA .
Page (PS/TeX): 57 / 473, COMPOSITE
Q
474 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Corolario 5.2 Si A es una matriz cuadrada de orden n que tiene n valores propios λ1 , . . . , λn distintos
entre sı́, entonces A es diagonalizable y una diagonalización para A es el par (C, D); donde C es la
matriz cuya columna j, j = 1, . . . , n, es un vector propio u j correspondiente al valor propio λ j y
D = diag(λ1 , . . . , λn ).
DEMOSTRACIÓN
Q Por el lema 5.2 los vectores propios u j , j = 1, . . . , n, son L.I. y por ende {u1 , . . . ,un } es una base de
Rn ; y la conclusión es entonces consecuencia inmediata del teorema 5.32. Q
Ejemplo 5.49 Sea A =
1 2
2 1
. Entonces
1−λ
2
pA (λ) = 2 1−λ
= (1 − λ)2 − 4
= λ2 − 2λ − 3
= (λ − 3)(λ + 1);
ası́ que los valores propios de A son λ1 = 3 y λ2 = −1, n = 2 valores propios distintos. Por el corolario
5.2, A es diagonalizable. Para hallar una diagonalización necesitamos calcular vectores propios.
Para λ1 :
1 − λ1
2
2
1 − λ1
1−3
2
2
1−3
−2
2
=
2 −2
1 −1
∼
0
0
=
y por tanto los vectores propios correspondientes tienen la forma
1
r
, r = 0.
1
1 − (−1)
2
2
1 − λ2
=
Para λ2 :
2
1 − (−1)
2
1 − λ2
2 2
=
2 2
1 1
∼
0 0
y entonces los vectores propios correspondientes tienen la forma
1
r
, r = 0.
−1
Ası́,
C=
es una diagonalización para A.
Page (PS/TeX): 58 / 474, COMPOSITE
1
1
1 −1
,D=
3
0
0
−1
Valores y vectores propios, diagonalización 475
SECCIÓN 5.3
Comprobación:
AC =
=
3 −1
3
1
=
y
1
1
1 −1
CD =
1 2
2 1
3 −1
3
1
3
0
1
1
0
−1
1
−1
Por tanto
AC = CD
que equivale a
D = C−1 AC.
El corolario 5.2 únicamente establece condiciones suficientes para que una matriz sea diagonalizable; es decir, puede ser que una matriz sea diagonalizable aunque su polinomio caracterı́stico tenga
raı́ces múltiples (cfr. ejemplo 5.50). De hecho, vamos a establecer condiciones necesarias y suficientes
para que una matriz sea diagonalizable (teorema 5.33) que cubrirán todos esos casos. Antes de ello
necesitamos un poco más de terminologı́a.
Definición 5.23
1. Sean E un espacio vectorial de dimensión finita n, T un operador lineal en E y λ un valor
propio de T .
(a) A la multiplicidad de λ como raı́z del polinomio caracterı́stico de T se le llama la multiplicidad algebraica de este valor propio y la denotaremos, en este libro, por μa (λ).
(b) A la dimensión del espacio propio Eλ se le dice multiplicidad geométrica de λ y la representaremos, en este texto, mediante el sı́mbolo μg (λ).
2. Sea A una matriz de orden n y λ un valor propio de A.
(a) Se llama multiplicidad algebraica de λ a la multiplicidad de este valor propio como raı́z
del polinomio caracterı́stico de la matriz A y se le representa por el sı́mbolo μa (λ).
(b) Se define la multiplicidad geométrica de λ como la dimensión del espacio propio Eλ ; esto
es, μg (λ) = dim(Eλ ).
P Nota 5.11
1. Sabemos, del teorema 5.12, que si u1 , . . . ,uk son vectores de un espacio vectorial E de dimensión
finita n, B es una base de este espacio y [ui ]B , i = 1, . . . , k, son los respectivos vectores de coordenadas relativos a dicha base, entonces los vectores ui son L.I. en E si y sólo si los vectores [ui ]B
son L.I. en Rn . De esto se desprende que la multiplicidad geométrica de un valor propio λ de un
operador lineal T : E → E es la misma que la multiplicidad geométrica de este valor propio para
cualquier representación matricial de T .
2. Si A es una matriz cuadrada, es evidente que los conceptos de multiplicidad algebraica y geométrica son exactamente los mismos que los correspondientes conceptos para el operador TA .
Page (PS/TeX): 59 / 475, COMPOSITE
476 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Un resultado preliminar para lograr el objetivo final de dar condiciones necesarias y suficientes para
la diagonalización de una matriz está contenido en el lema 5.3.
Lema 5.3 .
1. Sean T un operador lineal en un espacio vectorial de dimensión n y λ0 un valor propio de este
operador, entonces
μg (λ0 ) ≤ μa (λ0 ).
(5.28)
2. Sea A una matriz de orden n. Entonces, para cada valor propio λ0 de A se tiene (5.28).
DEMOSTRACIÓN
Q 1. Sean m = μg (λ0 ) y B = {e1 , . . . ,em } una base del subespacio propio Eλ0 . Completemos B a una
base {e1 , . . . ,em ,em+1 , . . . ,en } de E mediante el procedimiento dado en la página 167. Entonces
T (ei ) = λ0ei
∀i = 1, . . . , m.
De aquı́ se sigue que la representación matricial de T relativa a esta base tiene la forma
D B1
,
[T ]B =
O B2
donde D = diag(λ0 , . . . , λ0 ), B1 y B2 son matrices de tamaños m × (n − m) y (n − m) × (n − m),
m
respectivamente y O es la matriz cero de tamaño (n − m) × m. Entonces
D − λIm B1
.
pT (λ) = O
B2 − λIn−m Es fácil mostrar que
D − λIm
O
B1
= det(D − λIm ) det(B2 − λIn−m );
B2 − λIn−m por tanto,
pT (λ) = (λ0 − λ)m det(B2 − λIn−m ).
De aquı́ que λ0 es raı́z del polinomio caracterı́stico de multiplicidad al menos m; esto es,
μg (λ0 ) ≤ μa (λ0 ).
2. Es inmediata al aplicar el primer inciso a T = TA .
Q
Supongamos ahora que A es una matriz cuadrada de orden n con n valores propios tal que para cada
uno de éstos la multiplicidad algebraica coincide con la multiplicidad geométrica. Esto es, si A tiene k
valores propios distintos entre sı́, λ1 , . . . , λk , entonces μg (λi ) = μa (λi ) = mi , para cada i = 1, . . . , k. Sean
entonces u1j , . . . ,umj j vectores propios L.I. correspondientes al valor propio λ j , para cada j = 1, . . . , k. En
virtud del lema 5.2 inciso 2, ya que los valores propios λ1 , . . . , λk son distintos entre sı́, el conjunto
{u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,uk1 , . . . ,ukmk }
Page (PS/TeX): 60 / 476, COMPOSITE
Valores y vectores propios, diagonalización 477
SECCIÓN 5.3
es linealmente independiente. Finalmente, ya que
m1 + m 2 + · · · + m k = n
(pues la suma de las multiplicidades de las raı́ces distintas de un polinomio es igual al grado del mismo),
del teorema 5.32, se concluye que A es diagonalizable con diagonalización la matriz C que tiene por
columnas a los vectores u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,uk1 , . . . ,ukmk y
D = diag(λ1 , . . . , λ1 , λ2 , . . . , λ2 , . . . , λk , . . . , λk ).
m1
m2
mk
Inversamente, supongamos que la matriz es diagonalizable. Sea (C, D) una diagonalización para esta
matriz con D = diag(β1 , β2 , . . . , βn ). Entonces, si λ1 , λ2 , . . . , λk , son los valores distintos entre sı́ de la
diagonal de D, se tiene
pA (λ) = (λ1 − λ)m1 (λ2 − λ)m2 · · · (λk − λ)mk ;
donde mi = μa (λi ) para cada i = 1, . . . , k. De aquı́, ya que las columnas de C son vectores L.I. por ser
ésta una matriz invertible, existen por lo menos mi vectores L.I. en Eλi para cada i = 1, . . . , k; pues, para
j de C, AK
j = β jK
j (cfr. la discusión que sigue de la definición 5.22); lo cual prueba que
cada columna K
μa (λi ) ≤ μg (λi )
para cada i = 1, . . . , k.
(5.29)
De (5.28) del lema 5.3 y (5.29) se desprende
μa (λi ) = μg (λi )
para cada valor propio de A. Hemos probado ası́ el resultado que da condiciones necesarias y suficientes
para que una matriz sea diagonalizable y que hacemos patente en el teorema 5.33.
Condiciones necesarias y suficientes para que una matriz sea diagonalizable
Teorema 5.33 Sea A una matriz cuadrada de orden n que tiene n valores propios. Entonces A es
diagonalizable si y sólo si para cada valor propio de A la multiplicidad algebraica coincide con la
multiplicidad geométrica; esto es,
μa (λ) = μg (λ)
para cada valor propio λ de A. En este caso, si λ1 , . . . , λk son los valores propios de A distintos
entre sı́ con sendas multiplicidades algebraicas μa (λ j ) = m j , j = 1, . . . , k, y u1j , . . . ,umj j son vectores
L.I. correspondientes a cada valor propio λ j , entonces una diagonalización para A es el par (C, D),
donde C es la matriz que tiene por columnas a los vectores
u11 , . . . ,u1m1 ,u21 , . . . ,u2m2 , . . . ,uk1 , . . . ,ukmk
y
D = diag(λ1 , . . . , λ1 , λ2 , . . . , λ2 , . . . , λk , . . . , λk ).
m1
Page (PS/TeX): 61 / 477, COMPOSITE
m2
mk
478 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Ejemplo 5.50 Determinar si la matriz
⎡
1
A=⎣ 0
0
⎤
−3 3
−5 6 ⎦
−3 4
es diagonalizable y encontrar, en su caso, una diagonalización para ella.
1−λ
pA (λ) = 0
0
Solución
−3
−5 − λ
−3
−5 − λ
= (1 − λ) −3
6 4−λ 3
6
4−λ
= (1 − λ)(−(5 − λ)(4 − λ) + 18)
= (1 − λ)(λ2 + λ − 2)
= (1 − λ)(λ + 2)(λ − 1)
= −(1 − λ)2 (λ + 2).
Ası́ que los vectores propios de A, distintos entre sı́, son
λ1 = 1 y λ2 = −2;
con multiplicidades algebraicas
μa (λ1 ) = 2 y μa (λ2 ) = 1.
Para λ1 = 1:
⎡
0
(A − λ1 I3 ) = ⎣ 0
0
−3
−6
−3
⎤
⎤ ⎡
⎤ ⎡
0 −1 1
0 −3 3
3
0 0 ⎦;
0 0 ⎦∼⎣ 0
6 ⎦∼⎣ 0
0
0 0
0
0 0
3
luego
⎡
⎡ ⎤
⎡ ⎤
⎤ ⎡ ⎤
x1
0
1
s
⎣ x2 ⎦ = ⎣ r ⎦ = s ⎣ 0 ⎦ + r ⎣ 1 ⎦ .
1
0
r
x3
Por tanto, μg (λ1 ) = dim(E1 ) = 2.
Para λ2 = −2:
⎡
3
(A + 2I3 ) = ⎣ 0
0
⎤ ⎡
1
−3 3
−3 6 ⎦ ∼ ⎣ 0
0
−3 6
⎤ ⎡
1
−1
1
1 −2 ⎦ ∼ ⎣ 0
0
−3
6
luego
⎡
⎤
⎤
⎡
⎤ ⎡
x1
1
r
⎣ x2 ⎦ = ⎣ 2r ⎦ = r ⎣ 2 ⎦ .
1
r
x3
Por tanto, μg (λ2 ) = dim(E−2 ) = 1.
Page (PS/TeX): 62 / 478, COMPOSITE
⎤
−1
1
1 −2 ⎦ ;
0
0
SECCIÓN 5.3
Valores y vectores propios, diagonalización 479
Puesto que μa (λ1 ) = μg (λ1 ) y μa (λ2 ) = μg (λ2 ), A es diagonalizable y una diagonalización para A es el
par (C, D), donde
⎤
⎤
⎡
⎡
1 0
0
1 0 1
0 ⎦
C=⎣ 0 1 2 ⎦ yD=⎣ 0 1
0 0 −2
0 1 1
de acuerdo con el teorema 5.33. El lector puede comprobar, verificando la igualdad de los productos28
AC y CD, que efectivamente D = C−1 AC. ⎤
2 1 0
Ejemplo 5.51 Sea A = ⎣ −1 0 1 ⎦. En el ejemplo 5.48 (cfr. pág. 469) vimos que los valores
1 3 1
propios de A son λ1 = 2 y λ2 = −1 con multiplicidades algebraicas μa (λ1 ) = 2 y μa (λ2 ) = 1; y que
dim(E2 ) = 1 y dim(E−1 ) = 1. Luego μa (λ1 ) = μg (λ1 ); por tanto, A no es diagonalizable.
⎡
Ejemplo 5.52 Sea
⎡
1
⎢ 0
A=⎢
⎣ 3
3
3
−2
3
3
⎤
0
0
0
0 ⎥
⎥.
1 −3 ⎦
0 −2
Determinar si A es diagonalizable y, en caso afirmativo, encontrar una diagonalización para esta matriz.
Solución
−2 − λ
0
0
3
1−λ
−3 = (1 − λ) 3
0
−2 − λ 1−λ
−3 = (1 − λ)(−2 − λ) 0
−2 − λ 1−λ
0
pA (λ) = 3
3
3
−2 − λ
3
3
0
0
1−λ
0
0
0
−3
−2 − λ
= (1 − λ)(−2 − λ)(1 − λ)(−2 − λ)
= (1 − λ)2 (2 + λ)2 ,
por lo que los valores propios distintos de A son λ1 = −2 y λ2 = 1, con multiplicidades algebraicas
μa (λ1 ) = 2 y μa (λ2 ) = 2. Resolvamos los sistemas (A − λi I4 )u = 0Rn para i = 1, 2.
Para λ1 = −2:
⎡
3
⎢ 0
A − (−2)I4 = ⎢
⎣ 3
3
⎡
1
⎢ 0
∼⎢
⎣ 0
0
3
0
3
3
1
0
0
0
⎤
⎤ ⎡
1 1 1 −1
0 0
⎢
0 ⎥
0 0 ⎥
⎥
⎥∼⎢ 1 1 0
⎣
⎦
1 1 0
0 ⎦
3 −3
0 0 0
0
0 0
⎤ ⎡
1 1
1 −1
1 −1
⎢ 0 0 −1
1
−1
1 ⎥
⎥∼⎢
0
0
−1
1 ⎦ ⎣ 0 0
0 0
0
0
0
0
1Observe que se comprueba la igualdad de los productos AC y CD para evitar el cálculo de C−1 .
28
Page (PS/TeX): 63 / 479, COMPOSITE
⎤
⎥
⎥,
⎦
480 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
por lo que x4 = x3 , x1 = −x2 − x3 + x4 = −x2 ; esto es, la solución del sistema homogéneo es
⎡
⎤
⎡
⎤
⎤ ⎡
0
−1
−s
x1
⎢ 0
⎢ 1 ⎥
⎢ x2 ⎥ ⎢ s ⎥
⎢
⎥
⎢
⎥
⎥ ⎢
⎢
⎣ x3 ⎦ = ⎣ r ⎦ = s ⎣ 0 ⎦ + r ⎣ 1
1
0
r
x4
⎡
⎤
⎥
⎥
⎦
y entonces dim(E−2 ) = 2.
Para λ2 = 1:
⎡
0
⎢ 0
A − I4 = ⎢
⎣ 3
3
⎡
1
⎢ 1
∼⎢
⎣ 0
0
⎡
1
⎢ 0
∼⎢
⎣ 0
0
⎡
1
⎢ 0
∼⎢
⎣ 0
0
⎤
3 0 0
−3 0 0 ⎥
⎥
3 0 −3 ⎦
3 0 −3
⎤
1 0 −1
1 0 −1 ⎥
⎥
1 0
0 ⎦
−1 0
0
⎤
1 0 −1
0 0
0 ⎥
⎥
1 0
0 ⎦
−1 0
0
⎤
1 0 −1
1 0
0 ⎥
⎥,
0 0
0 ⎦
0 0
0
de donde x2 = 0, x1 = x4 ; por tanto, la solución del sistema homogéneo es
⎤
⎡
⎡ ⎤
⎡
⎤ ⎡ ⎤
0
1
r
x1
⎢ 0 ⎥
⎢ 0 ⎥
⎢ x2 ⎥ ⎢ 0 ⎥
⎥
⎢
⎢ ⎥
⎢
⎥ ⎢ ⎥
⎣ x3 ⎦ = ⎣ s ⎦ = r ⎣ 0 ⎦ + s ⎣ 1 ⎦ ,
0
1
r
x4
ası́ que dim(E1 ) = 2.
Puesto que μa (λ1 ) = 2 = μg (λ1 ) y μa (λ2 ) = 2 = μa (λ2 ), A es diagonalizable y una diagonalización para
esta matriz está dada por
⎤
⎤
⎡
⎡
−2
0 0 0
−1 0 1 0
⎢ 0 −2 0 0 ⎥
⎢ 1 0 0 0 ⎥
⎥.
⎥
⎢
C=⎢
⎣ 0 1 0 1 ⎦ y D=⎣ 0
0 1 0 ⎦
0
0 0 1
0 1 1 0
Comprobación:
⎡
1 3 0 0
⎢ 0 −2 0 0
AC = ⎢
⎣ 3 3 1 −3
3 3 0 −2
⎡
2
0 1 0
⎢ −2 0 0 0
=⎢
⎣ 0 −2 0 1
0 −2 1 0
Page (PS/TeX): 64 / 480, COMPOSITE
⎤⎡
−1
⎥⎢ 1
⎥⎢
⎦⎣ 0
0
⎤
⎥
⎥
⎦
0
0
1
1
1
0
0
1
⎤
0
0 ⎥
⎥
1 ⎦
0
SECCIÓN 5.3
Valores y vectores propios, diagonalización 481
y
⎡
−1
⎢ 1
CD = ⎢
⎣ 0
0
⎡
2
⎢ −2
=⎢
⎣ 0
0
0
0
1
1
1
0
0
1
0
0
−2
−2
⎤⎡
−2
0
0
⎢ 0 −2
0 ⎥
⎥⎢
0
1 ⎦⎣ 0
0
0
0
⎤
1 0
0 0 ⎥
⎥. 0 1 ⎦
1 0
⎤
0 0
0 0 ⎥
⎥
1 0 ⎦
0 1
Propiedades de matrices diagonalizables
Sea A una matriz cuadrada de orden n que es diagonalizable, con diagonalización (C, D) y D = diag
(λ1 , . . . , λn ). Entonces D = C−1 AC, de donde
det(A) = det(D) = λ1 · · · λn ;
esto es, el determinante de A es el producto de los valores propios de A. Por otro lado,
D2 = (C−1 AC)(C−1 AC)
= C−1 A2C,
de donde se infiere, lo cual se puede probar por inducción, que
Dm = C−1 AmC
m
para todo entero positivo m; y puesto que Dm = diag(λm
1 , . . . , λn ), se tiene
m
−1
Am = C diag(λm
1 , . . . , λn )C .
Resumimos la información precedente en el siguiente teorema.
Teorema 5.34 Si A es una matriz cuadrada de orden n que es diagonalizable con diagonalización
(C, D), D = diag(λ1 , . . . , λn ), entonces λ1 , . . . , λn son los valores propios de A y
1.
det(A) = λ1 · · · λn .
(5.30)
2. Para todo entero positivo m,
m
−1
Am = C diag(λm
1 , . . . , λn )C .
P Nota 5.12 En realidad mostraremos, en el siguiente apartado, que la igualdad (5.30) es válida para
toda matriz A aunque ella nos sea diagonalizable (cfr. teorema 5.36, pág. 486); esto es, que el determinante de toda matriz cuadrada es el producto de los valores propios de la misma.
Page (PS/TeX): 65 / 481, COMPOSITE
482 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
5.3.3 Valores propios complejos y diagonalización sobre C
Valores propios complejos, propiedades
Sabemos de educación elemental que las raı́ces de un polinomio no siempre son todas ellas números
reales; de hecho, aun en casos muy simples, se obtienen raı́ces complejas. El campo C de números complejos contiene, algebraicamente, al campo R de los números reales mediante la inclusión a → a + 0i.
Es entonces evidente que las matrices con entradas reales, Mm×n , pueden incluirse algebraicamente en
el conjunto de matrices con entradas complejas, Mm×n (C), mediante la identificación antes mencionada
de los números reales a con los números complejos de la forma a+0i. De esta manera podemos extender
los conceptos de valores y vectores propios a este tipo de matrices para considerar los casos en los que el
polinomio caracterı́stico tenga raı́ces complejas. Lejos de ser una simple generalización esta idea resulta
sumamente útil tanto en aspectos teóricos como en aplicaciones y su uso, a estas alturas, es inevitable.29
Definición 5.24 (Valores propios complejos de una matriz) Sea A una matriz cuadrada de orden n
con entradas complejas, i.e., A ∈ Mn (C). Se dice que λ ∈ C es un valor propio de A si existe un
vector u ∈ Cn , u = (0, 0, . . . , 0), tal que Au = λu. En este caso, a u se le llama vector propio de A
correspondiente a λ.
n
Todo lo que hemos desarrollado, relativo a valores y vectores propios de matrices cuadradas con
componentes reales, sigue siendo válido para matrices cuadradas con entradas complejas simplemente
considerando la definición 5.24 en lugar del caso particular de ésta contenido en la definición 5.19.
Ejemplo 5.53 Sea A =
1 −1
1
2
. Encontrar los valores y vectores propios correspondientes de la
matriz A.
1−λ
det(A − λI2 ) = 1
−1 2−λ = (1 − λ)(2 − λ) + 1
= 2 − 3λ + λ2 + 1
= λ2 − 3λ + 3.
Las raı́ces del polinomio caracterı́stico son entonces
√
3 ± 9 − 12
λ =
2
√
−3
3
= ±
2
2
√
3i2
3
= ±
2
2
√
3
3
i.
= ±
2
2
1El lector que hasta aquı́ ha omitido las subsecciones 1.1.5, 1.2.8, 2.1.5, 2.2.5, 3.5 y la sección B.1 del apéndice B, éste es el
momento para invertir un poco de tiempo en su estudio; el esfuerzo no será demasiado y bien valdrá la pena.
29
Page (PS/TeX): 66 / 482, COMPOSITE
Valores y vectores propios, diagonalización 483
SECCIÓN 5.3
Ası́, los valores propios de A son λ1 = 32 +
(A − λ j I2 )u = 0C = [ 0 0 ]t :
• Para λ1 = 32 +
√
3
2 i
y λ2 = 32 −
√
3
2 i.
Resolvamos los sistemas homogéneos
√
3
2 i:
1 − 32 −
1
√
3
2 i
−1 √
3
2 − 2 − 23 i
− 12 −
1
=
3
2 i
1√
− 12 − 23 i
∼
∼
√
1
2
1
0
√
− 23 i
0
−1√
3
1
2− 2 i
1
2
√
− 23 i
−1
y por tanto,
x
y
√ − 12 + 23 i r
=
r
√
3
1
−
+
2
2 i
=r
.
1
Luego, los vectores propios correspondientes a λ1 son todos los vectores en C2 de la forma
√
r − 12 + 23 i, 1
con r cualquier número complejo distinto de cero.
• Para λ2 = 32 −
√
3
2 i:
1 − 32 +
1
√
3
2 i
−1 √
2 − 32 + 23 i
− 12 +
1
=
∼
3
2 i
1√
1
− 2 + 23 i
∼
√
1
2
1
0
√
+ 23 i
0
−1√
3
1
+
2
2 i
1
2
√
+ 23 i
−1
por lo que
x
y
=
−
1
2
=s
1
2
+
r
√
+ 23 i
−1
√
3
2 i
r
.
√
Entonces los vectores propios correspondientes a λ2 tienen la forma s 12 + 23 i, −1 con s ∈ C − {0}.
1 √3 3 √3 −2 + 2 i
−2 + 2 i
1 −1
=
y
Comprobación: Para λ1 ,
√
1
2
3
3
1
2+ 2 i
Page (PS/TeX): 67 / 483, COMPOSITE
3
2
+
√ 3
2 i
− 12 +
1
√
3
2 i
=
√
− 32 +√ 23 i
3
3
2+ 2 i
.
484 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Para λ2 ,
1
1
−1
2
1
2
+
√
3
2 i
−1
3
2
−
⎡
i
Ejemplo 5.54 Sea A = ⎣ 0
0
√
3
2 i
=
√
−3 + 3i
2 √2
3
1
√ 3
2+ 2 i
i
2
3
2
+
−1
y
=
√
3
2 i
√
− 32 + 23 i
3
2
+
.
⎤
−i i
1 1 ⎦. Encontrar:
−1 1
1. Los valores propios de A.
2. Los vectores propios correspondientes a cada valor propio.
3. Los espacios propios y sus respectivas dimensiones.
Solución
1. Valores propios:
i−λ
0
0
−i
1−λ
−1
i
1
1−λ
= (i − λ)((1 − λ)(1 − λ) + 1)
= (i − λ)(λ2 − 2λ + 2).
Por tanto,
λ=i y
√
2± 4−8
λ=
√2
2 ± 4i2
=
2
= 1 ± i.
Ası́ que los valores propios son λ1 = i, λ2 = 1 + i y λ3 = 1 − i.
2. Vectores propios. Para encontrar los vectores propios se tienen que encontrar las soluciones no
triviales de los sistemas homogéneos (A − λ j I3 )u = 0C3 , para j = 1, 2, 3.
λ1 = i:
⎡
0 −i
⎣ 0 1−i
0 −1
y por tanto
Page (PS/TeX): 68 / 484, COMPOSITE
⎤
⎤ ⎡
0
1
−1 + i
i
⎦
1
1 ⎦ ∼ ⎣ 0 1−i
0 −i
i
1−i
⎤
⎡
0 1 −1 + i
∼ ⎣ 0 0 −2 − 2i ⎦
0 0 −1 − i
⎤
⎡
0 1 −1 + i
∼ ⎣ 0 0 1+i ⎦;
0 0
0
⎤
⎡ ⎤
⎤ ⎡
1
r
x
⎣ y ⎦ = ⎣ 0 ⎦ = r⎣ 0 ⎦.
0
0
z
⎡
SECCIÓN 5.3
Valores y vectores propios, diagonalización 485
Ası́ que los vectores propios correspondientes a λ1 tienen la forma (r, 0, 0) con r ∈ C − {0}.
λ2 = 1 + i:
⎡
−1 −i
⎣ 0
−i
0 −1
⎤
⎤ ⎡
−1 −i i
i
−i 1 ⎦
1 ⎦∼⎣ 0
0 −1 −i
−i
⎤
⎡
−1 −i i
∼ ⎣ 0 −i 1 ⎦ ;
0
0 0
por ende
⎤
⎤
⎡
⎤ ⎡
(−1 + i)
(−1 + i)r
x
⎦.
⎦ = r⎣
⎣ y ⎦=⎣
−i
−ir
1
r
z
⎡
Luego, los vectores propios correspondientes a λ2 tienen la forma r(−1 + i, −i, 1), con r ∈ C y
r = 0.
λ3 = 1 − i:
⎡
−1 + 2i
⎣
0
0
⎤ ⎡
−1 + 2i
−i i
0
i 1 ⎦∼⎣
0
−1 i
−i
i
0
⎤
i
1 ⎦,
0
por lo que
⎤
⎤
⎡
⎤ ⎡
(−1 + 3i)
(−1 + 3i)r
x
⎦.
⎦ = r⎣
⎣ y ⎦=⎣
5i
5ir
5
5r
z
⎡
Entonces los vectores propios correspondientes a λ3 tienen la forma r(−1 + 3i, 5i, 5) con r ∈ C,
r = 0.
3. Por lo precedente,
Ei = gn((1, 0, 0)),
E1+i = gn((−1 + i, −i, 1)),
E1−i = gn((−1 + 3i, 5i, 5));
y por ende,
dim(Ei ) = 1,
dim(E1+i ) = 1,
dim(E1−i ) = 1.
Dado que un polinomio de grado n con coeficientes reales y/o complejos tiene n raı́ces complejas (recuerde que un número real se puede considerar como un número complejo), contando multiplicidades,
se tiene la validez del siguiente teorema.
Page (PS/TeX): 69 / 485, COMPOSITE
486 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Teorema 5.35 Sea A una matriz cuadrada de orden n (con componentes reales y/o complejas). Entonces A tiene exactamente n valores propios reales y/o complejos (contando multiplicidades, es decir
raı́ces múltiples o repetidas del polinomio caracterı́stico).
Ejemplo 5.55
1 0
1. Sea A =
. Entonces
1 1
pA (λ) = det(A − λI2 )
1−λ
0
= 1 1−λ
= (1 − λ)(1 − λ)
= 1 − λ2 .
Entonces los valores propios de A son λ1 = λ2 = 1, raı́ces repetidas (λ = 1 es raı́z doble o de
multiplicidad 2) del polinomio caracterı́stico.
2. Sea
⎡
3
⎢ −1
A=⎢
⎣ −4
0
0
3
5
6
⎤
0 0
0 0 ⎥
⎥.
i 0 ⎦
−7 i
Entonces
det(A − λI4 ) = (3 − λ)2 (i − λ)2 .
Luego, los valores propios de A son λ1 = 3, λ2 = 3, λ3 = i y λ4 = i. λ = 3 con multiplicidad 2 y
λ = i con multiplicidad 2.
Propiedades de los valores propios
Los valores propios tienen propiedades algebraicas directamente relacionadas con la matriz de la cual
provienen.
Teorema 5.36 Sea A una matriz cuadrada de orden n (con entradas reales y/o complejas) y sean
λ1 , λ2 , . . . , λn los valores propios de A (reales y/o complejos); es decir, las raı́ces del polinomio caracterı́stico consideradas con distintos subı́ndices aun si algunas coinciden; es decir, si son raı́ces
múltiples del polinomio caracterı́stico. Sea30 pA (λ) = (−1)n λn + cn−1 λn−1 + · · · + c1 λ + c0 este polinomio. Entonces
1.
c0 = det(A) = λ1 λ2 · · · λn .
2.
tra(A) = λ1 + λ2 + · · · + λn .
1Cfr. teorema 5.29, página 467.
30
Page (PS/TeX): 70 / 486, COMPOSITE
Valores y vectores propios, diagonalización 487
SECCIÓN 5.3
DEMOSTRACIÓN
Q 1. Dado que λ j , j = 1, . . . , n, son las raı́ces del polinomio caracterı́stico, se tiene
pA (λ) = (−1)n (λ − λ1 )(λ − λ2 ) · · · (λ − λn )
=
(5.31)
(λ1 − λ)(λ2 − λ) · · · (λn − λ),
y ya que
pA (λ) = det(A − λIn ),
se sigue que
c0 = det(A) = pA (0) = λ1 λ2 · · · λn .
2. Del teorema 5.29 sabemos que cn−1 = (−1)n−1 tra(A). Entonces
pA (λ) = (−1)n λn + (−1)n−1 tra(A)λn−1 + cn−2 λn−2 + · · · + c1 λ + c0 .
Al desarrollar el lado derecho de (5.31) y comparar con la precedente igualdad se obtiene
(−1)n−1 tra(A) = (−1)n−1 (λ1 + λ2 + · · · + λn ) ;
de donde
tra(A) = λ1 + λ2 + · · · + λn .
Ejemplo 5.56 Sea
A=
−1
2
1
1
Q
,
la matriz del ejemplo 5.53. Ahı́ vimos que los valores propios de A son λ1 = 32 +
Entonces, de acuerdo con el teorema 5.36,
√ √ det(A) = λ1 λ2 = 32 + 23 i 32 − 23 i
9 3
+
4 4
=3
=
y
tra(A) = λ1 + λ2
= 32 +
√
3
3
2 i+ 2
−
√
3
2
= 3.
Comprobación:
1
det(A) = 1
−1 = 2 + 1 = 3,
2 tra(A) = a11 + a22 = 1 + 2 = 3.
Page (PS/TeX): 71 / 487, COMPOSITE
√
3
2 i
y λ2 = 32 −
√
3
2 i.
488 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
P Nota 5.13
1. Observe que si una matriz tiene componentes reales, su determinante y su traza son también números reales no importando si los valores propios son o no números complejos; sin embargo, el determinante es el producto de los valores propios y la traza es la suma de éstos. Entonces, aunque
los valores propios de una matriz con componentes reales sean números complejos, su producto y
suma son números reales como se ilustró en el ejemplo 5.56. ¡Sorprendente!, ¿verdad? En realidad
no tanto, es un hecho conocido y fácil de probar, que las raı́ces complejas de polinomios con coeficientes reales aparecen en pares conjugados; i.e., si z = a + bi es raı́z, también z = a − bi es raı́z.
Entonces, ya que el producto y la suma de números complejos son asociativos y conmutativos,
podemos arreglar λ1 λ2 · · · λn y λ1 + λ2 + · · · + λn de tal suerte que pares conjugados estén uno tras
otro; de esta forma, puesto que zz = a2 + b2 ∈ R y z + z = 2a ∈ R, λ1 λ2 · · · λn y λ1 + λ2 + · · · + λn
serán números reales.
2. Por otro lado, si las componentes de la matriz son números complejos, entonces el determinante
y la traza pueden o no ser números reales, y el polinomio caracterı́stico tendrá posiblemente coeficientes complejos. Sin embargo, sigue siendo válido que la suma y el producto de los valores
propios son, respectivamente, la traza y el determinante de dicha matriz. Veamos esto con algunos
casos particulares: con la información dada en el ejemplo 5.53, tra(A) = 2 + i = λ1 + λ2 + λ3 ,
det(A) = 2i = λ1 λ2 λ3 y pA (λ) = −λ3 + (2 + i) λ2 + (−2 − 2i) λ + 2i, como el lector fácilmente
puede comprobar. Mientras que con los datos
del inciso 5.55 del ejemplo 5.55, tra(A) = 6 + 2i y
1 i
det(A) = −9. Y, finalmente, si A =
, pA (λ) = λ2 − 2λ + 1, det(A) = 1, tra(A) = 2.
0 1
Diagonalización sobre el campo C
Ya vimos que una matriz con componentes reales puede tener valores propios complejos; entonces no
puede ser diagonalizable de acuerdo con la definición 5.22. Sin embargo, si se permite que los escalares
y las componentes de los vectores propios sean números complejos en el sentido de la definición 5.24,
es posible que este tipo de matrices sean “diagonalizables” en el campo C; esto es, que existan un par
de matrices C, D, con componentes complejas, tales que C−1 AC sea una matriz diagonal.
Ejemplo 5.57 Si A =
1
−1
2
−1
, entonces
2
−1 − λ 1−λ
pA (λ) = −1
= −(1 − λ2 ) + 2
= λ2 + 1.
Ası́ que los valores propios de A en C son λ1 = i y λ2 = −i. Para λ1 = i,
1−i
−1
2
−1 − i
∼
1+i
2
1
1−i
∼
por lo que los vectores propios para λ1 tienen la forma
α
Page (PS/TeX): 72 / 488, COMPOSITE
−1 − i
1
,
α ∈ C−{0}.
1 1+i
0
0
;
Valores y vectores propios, diagonalización 489
SECCIÓN 5.3
Para λ2 = −i,
1+i
−1
2
−1 + i
∼
1−i
2
1
1+i
∼
1 1−i
0
0
;
luego los valores propios correspondientes a λ2 tienen la forma
β
Entonces, si C =
−1 − i −1 + i
1
1
1
C AC = −
2i
−1
=−
1
2i
−1 + i
1
,
β ∈ C−{0}.
, se tiene C
1
−1
1−i
−1 − i
1
−1
1−i
−1 − i
0
−2
−1
=
1
−2i
1
−1
1−i
i
1−i
−1 − i
1
−1
2
−1
1+i
−i
y
−1 − i −1 + i
1
1
1 2
=−
2i 0
1
−i 0
=
1
0
i
i 0
=
.
0 −i
Es decir,
C−1 AC = diag(i, −i).
Es natural entonces extender el concepto de diagonalización sobre el campo C.
Definición 5.25 Sea A ∈ Mn (C) una matriz cuadrada de orden n con entradas complejas. La matriz
A es diagonalizable sobre el campo C si existe un par de matrices C, D ∈ Mn (C), con C una matriz
invertible y D = diag(λ1 , . . . , λn ) una matriz diagonal, tales que
D = C−1 AC.
Al par (C, D) se le llama entonces una diagonalización para la matriz A.
Toda la teorı́a relativa a la diagonalización que se desarrolló en el apartado 5.22 es válida para
la diagonalización sobre el campo C y se transfiere directamente permitiendo que los escalares y las
componentes de las matrices sean números complejos y que los vectores propios “habiten” en Cn .
Ejemplo 5.58 Sea
⎡
i
A=⎣ 0
0
−14 + 14i
2−i
−2 − 2i
⎤
7 + 7i
−1 − i ⎦ .
−1 + 2i
Determinar si A es diagonalizable (en C). En caso afirmativo encontrar una diagonalización para A.
Page (PS/TeX): 73 / 489, COMPOSITE
490 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
i−λ
pA (λ) = 0
0
Solución
= (i − λ) −14 + 14i
7 + 7i
2−i−λ
−1 − i
−2 − 2i −1 + 2i − λ
2−i−λ
−1 − i
−2 − 2i −1 + 2i − λ = (i − λ) ((2 − i − λ)(−1 + 2i − λ) − (−1 − i)(−2 − 2i))
= (i − λ) 5i − λ − iλ + λ2 − 4i
= (i − λ)(λ2 − (1 + i)λ + i)
= (i − λ)(λ − i)(λ − 1)
= (λ − i)2 (1 − λ).
Los valores propios distintos son entonces λ1 = i, λ2 = 1 con multiplicidades algebraicas μa (λ1 ) = 2 y
μa (λ1 ) = 1. Resolvamos los sistemas (A − λ j I3 )u = 0R3 , j = 1, 2.
Para λ1 :
⎡
0
⎣ 0
0
−14 + 14i
2 − 2i
−2 − 2i
⎤
⎡
0
7 + 7i
←
−
−
−
−
−
−
−
−
−
→
−1 − i ⎦ R2 ↔ −iR1 − iR2 ⎣ 0
0
−1 + i
−2 + 2i
0
0
⎤
1+i
0 ⎦;
0
por lo que y = −(1 + i)(−2 + 2i)−1 z = 12 iz, y entonces
⎤
⎤
⎡
⎤
⎡
⎤ ⎡
0
1
α
x
⎣ y ⎦ = ⎣ iβ ⎦ = α ⎣ 0 ⎦ + β ⎣ i ⎦ ; α, β ∈ C.
2
0
2β
z
⎡
Para λ2 :
⎡
i−1
⎣ 0
0
⎤
⎡
i−1
−14 + 14i
7 + 7i
←
−
−
−
−
−
−
−
−
→
1−i
−1 − i ⎦ R3 ↔ 2iR2 + R3 ⎣ 0
0
−2 − 2i −2 + 2i−
⎤
−14 + 14i 7 + 7i
1−i
−1 − i ⎦ ,
0
0
por lo que
y = (1 + i)(1 − i)−1 z = iz
y
x = ((14 − 14i)y + (−7 − 7i)z)(i − 1)−1
= ((14 − 14i)iz + (−7 − 7i)z)(i − 1)−1
= −7iz;
es decir,
⎤
⎤
⎡
⎤ ⎡
−7i
−7iγ
x
⎣ y ⎦ = ⎣ iγ ⎦ = γ ⎣ i ⎦ ; γ ∈ C.
1
γ
z
⎡
Entonces
μg (λ1 ) = dim(Ei ) = 2,
μg (λ2 ) = dim(E1 ) = 1.
Page (PS/TeX): 74 / 490, COMPOSITE
Valores y vectores propios, diagonalización 491
SECCIÓN 5.3
Ya que μg (λ1 ) = 2 = μa (λ1 ) y μg (λ2 ) = 1 = μa (λ2 ), A es diagonalizable y una diagonalización para
esta matriz es
⎤
1 0 −7i
i ⎦
C=⎣ 0 i
0 2
1
⎡
⎡
Comprobación:
⎡
i −14 + 14i
2−i
AC = ⎣ 0
0
−2 − 2i
⎡
−1 0 −7i
i
= ⎣ 0 −i
0 −2
1
y
y
⎤⎡
i
7 + 7i
−1 − i ⎦ ⎣ 0
0
−1 + 2i
⎤
⎤
0
0 ⎦.
1
⎤
0 −7i
−1
i ⎦
2i
1
⎦
⎤
⎤⎡
i 0 0
i 0 −7i
i ⎦⎣ 0 i 0 ⎦
CD = ⎣ 0 −1
0 0 1
0 2i
1
⎤
⎡
−1 0 −7i
−i
i ⎦,
=⎣ 0
0 −2
1
⎡
lo cual implica que AC = CD; es decir, C−1 AC = D.
Ejemplo 5.59 Sea A =
i 0
D=⎣ 0 i
0 0
i
0
1
i
. Determinar si A es diagonalizable.
i−λ
pA (λ) = 0
Solución
1 = (i − λ)2 .
i−λ Entonces los valores propios de A son λ = λ1 = λ2 = i con multiplicidad algebraica μa (λ) = 2. Puesto
que
0 1
A − λI2 =
,
0 0
los vectores propios de λ están dados por
x
y
=α
1
0
, α ∈ C − {0}.
Por lo que dim(Ei ) = 1; y por tanto, μa (λ) = μg (λ), ası́ que A no es diagonalizable.
5.3.4 Operadores autoadjuntos y matrices simétricas
En la práctica difı́cilmente podremos evitar encontrar matrices reales que tengan valores propios complejos; sin embargo, existe un tipo especial de matrices para las cuales todos los valores propios son
Page (PS/TeX): 75 / 491, COMPOSITE
492 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
números reales. Éstas son las matrices simétricas, que aparecen con mucha frecuencia en aplicaciones.
El objetivo de este último apartado es probar que efectivamente los valores propios de cualquier matriz
simétrica en R son números reales y, más aún, que toda matriz simétrica con componentes reales es
diagonalizable. Para alcanzar este fin, de la manera más breve y directa, necesitamos trabajar en espacios
complejos y extender el concepto de producto interior a este tipo de espacios. Invitamos nuevamente al
lector a consultar los apartados 1.1.5, 1.2.8, 2.1.5, 2.2.5, 3.5 y la sección B.1 del apéndice B para la
mejor comprensión de este segmento.
Definición 5.26 Sea E un espacio vectorial sobre el campo de los números complejos. Un producto
interior (o producto escalar) en E es una función que a cada par de vectores u,v ∈ E les asigna un
número complejo denotado por u,v, tal que:
1. u,v = v,u,
∀u,v ∈ E.
2. u,v + w = u,v + u,w, ∀u,v,w ∈ E.
3. αu,v = α u,v,
∀u,v ∈ E, ∀α ∈ C.
4. u,u ≥ 0,
∀u ∈ E.
5. u,u = 0 ⇔ u = 0E .
Observe que la definición 5.26 es exactamente la misma que la definición 4.1 (cfr. pág. 236) de
producto interior en espacios reales salvo la propiedad 1 que difiere de la propiedad de simetrı́a en
espacios reales; pues en la propiedad 1 del producto interior en espacios complejos está involucrado el
conjugado de un número complejo.31 Por esta razón es que la definición precedente tiene como caso
particular a la definición 4.1 al restringirse a espacios reales; pues z = z¯ si z ∈ R.
P Nota 5.14
1. Si u = (z1 , . . . , zn ) ∈ Cn , utilizaremos la notación u para representar el vector de Cn que tiene por
componentes los conjugados de las componentes del vector u; i.e., u = (¯
z1 , . . . , z¯n ). De manera
análoga, si A ∈ Mm×n (C) es una matriz, representamos a la matriz cuyas componentes son los
conjugados de la matriz A por el sı́mbolo A.
2. Es fácil mostrar que si A ∈ Mm×n (C) y u ∈ Cn , entonces Au = Au. Lo cual se deja de ejercicio al
lector.
3. Si A es una matriz con componentes reales, es evidente que A = A.
Ejemplo 5.60 No es difı́cil probar que si se define para cada u = (z1 , . . . , zn ) ∈ Cn y v = (w1 , . . . , wn )
∈ Cn ,
u,v = u ·v =
n
∑ z jw j,
j=1
entonces u,v es un producto interior en Cn . Se le llama el producto interior canónico en Cn . Utilizando la notación que convenimos en 5.14, este producto interior se puede escribir como el producto
matricial
u,v = u tv.
1Recuerde que si z = a + bi ∈ C, el conjugado de z es z¯ = a − bi.
31
Page (PS/TeX): 76 / 492, COMPOSITE
SECCIÓN 5.3
Valores y vectores propios, diagonalización 493
Ejemplo 5.61
⎤
2+i
1 i ]⎣ 1 ⎦
i
⎤
⎡
2−i
1 i ]⎣ 1 ⎦
−i
⎡
(1 − i, 1, i), (2 + i, 1 + i, 2) = [ 1 − i
= [ 1−i
= (1 − i)(2 − i) + (1)(1) + (i)(−i)
= 3 − 3i.
Ejemplo 5.62 En Mm×n (C) se define, para cada A, B ∈ Mm×n (C),
A, B = tra(B̄ t A).
Se puede probar, de manera análoga a como se hizo en el caso real (cfr. ejemplo 4.8 pág. 242), que éste
es un producto interior en Mm×n (C).
Hay una pequeña, pero notable caracterı́stica del producto interior en espacios complejos que es
importante que el lector tenga presente; la primera propiedad del siguiente teorema, cuya demostración
es sencilla, se deja como ejercicio al lector.
Teorema 5.37 Sea E un espacio complejo y ·, · un producto interior en este espacio. Entonces
1. u, αv = α u,v para todo α ∈ C y para todo par de vectores u,v ∈ E.
2. u +v,w = u + w,v + w ∀u,v,w ∈ E.
Definición 5.27 Si E es un espacio vectorial complejo con producto interior ·, ·, se define, para
cada u ∈ E,
u = u,u1/2
y se le llama la norma del vector u inducida por el producto interior.
Se puede probar, de manera análoga al caso real, que el producto interior en un espacio vectorial
complejo satisface la desigualdad de Schwarz, |u,v| ≤ u v ∀u,v ∈ E, y que la norma inducida es
en efecto una norma en el sentido de la definición 4.11. Se define ortogonalidad de manera análoga al
caso real; esto es, dos vectores son ortogonales si su producto interior es nulo.
Para abreviar diremos que un espacio vectorial real o complejo con producto interior ·, · definido
en él es un espacio euclidiano. El teorema de ortogonalización de Gram-Schmidt es también válido en
espacios euclidianos complejos.
Si E es un espacio complejo, como en el caso real, un operador lineal en él es una transformación
T : E → E que satisface:
• T (u + v) = T (u) + T (v) ∀u,v ∈ E.
• T (αu) = αT (u) ∀u ∈ E, ∀α ∈ C.
Page (PS/TeX): 77 / 493, COMPOSITE
494 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Los operadores lineales en espacios complejos tienen las mismas propiedades que los operadores
lineales en espacios reales, pero trabajando con escalares complejos; ası́ que haremos uso libre de éstas
en todo lo que sigue.
En el caso de espacios euclidianos, los valores propios y vectores propios correspondientes de un operador lineal están relacionados con el producto interior, como hacemos patente en la siguiente proposición.
Teorema 5.38 Sean E un espacio euclidiano y T : E → E un operador lineal. Si λ es un valor propio
de T con vector propio correspondiente u, entonces
λ=
DEMOSTRACIÓN
T (u),u
u2
.
(5.32)
T (u),u = λu,u
Q
de donde se tiene (5.32).
= λ u,u ,
Q
Definición 5.28 Sea E un espacio euclidiano. Se dice que un operador lineal T : E → E es autoadjunto (o hermitiano) si
T (u),v = u, T (v)
∀u,v ∈ E.
Ejemplo 5.63 Sea A ∈ Mn una matriz simétrica con componentes reales, entonces TA , con TA (u) =
Au ∀u ∈ Cn , es un operador autoadjunto en Cn con el producto interior canónico en este espacio (cfr.
ejemplo 5.60). En efecto, como A es simétrica, At = A; y como A es real , A = A; luego
TA (u),v = (TA (u))t v
= (Au)tv
= (u)t Atv
= (u)t Av
= u t Av
= u t Av
= u, Av
= u, TA (v) .
Mostremos a continuación que los valores propios de un operador autoadjunto y, en particular, de
una matriz real simétrica, son todos números reales.
Teorema 5.39
1. Sean E un espacio euclidiano y T : E → E un operador lineal autoadjunto. Si λ es un valor
propio de T , entonces λ es real.
2. Sea A una matriz simétrica cuyas componentes son números reales, entonces los valores propios de A son (todos) números reales.
Page (PS/TeX): 78 / 494, COMPOSITE
SECCIÓN 5.3
DEMOSTRACIÓN
Valores y vectores propios, diagonalización 495
Q 1. Sea λ un valor propio de T con vector propio correspondiente u ∈ E, entonces, por (5.32) del
teorema 5.38,
λ=
=
=
T (u),u
u2
u, T (u)
u2
T (u),u
u2
= λ.
Puesto que λ = λ se concluye32 que λ ∈ R.
2. Por el ejemplo 5.63, el operador TA es autoadjunto y tiene los mismos valores propios que A; ası́
que esta afirmación es consecuencia del inciso precedente. (Recuerde que una matriz cuadrada de
orden n tiene n valores propios en C contando multiplicidades.) Q
⎡
1
Ejemplo 5.64 Sea A = ⎣ −1
2
⎤
−1 2
−1 1 ⎦. El lector puede verificar, efectuando el cálculo, que
1 2
pA (λ) = λ3 − 2λ2 − 7λ + 5.
Haciendo división sintética o evaluando es fácil comprobar que ±1 y ±5 no son raı́ces enteras de este
polinomio; ası́ el polinomio caracterı́stico no tiene raı́ces racionales. Sin embargo, puesto que A es
simétrica, todos sus valores propios deben ser reales, como se hace patente en la figura 5-5.
10
5
pA (λ)
λ1
λ3
0
λ2
_5
_10
_15
_20
_3
_2
_1
0
1
2
3
4
Figura 5-5 • Gráfica del polinomio caracterı́stico pA (λ) que interseca al eje x en tres puntos: los valores caracterı́sticos de la matriz A. Aunque no es simple calcular estos valores en forma exacta, existen y son números reales
por ser la matriz simétrica.
Una propiedad trascendente de los operadores autoadjuntos es que los vectores propios que corresponden a valores propios distintos de este tipo de operadores son ortogonales. Probamos a continuación
este importante resultado.
1z = a + bi = z = a − bi ⇒ 2bi = 0 ⇒ b = 0 ⇒ z = a ⇒ z ∈ R.
32
Page (PS/TeX): 79 / 495, COMPOSITE
496 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Teorema 5.40 Sean E un espacio euclidiano y T : E → E un operador lineal autoadjunto. Si λ1 y
λ2 son valores propios diferentes de T con vectores propios correspondientes u y v, respectivamente,
entonces u y v son ortogonales; esto es, u,v = 0.
DEMOSTRACIÓN
Q Como T es autoadjunto, por el inciso 5.39 del teorema 5.39, λ1 , λ2 ∈ R. Entonces
λ1u,v = T (u),v
= u, T (v)
= u, λ2v
= λ̄2 u,v
= λ2 u,v ,
de donde
λ1 u,v = λ2 u,v ;
y por tanto,
(λ1 − λ2 ) u,v = 0;
y ya que λ1 = λ2 , se tiene
u,v = 0.
Q
Mostramos a continuación el resultado más importante de esta sección y que tiene como caso particular el hecho de que toda matriz real simétrica es diagonalizable.
Teorema 5.41 Sean E un espacio euclidiano de dimensión finita y T : E → E un operador lineal
autoadjunto. Entonces existe una base ortonormal del espacio E formada por vectores propios de T .
En particular, en virtud del teorema 5.25, T es diagonalizable.
DEMOSTRACIÓN
Q Procederemos por inducción sobre la dimensión del espacio E. Si n = 1, sea u ∈ E con u = 1;
entonces B = {u} es una base ortonormal de E y T (u) = λu para algún escalar λ ∈ R; por lo que u
es un vector propio de T . Supongamos que el resultado es cierto para cualquier espacio vectorial de
dimensión n − 1. Sea λ1 un valor propio de T (λ1 existe porque E tiene dimensión finita y es real porque
T es autoadjunto) y sea u1 ∈ E un vector propio correspondiente con u1 = 1. Sean S = gn(u1 ) y
S⊥ = {v ∈ E | v,u1 = 0}.
Es decir, S⊥ es el complemento ortogonal de S. Es fácil probar que S⊥ es un subespacio33 de E. Completemos34 la base B a una base ortonormal {u1 ,v2 , . . . ,vn } de E (si es necesario se debe aplicar el
1Cfr. ejercicio propuesto 95 del capı́tulo 4.
1Cfr. el procedimiento dado para este fin en la página 167.
33
34
Page (PS/TeX): 80 / 496, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 497
proceso de ortogonalización de Gram-Schmidt en esta construcción). Sean v ∈ S⊥ y α1 , α2 , . . . , αn escalares tales que
v = α1u1 + α2v2 + · · · + αnvn ,
entonces
0 = v,u1 = α1 u1 ,u1 + α2 v2 ,u1 + · · · + αn vn ,u1 = α1 ,
pues {u1 ,v2 , . . . ,vn } es ortonormal. Entonces
v = α2v2 + · · · + αnvn ;
y puesto que los vectores v j ∈ S⊥ ({u1 ,v2 , . . . ,vn } son un conjunto ortonormal y por tanto, (vi ⊥ u1 ∀ j),
se concluye que
S⊥ = gn(v2 , . . . ,vn );
y ya que los vectores v j son L.I., se tiene
dim(S⊥ ) = n − 1.
Si v ∈ S⊥ , entonces v,u1 = 0; y dado que T es autoadjunto,
u1 , T (v) = T (u1 ),v = λ1u1 ,v = λ1 u1 ,v = 0,
ası́ que T (v) ∈ S⊥ ; por lo que T es un operador lineal autoadjunto en el espacio vectorial S⊥ de dimensión
n − 1. Por hipótesis de inducción existe una base ortonormal de vectores propios de T para este espacio,
digamos {u2 , . . . ,un }. Entonces
{u1 ,u2 , . . . ,un }
es una base ortonormal de vectores propios para E. Q
Como corolario a este teorema tenemos el resultado final de este capı́tulo.
Teorema 5.42 Si A es una matriz simétrica real, entonces A es diagonalizable.
DEMOSTRACIÓN
Q Puesto que A es una matriz simétrica con componentes reales, entonces, por el ejemplo 5.63, el
operador lineal TA es autoadjunto y la afirmación es consecuencia inmediata del teorema 5.41. Q
5.4 Ejercicios resueltos y ejercicios propuestos
5.4.1 Ejercicios resueltos
Transformaciones lineales
11 Sean E un espacio vectorial de dimensión finita n y F un espacio vectorial arbitrario. Probar que si
{e1 , . . . ,en } es una base de E y f1 , . . . , fn son vectores cualesquiera en F, entonces existe una única
transformación lineal T : E → F tal que T (ei ) = fi para cada i = 1, . . . , n.
Page (PS/TeX): 81 / 497, COMPOSITE
498 CAPÍTULO 5
DEMOSTRACIÓN
Transformaciones lineales, valores y vectores propios
Q Sea u ∈ E cualquier vector; dado que {e1 , . . . ,en } es una base de E, existen escalares únicos αi tales
que u = ∑ni=1 αiei . Se define T : E → F como
n
T (u) = ∑ αi fi .
i=1
Por la unicidad de los escalares se tiene que la transformación T está bien definida. Entonces
(a) Claramente T (ei ) = fi para todo i = 1, . . . , n. (ei = 0e1 + · · · + 0ei−1 + 1ei + 0ei+1 + · · · + 0en )
(b) Si a, b ∈ R y u = ∑ni=1 αiei , v = ∑ni=1 βiei son un par de vectores en E,
n
n
a ∑ αiei + b ∑ βiei
T (au + bv) = T
i=1
i=1
n
n
i=1
i=1
∑ aαiei + ∑ bβiei
=T
n
∑ (aαiei + bβiei )
=T
i=1
n
∑ (aαi + bβi )ei
=T
i=1
n
= ∑ (aαi + bβi ) fi
i=1
n
n
= a ∑ αi fi + b ∑ βi fi
i=1
i=1
= aT (u) + bT (v).
Por tanto, T ∈ L (E, F).
(c) Sea T1 ∈ L (E, F) tal que T1 (ei ) = fi para todo i = 1, . . . , n. Si u = ∑ni=1 αiei es cualquier vector
de E, entonces
T1 (u) = T1
n
∑ αiei
i=1
n
= ∑ αi T1 (ei )
i=1
n
= ∑ αi fi
i=1
= T (u);
y por tanto, T = T1 .
Q
12 Encontrar la transformación lineal T : P2 → P1 tal que T (1) = 0, T (x) = 1 y T (x2 ) = 2x.
El conjunto {1, x, x2 } es una base de P2 , por el ejercicio precedente T : P2 → P1 definida,
para cada a + bx + cx2 ∈ P2 , por
Solución
Page (PS/TeX): 82 / 498, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 499
T (a + bx + cx2 ) = a · 0 + b · 1 + c · 2x
= b + 2cx
es lineal. Note que T (p) = p .
13 (Transformación rotación). Encontrar la transformación lineal T : R2 → R2 que a cada vector u lo
transforme en el vector que se obtiene girando 45◦ a u en sentido contrario a las manecillas del reloj y
que tiene la misma norma de u.
√
√
√
√
Por el ejercicio 1, T : R2 → R2 , con T (1, 0) = ( 2/2, 2/2), T (0, 1) = (− 2/2, 2/2) y
si (x, y) ∈ R2 ,
Solución
√
√
√
√
T (x, y) = x( 2/2, 2/2) + y(− 2/2, 2/2)
√
2
(x − y, x + y)
=
2
es una transformación lineal. Sea w = T (x, y) =
√
2
2 (x − y, x + y),
entonces
√
2
(x − y, x + y)
w = 2
√
2! 2
=
2(x + y2 )
2
!
= x2 + y2
= u ,
√
2
(x − y, x + y)
u · w = (x, y) ·
2
√
2
=
(x, y) · (x − y, x + y)
√2
2 2
=
(x + y2 );
2
y por tanto
u · w
=
u v
√
2 2
2
2 (x + y )
2
2
x +y
√
2
.
=
2
Ası́ que el ángulo entre u y su imagen w = T (u) es
√
2
φ = arc cos
2
= 45◦ .
14 Sean E y F espacios vectoriales, con dim(E) = n, y f1 , . . . , fm vectores dados de F. Probar que existe
una transformación lineal T : E → F cuya imagen está generada por los vectores f1 , . . . , fm .
Page (PS/TeX): 83 / 499, COMPOSITE
500 CAPÍTULO 5
DEMOSTRACIÓN
Transformaciones lineales, valores y vectores propios
Q Sea {e1 , . . . ,en } una base de E.
(a) Si n ≤ m, por el ejercicio 1 existe una transformación lineal T : E → F tal que T (ei ) = fi para cada
i = 1, . . . , n. Por el teorema 5.7 (cfr. pág. 429), dado que los vectores ei generan a E, los vectores
T (ei ) = fi , i = 1, . . . , n, generan la imagen de T ; por tanto, también los vectores fi , i = 1, . . . , m.
(b) Si n > m, sean f j = 0F para j = m + 1, . . . , n; por el ejercicio 1 existe una transformación lineal
T : E → F tal que T (ei ) = fi para i = 1, . . . , n. Puesto que los vectores ei generan a E, por el
teorema 5.7, los vectores fi , i = 1, . . . , n, generan a la imagen de T y, por tanto, también los
vectores fi , i = 1, . . . , m. Q
15 Encontrar una transformación lineal T : R3 → R3 tal que su imagen esté generada por los vectores
(−1, 2, 1) y (1, 1, 3).
Solución
Sean T (1, 0, 0) = (−1, 2, 1), T (0, 1, 0) = (1, 1, 3) y T (0, 0, 1) = (0, 0, 0). Se define entonces
T (x, y, z) = xT (1, 0, 0) + yT (0, 1, 0) + zT (0, 0, 1)
= x(−1, 2, 1) + y(1, 1, 3) + z(0, 0, 0)
= (−x + y, 2x + y, x + 3y)
Por el ejercicio T es lineal y su imagen está generada por los vectores (−1, 2, 1) y (1, 1, 3).
16 Sean E y F espacios vectoriales. Si la dimensión de E es infinita y T ∈ L (E, F), probar que por lo
menos uno de los subespacios Ker(T ) o T (E) tiene también dimensión infinita.
DEMOSTRACIÓN
Q Suponga que ambos subespacios tienen dimensión finita. Sean {e1 , . . . ,er } y {T (f1 ), . . . , T (fm )} bases de Ker(T ) y T (E), respectivamente. Sea u ∈ E cualquier vector, entonces existen escalares βi tales
que T (u) = ∑m
u − ∑m
u − ∑m
i=1 βi T ( f i ), y por tanto, T (
i=1 βi f i ) = 0F ; ası́ que
i=1 βi f i ∈ Ker(T ); luego existen
m
r
escalares αi tales que u − ∑i=1 βi fi = ∑i=1 αiei y por ende,
r
m
i=1
i=1
u = ∑ αiei + ∑ βi fi .
De donde se concluye que E está generado por los vectores e1 , . . . ,er , f1 , . . . , fm ; lo cual es una contradicción a la hipótesis de que E tiene dimensión infinita. Por tanto, uno de los dos subespacios, al menos,
debe tener dimensión infinita. Q
17 Sea f ∈ C[a, b] y
g(x) =
a
b
f (t) cos(x − t)dt
para cada x ∈ [a, b].
(a) Mostrar que g ∈ C[a, b].
(b) Sea T : C[a, b] → C[a, b] definido, para cada f ∈ C[a, b], por la función T ( f ) donde
T ( f )(x) =
b
a
para cada x ∈ [a, b]. Demostrar que T es lineal.
Page (PS/TeX): 84 / 500, COMPOSITE
f (t) cos(x − t)dt
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 501
(c) Encontrar una base y la dimensión de la imagen de T .
(d) Determinar la dimensión del núcleo de T .
Solución
(a) Para todo x ∈ [a, b],
b
g(x)=
a
=
g(x)= (
b
a
a
f (t) cos(x − t)dt
f (t)(cos x cos t + sen x sen t)dt
b
f (t) cos t dt) cos x + (
b
a
es decir,
f (t)sen t dt)sen x
(5.33)
y, por tanto, dado que las funciones y = cos x y y = sen x son continuas en todo punto, se tiene que
g ∈ C[a, b].
(b) Sean f1 , f2 ∈ C[a, b] y α, β ∈ R, entonces, para todo x ∈ C[a, b],
T (α f1 + β f2 )(x) =
=
=
b
a
b
a
b
a
=α
(α f1 + β f2 )(t) cos(x − t)dt
(α f1 (t) + β f2 (t)) cos(x − t)dt
α f1 (t) cos(x − t)dt +
b
a
b
a
f1 (t) cos(x − t)dt + β
β f2 (t) cos(x − t)dt
b
a
f2 (t) cos(x − t)dt
= αT ( f1 )(x) + βT ( f2 )(x);
por tanto,
T (α f1 + β f2 ) = αT ( f1 ) + βT ( f2 ).
Lo cual prueba la linealidad de T .
(c) Sea f ∈ C[a, b] y g = T ( f ), entonces por (5.33)
g(x) = α cos x + β sen x
donde α =
a
b
f (t) cos t dt y β =
a
b
∀x ∈ [a, b]
f (t) sen t dt. Por tanto, T (C[a, b]) = gn(cos x, sen x); y ya
que las funciones seno y coseno son L.I. en C[a, b], se desprende que
dim(T (C[a, b])) = 2.
(d) Puesto que C[a, b] es un espacio vectorial de dimensión infinita y dim(T (C[a, b])) = 2, del ejercicio 6 se concluye que la dimensión de T (E) es infinita. 18 Sean E, F un par de espacios vectoriales. Probar que si T ∈ L (E, F) y V < F, entonces la imagen inversa
de V bajo la transformación T , esto es
T −1 (V ) = {u ∈ E | T (u) ∈ V },
es un subespacio de E.
Page (PS/TeX): 85 / 501, COMPOSITE
502 CAPÍTULO 5
DEMOSTRACIÓN
Transformaciones lineales, valores y vectores propios
Q Dado que V < F, 0F ∈ V y puesto que T (0E ) = 0F , se tiene 0E ∈ T −1 (V ). Sean α, β ∈ R y u1 ,u2 ∈
T −1 (V ), entonces, ya que V < F, T (αu1 +βu2 ) = αT (u1 )+βT (u2 ) ∈ V . Por tanto, αu1 +βu2 ∈ T −1 (V ).
Luego T −1 (V ) < E. Q
19 Sean E un espacio vectorial de dimensión finita n y H < E. Se dice que H es un hiperplano de E si
dim(H) = n − 1. Probar que las siguientes condiciones son equivalentes a pares respecto a cualquier
subespacio H de E:
(a) H es un hiperplano de E.
(b) Existe f ∈ L (E, R), una forma lineal no nula, tal que Ker( f ) = H.
(c) Para toda base ordenada (e1 , . . . ,en ) de E, existen escalares α1 , . . . , αn , no todos cero, tales que
α1 x1 + α2 x2 + · · · + αn xn = 0
es una ecuación implı́cita de H; es decir, (x1 , x2 , . . . , xn ) ∈ Rn es solución de esta ecuación si y
sólo si u = ∑ni=1 xien ∈ H.
DEMOSTRACIÓN
Q (a) ⇒ (b) Sea {u1 , . . . ,un−1 } una base de H. Por el procedimiento dado en el apartado de la página
167 se puede completar ésta a una base {u1 , . . . ,un−1 ,un } del espacio E. Por el ejercicio resuelto 1 existe
una transformación lineal f : E → R tal que f (uk ) = 0 para k = 1, . . . , n − 1 y f (un ) = 1. Entonces f = θ,
la transformación constante cero, y
n
u = ∑ aiui ∈ Ker( f ) ⇔
i=1
0 = f (u) =
n−1
∑ ai f (ui ) + an f (un )
i=1
= an f (un )
= an ⇔
u ∈ H.
Luego Ker( f ) = H.
(b) ⇒ (c) Sea (e1 , . . . ,en ) una base ordenada de E. Sean αi = f (ei ), i = 1, . . . , n; dado que f no es nula,
alguno de los αi debe ser distinto de cero. Si u = ∑ni=1 xiei , entonces
f (u) = α1 x1 + α2 x2 + · · · + αn xn ;
luego
u ∈ Ker( f ) = H ⇔ α1 x1 + α2 x2 + · · · + αn xn = 0.
(c) ⇒ (a) Sean (e1 , . . . ,en−1 ,en ) una base ordenada de E y αi , i = 1, . . . , n, escalares no todos nulos tales
que
n
u = ∑ xiei ∈ H ⇔ α1 x1 + α2 x2 + · · · + αn xn = 0.
i=1
Page (PS/TeX): 86 / 502, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 503
Se puede suponer, sin perder generalidad, que αn = 0. Sea u = ∑ni=1 xiei ∈ H, entonces
xn = −
1 n−1
∑ αi xi
αn i=1
y por tanto
u = x1e1 + · · · + xn−1en−1 + xnen
1 n−1
∑ αi xien
αn i=1
α1
αn−1
= x1e1 + · · · + xn−1en−1 − ( x1 + · · · +
xn−1 )en
αn
αn
α1
α2
αn−1
= x1 (e1 − en ) + x2 (e2 − en ) + · · · + xn−1 (en−1 −
en ),
αn
αn
αn
= x1e1 + · · · + xn−1en−1 −
luego
H = gn(f1 , . . . , fn−1 )
donde
fk =ek − αk ek
αn
para k = 1, . . . , n − 1. Si βk ∈ R son n − 1 escalares tales que
β1 f1 + · · · + βn−1 fn−1 = 0E ,
entonces
0E = β1e1 − β1 α1 en + β2e2 − β2 α2 en + · · · + βn−1en−1 − βn−1 αn−1 en
αn
αn
αn
= β1e1 + · · · + βn−1en−1 + (−
1 n−1
∑ βi αi )en
αn i=1
y ya que los vectores ei , i = 1, . . . , n, son L.I., se debe tener
β1 = · · · = βn−1 = 0
Por tanto los vectores f1 , . . . , fn−1 forman una base para H. Luego
dim(H) = n − 1
por ende H es un hiperplano de E.
Q
10 Demostrar que si T : Rn → Rn es un operador lineal invertible, A ∈ Mn es su representación matricial re-
lativa a la base canónica de Rn y T −1 es su operador inverso, entonces A es invertible y la representación
matricial de T −1 relativa a la base canónica de Rn es A−1 .
DEMOSTRACIÓN
Q Por el teorema 5.9 A es invertible. Sea v ∈ Rn , puesto que T es suprayectivo (ya que es invertible),
existe u ∈ Rn tal que T (u) =v. Entonces
Page (PS/TeX): 87 / 503, COMPOSITE
504 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
A−1v = A−1 (Au)
= Inu
= u
= T −1 (v).
Q
11 Sea T : R2 → R2 la aplicación definida por
T (x, y) = (x − y, x + y)
(a) Probar que T es un operador lineal.
(b) Mostrar que T es invertible.
(c) Hallar T −1 .
DEMOSTRACIÓN
1
1
1 −1
Q (a) T (1, 0) = (1, 1), T (0, 1) = (−1, 1). Si A =
1
1
1
−1
x
y
=
, entonces
x+y
x−y
= T (x, y);
es decir, TA (x, y) = T (x, y) para todo (x, y) ∈ R2 ; por tanto, T es lineal y A es la representación
matricial de T relativa a la base canónica de R2 .
1
1
1
1
(b)
∼
∼ I2
1 −1
0 −2
Por lo que A es invertible y por tanto T también (cfr. 5.9).
(c) Por el ejercicio anterior,
A−1 = −
1
2
−1 −1
−1
1
es la representación matricial de T −1 ; entonces,
T
−1
1
(x, y) = −
2
1
=
para todo (x, y) ∈ R2 .
−1
−1
1
2x+ 2y
1
1
2x− 2y
−1
1
x
y
Q
12 Sean T1 , T2 un par de operadores lineales en un espacio vectorial E. Se define la composición del opera-
dor T2 con el operador T1 , T2 ◦ T1 , como la función T2 ◦ T1 : E → E definida, para todo u ∈ E, por
(T2 ◦ T1 )(u) = T2 (T1 (u)).
Probar que T2 ◦ T1 es también un operador lineal. La composición T2 ◦ T1 también se denota por T2 T1 ;
i.e., T2 T1 = T2 ◦ T1 .
Page (PS/TeX): 88 / 504, COMPOSITE
SECCIÓN 5.4
DEMOSTRACIÓN
Ejercicios resueltos y ejercicios propuestos 505
Q Sean u,v ∈ E vectores arbitrarios y α, β cualquier par de escalares. Entonces
(T2 ◦ T1 )(αu + βv) = T2 (T1 (αu + βv))
= T2 (αT1 (u) + βT1 (v))
= αT2 (T1 (u)) + βT2 (T1 (v))
= α(T2 ◦ T1 )(u) + β(T2 ◦ T1 )(v).
Q
13 Sean T1 , T2 : E → E dos operadores lineales, demostrar lo siguiente.
(a) Si T1 y T2 son inyectivos, entonces T2 T1 y T1 T2 también son inyectivos.
(b) Si T1 T2 no es inyectivo, entonces al menos uno de los operadores T1 , T2 no es inyectivo.
(c) Si además T1 , T2 son suprayectivos y uno de ellos (al menos) no es inyectivo, entonces T1 T2 y
T2 T1 no son inyectivos.
DEMOSTRACIÓN
Q (a) Sea u ∈ Ker(T2 T1 ), entonces
0E = (T2 T1 )(u)
= T2 (T1 (u))
y puesto que T2 es inyectivo, se debe tener T1 (u) = 0E ; y ya que este último operador también
es inyectivo, se concluye u = 0E y, por tanto, Ker(T2 T1 ) = {0E }. Análogamente se demuestra la
igualdad Ker(T1 T2 ) = {0E }, lo cual prueba que T2 T1 y T1 T2 son inyectivos.
(b) Si T1 y T2 son inyectivos, por el inciso anterior, T1 T2 es inyectivo; lo cual es una contradicción.
Por lo que uno de los dos operadores, por lo menos, no es inyectivo.
(c) Se prueba que T1 T2 no es inyectivo, la demostración de que T2 T1 no es inyectivo es entonces
inmediata por simetrı́a.
(i) Si T2 no es inyectivo, existe u ∈ E − {0E } tal que T2 (u) = 0E ; entonces
(T1 T2 )(u) = T1 (T2 (u))
= T1 (0E )
= 0E
y por tanto T1 T2 no es inyectivo.
(ii) Si T1 no es inyectivo, existe w ∈ E − {0E } tal que T1 (w) = 0E . Ya que T2 es suprayectivo,
existeu ∈ E con T2 (u) = w; y como T2 es lineal y w =0E , se desprende queu =0E . Entonces
(T1 T2 )(u) = T1 (T2u)
= T1 (w)
= 0E .
De donde se concluye que T1 T2 no es inyectivo.
Q
14 Sean E un espacio vectorial e I : E → E el operador lineal identidad; i.e., I(u) = u para todo u ∈ E (cfr.
ejemplo 5.8). Probar que un operador lineal T en E es invertible si y sólo si existe un operador lineal T1
en E tal que T1 ◦ T = I = T ◦ T1 . En tal caso T1 = T −1 .
Page (PS/TeX): 89 / 505, COMPOSITE
506 CAPÍTULO 5
DEMOSTRACIÓN
Transformaciones lineales, valores y vectores propios
Q Si se supone que T es no singular (invertible), entonces claramente T1 = T −1 satisface la condición
T1 ◦ T = I = T ◦ T1 . Suponga que existe T1 ∈ L (E, E) con T1 ◦ T = I = T ◦ T1 . Si u ∈ Ker(T ), entonces
u = I(u)
= T1 (T (u))
= T1 (0E )
= 0E
y por tanto, Ker(T ) = {0E }; luego T es inyectiva. Si v ∈ E, sea u = T1 (v), entonces
T (u) = T (T1 (v))
= I(v) =v
por ende T es suprayectiva. Ası́, T es biyectiva y por tanto invertible. Debido a la unicidad de T −1 se
tiene T −1 = T1 . Q
15 Sean E un espacio vectorial y T un operador lineal en él. Se representan por T 2 el operador composición
de T consigo mismo; i.e., T 2 = T ◦ T (cfr. el ejercicio resuelto 12 de esta sección) y por I el operador
identidad, I(u) = u para todo u ∈ E. Si T 2 = I y T = ±I probar lo siguiente:
(a) Existe v ∈ E − {0E } tal que T (v) =v.
(b) Existe w ∈ E − {0E } tal que T (w) = −w.
DEMOSTRACIÓN
Q Dado que T 2 = I, se tiene T (T (u)) = u para todo u ∈ E.
(a) Puesto que T = −I, existe u ∈ E tal que T (u) +u = 0E . Si v = T (u) +u, entonces v = 0E y
T (v) = T (T (u) +u)
= T (T (u)) + T (u)
= u + T (u)
=v.
(b) Ya que T = I, existe u ∈ E tal que T (u) −u = 0E . Sea w = T (u) −u, entonces w = 0E y
T (w) = T (T (u) −u)
= T (T (u)) − T (u)
= u − T (u)
= −w.
Q
16 Sean T el operador lineal del ejercicio anterior; esto es, T 2 = I y T = ±I en el espacio E;
S1 = {v ∈ E | T (v) =v};
S2 = {v ∈ E | T (v) = −v}.
Page (PS/TeX): 90 / 506, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 507
Probar que:
(a) S1 y S2 son subespacios de E.
(b) S1 = {0E } = S2 .
(c) E = S1 ⊕ S2 , la suma directa de S1 con S2 (cfr. ejercicio resuelto 27 del capı́tulo 3).
DEMOSTRACIÓN
Q (a) Ya que T es lineal T (0E ) = 0E , y por ello 0E ∈ S1 ∩ S2 . Sean α, β ∈ R y u1 ,v1 ∈ S1 , u2 ,v2 ∈ S2 ;
entonces
T (αu1 + βv1 ) = αT (u1 ) + βT (v1 ) = αu1 + βv1
y
T (αu2 + βv2 ) = −αT (u2 ) − βT (v2 ) = −(αu2 + βv2 ).
Lo cual prueba S1 < E y S2 < E.
(b) Es consecuencia inmediata del ejercicio precedente.
(c) Si u ∈ S1 ∩ S2 , entonces
u = T (u) = −u;
de donde u = 0E . Sea v ∈ E y u1 = 12 (v + T (v)), u2 = 12 (v − T (v)). Entonces
1
T (u1 ) = (T (v) +v) = u1 ,
2
1
T (u2 ) = (T (v) −v) = −u2 ;
2
por tanto u1 ∈ S1 y u2 ∈ S2 . Y ya que
v = u1 +u2
se desprende que E = S1 ⊕ S2 .
Q
17 Sean E un espacio vectorial y S1 < E. Una proyección sobre S1 es una función T : E → E tal que:
(i) Existe S2 < E que satisface E = S1 ⊕ S2 .
(ii) Para todo u =x1 +x2 , con xi ∈ Si , i = 1, 2, se tiene T (u) =x1 .
Mostrar que si T es una proyección sobre S1 , entonces:
(a) T es lineal.
(b) S1 = {u ∈ E | T (u) = u}.
(c) S1 = T (E).
(d) S2 = Ker(T ).
Page (PS/TeX): 91 / 507, COMPOSITE
508 CAPÍTULO 5
DEMOSTRACIÓN
Transformaciones lineales, valores y vectores propios
Q (a) Si α, β ∈ R y u =x1 +x2 ∈ E, v =y1 +y2 ∈ E, con xi ∈ S1 y yi ∈ S2 , i = 1, 2; entonces
T (αu + βv) = T ((αx1 + βy1 ) + (αx2 + βy2 ))
= αx1 + βy1
= αT (u) + βT (v).
(b) x1 ∈ S1 ⇒x1 =x1 +0E ⇒ T (x1 ) = T (x1 +0E ) =x1 .u =x1 +x2 ,u = T (u) ⇒x1 +x2 =x1 ⇒u ∈ S1 .
(c) Si x1 ∈ S1 , entonces x1 = T (x1 ) ∈ T (E) y por tanto S1 ⊂ T (S1 ). Si T (x1 +x2 ) ∈ T (E), entonces
T (x1 +x2 ) =x1 ∈ S1 y por ende T (E) ⊂ S1 . Luego T (E) = S1 .
(d) u = x1 +x2 ∈ Ker(T ) ⇒ x1 = T (x1 +x2 ) = 0E ⇒ u = x2 ∈ S2 ; ∴ Ker(T ) ⊂ S2 . x2 ∈ S2 ⇒ x2 =
0E +x2 ⇒ T (x2 ) = 0E ⇒ S2 ⊂ Ker(T ). Luego Ker(T ) = S2 . Q
18 Sean E un espacio vectorial, T un operador lineal en él y S = {u ∈ E | T (u) =u}; por el ejercicio anterior
S es un subespacio de E.
(a) Si T 2 = T , demostrar que E = S ⊕ Ker(T ).
(b) Inversamente, si E = S ⊕ Ker(T ), probar que T 2 = T .
DEMOSTRACIÓN
Q (a) Si u ∈ E, entonces
u = T (u) + (u − T (u))
y
T (T (u)) = T 2 (u) = T (u),
T (u − T (u)) = T (u) − T 2 (u) = 0E .
Por tanto, T (u) ∈ S, u − T (u) ∈ Ker(T ) y E = S + Ker(T ). Si u ∈ S ∩ Ker(T ), u = T (u) = 0E ;
luego S ∩ Ker(T ) = {0E }.
(b) Sea u ∈ E, entonces existen u1 ∈ S y u2 ∈ Ker(T ) tales que u = u1 +u2 ; por lo que T (u) =
T (u1 ) + T (u2 ) = u1 y entonces T 2 (u) = T (T (u)) = T (u1 ) = T (u). Q
Representaciones matriciales de transformaciones lineales
19 Sean las bases B1 = {(1, −1), (2, −1)} y B2 = {(−1, 1), (0, 1)} del espacio R2 .
(a) Encontrar la matriz cambio de base de la base B2 a la base B1 .
(b) Encontrar la matriz cambio de base de la base B1 a la base B2 .
Solución
(a) Se tienen que resolver los sistemas con la misma matriz de coeficientes
Page (PS/TeX): 92 / 508, COMPOSITE
1
−1
2
−1
a11
a12
=
−1
1
Ejercicios resueltos y ejercicios propuestos 509
SECCIÓN 5.4
y
1
−1
2
−1
a21
a22
=
0
1
.
Dado que
1
−1
1 2 −1 0
2 −1 0
∼
0 1 0 1
−1 1 1
1 0 −1 −2
∼
1
0 1 0
se tiene
a11
a12
=
−1
0
y
a21
a22
=
−2
1
;
esto es,
P=
−1
0
−2
1
es la matriz cambio de base de la base B2 a la base B1 .
(b) La matriz cambio de base de B1 a B2 está dada por
1
2
P−1 = −1
0 −1
−1 −2
=
. 0
1
20 Sean T1 , T2 operadores lineales en un espacio vectorial E que tiene dimensión finita y B una base de E.
Si T = T2 ◦ T1 es el operador composición definido en el ejercicio resuelto 12 de este apartado y [T1 ]B ,
[T2 ]B son las representaciones matriciales de estos operadores relativas a la base B, mostrar que
[T2 ◦ T1 ]B = [T2 ]B [T1 ]B
o, con la notación T2 T1 = T2 ◦ T1 ,
[T2 T1 ]B = [T2 ][T1 ]B .
DEMOSTRACIÓN
Q Si u ∈ E cualquier vector, entonces
[(T2 ◦ T1 )u]B = [T2 (T1 (u))]B
= [T2 ]B [T1 (u)]B
= [T2 ]B ([T1 ]B [u]B )
= ([T2 ]B [T1 ]B )[u]B .
De donde se desprende, debido a la unicidad de la representación matricial de un operador, que
[T2 ◦ T1 ]B = [T2 ]B [T1 ]B .
Page (PS/TeX): 93 / 509, COMPOSITE
Q
510 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
21 Sean E un espacio de dimensión finita dotado de un producto interior ·, ·, B = {e1 , . . . ,en } una base
ortonormal de este espacio y T : E → E un operador lineal. Encontrar la representación matricial de T
relativa a la base B.
DEMOSTRACIÓN
Q Si ai j ∈ R son tales que
T (ei ) = ai1e1 + · · · + ai jei + · · · + ainen
entonces, para cada j = 1, . . . , n,
T (ei ),e j = ai1e1 + · · · + ai jei + · · · + ainen ,e j = ai j
y por tanto
⎡
⎢
⎢
[T ]B = ⎢
⎣
T (e1 ),e1 T (e1 ),e2 ..
.
T (e2 ),e1 T (e2 ),e2 ..
.
···
···
..
.
T (en ),e1 T (en ),e2 ..
.
T (e1 ),en T (e2 ),en ···
T (en ),en ⎤
⎥
⎥
⎥.
⎦
Q
22 Sean E un espacio vectorial y Hn una sucesión de subespacios tales que Hn Hn+1 para todo n. Probar
que existe una sucesión infinita (un ) de vectores L.I. en E y que por tanto E tiene dimensión infinita.
DEMOSTRACIÓN
Q Se puede suponer, sin perder generalidad, que H1 = {0E }. Entonces existe u ∈ H1 − {0E }; sea u1 =u.
Puesto que Hn−1 = Hn , existe, para cada n = 2, 3, . . . , un ∈ Hn − Hn−1 . La sucesión de vectores (un )
ası́ formada es L.I. Para probar esto basta mostrar que para todo n el conjunto finito {u1 ,u2 , . . . ,un } es
L.I. Se procede por inducción sobre n: si n = 1, {u1 } es L.I. porque u1 = 0E . Sea k > 1 y suponga que
la afirmación es cierta para n = k − 1. Sean αi , i = 1, . . . , k, escalares tales que
α1 u1 + · · · + αk−1uk−1 + αkuk = 0E .
Si αk = 0, entonces
uk = −
α1
αk−1
u1 − · · · −
uk−1 ∈ Hk−1
αk
αk
pues H1 ⊂ H2 ⊂ · · · ⊂ Hk−1 ; por tanto, αk debe ser cero. Luego
α1 u1 + · · · + αk−1uk−1 = 0E
y por la hipótesis de inducción se concluye que
α1 = · · · = αk−1 = αk = 0;
por ende, {u1 , . . . ,uk−1 ,uk } es L.I. Q
En los ejercicios 23 a 27 E es un espacio vectorial y T : E → E un operador lineal en el espacio E. Se
define T 2 = T ◦ T y, por recurrencia, T n = T ◦ T n−1 , n = 2, 3, . . . , esto es (cfr. ejercicio resuelto 12 de
esta sección),
Page (PS/TeX): 94 / 510, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 511
SECCIÓN 5.4
T n = T ◦ T ◦ · · · ◦ T
n
y si I es el operador lineal identidad, I(u) = u para todo u ∈ E, se define T 0 = I. Suponga que E tiene
dimensión finita.
23 Probar que Ker(T n ) ⊂ Ker(T n+1 ) para todo n = 0, 1, 2, . . .
DEMOSTRACIÓN
u ∈ Ker(T n ) ⇒ T n (u) = 0E
⇒ T (T n (u)) = 0E
Q
⇒ T n+1 (u) = 0E
⇒ u ∈ Ker(T n+1 )
⇒ Ker(T n ) ⊂ Ker(T n+1 ).
Q
24 Mostrar que T n+1 (E) ⊂ T n (E) para todo n = 0, 1, 2, . . .
DEMOSTRACIÓN
Q Si w ∈ T n+1 (E), existe u ∈ E tal que T n+1 (u) = w y por tanto T n (T (u)) = w; luego w ∈ T n (E). Lo
cual prueba T n+1 (E) ⊂ T n (E). Q
25 Mostrar que existe n0 tal que:
(a) Si n ≥ n0 :
(i) Ker(T n ) = Ker(T n+1 ).
(ii) T n+1 (E) = T n (E).
(b) Si n < n0 :
(i) Ker(T n ) = Ker(T n+1 ).
(ii) T n+1 (E) = T n (E).
DEMOSTRACIÓN
Q Si Ker(T n ) Ker(T n+1 ) para todo n, entonces, por ejercicio resuelto 22, E tendrı́a dimensión infinita;
por tanto, deben existir enteros no negativos n tales que Ker(T n ) = Ker(T n+1 ); sea n0 el menor de éstos.
(a) Sea n un entero con n > n0 .
(i) Si u ∈ Ker(T n+1 ), entonces
0E = T n+1 (u)
= T n−n0 +n0 +1 (u)
= T n0 +1 (T n−n0 (u))
y por tanto
T n−n0 (u) ∈ Ker(T n0 +1 ) = Ker(T n0 )
luego
T n (u) = T n0 (T n−n0 (u)) = 0E ,
Page (PS/TeX): 95 / 511, COMPOSITE
512 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
por lo que
u ∈ Ker(T n ).
Ası́ que
Ker(T n ) = Ker(T n+1 ).
(ii) Puesto que Ker(T n+1 ) = Ker(T n ),
dim(Ker(T n+1 )) + dim(T n+1 (E)) = dim(E)
= dim(Ker(T n )) + dim(T n (E));
implica
dim(T n (E)) = dim(T n+1 (E))
y ya que T n+1 (E) < T n (E), se concluye que
T n+1 (E) = T n (E).
(b) Sea n0 un entero no negativo con n < n0 .
.
(i) Por definición de n0
Ker(T n ) = Ker(T n+1 ).
(ii) Por el inciso precedente, se concluye que dim(T n+1 (E)) = dim(T n (E)), y por ende,
T n+1 (E) = T n (E). Q
26 Probar que si n ≥ n0 , entonces (cfr. el ejercicio resuelto 27 del capı́tulo 3, pág. 187).
E = Ker(T n ) ⊕ T n (E).
DEMOSTRACIÓN
Q Si u ∈ Ker(T n ) ∩ T n (E), existe w ∈ E tal que T n (w) = u y por ello
0E = T n (u)
= T 2n (w);
por tanto,
w ∈ Ker(T 2n ) = Ker(T n ),
entonces
u = T n (w) = 0E .
Page (PS/TeX): 96 / 512, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 513
Puesto que
dim(Ker(T n ) + T n (E)) = dim(Ker(T n )) + dim(T n (E)) − dim(Ker(T n ) ∩ T n (E))
= dim(Ker(T n )) + dim(T n (E)),
se tiene
dim(E) = dim(Ker(T n )) + dim(T n (E))
= dim(Ker(T n ) + dim(T n (E))
y por tanto,
E = Ker(T n ) + T n (E).
Lo cual prueba que
E = Ker(T n ) ⊕ T n (E). Q
27 Encontrar n0 del ejercicio precedente para el operador lineal T : R4 → R4 definido por
T (x1 , x2 , x3 , x4 ) = (−x1 − x2 , x1 + x2 , −x1 − 2x2 − x3 + x4 , −x1 − 2x2 − 3x3 + 3x4 ).
Solución
Puesto que
T (1, 0, 0, 0) = (−1, 1, −1, −1) ,
T (0, 1, 0, 0) = (−1, 1, −2, −2) ,
T (0, 0, 1, 0) = (0, 0, −1, −3) y
T (0, 0, 0, 1) = (0, 0, 1, 3)
la representación matricial relativa a la base canónica de R4 para T es
⎡
−1 −1
0
⎢ 1
1
0
A=⎢
⎣ −1 −2 −1
−1 −2 −3
⎤
0
0 ⎥
⎥.
1 ⎦
3
Ya que, al hacer operaciones entre columnas,
⎡
−1 −1
⎢ 1
1
A∼⎢
⎣ −1 −2
−1 −2
0
0
−1
−3
⎤
0
0 ⎥
⎥
0 ⎦
0
se deduce que Rang(A) = 3; por tanto, dim(Ker(T )) = 4 − 3 = 1. En el ejercicio resuelto 20 de este
apartado se probó que la representación matricial de T 2 es A2 ; y por ello la representación matricial de
T n es An . Entonces, ya que
Page (PS/TeX): 97 / 513, COMPOSITE
514 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
⎡
−1
⎢
1
A2 = ⎢
⎣ −1
−1
⎡
0
⎢ 0
=⎢
⎣ −1
−1
⎡
−1
⎢ 0
∼⎢
⎣ 0
0
−1
0
1
0
−2 −1
−2 −3
0
0
0
0
−1 −2
−1 −6
−1
0
0
0
−2
−4
0
0
⎤2
0
0 ⎥
⎥
1 ⎦
3
⎤
0
0 ⎥
⎥
2 ⎦
6
⎤
2
4 ⎥
⎥,
0 ⎦
0
⎡
⎤
0
0
0
0
0
0 ⎥
⎥
0 −4 4 ⎦
0 −12 12
⎤
0 −4 4
0 0 0 ⎥
⎥
0 0 0 ⎦
0 0 0
⎡
⎤
0
0
0
0
0
0 ⎥
⎥
0 −8 8 ⎦
0 −24 24
⎤
0 −8 8
0 0 0 ⎥
⎥
0 0 0 ⎦
0 0 0
0
⎢
0
A3 = ⎢
⎣ 0
0
⎡
0
⎢ 0
∼⎢
⎣ 0
0
y
0
⎢
0
A4 = ⎢
⎣ 0
0
⎡
0
⎢ 0
∼⎢
⎣ 0
0
se tiene
dim(Ker(T 2 )) = 2,
dim(Ker(T 3 )) = 3,
dim(Ker(T 4 )) = 3.
Por lo que n0 = 3.
28 Sean E un espacio vectorial, B = (e1 , . . . ,en ) una base de él y T un operador lineal en E. Para cada
k = 1, . . . , n sea Sk = gn(e1 , . . . ,ek ). Mostrar que las siguientes condiciones son equivalentes.
(a) [T ]B es triangular superior.
(b) Para cada k = 1, . . . , n, T (ei ) ∈ Sk para todo i = 1, . . . , k.
(c) T (Sk ) ⊂ Sk para todo k = 1, . . . , n.
Page (PS/TeX): 98 / 514, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 515
SECCIÓN 5.4
DEMOSTRACIÓN
Q (a) ⇒ (b): Si [T ]B = [ai j ] es triangular superior, entonces T (ek ) = ∑ki=1 aikei ∈ Sk para todo k =
1, . . . , n.
(b) ⇒ (c): Si u ∈ Sk , existen αi ∈ R tales que u = ∑ki=1 αiei y por tanto T (u) = ∑ki=1 αi T (ei ) ∈ Sk .
(c) ⇒ (a): Puesto que T (ek ) ∈ Sk , existen a1k , . . . , akk ∈ R tales que T (ek ) = ∑ki=1 akiei ; de donde
[T ]B = [ai j ] es triangular superior. Q
29 Sean E un espacio vectorial y T un operador lineal en él tal que T 2 = −I.
(a) Demostrar que T es invertible.
(b) Sean u1 , . . . ,um ∈ E tales que u1 , . . . ,um , T (u1 ), . . . , T (um−1 ) son L.I., probar que u1 , . . . ,um ,
T (u1 ), . . . , T (um−1 ), T (um ) son L.I.
(c) Si E tiene dimensión finita distinta de cero, mostrar que E tiene una base de la forma B =
{u1 , . . . ,um , T (u1 ), . . . , T (um−1 ), T (um )} y por tanto su dimensión par.
(d) Encontrar la representación matricial de T relativa a la base B del inciso anterior.
DEMOSTRACIÓN
Q (a) T (−T ) = −T 2 = −(−I) = I; (−T )T = −T 2 = −(−I) = I. Ası́ T es invertible y T −1 = −T .
(b) Siu1 , . . . ,um , T (u1 ), . . . , T (um ) son L.D., entonces existen escalares αi , βi , i = 1, . . . , m, con alguno
de ellos distinto de cero, tales que
m
m
i=1
i=1
0E = ∑ αiui + ∑ βi T (ui ).
βm debe ser distinto de cero; pues en caso contrario los vectores u1 ,u2 , . . . ,um , T (u1 ), . . . , T (um−1 )
serı́an L.D. Entonces existen escalares γi y δ j , i = 1, . . . , m, j = 1, . . . , m − 1, tales que
m
m−1
i=1
i=1
T (um ) = ∑ γiui +
∑ δi T (ui )
−um = T 2 (um )
por lo que
= T T (um )
=
de donde
0E =
=
m
m−1
i=1
i=1
Page (PS/TeX): 99 / 515, COMPOSITE
i=1
i=1
m−1
∑ δiui ,
m−1
∑ γi T (ui ) + γm T (um ) − ∑ δiui +um
m−1
i=1
m
m−1
i=1
i=1
∑ γi T (ui ) + γm ∑ γiui + ∑ δi T (ui )
i=1
=
m−1
∑γi T (ui ) −
∑ γi T (ui ) − ∑ δiui +um
i=1
=
m
m−1
m−1
i=1
i=1
−
m−1
∑ δiui +um
i=1
∑ (γi + γm δi )T (ui ) + ∑ (γm γi − δi )ui + (γm2 + 1)um .
516 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Lo cual implica, puesto que γm2 + 1 = 0, que los vectores u1 , . . . ,um , T (u1 ), . . . , T (um−1 ) son L.D.,
que es una contradicción de la hipótesis inicial. Luego los vectores u1 , . . . ,um , T (u1 ), . . . , T (um )
deben ser L.I.
(c) Sea u1 ∈ E − {0E }. Si existe k ∈ R tal que T (u1 ) = ku1 , entonces
−u1 = T 2 (u1 )
= T (T (u1 ))
= T (ku1 )
= kT (u1 )
= k2u1
luego
(k2 + 1)u1 = 0E ;
lo cual es imposible pues u1 = 0E . Por tanto, u1 y T (u1 ) son L.I. Si no existe un vector u2 ∈ E
tal que {u1 , T (u1 ),u2 } es L.I., entonces {u1 , T (u1 )} es una base para E y dim(E) = 2. Si existe
u2 ∈ E tal que u1 , T (u1 ),u2 son L.I., entonces, por el inciso anterior, u1 ,u2 , T (u1 ), T (u2 ) son L.I.
Si no existe u3 ∈ E tal que u1 ,u2 , T (u1 ), T (u2 ),u3 son L.I., entonces {u1 ,u2 , T (u1 ), T (u2 )} es una
base de E y dim(E) = 4. Continuando este proceso se debe llegar a un primer número entero m
tal que
u1 , . . . ,um , T (u1 ), . . . , T (um )
son L.I. y para cualquier vector u ∈ E el conjunto
{u1 , . . . ,um , T (u1 ), . . . , T (um ),u}
es L.D.; pues E tiene dimensión finita. Luego
{u1 , . . . ,um , T (u1 ), . . . , T (um )}
es una base de E y dim(E) = 2m.
(d) Si B = {u1 , . . . ,um , T (u1 ), . . . , T (um )}, entonces
T (T (ui )) = −ui para i = 1, . . . , m
luego
[T ]B =
O
Im
−Im
O
donde la submatriz Im es la identidad de orden m y la submatriz O es la matriz cero de orden
m × m. Q
30 (Espacio dual y base dual). Sea E un espacio vectorial; se denota por E∗ el espacio vectorial L (E, R)
y a toda transformación lineal f ∈ E∗ se le dice funcional lineal (o forma lineal) en E y a E∗ se le
llama el espacio dual de E. Si E tiene dimensión finita y B = {e1 , . . . ,en } es una base de E, encontrar
una base B ∗ = {φi } del dual del espacio E; esto es, una base de E∗ a partir de esta base y probar que
dim(E∗ ) = n y por tanto E ∼
= E∗ . La base B ∗ = {φi } se llama base dual de la base {ei }.
Page (PS/TeX): 100 / 516, COMPOSITE
SECCIÓN 5.4
Solución
Ejercicios resueltos y ejercicios propuestos 517
Sea i ∈ {1, . . . , n}, por el ejercicio resuelto 1 existe un único funcional lineal φi : E → R tal
que
"
φi (e j ) = δi j =
1 si i = j
0 si i = j
(al sı́mbolo δi j se le dice delta de Kronecker). Entonces {φ1 , φ2 , . . . , φn } es una base de E∗ :
(a) Sean αi n-escalares tales que
α1 φ1 + · · · + αi φi + · · · + αn φn = θ,
la forma lineal constante cero en E∗ ; entonces, para cada i = 1, . . . , n,
αi = α1 φ1 (ei ) + · · · + αi φi (ei ) + · · · + αn φn (ei )
= θ(ei )
=0
ası́ que {φ1 , φ2 , . . . , φn } es L.I.
(b) Sea f ∈ E∗ y u = a1e1 + · · · + aiei + · · · + anen , entonces
φi (u) = a1 φi (e1 ) + · · · + ai φi (ei ) + · · · + an φn (en ) = ai
y por tanto
u = φ1 (u)e1 + · · · + φi (u)ei + · · · + φn (u)en .
Entonces
f (u) = φ1 (u) f (e1 ) + · · · + φi (u) f (ei ) + · · · + φn (u) f (en );
es decir,
f = f (e1 )φ1 + · · · + f (ei )φi + · · · + f (en )φn .
Luego dim(E∗ ) = n.
31 Construir una base para el espacio dual de R2 , (R2 )∗ , a partir de la base {(1, 2), (1, 1)} de R2 por
medio del procedimiento dado en el ejercicio precedente; es decir, encontrar la base dual de la base
{(1, 2), (1, 1)}.
Solución
Por el procedimiento del ejercicio precedente φ1 (1, 2) = 1, φ1 (1, 1) = 0, φ2 (1, 2) = 0 y
φ2 (1, 1) = 1. Puesto que los φi son lineales se debe tener
φ1 (x, y) = ax + by,
φ2 (x, y) = cx + dy
para ciertas constantes a, b, c, d. Entonces
Page (PS/TeX): 101 / 517, COMPOSITE
518 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
1 = φ1 (1, 2) = a + 2b,
0 = φ1 (1, 1) = a + b,
0 = φ2 (1, 2) = a + 2d,
1 = φ2 (1, 1) = c + d
y dado que
1 2 1
1 1 0
0
1
∼
1
2 1 0
,
0 −1 −1 1
se obtiene
a
b
=
−1
1
y
c
d
=
2
−1
y por tanto
φ1 (x, y) = −x + y,
φ2 (x, y) = 2x − y
son los elementos de la base del espacio dual (R2 )∗ .
32 Si E es un espacio vectorial y E∗ su espacio dual, se denota por E∗∗ el espacio dual de E∗ ; esto es,
E∗∗ = (E∗ )∗ = L (E∗ , R). Al espacio E∗∗ se le llama espacio bidual (o doble dual) del espacio E. Sea
u ∈ E un elemento fijo (que se ha escrito sin la flecha encima por simplicidad en la notación); se define
u# : E∗ → R por u#( f ) = f (u).
(a) Probar que u# ∈ E∗∗ .
(b) Sea Φ : E → E∗∗ definida por Φ(u) = u#. Probar que Φ es lineal.
(c) Si dim(E) = n es finita, probar que Φ es un isomorfismo (el llamado isomorfismo natural o
canónico) y por tanto E ∼
= E∗∗ .
DEMOSTRACIÓN
Q (a) Si f1 , f2 ∈ E∗ y α, β ∈ R, entonces
u#(α f1 + β f2 ) = (α f1 + β f2 )(u)
= α f1 (u) + β f2 (u)
= α#
u( f1 ) + β#
u( f2 )
y por ende u# ∈ E∗∗ .
(b) Sean u, v ∈ E, α, β ∈ R y f cualquier elemento de E∗ , entonces
αu
+ βv( f ) =
=
=
=
Page (PS/TeX): 102 / 518, COMPOSITE
f (αu + βv)
f (αu) + f (βv)
α f (u) + β f (v)
α#
u( f ) + β#
v( f )
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 519
y por tanto,
αu
+ βv = α#
u + β#
v;
i.e.,
Φ(αu + βv) = αΦ(u) + βΦ(v).
(c) Sean {e1 , . . . ,en } una base de E y {φ1 , . . . , φn } la base dual correspondiente. Sea ψ ∈ E∗∗ y f ∈ E∗
un funcional cualquiera. Entonces, por el ejercicio resuelto 30,
f = f (e1 )φ1 + · · · + f (en )φn ;
luego
ψ( f ) = ψ( f (e1 )φ1 + · · · + f (en )φn )
= f (e1 )ψ(φ1 ) + · · · + f (en )ψ(φn )
= f (ψ(φ1 )e1 + · · · + ψ(φn )en ).
Entonces, si u = ψ(φ1 )e1 + · · · + ψ(φn )en ∈ E, se tiene
ψ( f ) = f (u)
= u#( f )
= Φ(u)( f )
y por tanto
Φ(u) = ψ.
Luego Φ es suprayectiva. Si u ∈ Ker(Φ), entonces u#( f ) = f (u) = 0 para todo funcional f ; luego
(cfr. el ejercicio resuelto 30 de esta sección)
u = φ1 (u)e1 + · · · + φn (u)en
= 0E .
Lo cual prueba que Ker(Φ) = {0E }. Entonces Φ es un isomorfismo; por tanto, E ∼
= E∗∗ .
33 Sea E un espacio vectorial de dimensión finita n y E∗ su espacio dual. Probar que si B ∗ = {φ1 , . . . , φn }
es una base de E∗ , entonces existe una base B = {e1 , . . . ,en } de E tal que B ∗ es la base dual de B.
DEMOSTRACIÓN
Q Dado que E∗∗ ∼
= E, dim(E∗∗ ) = n. Sea {Ψ1 , . . . , Ψn } la base dual de la base {φ1 , . . . , φn } del espacio
∗∗
E . Entonces,
1 si i = j
Ψi (φ j ) = δi j =
0 si i = j
Por el ejercicio 32 existen únicos e1 , . . . ,en ∈ E tales que
e#i = Φ(ei ) = Ψi
Page (PS/TeX): 103 / 519, COMPOSITE
520 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
para cada i = 1, . . . , n; y por tanto
φ j (ei ) = e#i (φ j ) = Ψi (φ j ) = δi j ;
y ya que Φ es un isomorfismo y {Ψ1 , . . . , Ψn } es una base, {e1 , . . . ,en } es base de E. Luego {φ1 , . . . , φn }
es la base dual de la base {e1 , . . . ,en }. Q
34 Sean f1 , f2 : R2 → R los funcionales lineales definidos por f1 (x, y) = 2x − y y f2 (x, y) = x + y.
(a) Probar que { f1 , f2 } es una base de (R2 )∗ .
(b) Encontrar una base {u1 ,u2 } de R2 cuya base dual sea { f1 , f2 }.
Solución
(a) Ya que dim(R2 )∗ = dim(R2 ) = 2, basta probar que f1 y f2 son L.I. Sean λ1 , λ2 ∈ R tales
que
λ1 f 1 + λ 2 f 2 = θ
es decir,
λ1 f1 (x, y) + λ2 f2 (x, y) = 0
∀(x, y) ∈ R2 .
Entonces, en particular,
0 = λ1 f1 (1, 0) + λ2 f2 (1, 0) = 2λ1 + λ2
y
0 = λ1 f1 (0, 1) + λ2 f2 (0, 1) = −λ1 + λ2 ;
es decir,
2λ1 + λ2 = 0
−λ1 + λ2 = 0
de donde λ1 = λ2 = 0 y, por tanto, f1 y f2 son L.I.
(b) Por el ejercicio precedente existe una base {e1 ,e2 }, e1 = (a, b) y e2 = (c, d) cuya base dual es
{ f1 , f2 }; entonces
1 = f1 (a, b) = 2a − b,
0 = f1 (c, d) = 2c − d,
0 = f2 (a, b) = a + b,
1 = f2 (c, d) = c + d.
Y ya que
se tiene
2
1
2
−1 1 0
∼
0
1 0 1
−1 1
−3 1
0
−2
(a, b) = (1/3, −1/3) y
(c, d) = (1/3, 2/3);
es decir,
{e1 ,e2 } = {(1/3, −1/3), (1/3, 2/3)}.
Page (PS/TeX): 104 / 520, COMPOSITE
Q
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 521
35 (Hiperespacio). Sean E un espacio vectorial no trivial y H < E. Se dice que H es un hiperespacio de E
si se cumplen las siguientes condiciones:
(i) H = E.
(ii) Si S < E y H ⊂ S, entonces S = H o S = E.
Es decir, H es un subespacio propio maximal. Mostrar que un subespacio H es un hiperespacio de E si
y sólo si existe u0 ∈ E − H tal que
E = H + gn(u0 ).
DEMOSTRACIÓN
Q (⇒) Como H = E, existe u0 ∈ E − H. Entonces
H H + gn(u0 ) ⊂ E
y ya que H es un hiperespacio, se deduce que H + gn(u0 ) = E. (⇐) Sea u0 ∈ E − H tal que E =
H + gn(u0 ), entonces H = E. Sea S < E tal que H ⊂ S. Dado que E = H + gn(u0 ), todos los elementos
de S tienen la forma u = u1 + βu0 para algún u1 ∈ H y para cierto β ∈ R. Si para alguno de éstos β = 0,
se tiene u0 = (1/β)(u −u1 ) ∈ S y entonces E = H + gn(u0 ) = S. En caso contrario u ∈ H para todo
u ∈ S; es decir, S = H. Q
36 Sean E un espacio vectorial no trivial y f ∈ E∗ . Demostrar lo siguiente (cfr. ejercicio resuelto 9 de esta
sección):
(a) Si f es un funcional lineal en E no nulo ( f = θ, el funcional lineal constante cero), entonces
H = Ker( f ) es un hiperespacio.
(b) Si H es un hiperespacio existe un funcional lineal f en E∗ no nulo tal que Ker( f ) = H.
DEMOSTRACIÓN
Q (a) Sea u0 ∈ E tal que f (u0 ) = 0. Si u ∈ E, entonces
u −
f (u)
u0 ∈ H = Ker( f )
f (u0 )
pues
f (u −
f (u)
f (u)
u0 ) = f (u) −
f (u0 ) = 0.
f (u0 )
f (u0 )
Por tanto, existe u1 ∈ H tal que
u −
f (u)
u0 = u1 ;
f (u0 )
luego
u = u1 +
f (u)
u0 ∈ H + gn(u0 ).
f (u0 )
Por el ejercicio precedente se concluye que H = Ker( f ) es un hiperespacio.
Page (PS/TeX): 105 / 521, COMPOSITE
522 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
(b) Sea H un hiperespacio y u0 ∈ E − H. Entonces, por el ejercicio precedente,
E = H + gn(u0 ).
y más aún, puesto que H ∩ gn(u0 ) = {0E }, se tiene
E = H ⊕ gn(u0 ).
Entonces para todo u ∈ E existen únicos u1 ∈ H y β ∈ R tales que
u = u1 + βu0 .
Sea f : E → R definida por
f (u) = β.
Si u1 + β1 u0 ,u2 + β2u0 ∈ E = H ⊕ gn(u0 ), y λ ∈ R, entonces
f (u1 + β1 u0 +u2 + β2u0 ) = f (u1 +u2 + (β1 + β2 )u0 )
= β1 + β 2
= f (u1 + β1 u0 ) + f (u2 + β2u0 )
y
f (λ(u1 + β1 u0 )) = f (λu1 + λβ1 u0 )
= λβ1
= λ f (u1 + β1 u0 ).
Finalmente,
u = u1 + βu0 ∈ Ker( f )
⇔β=0
⇔ u = u1 ∈ H.
Es decir,
Ker( f ) = H. Q
37 (Teorema de representación de Riesz). Sean E un espacio con producto interior ·, · y f ∈ E∗ un
funcional lineal. Si E tiene dimensión finita n, probar que existe un único u f ∈ E tal que f (x) = x,u f para todo x ∈ E.
DEMOSTRACIÓN
Q Sea {e1 , . . . ,en } una base ortonormal de E y x ∈ E, entonces
x = x,e1 e1 + · · · + x,en en
Page (PS/TeX): 106 / 522, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 523
SECCIÓN 5.4
y por tanto,
f (x) = f (x,e1 e1 + · · · + x,en en )
= x,e1 f (e1 ) + · · · + x,en f (en )
= x, f (e1 )e1 + · · · + x, f (en )en = x, f (e1 )e1 + · · · + f (en )en Luego, si u f = f (e1 )e1 + · · · + f (en )en , se tiene
f (x) = x,u f para todo x ∈ E. Sea v ∈ E tal que
x,u f = f (x) = x,v
para todo x ∈ E, entonces
x,u f −v = 0
∀x ∈ E
y por ende
u f =v.
Q
38 (Operador adjunto). Sea E un espacio vectorial con producto interior ·, ·. Si E tiene dimensión finita
y T : E → E es un operador lineal, demostrar que existe un único operador lineal T ∗ : E → E tal que
T (u),v = u, T ∗ (v)
para todo u,v ∈ E. Al operador T ∗ se le llama el operador adjunto de T .
DEMOSTRACIÓN
Q Es fácil probar que para cada v ∈ E la aplicación f (u) = T (u),v es lineal y por tanto un elemento
de E∗ . Por el ejercicio resuelto 37 (teorema de representación de Riesz), existe, para cada v ∈ E, un
único v∗ ∈ E tal que
f (u) = u,v∗ ∀u ∈ E.
Sea T ∗ : E → E definida por T (v) = v∗ . Entonces
T (u),v = f (u) = u,v∗ = u, T ∗ (v)
para todo u,v ∈ E. Si v1 ,v2 ∈ E, α, β ∈ R y u es cualquier vector en E, se tiene
u, T ∗ (αv1 + βv2 ) = T (u), αv1 + βv2 = α T (u),v1 + β T (u),v2 = α u, T ∗ (v1 ) + β u, T ∗ (v2 )
= u, αT ∗ (v1 ) + u, βT ∗ (v2 )
= u, αT ∗ (v1 ) + βT ∗ (v2 )
Page (PS/TeX): 107 / 523, COMPOSITE
524 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
de donde
u, T ∗ (αv1 + βv2 ) − (αT ∗ (v1 ) + βT ∗ (v2 )) = 0
∀u ∈ E;
luego
T ∗ (αv1 + βv2 ) − (αT ∗ (v1 ) + βT ∗ (v2 )) = 0E
y por tanto
T ∗ (αv1 + βv2 ) = αT ∗ (v1 ) + βT ∗ (v2 ).
Lo cual prueba que T ∗ es lineal. Si T1 es un operador lineal tal que para todo u,v ∈ E
T (u),v = u, T1 (v)
entonces
u, T1 (v) = u, T ∗ (v)
por lo que
u, T1 (v) − T ∗ (v) = 0
∀u,v ∈ E;
de donde se desprende
T1 = T ∗ .
Q
39 Sean E, T y T ∗ como en el ejercicio anterior. Probar que si B = {e1 , . . . ,en } es una base ortonormal
de E, A es la representación matricial de T relativa a esta base y B es la representación matricial de T ∗
relativa a la misma base, entonces B = At .
DEMOSTRACIÓN
Q Por el ejercicio resuelto 21 de este capı́tulo, la representación matricial de T está dada por la matriz
A = [ai j ]t donde ai j = T (ei ),e j ; por el mismo ejercicio B = [T ∗ ]B = [bi j ]t donde
bi j = T ∗ (ei ),e j = ei , T (e j )
= a ji
y por tanto
B = [bi j ]t
= At .
Q
40 (Anuladores). Si E es un espacio vectorial y S es un subconjunto no vacı́o de E, se define
S 0 = {φ ∈ E∗ | φ(u) = 0
∀u ∈ S}.
(a) Probar que S 0 es un subespacio de E∗ . A S 0 se le llama el anulador de S.
(b) Si E tiene dimensión finita y S es un subespacio de E, demostrar que
dim(S) + dim(S 0 ) = dim(E).
Page (PS/TeX): 108 / 524, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 525
SECCIÓN 5.4
DEMOSTRACIÓN
Q (a) Claramente el operador constante cero, θ, pertenece a S 0 . Si f , g ∈ S 0 y α, β ∈ R, entonces, para
todo u ∈ S,
(α f + βg)(u) = α f (u) + βg(u)
= 0+0
= 0.
(b) Sea {u1 , . . . ,un } una base de S; se completa ésta a una base
{u1 , . . . ,um ,vm+1 , . . . ,vn }
de E, y sea {φ1 , . . . , φn } su base dual. Entonces si k ≥ m + 1
φk (u j ) = 0 ∀ j
y por tanto φm+1 , . . . , φn ∈ S 0 . Si u ∈ E y φ ∈ S 0 , entonces
φ(u) = φ(u1 )φ1 (u) + · · · + φ(um )φm (u)+
= φ(vm+1 )φm+1 (u) + · · · + φ(vn )φm (u)
= 0 + · · · + 0 + φ(vm+1 )φm+1 (u) + · · · + φ(vn )φm (u)
= φ(vm+1 )φm+1 (u) + · · · + φ(vn )φm (u).
Luego φm+1 , . . . , φn generan a S 0 y ya que las funciones φm+1 , . . . , φn son L.I., {φm+1 , . . . , φn } es
una base de S 0 . De donde
dim(E) − dim(S) = dim(S 0 ).
Q
41 (Primer teorema de isomorfismo). Sean E y F un par de espacios vectoriales y T : E → F una trans-
formación lineal suprayectiva. Si H = Ker(T ), probar que
E/H ∼
=F
donde E/H es el espacio cociente (cfr. el ejercicio resuelto 29 del capı́tulo 3).
DEMOSTRACIÓN
Q Sea Φ : E/H → F la transformación definida, para cada [u] ∈ E/H, por
Φ([u]) = T (u);
entonces,
(a) Φ está bien definida: si [u] ∈ E/H y v ∈ [u], entonces u −v ∈ H = Ker(T ) y por tanto T (u −v) =
0F ; i.e., T (u) = T (v).
(b) Φ es lineal: si [u], [v] ∈ E/H y α, β ∈ R, se tiene
Φ(α[u] + β[v]) = Φ([αu + βv])
= T (αu + βv)
= αT (u) + βT (v)
= αΦ([u]) + βΦ([v]).
Page (PS/TeX): 109 / 525, COMPOSITE
526 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
(c) Φ es inyectiva: si [u] ∈ Ker(Φ), entonces
T (u) = Φ([u])
= 0F
y por tanto u ∈ Ker(T ) = H; ası́ que [u] = H = [0E ] = 0E/H .
(d) Φ es suprayectiva: si w ∈ F, dado que T es suprayectiva, existe u ∈ E tal que T (u) = w, luego
Φ([u]) = T (u) = w.
Q
42 Sean P el espacio de polinomios y p(x) un polinomio dado de grado grad(p) = n.
(a) Probar que H = {p f | f ∈ P} es un subespacio de P.
(b) Mostrar que P/H ∼
= Rn .
DEMOSTRACIÓN
Q (a) Si θ es el polinomio constante cero, entonces pθ = θ y por tanto θ ∈ H. Sean p f1 , p f2 ∈ H y
α, β ∈ R, entonces
α(p f1 ) + β(p f2 ) = p(α f1 + β f2 ) ∈ H.
(b) Por el algoritmo de división para cada g(x) ∈ P existen únicos polinomios q(x) y r(x), r(x) = 0
o 0 ≤ grad(r) ≤ n − 1 (grad(g) representa el grado del polinomio g), tales que g(x) = p(x)q(x) +
r(x). Sea T : P → Pn−1 dada por
T (g(x)) = r(x).
Si g1 (x) = p(x)q1 (x) + r1 (x) y g2 (x) = p(x)q2 (x) + r2 (x) y α ∈ R, con 0 ≤ grad(r1 ), grad(r2 ) ≤
n − 1 o r1 (x) = 0 y/o r2 (x) = 0, entonces
g1 (x) + g2 (x) = p(x)(q1 (x) + q2 (x)) + r1 (x) + r2 (x),
αg1 (x) = p(x)(αq(x)) + (αr1 (x)),
0 ≤ grad(r1 + r2 ) ≤ n − 1 (o r1 + r2 = θ)
y
0 ≤ grad(αr1 ) ≤ n − 1
por lo que
T (g1 (x) + g2 (x)) = r1 (x) + r2 (x)
= T (g1 (x)) + T (g2 (x))
y
T (αg1 (x)) = αr1 (x)
= αT (g1 (x)).
Lo cual prueba que T es lineal. Si r(x) ∈ Pn−1 , entonces r(x) = p(x)θ(x) + r(x) y por tanto
T (r(x)) = r(x); ası́ que T es suprayectiva. Por otra parte
Page (PS/TeX): 110 / 526, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 527
SECCIÓN 5.4
g(x) ∈ Ker(T ) ⇔ T (g(x)) = r(x) = 0
⇔ g(x) = p(x)q(x)
⇔ g(x) ∈ H.
Por el ejercicio anterior
P/H ∼
= Pn−1
y dado que dim(Pn−1 ) = n = dim(Rn ), del teorema 5.24 (cfr. pág. 456) se tiene Pn−1 ∼
= Rn y
entonces
P/H ∼
= Rn .
Q
Valores y vectores propios, diagonalización
43 Sean E un espacio vectorial y S un subespacio de él. Si T : S → E es una transformación lineal también
se acostumbra decir que T es un operador lineal en E (aunque S sea distinto de E). Un escalar λ es
valor propio de T si existe u ∈ S − {0E } tal que T (u) = λu. Sean E = C(−∞, ∞) el espacio vectorial
x
de funciones continuas en todo punto x ∈ R y S el conjunto de funciones f ∈ E tales que −∞
f (t)dt
converge para todo x ∈ R.
(a) Mostrar que S es un subespacio de E.
(b) Se define T : S → E, para cada f ∈ S, T ( f ) = g donde
g(x) =
x
−∞
f (t)dt.
Mostrar T es un operador lineal de S en E.
(c) Encontrar los valores propios y vectores propios correspondientes.
Solución
(a) Claramente la función constante cero, θ, pertenece a S. Sean f1 , f2 ∈ S; α, β ∈ R un par
de escalares y x ∈ R, entonces
x
−∞
(α f1 + β f2 )(t)dt = lı́m
r→∞ −r
= α lı́m
=α
y por tanto
x
−∞
x
(α f1 (t) + β f2 (t))dt
x
r→∞ −r
x
−∞
f1 (t)dt + β lı́m
f1 (t)dt + β
(b) Si f ∈ S, entonces f es continua en todo punto y
x
−∞
Page (PS/TeX): 111 / 527, COMPOSITE
r→∞ −r
x
−∞
f2 (t)dt
f2 (t)dt
f (t)dt converge para todo x ∈ R. Dado que
f es continua en todo punto de R, la función G(x) =
α=
x
(α f1 + β f2 )tdt converge para todo x ∈ R; luego α f1 + β f2 ∈ S; lo cual prueba que S es
subespacio de E.
0
−∞
f (t)dt, entonces
0
x
f (t)dt es continua en todo x ∈ R. Si
528 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
g(x) =
x
−∞
f (t)dt =
0
−∞
f (t)dt +
x
0
f (t)dt
= α + G(x)
y por tanto g ∈ E = C(−∞, ∞). Lo cual prueba que efectivamente T ( f ) ∈ E = C(−∞, ∞) para
toda f ∈ S. Sean a, b ∈ R y f1 , f2 ∈ S, entonces, para todo x ∈ R,
T (a f1 + b f2 )(x) =
=a
x
(a f1 + b f2 )(t)dt
−∞
x
−∞
f1 (t)dt + b
x
−∞
f2 (t)dt
= aT ( f1 )(x) + bT ( f2 )(x);
esto es,
T (a f1 + b f2 ) = aT ( f1 ) + bT ( f2 ).
(c) Si
x
−∞
f (t)dt = 0 para todo x ∈ R y a, b ∈ R son cualquier par de números reales, con a < b,
entonces
a
b
Ası́ que
a
b
f (t)dt =
b
−∞
f (t)dt −
a
−∞
f (t)dt = 0.
f (t)dt = 0 en todo intervalo [a, b]. Si existe x0 ∈ R tal que f (x0 ) = 0, digamos f (x0 ) >
0, entonces, por continuidad de f , existe un intervalo [x0 − δ, x0 + δ] tal que f (x) > 0 en todo este
intervalo, luego
x0 +δ
x0 −δ
f (t)dt > 0. Lo cual es una contradicción al hecho descubierto de que la
integral de f es nula en todo intervalo cerrado. Por tanto,
x
−∞
f (t)dt = 0 para todo x ∈ R implica
f (x) = 0 para todo punto x. Esto significa que λ = 0 no puede ser valor propio de T; pues la
única función en S tal que T ( f ) = 0, es la función f (x) = 0 para todo x ∈ R. Si G(x) =
x
0
f (t)dt
por el teorema fundamental del cálculo, ya que f es continua en todo punto, G es derivable y
además G (x) = f (x) para todo x ∈ R. Por el inciso anterior, si g = T ( f ),
g(x) = α + G(x)
donde α =
0
−∞
f (t)dt; luego g es derivable en todo punto y
g (x) = G (x) = f (x)
para todo x ∈ R. Si λ = 0 satisface T ( f ) = λ f se debe tener
x
−∞
f (t)dt = λ f (x)
para todo punto x. Al derivar respecto a x en ambos lados de la precedente igualdad se obtiene
f (x) = λ f (x)
esto es,
df
1
= f
dx
λ
Page (PS/TeX): 112 / 528, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 529
SECCIÓN 5.4
que, al separar variables (suponiendo f = 0), produce
df
1
=
f
λ
dx;
es decir,
ln | f | =
1
x +C
λ
y por tanto
f = Ae x/λ
para alguna constante A = 0. Si λ > 0,
g(x) =
x
−∞
Ae t/λ dt
= A lı́m
x
r→∞ −r
e t/λ dt
$
%
= Aλ lı́m e x/λ − e−r/λ
r→∞
= Aλe x/λ
= λ f (x)
y
x
−∞
Ae t/λ dt diverge si λ < 0. Ası́, todo λ > 0 es valor propio de T con vectores propios co-
rrespondientes f (x) = Ae x/λ para cualquier constante A distinta de cero (cfr. ejemplo 5.44, pág.
460). 44 Sean T , R : E → E dos operadores lineales suprayectivos en el espacio E. Demostrar que T R y RT
tienen los mismos valores propios, donde T R = T ◦ R y RT = R ◦ T (cfr. el ejercicio resuelto 12 de este
capı́tulo).
DEMOSTRACIÓN
Q Sea λ un valor propio de T R, se prueba entonces que λ también es valor propio de RT . La demostración de que todo valor propio de RT es también valor propio de T R es completamente simétrica.
(a) Si λ = 0, entonces el operador T R no es inyectivo (Ker(T R − 0I) = {0E }, cfr. nota 5, pág. 459);
y por tanto, del ejercicio resuelto 13(b) de este apartado, al menos uno de los dos operadores T ,
R no es inyectivo; entonces, del ejercicio resuelto 13(c), RT no es inyectivo, luego λ = 0 es valor
propio de RT pues al no ser inyectivo Ker(T R − 0I) = {0E }.
(b) Suponga λ = 0 y sea u ∈ E − {0E } tal que (T R)(u) = λu, entonces
T (R(u)) = λu.
Sea w = R(u); si w = 0E se tiene
0E =
=
=
=
Page (PS/TeX): 113 / 529, COMPOSITE
T (w)
T (R(u))
(T R)(u)
λu
530 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
lo cual es imposible pues λ = 0 y u = 0E ; por tanto w = 0E . Y puesto que
(RT )(w) =
=
=
=
=
RT (R(u))
R((T R)(u))
R(λu)
λR(u)
λw
se concluye que λ es también valor propio de RT . Q
45 Sea T : Pn → Pn el operador definido, para cada p ∈ P2 , por T (p) = q donde
q(x) = p(x) + (x + 1)p (x).
(a) Probar que T es un operador lineal.
(b) Encontrar los valores propios de T .
(c) Determinar si T es diagonalizable y en caso positivo hallar una diagonalización para T .
(d) ¿Existe una base B de Pn tal que la representación matricial relativa a ésta del operador T es
diagonal? Si la respuesta es positiva exhibir dicha base B.
Solución
(a) Sean p1 , p2 ∈ Pn y α, β ∈ R. Entonces, para todo x ∈ R,
T (αp1 + β p2 )(x) = (αp1 + β p2 )(x) + (x + 1)(αp1 + β p2 ) (x)
= (αp1 (x) + β p2 (x)) + (x + 1)(αp1 (x) + β p2 (x))
= αp1 (x) + α(x + 1)p1 (x) + β p2 (x) + β(x + 1)p2 (x)
= αT (p1 )(x) + βT (p2 )(x)
y por tanto,
T (αp1 + β p2 ) = αT (p1 ) + βT (p2 ).
(b) Si p = θ, donde θ es el polinomio constante cero, es un polinomio propio de T (un vector propio)
y λ es un valor propio correspondiente, entonces
p + (x + 1)p = λp
de donde
(x + 1)
dp
= (λ − 1)p.
dx
Al separar variables se obtiene
dp
= (λ − 1)
p
dx
;
x+1
y por ende,
ln |p| = ln |x + 1|λ−1 +C
Page (PS/TeX): 114 / 530, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 531
SECCIÓN 5.4
para alguna constante C. Luego
p = C1 (x + 1)λ−1
con C1 una constante distinta a cero. Dado que p debe pertenecer a Pn , se deduce que los valores
propios de T son λk = k con k = 1, 2, . . . , n + 1 y los vectores propios correspondientes a cada
valor propio λk son los polinomios
pk (x) = C(x + 1)k−1 , C = 0.
(c) Ya que los valores propios de T , λk = k, k = 1, . . . , n + 1, son distintos entre sı́ y dim(Pn ) = n + 1,
T es diagonalizable. Una diagonalización para T consiste en el par D, P donde
D = diag(1, 2, . . . , n + 1)
y
P = [ C1
· · · Cn+1 ]
donde la columna Ck es el vector de coordenadas del polinomio propio pk (x) = (1 + x)k−1 correspondiente al valor propio λk = k; i.e., Ck es el vector que tiene como componentes los coeficientes
de (1 + x)k−1 :
C1 = (1, 0, . . . , 0)
n+1
k
k
Ck = (1,
,...,
, k, 1, 0, . . . , 0).
1
k−2
n−k
(d) Sı́, por el inciso anterior la base es
B = {1, 1 + x, (1 + x)2 , . . . , (1 + x)n }.
Del ejercicio 46 al último ejercicio de este apartado de problemas resueltos, los espacios vectoriales,
operadores lineales y matrices tratados en ellos se consideran sobre el campo de los números complejos
C en forma implı́cita (cfr. 5.3.3). Sin embargo, se puede restringir a los números reales suponiendo que
todos los valores propios de cualquier operador o matriz, ası́ como todas las raı́ces de los polinomios
involucrados son números reales.
46 Sea la matriz de tamaño k × k
⎡
0 0
⎢ 1 0
⎢
⎢
A=⎢
⎢ 0 1
⎢ .. ..
⎣ . .
0 0
···
···
···
..
.
0
⎤
−a0
−a1 ⎥
⎥
⎥
−a2 ⎥
⎥.
⎥
..
⎦
.
0
1 −ak−1
0
0
..
.
Demostrar que el polinomio caracterı́stico de A es
pA (λ) = (−1)k (a0 + a1 λ + a2 λ2 + · · · + ak−1 λk−1 + λk ).
Page (PS/TeX): 115 / 531, COMPOSITE
(5.34)
532 CAPÍTULO 5
DEMOSTRACIÓN
Transformaciones lineales, valores y vectores propios
Q Se procede por inducción sobre k: si k = 1, entonces
pA (λ) = det (−a0 − λ)
= −a0 − λ
= (−1)1 (a0 + λ1 )
y el resultado es cierto para este caso. Sea n un entero mayor a 1 y suponga que la fórmula 5.34 es válida
para el caso k = n − 1. Entonces
0−λ
0
···
0
−a0
1
0−λ ···
0
−a1
..
.
1
···
.
−a2
pA (λ) = 0
..
.
..
.
.
.
.
. 0−λ
.
.
0
0
0
1
−an−1 − λ Al desarrollar por cofactores en la primera fila y hacer uso de la hipótesis de inducción se obtiene
0−λ
0
···
0
−a1
1
0−λ ···
0
−a2
..
.
−a3
1
···
pA (λ) = −λ 0
..
.
..
.
.
.
.
. 0−λ
.
.
0
0
0
1
−an−1 − λ 1 0−λ ···
0 .. 0
. 1
···
+ (−1)n+1 (−a0 ) .
.
..
..
..
. 0 − λ 0
0
0
1 = −λ(−1)n−1 (a1 + a2 λ + a3 λ2 + · · · an−1 λn−2 + λn−1 ) + (−1)n a0
= (−1)n (a0 + a1 λ + a2 λ2 + · · · + an−1 λn−1 + λn ).
Luego 5.34 vale para todo k ∈ N.
Q
47 Sean E un espacio vectorial de dimensión finita, T un operador en E y S un subespacio T -invariante;
esto es, T (S) ⊂ S. Sea TS : S → S el operador lineal TS (u) = T (u) para todo u ∈ S; es decir, TS es la
restricción de T al subespacio T -invariante S. Demostrar que si pTS (λ) es el polinomio caracterı́stico de
TS y pT (λ) es el polinomio caracterı́stico de T , entonces pTS (λ) divide a pT (λ).
DEMOSTRACIÓN
Q Sea {u1 , . . . ,uk } una base de S, entonces se puede completar ésta a una base B = {u1 , . . . ,uk ,vk+1 ,
. . . ,vn } de E. Por tanto, por ser S un subespacio T -invariante se tiene
k
T (u j ) = ∑ ai ju j
i=1
para j = 1, . . . , k. Ası́, A = [ai j ] t es la representación matricial de TS relativa a la base {u1 , . . . ,uk } y
[T ]B =
Page (PS/TeX): 116 / 532, COMPOSITE
A B
O C
;
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 533
donde B es una matriz de tamaño k × (n − k), C es una matriz de tamaño (n − k) × (n − k) y O es la
matriz cero de tamaño (n − k) × k. Entonces
pT (λ) = det([T ]B − λIn )
A − λIk
B
= O C − λIn−k
= det(A − λIk ) det(C − λIn−k )
= pTS (λ)pC (λ)
donde pC (λ) es el polinomio caracterı́stico de la matriz C. Lo cual prueba que pTS (λ) divide a pT (λ).
.
Q
48 Sean T un operador lineal en un espacio vectorial E no trivial de dimensión finita y u ∈ E − {0E }.
Al subespacio S generado por los vectores u,T (u), T 2 (u), . . .; esto es S = L ({u, T (u), T 2 (u), . . .}) (cfr.
el ejercicio resuelto 31 del capı́tulo 3, pág. 190) se le llama el subespacio T -cı́clico generado por el
vector u.
(a) Demostrar que existe un entero k tal que {u, T (u), T 2 (u), . . . , T k−1 (u)} es una base de S.
(b) Probar que S es T -invariante.
(c) Sean a0 , a1 , . . . , ak−1 los únicos escalares tales que
T k (u) = −a0u − a1 T (u) − a2 T 2 (u) − · · · − ak−1 T k−1 (u).
y TS la restricción del operador T al subespacio S como en el ejercicio anterior. Demostrar que
pTS (λ) = (−1)k (a0 + a1 λ + a2 λ2 + · · · + ak λk )
es el polinomio caracterı́stico del operador TS .
DEMOSTRACIÓN
Q (a) Dado que u = 0E , {u} es L.I. y, puesto que la dimensión de E es finita, existe un menor entero
k ≥ 1 tal que el conjunto
{u, T (u), T 2 (u), . . . , T k−1 (u)}
es L.I. Entonces u, T (u), T 2 (u), . . . , T k−1 (u), T k (u) son L.D. y por tanto
T k (u) ∈ W = gn(u, T (u), T 2 (u), . . . , T k−1 (u)) ⊂ S.
Si v ∈ W , existen escalares α0 , α1 , . . . , αk−1 tales que
v = α0u + α1 T (u) + α2 T 2 (u) + · · · + αk−1 T k−1 (u)
y por tanto,
T (v) = T (α0u + α1 T (u) + α2 T 2 (u) + · · · + αk−1 T k−1 (u)
= α0 T (u) + α1 T 2 (u) + α2 T 3 (u) + · · · + αk−1 T k−1 (u) ∈ W.
Ası́ que W = gn(u, T (u), T 2 (u), . . . , T k−1 (u)) es T -invariante. Dado que u ∈ W y este subespacio
es T -invariante, se desprende que T r (u) ∈ W para todo r ∈ N. Luego W es un subespacio que
Page (PS/TeX): 117 / 533, COMPOSITE
534 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
contiene a {u, T (u), T 2 (u), . . .} y ya que S = L ({u, T (u), T 2 (u), . . .}) es el menor subespacio
que contiene a este subconjunto (cfr. el ejercicio resuelto 31 del capı́tulo 3), se tiene S ⊂ W y por
tanto S = W . Puesto que B = {u, T (u), T 2 (u), . . . , T k−1 (u)} es L.I. y genera a W = S, se concluye
que es una base de S.
(b) En el inciso anterior se demostró que S = W y que W es T -invariante.
(c) Sean TS la restricción del operador T al subespacio T -cı́clico S, B = {u, T (u), . . . , T k−1 (u)} la
base que se construyó en el primer inciso para éste y a j , j = 0, 1, . . . , m − 1, los únicos escalares
tales que T k (u) = −a0u − a1 T (u) − a2 T 2 (u) − · · · − ak−1 T k−1 (u), entonces
⎡
0 0
⎢ 1 0
⎢
⎢
[TS ]B = ⎢
⎢ 0 1
⎢ .. ..
⎣ . .
0 0
···
···
···
..
.
0
⎤
−a0
−a1 ⎥
⎥
⎥
−a2 ⎥
⎥.
⎥
..
⎦
.
0
1 −ak−1
0
0
..
.
Por el ejercicio resuelto 46 de este apartado, el polinomio caracterı́stico de esta matriz está dado
por la fórmula (5.34), luego
pTS (λ) = (−1)k (a0 + a1 λ + · · · + ak−1 λk−1 + λk ).
Q
Para los ejercicios 49 a 53 considerar lo siguiente: si T es un operador lineal en un espacio vectorial de
dimensión finita n y p(x) = a0 + a1 x + · · · + am x m es un polinomio, se define el operador lineal
p(T ) = a0 I + a1 T + · · · + am T m
(cfr. el ejercicio propuesto 400 de este capı́tulo) donde I es el operador identidad en E. Se puede interpretar a p(T ) como la evaluación del polinomio p en el operador T . De manera análoga si A es una
matriz cuadrada de orden n, se define la matriz del mismo tamaño
p(A) = a0 I + a1 A + · · · + am Am ,
donde I es la matriz identidad del mismo tamaño de A y se interpreta p(A) como la evaluación del
polinomio p en la matriz A.
49 Sean T un operador lineal en un espacio vectorial de dimensión finita n, A la representación matricial de
k
T relativa a una base B de E y p(x) = ∑m
k=0 ak x un polinomio. Demostrar que p(T ) = θ, el operador
constante cero, si y sólo si p(A) = O, la matriz cero del mismo orden de A.
DEMOSTRACIÓN
Q Por el teorema 5.12 (cfr. pág. 436)
[p(T )u]B = [a0 I(u) + a1 T (u) + a2 T 2 (u) + · · · + am T m (u)]B
= a0 [u]B + a1 [T (u)]B + a2 [T 2 (u)]B + · · · + am [T m (u)]B
= a0 [u]B + a1 A[u]B + a2 A2 [u]B + · · · + am Am [u]B
= (a0 I + a1 A + a2 A2 + · · · + am Am )[u]B .
Page (PS/TeX): 118 / 534, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 535
De donde
p(T ) = θ ⇔ p(T )u = 0E ∀u ∈ E
⇔ [p(T )u]B = 0Rn ∀u ∈ E
⇔ (a0 I + a1 A + a2 A2 + · · · + am Am )[u]B = 0Rn ∀u ∈ E
⇔ (a0 I + a1 A + a2 A2 + · · · + am Am )x = 0Rn ∀x ∈ Rn
⇔ (a0 I + a1 A + a2 A2 + · · · + am Am ) = O
⇔ p(A) = O.
Q
50 (Teorema de Cayley-Hamilton). Demostrar el siguiente teorema:
(a) Si T es un operador en un espacio vectorial de dimensión finita y pT (λ) es su polinomio caracterı́stico, entonces
pT (T ) = θ
donde θ es el operador constante cero; es decir,
pT (T )(u) = 0E ∀u ∈ E.
Lo cual significa que en un espacio vectorial de dimensión finita todo operador es un cero de su
polinomio caracterı́stico.
(b) Si A es una matriz cuadrada y pA (λ) es su polinomio caracterı́stico, entonces
pA (A) = O
donde O es la matriz cero del mismo orden que la matriz A. Lo cual se interpreta diciendo que
toda matriz cuadrada es un cero de su polinomio caracterı́stico.
DEMOSTRACIÓN
Q (a) Sea u ∈ E, si u = 0E , entonces claramente pT (T )(u) = 0E porque T es lineal. Suponga que
u ∈ E − {0E } y sea S el espacio T -cı́clico generado por u considerado en el ejercicio resuelto 48
de este apartado. Por el ejercicio resuelto 48 existen un entero k ≥ 1 y escalares únicos a j tales
que
{u, T (u), . . . , T k−1 (u)}
es una base de S; S es un subespacio T -invariante;
T k (u) = −a0 − a1 T (u) − · · · − ak−1 T k−1 (u);
pTS (λ) = (−1)k (a0 + a1 λ + · · · + ak−1 λk−1 + λk )
es el polinomio caracterı́stico de TS , la restricción de T al subespacio S. Entonces, por el ejercicio
resuelto 47 de este capı́tulo, pTS (λ) divide al polinomio caracterı́stico de pT (λ) y por tanto existe
un polinomio q(λ) tal que
pT (λ) = pTS (λ)q(λ).
Page (PS/TeX): 119 / 535, COMPOSITE
536 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Y ya que (cfr. ejercicio resuelto 48 de este apartado)
pTS (T )u = (−1)k (a0 I + a1 T + · · · + ak−1 T k−1 + T k )u
= (−1)k (a0u + a1 T (u) + · · · + ak−1 T k−1 (u) + T k (u))
= (−1)k0E
= 0E
se desprende que pTS (T ) = θ.
(b) Es consecuencia inmediata del inciso anterior al tomar T = TA .
Q
51 Sea p(x) = a0 + a1 x + · · · + am x m un polinomio de grado m.
(a) Si T es un operador lineal en un espacio vectorial E, λ es un valor propio de T y p se anula en
T ; esto es, a0 I + a1 T + · · · am T m = θ, el operador constante cero, demostrar que p(λ) = 0.
(b) Si A es una matriz cuadrada, λ es un valor propio de A y p se anula en A; esto es, a0 I + a1 A +
· · · + am Am = O , la matriz cero, demostrar que p(λ) = 0.
DEMOSTRACIÓN
Q (a) Sea u ∈ E − {0E } un vector propio correspondiente al valor propio λ. Entonces
0E = θ(u)
= p(T )u
= a0 I(u) + a1 T (u) + a2 T 2 (u) + · · · + am T m (u)
= a0u + a1 λu + a2 λ2u + · · · + am λmu
= (a0 + a1 λ + a2 λ2 + · · · + am λm )u
y, ya que u = 0E , se concluye
p(λ) = a0 + a1 λ + a2 λ2 + · · · + am λm = 0.
(b) Es inmediata del inciso anterior al poner T = TA .
Q
52 (Polinomio mı́nimo).
(a) Sean E un espacio vectorial de dimensión finita y T un operador lineal en E.
(i) Probar que existe un polinomio mónico m (el coeficiente de la mayor potencia es uno) de
grado mı́nimo tal que T es un cero de m; es decir, m(T ) = θ.
.
.
(ii) Demostrar que si p es cualquier otro polinomio y T es un cero de p, entonces m divide a p.
En particular m divide al polinomio caracterı́stico de T .
(iii) Mostrar que sólo puede existir un polinomio mónico de grado mı́nimo que se anula en T.
Al polinomio mónico m de grado mı́nimo que se anula en T se le llama el polinomio mı́nimo del
operador T .
(b) Sea A una matriz cuadrada.
(i) Probar que existe un polinomio mónico m (el coeficiente de la mayor potencia es uno) de
grado mı́nimo tal que T es un cero de m; es decir, m(A) = O.
Page (PS/TeX): 120 / 536, COMPOSITE
SECCIÓN 5.4
.
.
Ejercicios resueltos y ejercicios propuestos 537
(ii) Demostrar que si p es cualquier otro polinomio con A es un cero de p; entonces m divide a
p. En particular m divide al polinomio caracterı́stico de A.
(iii) Mostrar que sólo puede existir un polinomio mónico de grado mı́nimo que se anula en A.
Al polinomio mónico m, de grado mı́nimo y que se anula en A, se le llama el polinomio mı́nimo
de la matriz A.
DEMOSTRACIÓN
Q (a) (i) Por el teorema de Cayley-Hamilton (ejercicio resuelto 50) existe al menos un polinomio que
se anula en T , el polinomio caracterı́stico de T . De entre todos los polinomios que se anulan
en T hay al menos uno, m, de grado mı́nimo. Es claro que de ser necesario se puede dividir
entre el coeficiente principal (el coeficiente de la mayor potencia) y hacer que m(x) sea un
polinomio mónico.
(ii) Sea p(x) cualquier polinomio tal que p(T ) = θ. Por algoritmo de división existen un par de
polinomios q, r tales que
p(x) = m(x)q(x) + r(x)
con r(x) = 0, el polinomio constante cero, o 0 ≤ grad(r) ≤ grad(m) − 1 (grad(w) denota el
grado del polinomio w). Entonces
θ = p(T )
= m(T )q(T ) + r(T )
= θ + r(T )
= r(T )
y por tanto r(T ) = θ. Ası́ T se anula en el polinomio r(x) el cual es el polinomio constante
cero o tiene grado menor que el grado del polinomio m; por la definición de m la última
alternativa no puede ser, entonces se concluye que r(x) es el polinomio constante cero. Luego
m divide a p.
(iii) Sea p1 (x) un polinomio mónico de grado mı́nimo que se anula en T . Entonces m y p1 tienen
el mismo grado y por el inciso anterior existe un escalar c tal que
p1 (x) = cm(x)
y puesto que ambos son mónicos, se desprende que c = 1 y por tanto p1 (x) = m(x).
(b) Es consecuencia inmediata del inciso anterior al poner T = TA . Q
53 Demostrar que el polinomio mı́nimo y el polinomio caracterı́stico de un operador T , en un espacio de
dimensión finita, o de una matriz cuadrada, tienen las mismas raı́ces y por ende, los mismos factores
irreducibles.
DEMOSTRACIÓN
Q Sean pT (x) y m(x) los polinomios caracterı́stico y mı́nimo del operador T . Por el ejercicio resuelto 51
de este segmento, toda raı́z del polinomio pT (x) es raı́z del polinomio mı́nimo, pues toda raı́z del polinomio
caracterı́stico es valor propio del operador T . Inversamente, puesto que m(x) divide al polinomio pT (x),
toda raı́z del polinomio mı́nimo es raı́z del polinomio caracterı́stico. Si λi , i = 1, . . . , k, son los valores
propios distintos entre sı́ del operador T , entonces los factores irreducibles pT son (x − λ1 ), . . . , (x − λk )
Page (PS/TeX): 121 / 537, COMPOSITE
538 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
y, ya que ambos polinomios tienen las mismas raı́ces, éstos son también los factores irreducibles de m.
El caso para una matriz cuadrada A es consecuencia inmediata de lo precedente al tomar T = TA . Q
54 Encontrar el polinomio mı́nimo del operador lineal T : R3 → R3 definido por T (x, y, z) = (−y, 2x +
3y, −x − y + z).
T (1, 0, 0) = (0, 2, −1),
Solución
T (0, 1, 0) = (−1, 3, −1),
T (0, 0, 1) = (0, 0, 1).
Por tanto,
⎡
0 −1
3
[T ]B = ⎣ 2
−1 −1
⎤
0
0 ⎦
1
y
0−λ
pT (λ) = 2
−1
−1
3−λ
−1
0
0
1−λ
−λ
−1 = (1 − λ) 2 3−λ = (1 − λ)(λ2 − 3λ + 2)
= −(λ − 1)(λ − 1)(λ − 2)
= −(λ − 1)2 (λ − 2).
Puesto que el polinomio mı́nimo m(λ) divide a pT (λ), ambos tienen los mismos factores lineales y m
es mónico, entonces m(λ) es uno de estos polinomios
p1 (λ) = (λ − 1)2 (λ − 2),
p2 (λ) = (λ − 1)(λ − 2) = λ2 − 3λ + 2.
Y como
p1 ([T ]B ) = −pT ([T ]B ) = −O = O
y
p2 ([T ]B ) = (A − I)(A − 2I)
⎤⎡
⎡
−2 −1
−1 −1 0
1
2 0 ⎦⎣ 2
=⎣ 2
−1 −1
−1 −1 0
⎤
⎡
0 0 0
= ⎣ 0 0 0 ⎦,
0 0 0
se tiene que
m(λ) = p2 (λ) = λ2 − 3λ + 2
es el polinomio mı́nimo de T .
Page (PS/TeX): 122 / 538, COMPOSITE
⎤
0
0 ⎦
−1
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 539
5.4.2 Ejercicios propuestos
El lector encontrará la respuesta a los ejercicios en cursiva en el apéndice E al final del libro.
Transformaciones lineales (respuestas en páginas 1084-1086)
En los ejercicios 1 a 20 utilizar la definición 5.1 para determinar si la transformación T : E → F, definida
por la fórmula dada para todo vector en E, es o no lineal. En caso afirmativo probar rigurosamente que
se cumplen las dos condiciones de esta definición y en caso contrario mostrar las propiedades que no se
cumplen mediante contraejemplos.
1 T : R2 → R3 , T (x, y) = (−x, x + y, 2x − 2y).
2 T : R → R2 , T (x, y) = (e x , ey ).
3 T : R → R2 , T (x) = (x, e x ).
4 T : R2 → R2 , T (x, y) = (x, 0).
5 T : R3 → R3 , T (x, y, z) = (x, y, 0).
6 T : R3 → R3 , T (x, y, z) = (0, 0, z).
7 T : R3 → R2 , T (x, y, z) = (−x + 2y + z, 2x − y + z).
8 T : R2 → R2 , T (x, y) = (y, x).
9 T : R2 → R2 , T (x, y) = (x, −y).
10 T : R2 → R2 , T (x, y) = (−x, y).
11 T : R2 → R2 , T (x, y) = (x2 , y2 ).
12 T : R2 → R2 , T (x, y) = (x, x).
13 T : R2 → R, T (x, y) = xy.
14 T : R2 → R, T (x, y) = −3x + 2y.
15 T : C[0, 1] → R, T ( f ) = f (0).
16 T : C[0, 1] → R2 , T ( f ) = ( f (0), f (1)).
17 T : C1 [−1, 1] → R2 , T ( f ) = ( f (1/2),
1
−1
f (x)dx).
18 T : Mn → R, T (A) = det(A).
19 T : P → P, T (p) = q, donde q(x) = p(x − 1).
Page (PS/TeX): 123 / 539, COMPOSITE
540 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
20 T : L1 [a, ∞) → R, T ( f ) =
de la página 372.
∞
a
f (x)dx, donde L1 [a, ∞) es el espacio vectorial del ejercicio resuelto 37
En los ejercicios 21 a 30 determinar si la transformación T : Rn → Rm es lineal encontrando, si es
posible, una representación matricial relativa a las bases canónicas de los espacios Rn y Rm como se
hizo en el ejemplo 5.11.
21 T : R3 → R4 ,
T (x1 , x2 , x3 ) = (−5x1 − x3 , −3x1 − 7x2 , 2x2 + x3 , −3x1 + 3x2 − x3 ).
22 T : R3 → R3 , T (x, y, z) = (x + z, −x + y + z, −2x + y + 3z)
23 T : R3 → R3 , T (x, y, z) = (yx + x, xz − y, x + y + z).
24 T : R3 → R3 , T (x, y, z) = (x, −y, x + y + z).
25 T : R2 → R3 , T (x, y) = (2x − 3y, −x + y).
26 T : R4 → R3 ,
T (x1 , x2 , x3 , x4 ) = (x1 − x2 + 2x3 − x4 , −2x1 − x2 + x4 , x1 − x2 + x3 − 3x4 ).
27 T : R2 → R2 , T (x, y) = (x − y, x2 − y2 ).
28 T : R3 → R, T (x, y, z) = −2x + 3y − z.
29 T : R3 → R2 , T (x, y, z) = (x + 3y − z, 2x − y + 2z).
30 T : R4 → R2 , T (x1 , x2 , x3 , x4 ) = (x1 + x2 − x3 − x4 , x1 + x2 ).
En los ejercicios 31 a 37 utilizar el ejercicio resuelto 1 de esta sección para encontrar una transformación
lineal T : Rn → Rm tal que T (ei ) = fi .
31 T : R3 → R4 , T (1, 0, 1) = (−1, 1, 2, 1), T (−1, 1, 1) = (−2, 3, 2, 4) y T (0, 1, 1) = (−2, 1, 3, 0).
32 T : R2 → R3 , T (1, 2) = (1, −1, 1) y T (−1, 1) = (−2, 3, 1).
33 T : R4 → R3 , T (1, 0, 1, 1) = (1, 1, −1), T (0, −1, 1, 1) = (2, 0, 1), T (−2, 1, 2, 1) = (1, 0, 1) y T (−1, 0, 1, 1) =
(−2, 1, 2).
34 T : R3 → R3 , T (1, 2, 1) = (1, 2, −1) y T (−1, 1, 0) = (2, −2, 1) y T (−1, 1, 3) = (1, 2, −1).
35 T : R2 → R2 , T (1, 1) = (1, 2) y T (−1, 1) = (1, 2).
36 T : P2 → P3 , T (1) = x, T (2x) = x2 , T (3x2 ) = x3 .
Page (PS/TeX): 124 / 540, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 541
1 0
0 1
−1 0
= (−1, 2, 1, 1), T
= (1, 0, 1, −1), T
=
37 T : M2 → R , T
0 1
1 0
1 1
1 0
(2, −1, 1, 0) y T
= (0, 0, 1, 1).
0 0
4
38 Si E, F son dos espacios vectoriales y T : E → E es una transformación, probar que T es lineal si y sólo
si
T (αu + βv) = αT (u) + βT (v)
para todo par de vectores u,v ∈ E y para todo par de escalares α, β.
39 Encontrar la aplicación lineal T : R2 → R2 tal que a todo vector u lo transforma en el vector que se
obtiene al girar φ radianes en sentido contrario a las manecillas del reloj a u y que tiene la misma norma
que este vector.
40 Encontrar la aplicación lineal T : R2 → R2 que a todo vector u lo transforma en la reflexión de éste
respecto al eje x.
41 Encontrar la aplicación lineal T : R2 → R2 que a todo vector u lo transforma en la reflexión de éste
respecto al eje y.
42 Encontrar la aplicación lineal T : R3 → R3 tal que a todo vector u lo transforma en el vector que se
obtiene al girar φ radianes en sentido contrario a las manecillas del reloj a u alrededor del eje z y que
tiene la misma norma que este vector.
En los ejercicios 43 a 50 utilizar los ejercicios resueltos 4 y 5 para encontrar una transformación lineal
T : E → F cuya imagen esté generada por los vectores fi del espacio F.
43 E = R3 , F = R4 , f1 = (−1, 2, 1, 1), f2 = (−1, 0, 1, 1) y f3 = (2, −1, 0, 2).
44 E = R2 , F = R2 , f1 = (−1, 1) y f2 = (3, 1).
45 E = R3 , F = R3 , f1 = (1, 1, 1) y f2 = (2 − 1, 1).
46 E = R2 , F = R4 , f1 = (1, 0, 1, 1), f2 = (0, −1, 1, 1) y f3 = (2, 1, 1, 2).
47 E =gn(1, x, x2 ) < P, F = P, f1 = x2 − 2x, f2 = x3 + 1.
48 E =gn(1, x + 1, x2 − x) < P, F = P, f1 = 1, f2 = x2 + 1, f3 = 3x − 2.
49 E = gn(cos x, sen x) < F(R), F = R2 , f1 = (1, 1), f2 = (−1, 2).
50 E el espacio de matrices simétricas 2 × 2, F = R3 , f1 = (1, 0, 0), f2 = (0, 1, 0) y f3 = (0, 0, 1).
51 Probar que si E es un espacio de dimensión finita n; F es un espacio vectorial cualquiera; e1 , . . . ,em , con
0 < m < n, son vectores L.I. del espacio E y dim(F) > n − m; entonces existe T ∈ L (E, F), no nula, tal
que Ker(T ) = gn(e1 , . . . ,em ).
Page (PS/TeX): 125 / 541, COMPOSITE
542 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
En los ejercicios 52 a 57 encontrar, utilizando el ejercicio precedente, una transformación T ∈ L (E, F)
cuyo núcleo esté generado por los vectores dados del espacio E.
52 E = R4 , F = R3 , e1 = (−1, 2, 1, 0), e2 = (1, 0, 1, 1).
53 E = R4 , F = R3 , e1 = (−1, 1, −1, 0), e2 = (−2, 0, 1, 1).
54 E = R3 , F = R3 , e1 = (−1, 0, 1).
55 E = R3 , F = R4 , e1 = (1, 0, 1), e2 = (−1, 0, 1).
56 E = P3 , F = P, e1 = x − 1, e2 = x.
57 E = M2 , F = R4 , e1 =
1 0
−1 2
, e2 =
1 0
0 1
.
58 Encontrar una transformación lineal T : R3 → R3 cuyo núcleo esté generado por (−1, 2, 1) y cuya ima-
gen esté generada por (−2, 1, 3) y (−1, 0, 1).
59 Encontrar una transformación lineal T : R3 → R4 cuyo núcleo esté generado por (−1, 0, 1), (0, −1, 1) y
cuya imagen esté generada por (1, −1, 0, 2) y (3, −1, 0, 1).
60 Hallar una transformación lineal T : P3 → P cuyo núcleo esté generado por x − 2, x2 y cuya imagen
esté generada por x − 1, x3 .
61 Encontrar una transformación lineal T : P4 → P tal que su núcleo esté generado por x − 1, 2 − x y la
imagen esté generada por x2 − 2, 4 − x2 , x3 + 1.
62 Sea T : Rn → Rm una transformación (no necesariamente lineal); entonces T (u) = (T1 (u), . . . , Tm (u)),
donde Ti : Rn → R, i = 1, . . . , m. A las tranformaciones Ti se les llaman funciones componentes de la
aplicación T . Por ejemplo, si T : R3 → R2 está definida por T (x, y, z) = (x2 − yz, xz + y2 ) para todo
(x, y, z) ∈ R3 , entonces las funciones componentes de T son T1 (x, y, z) = x2 − yz y T2 (x, y, z) = xz + y2 .
(a) Sea T : Rn → R una transformación. Probar que T es lineal si y solo si existen ai ∈ R, i = 1, . . . , n,
tales que
T (x1 , . . . , xn ) = a1 x1 + · · · + an xn .
(b) Sea T : Rn → Rm una transformación con funciones componentes Ti : Rn → R, i = 1, . . . , m. Probar
que T es lineal si y sólo si todas sus funciones componentes son lineales.
(c) Sea T : Rn → Rm una transformación con funciones componentes Ti : Rn → R, i = 1, . . . , m. Probar
que T es lineal si y sólo si todas sus funciones componentes son de la forma
n
T j (x1 , . . . , xn ) = ∑ a ji xi
i=1
para ciertos escalares a ji .
Page (PS/TeX): 126 / 542, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 543
En los ejercicios 63 a 77 utilice el ejercicio 62(c) para determinar por simple inspección si la transformación T : Rn → Rm , definida por la fórmula indicada para todo u ∈ Rn , es lineal o no.
63 T : R3 → R2 , T (x, y, z) = (x − y, x + y + z).
64 T : R3 → R2 , T (x, y, z) = (x + y, x + y2 + z).
65 T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (0, x1 − x2 , 2x1 + x2 + 3x3 − x4 ).
66 T : R4 → R2 , T (x1 , x2 , x3 , x4 ) = (x1 x2 + x3 , x1 + x4 ).
67 T : R2 → R2 , T (x, y) = (x cos θ, y sen θ), donde θ ∈ R es dado.
68 T : R2 → R2 , T (x, y) = (θ cos x, θ sen y), donde θ ∈ R es dado.
69 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 + 1, x2 + 1, x3 + 1, x4 + 1).
70 T : R3 → R3 , T (x, y, z) = (x, 2y, 3z).
71 T : R2 → R2 , T (x, y) = (x, y2 ).
72 T : R2 → R2 , T (x, y) = (x, ey ).
73 T : R2 → R2 , T (x, y) = (x, |y|).
74 T : R3 → R3 , T (x, y, z) = (y, −x, z).
75 T : Rn → R, T (x1 , . . . , xn ) =
1
n
∑ni=1 xi .
76 T : Rn → R, T (x1 , . . . , xn ) =
1
n
∏ni=1 xi = 1n x1 , . . . , xn .
77 T : Rn → Rn , T (x1 , . . . , xn ) = (x1 , x1 + x2 , . . . , x1 + · · · + xn ).
78 Sean E un espacio con producto interior ·, ·, v ∈ E − {0E } un vector dado, S = gn(v) y π : E → S
definida por π(u) = pu donde pu es el vector proyección de cada u ∈ E sobre v.
(a) Probar que π es lineal.
(b) Determinar el núcleo de π.
79 Sean E = Rn , e1 , . . . ,em ∈ E vectores L.I. dados, S = gn(e1 , . . . ,em ) y T : E → S definida por π(u) = pu
donde pu es el vector proyección de cada u ∈ E sobre S.
(a) Probar que π es lineal.
(b) Determinar el núcleo de π.
80 Sean E un espacio con producto interior ·, ·, S = {0E } un subespacio de dimensión finita de E y
π : E → S definida por π(u) = pu donde pu es el vector proyección de cada u ∈ E sobre S.
(a) Probar que π es lineal.
(b) Determinar el núcleo de π.
Page (PS/TeX): 127 / 543, COMPOSITE
544 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
En los ejercicios 81 a 90 T : Rn → Rm es una transformación definida por la fórmula dada para todo
u ∈ Rn . (i) Por simple inspección, utilizando el ejercicio 62(c), verificar que T es lineal; (ii) hallar
una matriz A ∈ Mm×n tal que T = TA (cfr. la discusión dada en la pág. 420); (iii) hallar una base y
dim(T (Rn )); (iv) encontrar una base y la dimensión de Ker(T ); (v) determinar si T es inyectiva y (vi)
determinar si T es suprayectiva.
81 T : R3 → R2 , T (x, y, z) = (−x + 2y − 3z, x + y − z).
82 T : R2 → R2 , T (x, y) = (x + y, −y).
83 T : R3 → R3 , T (x, y, z) = (−x + y + z, −2x + y + 3z, x − 2z).
84 T : R2 → R3 , T (x, y) = (x + y, y, 0).
85 T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (x1 − x2 + 3x3 , −x2 + x1 , −x1 + x2 − 4x3 + x4 ).
86 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 , x2 + x3 , x1 − x4 , x1 + x2 + x3 ).
87 T : R3 → R3 , T (x, y, z) = (x − y + z, 2x − y − 3z, 3x − y − 7z).
88 T : R3 → R4 , T (x, y, z) = (x − y + z, x + 3y − 4z, x − 2y + z, 3x − 4y − z).
89 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 − x2 , x1 + x3 − x4 , −x1 − 2x2 − 3x3 + 3x4 , −x2 − x3 ).
90 T : R3 → R3 , T (x, y, z) = (x − y + z, −2x + y + z, x − y + 2z).
91 Sea T ∈ L (Rn , R), probar que T es suprayectiva o T es la aplicación constante cero.
92 Sea T ∈ L (R, Rn ), probar que T es inyectiva o T es la aplicación constante cero.
93 Mostrar que si T1 y T2 son transformaciones lineales de un espacio vectorial E de dimensión finita en
un espacio F y {u1 , . . . ,un } es una base de E, entonces T1 = T2 si y sólo si T1 (ui ) = T2 (ui ) para todo
i = 1, . . . , n.
94 Sean E, F dos espacios vectoriales con dim(E) finita, S < E y T ∈ L (E, F). Demostrar que
dim(S) = dim(S ∩ Ker(T )) + dim(T (S)).
95 Sean E, F espacios vectoriales y T ∈ L (E, F). Mostrar que si T (u1 ), . . . , T (um ) son L.I. en F, entonces
u1 , . . . ,um son L.I. en E. ¿Es cierto el recı́proco? Si la respuesta es negativa, dar un contraejemplo.
96 Sean E y F un par de espacios vectoriales y T1 , T2 : E → F dos transformaciones lineales tales que
T1 (E) ∩ T2 (E) = {0F }, mostrar que T1 y T2 son L.I. en el espacio vectorial L (E, F) (cfr. el ejercicio
resuelto 31 del capı́tulo 3, pág. 190).
97 Sean P el espacio de polinomios y n ≥ 1 un entero. Para cada k = 1, . . . , n sea Tk el operador lineal en P
definido por Tk (p) = p(k) , donde p(k) es la k-ésima derivada del polinomio p. Demostrar que T1 , . . . , Tn
son L.I.
Page (PS/TeX): 128 / 544, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 545
98 Probar que si T ∈ L (E, F), entonces
dim(T (E)) ≤ dim(F).
99 Sean A ∈ Mm×n y B ∈ Mn×p , probar que
Rang(AB) ≤ Rang(B)
y
Rang(AB) ≤ Rang(A).
100 Sea T : R∞ → R∞ la función definida por T ((an )) = (a2n ) para cada sucesión (an ) ∈ R∞ .
(a) Demostrar que T es un operador lineal en el espacio de sucesiones R∞ .
(b) Probar que T es suprayectivo.
(c) Demostrar que T es singular (no inyectivo).
(d) Sea c00 el subespacio de sucesiones finitas (cfr. el ejercicio propuesto 357 del cap. 3, pág. 228).
Demostrar que T (c00 ) = c00 .
(e) Mostrar que (cfr. el ejercicio resuelto 8 de esta sección)
c00 ⊂ T −1 (c00 )
pero c00 = T −1 (c00 ).
101 Sea T : C[0, 1] → C[0, 1] el operador definido por T ( f ) = g donde g(x) =
x
0
f (t)dt, mostrar que T es
inyectivo pero no suprayectivo.
102 Sean E y F un par de espacios vectoriales con dimensión de E finita, V < F, T ∈ L (E, F) y T −1 (V ) la
imagen inversa del subespacio V (cfr. el ejercicio resuelto 8). Probar que
dim(T −1 (V )) = dim(Ker(T ) + dim(V ∩ T (E)).
En los ejercicios 103 a 107 E = Mn es el espacio de matrices de orden n y T : E → E es el operador
definido como
T (A) =
A + At
2
para toda A ∈ E.
103 Probar que T es un operador lineal en E.
104 Probar que Ker(T ) es el subespacio S2 matrices antisimétricas (cfr. el ejercicio resuelto 28, pág. 187).
105 Demostrar que T (E) es el subespacio de todas las matrices simétricas (cfr. el ejemplo 3.25).
106 En el ejercicio propuesto 353 del capı́tulo 3 (pág. 227), se pide encontrar la dimensión del subespacio
de matrices simétricas. Utilizar ese resultado para calcular la dimensión del subespacio de matrices
antisimétricas.
Page (PS/TeX): 129 / 545, COMPOSITE
546 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
107 Sea L : E → E el operador definido, para cada A ∈ E, por
L(A) =
A − At
.
2
(a) Probar que L es lineal.
(b) Describir Ker(L), encontrar una base para este subespacio y su dimensión.
(c) Determinar L(E), encontrar un base y la dimensión de este subespacio.
108 Sean F (R) el espacio de funciones reales con dominio en R y T : F (R) → F (R) el operador definido,
para cada f ∈ F (R), por T ( f ) = g donde
g(x) =
f (x) + f (−x)
2
para todo x ∈ R.
(a) Probar que T es lineal.
(b) Determinar el núcleo y la imagen de T (cfr. los ejercicios 124 y 125 del capı́tulo 3).
109 Sean F (R) el espacio de funciones reales con dominio en R y T : F (R) → F (R) el operador definido,
para cada f ∈ F (R), por T ( f ) = g donde
g(x) =
f (x) − f (−x)
2
para todo x ∈ R.
(a) Probar que T es lineal.
(b) Determinar el núcleo y la imagen de T (cfr. los ejercicios 124 y 125 del capı́tulo 3).
En los ejercicios 110 a 124 se define una transformación T entre los espacios vectoriales indicados E y
F. (i) Probar que T es lineal; (ii) determinar el núcleo y la imagen de T ; (iii) calcular las dimensiones
de Ker(T ) y T (E) y en caso de ser finitas hallar bases para estos subespacios.
110 E = F = Pn , T : E → F definida por T (p) = q donde, para cada p ∈ E, q(x) = p(x − 1) para todo x.
111 E = F = P3 , T : E → F definida por T ( f ) = g donde, para cada f ∈ E, g(x) = x f (x) para todo x.
112 E = F = P3 , T : E → F definida por T ( f ) = g donde, para cada f ∈ E, g(x) = f (x) para todo x.
113 E = P, F = R, T : E → F definida por T ( f ) = f (0).
114 E = P3 , F = R, T : E → F definida por T ( f ) = f (0).
115 E = M2 , F = R, T : E → F, T (A) = tra(A), la traza de la matriz A (la suma de los elementos de la
diagonal).
116 E = M3 , F = R, T : E → F, T (A) = tra(A), la traza de la matriz A (la suma de los elementos de la
diagonal).
Page (PS/TeX): 130 / 546, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 547
117 E = P2 , F = P3 , T : E → F, T (p) = q, donde q(x) = xp(x) + p (x).
118 E = C1 (R), el espacio de funciones con valores reales derivables con continuidad en R; F = C(R), el
espacio de funciones con valores reales continuas en R; T : E → F definida por T ( f ) = g(x), donde
g(x) = x f (x) + f (x) para todo x ∈ R.
119 E = F = P3 , T : E → F definida por T ( f ) = g donde, para cada f ∈ E, g(x) = x f (x) para todo x.
120 E = F = C[−1, 1], T : E → F definida por T ( f ) = g donde, para cada f ∈ E, g(x) = x f (x) para todo
x ∈ [−1, 1].
121 E = F = C[a, b], T : E → F definida por T ( f ) = g donde, para cada f ∈ E,
g(x) =
a
b
f (t)e x−t dt
para todo x ∈ [a, b]. En este caso se debe primero probar que efectivamente g ∈ C[a, b].
122 E = F = C[a, b], T : E → F definida por T ( f ) = g donde, para cada f ∈ E,
g(x) =
b
a
f (t) sen(x − t)dt
para todo x ∈ [a, b]. En este caso se debe primero probar que efectivamente g ∈ C[a, b].
123 E = C2 [a, b], F = C[a, b], T : E → F definida por T ( f ) = f + 2 f − 3 f para cada f ∈ C 2 [a, b].
124 E = F el espacio de sucesiones convergentes (cfr. el ejercicio 112 de la pág. 213), T : E → F definida,
para cada (an ) ∈ E, por T ((an )) = (yn ) donde yn = a − an para todo n y a = lı́mn→∞ an .
En los ejercicios 125 a 129 E = C[−π, π], S es el subconjunto de E de funciones f tales que
π
−π
f (x)dx = 0,
π
−π
f (x) cos xdx = 0 y
π
−π
f (x) sen xdx = 0.
125 Probar que S es un subespacio de E.
126 Probar que las funciones fn (x) = cos(nx) y gn (x) = sen(nx) pertenecen a S para todo n = 2, 3, . . .
127 Probar que S tiene dimensión infinita.
128 Sea T : E → E el operador definido, para cada f ∈ E, por T ( f ) = g(x) donde
g(x) =
π
−π
(1 + cos(x − t)) f (t)dt
para todo x ∈ [−π, π], probar que T es lineal.
129 Sea T el operador lineal definido en el ejercicio anterior.
(a) Probar que T (E) tiene dimensión finita, hallar una base para este subespacio y el rango de T (la
dimensión de T (E)).
Page (PS/TeX): 131 / 547, COMPOSITE
548 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
(b) Encontrar el núcleo de T .
(c) Hallar todas las funciones f ∈ C[−π, π] tales que T ( f ) = λ f para alguna constante λ ∈ R (las
funciones propias de T ).
130 Sean E un espacio vectorial, T un operador lineal en él que es inyectivo y E = T (E). Probar que T es
una transformación lineal biyectiva del espacio E al espacio E y que por tanto es invertible.
En los ejercicios 131 a 137 se define un operador T : Rn → Rn en el espacio Rn indicado. (i) Probar que
T es un operador lineal; (ii) mostrar que T es biyectivo; (iii) encontrar T −1 (u) para todo u ∈ Rn .
131 R2 , T (x, y) = (x + 2y, x + y).
132 R2 , T (x, y) = (x − 2y, −x + 3y).
133 R2 , T (x, y) = (x − y, 2x − 3y)
134 R3 , T (x, y, z) = (x − y + z, x − 2y − z, −x + 3y − 2z).
135 R3 , T (x, y, z) = (x + y, x − y − z, −x + y − z).
136 R3 , T (x, y, z) = (x + y + 3z, x − y, x + z, ).
137 R3 , T (x, y, z) = (x + y, 3x + y + z, 2x − y + z).
En los ejercicios 138 a 148, E es un espacio vectorial y T , T1 , T2 : E → E son operadores lineales. Se
acostumbra escribir T T1 en lugar de la notación empleada para la composición T ◦T1 de estos operadores
(cfr. el ejercicio resuelto 12 de esta sección). Se definen T 0 = I, donde I(u) = u para todo u ∈ E es el
1
n
operador lineal identidad; T n = T
◦ · · · ◦ T o, de manera más rigurosa: T = T y por inducción T =
n
T ◦ T n−1 para n = 1, 2, . . . y, si T es además invertible, se define T −n = (T −1 )n para todo n = 0, 1, 2, . . .
Del ejercicio propuesto 12 de esta sección T T1 , T n son operadores lineales también.
138 Probar que T (αT1 ) = α(T T1 ) para todo α ∈ R.
139 Mostrar que (αT )(βT1 ) = αβ(T T1 ) para todo par de números reales α, β ∈ R.
140 Demostrar que T n T m = T n+m para todo par de números enteros no negativos n, m; y que esta misma
igualdad es válida para todo par de números enteros n, m si además el operador T es invertible.
141 Mostrar que (T n )m = T nm para todo par de números enteros no negativos n, m y que esta misma igualdad
es válida para todo par de números enteros n, m si además el operador T es invertible.
142 Demostrar que
T (T1 + T2 ) = T T1 + T T2
y
(T1 + T2 )T = T1 T + T2 T.
Page (PS/TeX): 132 / 548, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 549
143 Probar que T I = IT = T .
144 Dar un ejemplo de un espacio E y un par de operadores lineales T1 y T2 tales que T1 T2 = T2 T1 .
145 Si T1 y T2 conmutan; es decir, T1 T2 = T2 T1 , mostrar que (T1 T2 )n = T1n T2n para cualquier entero n ≥ 0.
146 Si T1 y T2 son invertibles, demostrar que T1 T2 es también invertible y (T1 T2 )−1 = T2−1 T1−1 ; i.e., (T1 ◦
T2 )−1 = T2−1 ◦ T1−1 .
147 Si T1 y T2 conmutan y son invertibles, probar que sus respectivos operadores inversos también conmutan.
148 Demostrar que si T1 y T2 conmutan entonces:
(a) (T1 + T2 )2 = T12 + 2T1 T2 + T22 .
(b) (T1 + T2 )3 = T13 + 3T12 T2 + 3T1 T22 + T23 .
(c) Indicar cómo deben modificarse las fórmulas de los dos incisos anteriores en el caso de que T1 T2 =
T2 T1 .
149 Sean T1 , T2 : R3 → R3 los operadores lineales definidos por T1 (x, y, z) = (x, z, y) y T2 (x, y, z) = (x, x +
y, x + y + z) para cada (x, y, z) ∈ R3 .
(a) Encontrar la imagen del punto (x, y, z) al aplicarle cada uno de los operadores lineales
(i) T1 T2 ; (ii) T2 T1 ; (iii) T12 ; (iv) T22 ; (v) (T1 T2 − T2 T1 )2 .
(b) Demostrar que T1 y T2 son invertibles y encontrar
(i) T1−1 (x, y, z), (ii) T2−1 (x, y, z); (iii) (T1 T2 )−1 (x, y, z); (iv) (T2 T1 )−1 (x, y, z); para todo (x, y, z) ∈ R3 .
(c) Encontrar (T − I)n (x, y, z) para todo (x, y, z) ∈ R3 y para cada n ≥ 1.
150 Sea E un espacio vectorial. Un proyector en E es un operador lineal T : E → E tal que T 2 = T . Probar
que si E es un espacio con producto interior ·, · y S es un subespacio no trivial de dimensión finita de
E, entonces π : E → E, con π(u) el vector proyección de u sobre S (cfr. el ejercicio propuesto 80 de esta
sección), es un proyector en E.
151 Sean E un espacio vectorial y S1 un subespacio de él. Si T : E → E es una proyección sobre S1 (cfr. el
ejercicio 17 de esta sección), mostrar que T es un proyector en E (cfr. el ejercicio anterior).
152 Si E es un espacio vectorial y T es un operador lineal en él, mostrar que T 2 = θ, el operador lineal
constante cero, si y sólo si T (E) ⊂ Ker(T ).
153 Sean E un espacio vectorial de dimensión finita, T : E → E un operador lineal tal que Rang(T 2 ) =
Rang(T ).
(a) Mostrar que T (E) ∩ Ker(T ) = {0E }.
(b) Probar que E = T (E) ⊕ Ker(T ) (cfr. el ejercicio resuelto 27 del capı́tulo 3).
154 Sean P el espacio de polinomios y D, J : P → P los operadores derivación, D(p) = p , y el operador
x
integración, J(p) = q(x) donde q(x) =
Page (PS/TeX): 133 / 549, COMPOSITE
0
p(t)dt para todo x ∈ R.
550 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
(a) Mostrar que DJ = I, el operador identidad en P; pero JD = I.
(b) Hallar Ker(JD) y (JD)(P).
(c) ¿Son invertibles estos operadores? (Cfr. el ejercicio resuelto 14 de esta sección.)
155 Sean P el espacio de polinomios, D el operador derivación en P y T : P → P el operador definido por
T (p) = q donde q(x) = xp (x) para cada p ∈ P.
(a) Si p(x) = 1 − 2x + 3x2 + x3 calcular la imagen de p bajo los operadores (i) D, (ii) T , (iii) DT ,
(iv) T D, (v) DT − T D, (vi) T 2 D2 − D2 T 2 .
(b) Encontrar los polinomios p para los cuales T (p) = p.
(c) Hallar los polinomios p para los cuales (DT − 2D)(p) = θ, el operador constante cero.
(d) Hallar los polinomios p para los cuales (DT − T D)n (p) = Dn (p), n ≥ 2 un entero.
156 Sean P el espacio de polinomios; D(p) = p el operador derivación; T (p) = q, donde q(x) = xp(x) para
cada p ∈ P; e I el operador identidad en P, I(p) = p.
(a) Probar que T es un operador lineal en E.
(b) Demostrar que DT − T D = I.
(c) Mostrar que DT n − T n D = nT n−1 para cada entero n ≥ 1.
157 Sean E un espacio vectorial; T1 , T2 un par de operadores lineales en E; e I el operador identidad en E,
I(u) = u para todo u ∈ E. Si T1 T2 − T2 T1 = I, probar que
T1 T2n − T2n T1 = nT2n−1
para todo entero n ≥ 1.
158 Sean E un espacio vectorial, T un operador lineal en él, T 2 = T ◦ T el operador composición de T
consigo mismo (cfr. el ejercicio resuelto 12 de esta sección) e I el operador lineal identidad (I(u) = u
∀u ∈ E). Si T 2 = θ, el operador constante cero, probar que I − T es un operador lineal no singular
(invertible). (Sugerencia: Utilice el ejercicio resuelto 14 de esta sección y el ejercicio precedente.)
159 Sea T un operador lineal en un espacio vectorial E tal que T 2 + 2T + I = θ, el operador constante cero;
mostrar que T es invertible.
160 Sean E un espacio vectorial, T un operador lineal en él, T 3 = T ◦ T ◦ T el operador composición de T
consigo mismo tres veces (cfr. el ejercicio resuelto 12 de esta sección) e I el operador lineal identidad
(I(u) = u ∀u ∈ E). Si T 3 = θ, el operador constante cero, probar que I − T es un operador lineal no
singular (invertible).
161 Probar que si E es un espacio vectorial, T : E → E es un operador lineal, u ∈ E es un vector tal que
T 2 (u) = 0E y T (u) = 0E , entonces u y T (u) son L.I.
162 Sean E un espacio vectorial no nulo, T un operador en él tal que T 2 = T , T = θ, el operador constante
cero, y T = I, el operador identidad. Mostrar que:
Page (PS/TeX): 134 / 550, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 551
(a) Existe u ∈ E − {0E } tal que T (u) = u.
(b) Existe v ∈ E − {0E } tal que T (u) = 0E .
163 Sean E y T como en el ejercicio precedente y
S1 = {u ∈ E | T (u) = u},
S2 = {u ∈ E | T (u) = 0E }.
Mostrar que:
(a) S1 < E y S2 < E.
(b) S1 = {0E } y S2 = {0E }.
(c) E = S1 ⊕ S2 , la suma directa de S1 con S2 (cfr. el ejercicio resuelto 27 del capı́tulo 3).
164 Sea T un operador lineal en un espacio vectorial E tal que T 2 = I. Suponer que existe u ∈ E − {0E } tal
que T (u) = αu para algún α ∈ R. Encontrar los posibles valores de α.
165 Sean E un espacio vectorial no nulo y T un operador lineal en él tal que T 2 − 2T + I = θ, el operador
lineal constante cero. Mostrar que existe u ∈ E, con u = 0E tal que T (u) = u.
166 Sean E un espacio vectorial y T un operador lineal en él tal que T 2 − 2T + I = θ, el operador lineal
constante cero. Probar que T es invertible y hallar T −1 .
167 Sean E un espacio vectorial, T un operador lineal en él y αi ∈ R, i = 1, . . . , n, escalares con αn = 0.
Probar que si T satisface
T n + α1 T n−1 + · · · + αn−1 T + αn I = 0
entonces T es invertible. Encontrar T −1 .
168 Sean E un espacio vectorial y T un operador lineal en él. T es nilpotente (o nihilpotente) si existe un
entero no negativo n tal que T n = θ, el operador constante cero. Al menor entero no negativo ν tal
que T ν = θ se le llama el ı́ndice de nilpotencia (o nihilpotencia) de T . Probar que si u ∈ E es tal que
T ν−1 (u) = 0E , entonces los vectores u, T (u), T 2 (u), . . . , T ν−1 (u) son L.I.
169 Sean E un espacio vectorial, T un operador nilpotente definido en E y ν el ı́ndice de nilpotencia de él
(cfr. el ejercicio precedente).
(a) Probar que T m = θ para todo m ≥ ν.
(b) Si dim(E) = n < ∞, demostrar que T n = θ.
170 Sea el operador lineal T : R4 → R4 definido por T (x) = Ax donde
⎤
5
1 −6 −3
⎢ −2
1
5
3 ⎥
⎥.
A=⎢
⎣
9
1 −13 −7 ⎦
−12 −3
14
7
⎡
Demostrar que T es nilpotente encontrando su ı́ndice de nilpotencia (cfr. el ejercicio propuesto 168 de
esta sección).
Page (PS/TeX): 135 / 551, COMPOSITE
552 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
Representación matricial (respuestas en páginas 1086-1090)
En los ejercicios 171 a 186 probar que B = {e1 , . . . ,en } es una base del espacio E y hallar [u]B ∈ Rn ,
el vector de coordenadas para el vector dado u relativo a la base ordenada (e1 , . . . ,en ).
171 B = {(1, 2), (1, 1)}, E = R2 , u = (−1, 1).
172 B = {(1, 3), (1, 2)}, E = R2 , u = (2, 3).
173 B = {(−2, 2), (−1, 0)}, E = R2 , u = (3, 1).
174 B = {(3, −2), (−1, 4)}, E = R2 , u = (5, −1).
175 B = {(1, 0, 1), (−1, 1, 0), (1, −1, 1)}, E = R3 , u = (−1, 3, 1).
176 B = {(1, 2, 1), (−1, 1, 1), (−1, 1, 2)}, E = R3 , u = (1, 0, 1).
177 B = {(1, −1, 3), (−1, 2, −3), (2, −2, 5)}, E = R3 , u = (3, −3, 1).
178 B = {(1, −2, −2), (−2, 3, 1), (−1, 2, 1)}, E = R3 , u = (2, 1, −2).
179 B = {(1, −2, 3, 4), (−2, 5, −6, −8), (1, −2, 4, 4), (3, −5, 9, 11)}, E = R4 , u = (2, −3, 0, 1).
180 B = {(1, 2, −1, 0), (−1, −2, 9, −1), (2, 1, 1, 1), (−3, −1, 1, −2)}, E = R4 , u = (−1, 0, 1, 1).
181 B = {x − 1, x − 2, x2 + 1}, E = P2 , u = x2 − 2x + 3.
182 B = {1, x − 1, x2 − 2, x3 + 3}, E = P3 , u = 2x3 − x2 + 3x.
183 B = {x − 1, x − 2, x2 − 1}, E = P2 , u = x2 + 2x.
184 B = {2 − x, x2 − 1, x2 − 2, x3 − 1, x4 }, E = P4 , u = x + x4 .
0 1
1 −1
−1 −2
2 3
185 B =
,
,
, E el espacio de matrices simétricas 2 × 2, u =
.
1 2
−1 1
−2 3
3 0
1 1
0
1
−1
0
0
1
1 1
186 B =
,
,
,
, E = M2 , u =
.
1 2
1 −1
0 −1
0 −1
−1 3
En los ejercicios 187 a 196 encontrar la matriz cambio de base de la base canónica B1 a la base dada
B2 del espacio indicado E.
187 Del espacio E y la base B2 = B del ejercicio propuesto 171.
188 Del espacio E y la base B2 = B del ejercicio propuesto 172.
189 Del espacio E y la base B2 = B del ejercicio propuesto 177.
Page (PS/TeX): 136 / 552, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 553
190 Del espacio E y la base B2 = B del ejercicio propuesto 178.
191 Del espacio E y la base B2 = B del ejercicio propuesto 179.
192 Del espacio E y la base B2 = B del ejercicio propuesto 180.
193 Del espacio E y la base B2 = B del ejercicio propuesto 181.
194 Del espacio E y la base B2 = B del ejercicio propuesto 182.
195 Del espacio E y la base B2 = B del ejercicio propuesto 184.
196 Del espacio E y la base B2 = B del ejercicio propuesto 185.
En los ejercicios 197 a 208 encontrar la matriz cambio de base (i) de la base B2 a la base B1 y (ii) de la
base B1 a la base B2 , en el espacio indicado E.
197 B1 = ((1, 1), (1, 0)), B2 = ((−2, 1), (−3, 2)), E = R2 .
198 B1 = ((2, 1), (1, 1)), B2 = ((4, 1), (3, 1)), E = R2 .
199 B1 = ((1, −4), (0, 1)), B2 = ((5, 2), (9, 1)), E = R2 .
200 B1 = ((−3, 5), (1, −2)), B2 = ((2, 1), (1, 0)), E = R2 .
201 B1 = ((2, 1, 4), (3, 2, 5), (0, −1, 1)), B2 = ((1, 2, −1), (0, −1, 1), (0, 0, −1)), E = R3 .
202 B1 = ((1, 0, 0), (−1, 1, 1), (1, 1, 2)), B2 = ((1, −2, −2), (−2, 3, 1), (−1, 2, 1)), E = R3 .
203 B1 = ((1, −1, 3), (−1, 2, −3), (2, −2, 5)),
B2 = ((1, −3, 2), (−1, −2, 1), (1, 0, 0)), E = R3 .
204 B1 = ((1, −2, 3, 4), (−2, 5, −6, −8), (1, −2, 4, 4), (3, −5, 9, 11)), B2 la base canónica de E = R4 .
205 B1 = (−x + x2 , 1 − 2x + 2x2 , −2x + x2 ), B2 = (−3 − 3x − x2 , 5 + 2x + 2x2 , x), E = P2 .
206 B1 = (1 − 2x − 2x2 , −2 + 3x + x2 , −1 + 2x + x2 ), B2 = (−2 + 3x − x2 , 5 − x + x2 , 3 − 2x + x2 ), E = P2 .
207 B1 = (1 − x + 3x2 , −1 + 2x − 3x2 , 2 − 2x + 5x2 ), B2 = (1 − x + 3x2 , −1 + 2x − 3x2 , 2 − 2x + 5x2 ), E = P2 .
208 B1 = (−1+3x −2x2 +2x3 , 2−5x +4x2 −4x3 , −1+3x −3x2 −2x3 , 1−3x +2x2 −x3 ), B2 = (1, x, x2 , x3 ),
E = P3 .
209 Sean B1 = (e1 , . . . ,en ) y B2 = (f1 , . . . , fn ) bases ordenadas de Rn , A la matriz que tiene por columnas
a los vectores ei y B la matriz que tiene por columnas a los vectores fi . Mostrar que si P es la matriz
cambio de base de la base B2 a la base B1 , entonces
P = A−1 B.
Page (PS/TeX): 137 / 553, COMPOSITE
554 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
En los ejercicios 210 a 218 se define un operador T : Rn → Rn . (i) Comprobar por simple inspección (cfr.
el ejercicio propuesto 62(c) de este apartado) que el operador es lineal; (ii) encontrar la representación
matricial [T ]B relativa a la base ordenada B; (iii) calcular [T (u)]B para el vector u.
210 T (x, y) = (x − y, x + 3y), B = ((−1, 1), (2, 1)) en R2 , u = (1, 2).
211 T (x, y) = (2x − y, x − y), B = ((1, −1), (2, −1)), en R2 , u = (−1, 3).
212 T (x, y) = (2x + y, 3x − 2y), B = ((3, 2), (1, 1)), en R2 , u = (2, −3).
213 T (x, y) = (x, x + y), B = ((−2, 1), (1, −1)), en R2 , u = (1, 0).
214 T (x, y, z) = (x − y + z, x + 3y, z), B = ((2, 1, 4), (3, 2, 5), (0, −1, 1)) en R3 , u = (−1, 2, 2).
215 T (x, y, z) = (x − 3y + 2z, −x − y + z, x + y), B = ((1, 0, 0), (−1, 1, 1), (1, 1, 2)) en R3 , u = (−1, 0, 1).
216 T (x, y, z) = (x, y + z, x − y − z), B = ((1, −1, 3), (−1, 2, −3), (2, −2, 5)) en R3 , u = (2, 1, 0).
217 T (x, y, z) = (z − y, x + 3z, z), B = ((0, −2, 3), (1, −3, 5), (0, 3, 4)) en R3 , u = (1, 1, 1).
218 T (x1 , x2 , x3 , x4 ) = (x1 , x1 − x3 , x2 − x4 , x4 ),
B = ((1, −2, 3, 4), (−2, 5, −6, −8), (1, −2, 4, 4), (3, −5, 9, 11)) en R4 , u = (−1, 0, 1, 1).
219 Hallar una transformación lineal T : R2 → R2 tal que T (ı̂) =
− ı̂ y T ( ) = 2ı̂ +
y para esta transfor-
mación:
(a) Calcular T (2ı̂ − 3 ) y T 2 (2ı̂ − 3 ).
(b) Encontrar T (xı̂ + y ) para todo xı̂ + y ∈ R2 .
(c) Encontrar Ker(T ), T (E), bases y dimensiones de sendos subespacios.
(d) Hallar [T ]B la representación matricial de T relativa a la base canónica B = {ı̂, }.
(e) Hallar [T ]B la representación matricial de T relativa a la base B = {ı̂ − , 3 + ı̂}.
(f) Hallar [T 2 ]B la representación matricial de T relativa a la base canónica B = {ı̂, }.
(g) Hallar [T 2 ]B la representación matricial de T 2 relativa a la base B = {ı̂ − , 3 + ı̂}.
220 Sea P3 el espacio de polinomios de grado a lo más 3.
(a) Encontrar un operador lineal T : P3 → P3 tal que T (1) = x − 1, T (x) = x2 + 2, T (x2 ) = x − 3 y
T (x3 ) = 5.
(b) Calcular T (1 − 2x + x2 − 3x3 ).
(c) Encontrar T (a0 + a1 x + a2 x2 + a3 x3 ) para todo a0 + a1 x + a2 x2 + a3 x3 ∈ P3 .
(d) Encontrar Ker(T ) y T (P3 ), bases y dimensiones de sendos subespacios.
(e) Hallar [T ]B la representación matricial de T relativa a la base canónica B = {1, x, x2 , x3 }.
(f) Hallar [T ]B la representación matricial de T 2 relativa a la base canónica B = {1, x, x2 , x3 }.
(g) Hallar [T ]B la representación matricial de T relativa a la base B = {x − 1, 2 − x, x2 − 2, x3 + 1}.
(h) Hallar [T ]B la representación matricial de T 2 relativa a la base B = {x − 1, 2 − x, x2 − 2, x3 + 1}.
Page (PS/TeX): 138 / 554, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 555
En los ejercicios 221 a 231 se define un operador T : E → E en el espacio E indicado. (i) Demostrar que
T es lineal; (ii) encontrar la representación matricial [T ]B relativa a la base ordenada B.
−1 1
0 −1
1 0
1 −1
t
221 T : M2 → M2 , T (A) = A , B =
,
,
,
0 1
1
1
−1 1
1
0
222 T : P2 → P2 , T (p) = p (el operador derivación), B = {x − 1, x − 2, x2 }.
223 T : P3 → P3 , T (p) =
224 T : P3 → P3 , T (p) =
x
0
x
0
p (t)dt, B = {1, x, x2 , x3 }.
p (t)dt, B = {1, x + 1, x2 − 1, x3 }.
225 T : P3 → P3 , T (p) = q, donde q(x) = p(x + 1) B = (1, x, x2 , x3 ).
226 T : P2 → P2 , T (p) = q, donde q(x) = p(x + 1) B = (x − 1, x − 2, x2 ).
227 T : Pn → Pn , T (a0 + a1 x + · · · + an x n ) = ∑ni=0 ai + (∑ni=1 ai )x + (∑ni=2 ai )x2 + · · · + an x n ,
B = (1, x, x2 , . . . , x n ).
228 T : P3 → P3 , T (p) = q donde q(x) = xp (x), B = (1, x, x2 , x3 ).
229 T : P3 → P3 , T (p) = q donde q(x) = xp (x), B = (1 − x, x + 1, x2 − 1, x3 ).
230 T : E → E, T ( f ) = f , donde E = gn(e x , e2x , e3x ), B = (e x + e2x , e2x + e3x , e x + e3x ).
231 T : P3 → P3 el operador lineal definido por T (1) = 1 + x, T (x) = (1 + x)2 , T (x2 ) = (1 + x)3 , T (x3 ) = x.
232 Sean E un espacio vectorial de dimensión n > 1, T un operador lineal nilpotente con ı́ndice de nilpo-
tencia igual a n y u ∈ E − {0̃E } tal que T n−1 (u) = 0E . Por el ejercicio propuesto 172(b) de este capı́tulo,
B = {u, T (u), . . . , T n−1 (u)} es una base de E. Encontrar la representación matricial [T ]B de este operador relativa a la base B.
En los ejercicios 233 a 237 E es un subespacio de F (R), el espacio de funciones, B es una base
ordenada de E y D : E → E es el operador derivación, D( f ) = f . Hallar [T ]B , la representación matricial
de T relativa a la base B.
233 B = (cos x, sen x).
234 B = (1, x, x2 ).
235 B = (e x , xe x ).
236 B = (e3x cos x, e3x sen x).
237 B = (cos x, sen x, x cos x, x sen x).
238 Sean E un espacio vectoriales de dimensión finita y T1 , T2 ∈ L (E, E). Probar que si B es una base de
E y [T1 ]B , [T2 ]B son las representaciones matriciales de T1 , T2 , respectivamente, relativas a esta base,
entonces
[T1 + T2 ]B = [T1 ]B + [T2 ]B
[αT1 ]B = α[T1 ]B .
Page (PS/TeX): 139 / 555, COMPOSITE
y
556 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
En los ejercicios 239 a 245 D es el operador derivación en P3 y T : P3 → P3 es el operador lineal
T (p) = q, donde q(x) = xp (x) y B = (1, x, x2 , x2 ) es la base ordenada canónica de P3 . Hallar.
239 [T ]B
240 [T ]B
241 [DT ]B
242 [T D]B
243 [T D − DT ]B
244 [T 2 ]B
245 [T 2 D2 − D2 T 2 ]B
En los ejercicios 246 a 255 encontrar la representación matricial del operador lineal T : Rn → Rn relativa
a la base B2 procediendo de la manera siguiente:
(i) Hallar la matriz cambio de base, P, de la base B1 a la base canónica B de Rn .
(ii) Utilizar la fórmula del teorema 5.15; esto es, [T ]B1 = P−1 [T ]B P.
246 T : R2 → R2 , T (x, y) = (2x − y, x + y), B1 = ((1, −1), (2, −1)).
247 T : R2 → R2 , T (x, y) = (x + 3y, x − y), B1 = ((2, 3), (1, 2)).
248 T : R2 → R2 , T (x, y) = (y, x), B1 = ((1, 1), (2, 1)).
249 T : R3 → R3 , T (x, y, z) = (x − y + z, x + y + 3z, −x − 2y), B1 = ((1, 0, 0), (−1, 1, 1), (1, 1, 2)).
250 T : R3 → R3 , T (x, y, z) = (x −2y+z, 3x −2y+4z, −x +2y+z), B1 = ((1, 2, −1), (−1, −1, 1), (1, 4, −2)).
251 T : R3 → R3 , T (x, y, z) = (3x − 2y + z, x + y, x − y), B1 = ((1, 0, 0), (2, 2, −1), (1, −1, 1)).
252 T : R3 → R3 , T (x, y, z) = (x − y + 2z, x + y + x, x − 2y − 3z), B1 = ((1, 2, −1), (1, 1, −1), (1, 2, −2)).
253 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 − x4 , x1 + x3 , x3 − x4 , x4 ),
B1 = ((1, 2, 1, 3), (−1, −1, −1, −3), (1, 2, 2, 3), (1, 2, 1, 2)).
254 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 − x3 + x4 , 2x1 − x2 , x3 , x4 ),
B1 = ((1, 4, −2, −1), (1, 3, −2, −1), (−1, −4, 3, 1), (1, 4, −2, −2)).
255 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 , x1 + x2 , x1 + x2 + x3 , x1 + x2 + x3 + x4 ),
B1 = ((1, 2, −1, −1), (−1, −1, 1, 1), (1, 2, 0, −1), (−1, −2, 1, 2)).
Page (PS/TeX): 140 / 556, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 557
256 Sean T : P3 → P3 el operador lineal T (p) = q donde q(x) = xp (x) y la base ordenada B1 = (2 − x, x +
1, x2 − 1, x3 − 3)).
(a) Hallar la matriz cambio de base de la base B1 a la base canónica B = {1, x, x2 , x3 }.
(b) Encontrar la representación matricial [T ]B1 del operador T relativa a la base B1 .
257 Sean T : P3 → P3 el operador lineal T (p) = p y la base ordenada B1 = (2 − x, x + 1, x2 − 1, x3 − 3)).
(a) Hallar la matriz cambio de base de la base B1 a la base canónica B = {1, x, x2 , x3 }.
(b) Encontrar la representación matricial [T ]B1 del operador T relativa a la base B1 .
258 Sean T : M2 → M2 el operador lineal T (A) = At y la base ordenada
B1 =
1 1
0 0
1 2
0 0
0 1
,
,
,
.
0 0
1 1
1 0
(a) Hallar la matriz cambio de base de la base B1 a la base canónica B de M2 .
(b) Encontrar la representación matricial [T ]B1 del operador T relativa a la base B1 .
En los ejercicios 259 a 272 se define un operador T : E → E. (i) Mostrar que T es lineal; (ii) calcular
det(T ), el determinante del operador; (iii) determinar si T es invertible y de ser ası́ encontrar T −1 (u)
para todo u ∈ E.
259 T : R2 → R2 , T (x, y) = (x − 2y, x + y).
260 T : R2 → R2 , T (x, y) = (x + 2y, 2x + 3y).
261 T : R3 → R3 , T (x, y) = (x + y + z, −2x + y + 3z, 3y + 5z).
262 T : R3 → R3 , T (x, y, z) = (x − y + z, 3x − 2y + 5z, 2x − 2y + z).
263 T : R3 → R3 , T (x, y, z) = (x − 2y + 3z, −x + 4y, x + y + 8z).
264 T : R4 → R4 , T (x1 , x2 , x3 , x4 ) = (x1 − x2 + x3 + x4 , −x1 + 2x2 + 3x3 − 4x4 , 2x3 + x4 , 5x3 + 3x4 ).
265 T : R4 → R4 ,
T (x1 , x2 , x3 , x4 ) = (2x1 − x2 + 3x3 + x4 , −x1 + 2x2 + x3 + x4 , −x1 + 5x2 + 6x3 + 4x4 , −x1 + x2 − x3 + 2x4 ).
266 T : M2 → M2 , T (A) = At .
267 T : M2 → M2 , T (A) = 12 (A + At ).
268 T : M2 → M2 , T (A) = 12 (A − At ).
269 T : P3 → P3 , T (p) = p .
Page (PS/TeX): 141 / 557, COMPOSITE
558 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
270 T : P3 → P3 , T (p) = q donde q(x) = xp (x).
271 T : P3 → P3 , T (p) = q donde q(x) = p(x + 1).
272 T : P3 → P3 , T (p) = q donde, si p(x) = a0 + a1 x + a2 x2 + a3 x3 , p(x) = a0 + 12 a1 x + 13 a2 x2 + 14 a3 x3 .
273 Sea Mn el espacio vectorial de las matrices de orden n. Se recuerda que la traza de una matriz cuadrada
A = [ai j ] se define por tra(A) = ∑ni=1 aii .
(a) Demostrar que si A, B ∈ Mn , entonces tra(AB) = tra(BA).
(b) Probar que tra(A) = tra(At ) para toda matriz A ∈ Mn .
274 Sean E un espacio vectorial de dimensión finita y T un operador lineal en él, B1 y B2 un par de bases
en él. Sean A y B las representaciones matriciales de T relativas a sendas bases, demostrar que
tra(A) = tra(B).
Es decir, cualquier representación matricial de T tiene la misma traza independientemente de la base que se elija en E. Se define entonces la traza del operador T , tra(T ), como la traza de cualquier
representación matricial de este operador. Luego tra(T ) es un invariante de T .
275 Sean E un espacio vectorial y T1 , T2 un par de operadores lineales, mostrar que tra(T2 T1 − T1 T2 ) = 0.
276 Sean E y F espacios vectoriales de dimensiones finitas y T1 , T2 ∈ L (E, F). Probar que si B1 y B2 son
B
B
bases de sendos espacios y [T1 ]B21 , [T2 ]B21 son las representaciones matriciales de T1 , T2 , respectivamente, relativas a estas bases, entonces
B
B
B
[T1 + T2 ]B21 = [T1 ]B21 + [T2 ]B21
B
[αT1 ]B21
=
B
α[T1 ]B21
y
.
277 Sean E, F y G espacios vectoriales; T1 : E → F y T2 : F → G un par de funciones. Se define la operación
composición de T2 con T1 como la función T2 ◦ T1 : E → G dada por (cfr. el ejercicio resuelto 12 de esta
sección)
(T2 ◦ T1 )(u) = T2 (T1 (u))
∀u ∈ E.
Nuevamente se acostumbra denotar T2 ◦ T1 por T2 T1 .
(a) Probar que si T1 y T2 son lineales, entonces T2 ◦ T1 (= T2 T1 ) es también lineal.
(b) Sean T1 , T2 : E → F dos funciones y T3 : F → G una transformación lineal, mostrar que:
i(i) T3 ◦ (T1 + T2 ) = (T3 ◦ T1 ) + (T3 ◦ T2 ).
(ii) T3 ◦ (αT1 ) = α(T3 ◦ T1 ), para todo α ∈ R.
(c) Sean T1 , T2 : F → G y T3 : E → F funciones, probar que
(T1 + T2 ) ◦ T3 = (T1 ◦ T3 ) + (T2 ◦ T3 ).
Page (PS/TeX): 142 / 558, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 559
SECCIÓN 5.4
278 Sean E, F y G espacios vectoriales; T1 : E → F y T2 : F → G transformaciones lineales. Demostrar:
(a) Si T2 T1 (= T2 ◦ T1 ) es inyectiva, entonces T1 es inyectiva.
(b) Si T2 T1 es suprayectiva, entonces T2 es suprayectiva.
(c) Si T1 y T2 son biyectivas, entonces T2 T1 es biyectiva.
279 Sean E, F y G espacios vectoriales de dimensiones finitas con sendas bases B1 , B2 y B3 . Si T1 : E → F
y T2 : F → G son transformaciones lineales, demostrar que la representación matricial de T2 T1 = T2 ◦ T1
está dada por
B
B
B
[T2 T1 ]B31 = [T2 ]B32 [T1 ]B21 .
En los ejercicios 280 a 295 E, F son espacios vectoriales con sendas bases B1 y B2 y T : E → F es una
transformación definida por la fórmula dada.
(i) Comprobar que la transformación es lineal.
(ii) Verificar que efectivamente B1 y B2 son bases de E y F, respectivamente.
B
(iii) Encontrar la representación matricial de T relativa a las bases B1 y B2 ; es decir, [T ]B21 .
280 T : R3 → R2 , T (x, y, z) = (x − y + z, x + 2y − z),
B1 = ((1, −1, 1), (1, 0, −1), (−1, −1, 1)), B2 = ((1, 3), (1, 2)).
281 T : R3 → R2 , T (x, y, z) = (x + y − z, x + y − 3z),
B1 = ((0, −1, 1), (1, 0, −1), (1, −1, 1)), B2 = ((2, 1), (1, 1)).
282 T : R2 → R3 , T (x, y) = (x − y, x + 2y, x + y), B1 = ((1, 1), ((−1, 1)), B2 = ((1, 0, 0), (−1, 1, 1), (1, 1, 2)).
283 T : R2 → R3 , T (x, y) = (x, x + y, x − y), B1 = ((2, 1), ((−1, 0)),
B2 = ((1, 2, −1), (−1, −1, 1), (1, 4, −2)).
284 T : R2 → R3 , T (x, y) = (x − 2y, 2x + y, x − 3y), B1 = ((1, −1), (1, 0)),
B2 = ((1, 2, −1), (1, 1, −1), (1, 2, −2)).
285 T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (x1 − x4 , x1 + x3 , x2 + x3 − x4 ),
B1 = ((1, −1, 1, 1), (1, 0, −1, 1), (0, 1, 1, 1), (0, 1, 0, −1)),
B2 = ((1, 5, 2), (−1, −4, −2), (1, 5, 1)).
286 T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (x1 − x2 , x1 − 2x3 , x2 − x3 − x4 ),
B1 = ((1, 0, −1, 1), (0, −1, 1, 1), (−1, 0, 0, 1), (0, 0, 0, 1)),
B2 = ((1, 6, −1), (1, 5, −1), (−1, −6, 2)).
287 T : R2 → R4 , T (x, y) = (x + 2y, x − y, x + y, 3x − y), B1 = ((1, −2), (−1, 1)),
B2 = ((1, 2, 1, 3), (−1, −1, −1, −3), (1, 2, 2, 3), (1, 2, 1, 2)).
288 T : R2 → R4 , T (x, y) = (2x − 3y, x + 4y, x − y, 3x − 2y), B1 = ((1, 1), (1, −1)),
B2 = ((1, 4, −2, −1), (1, 3, −2, −1), (−1, −4, 3, 1), (1, 4, −2, −2)).
Page (PS/TeX): 143 / 559, COMPOSITE
560 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
289 T : R3 → R4 , T (x, y, z) = (x − y + z, x + z, x + y − z, x + y + z), B1 = ((1, 0, 1), (0, 1, 1), (1, 1, 0)),
B2 = ((1, 2, −1, −1), (−1, −1, 1, 1), (1, 2, 0, −1), (−1, −2, 1, 2)).
a b
290 T : M2 → P2 , T
= a + b + +2dx + bx2 ,
c d
1 0
0 1
0 0
0 0
B1 =
,
,
,
, B2 = (1, x, x2 ).
0 0
0 0
1 0
0 1
a b
291 T : M2 → P2 , T
= a + b + c + 2dx + bx2 ,
c d
1 1
1 2
0 0
0 1
B1 =
,
,
,
, B2 = (1 − x, x − 2, x2 ).
0 0
0 0
1 1
1 0
3p(1)
,
p (2)
0 0
0 0
,
, B2 = (1, x, x2 ).
1 0
0 1
3p(1)
,
p (2)
0 0
0 1
,
, B2 = (1 − x, x − 2, x2 ).
1 1
1 0
p (0)
292 T : P2 → M2 , T (p) =
0
1 0
0 1
B1 =
,
,
0 0
0 0
p (0)
293 T : P2 → M2 , T (p) =
0
1 1
1 2
B1 =
,
,
0 0
0 0
294 T : M2
→ R, T (A)
= tra(A), B1 =
1 0
0 0
,
0
0
1
0
,
295 T : M2
→ R, T (A)
= tra(A), B1 =
1 1
0 0
,
1
0
2
0
,
0 0
1 0
0 0
,
, B2 = {1}.
0 1
0 0
1 1
0 1
,
, B2 = {1}.
1 0
B
En los ejercicios 296 a 302 encontrar [T (u)]B21 si:
296 T , B1 y B2 son la transformación lineal y las bases del ejercicio propuesto 280 de esta sección y
u = (−1, 1, 2).
297 T , B1 y B2 son la transformación lineal y las bases del ejercicio propuesto 283 de esta sección y
u = (−1, 4).
298 T , B1 y B2 son la transformación lineal y las bases del ejercicio propuesto 286 de esta sección y
u = (−1, 0, 2, 2).
299 T , B1 y B2 son la transformación lineal y las bases del ejercicio propuesto 289 de esta sección y
u = (2, 1, 4).
300 T , B
1 y B2 son
la transformación lineal y las bases del ejercicio propuesto 291 de esta sección y
u =
−1 1
1 2
Page (PS/TeX): 144 / 560, COMPOSITE
.
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 561
301 T , B1 y B2 son la transformación lineal y las bases del ejercicio propuesto 293 de esta sección y
p(x) = 1 − x + x2 .
302 T , B
1 y B2 son
la transformación lineal y las bases del ejercicio propuesto 295 de esta sección y
u =
−1 1
1 3
.
En los ejercicios 303 a 306 encontrar la representación matricial del operador lineal T : Rn → Rm relativa
a las bases B1 , B2 de Rn y Rm , respectivamente, procediendo de la manera siguiente:
(i) Hallar la matriz cambio de base, P, de la base B1 a la base canónica B1 de Rn .
(ii) Hallar la matriz cambio de base, Q, de la base B2 a la base canónica B2 de Rm .
B
B
(ii) Utilizando la fórmula el teorema 5.19; esto es, [T ]B2 = Q−1 [T ]B21 P.
1
303 T : R3 → R2 , T (x, y, z) = (x − y + z, x + y − z),
B1 = ((−1, 0, 1), (1, 0, 0), (0, −1, 1)), B2 = ((2, 1), (1, 1)).
304 T : R2 → R3 , T (x, y) = (x + 2y, −x + 3y, x − y), B1 = ((1, 1), (−1, 1)),
B2 = ((1, 5, 2), (−1, −4, −2), (1, 5, 1)).
305 T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (x1 , x1 − x3 , x2 + x4 ),
B1 = (1, 0, −1, 1), (0, 1, 1, 1), (−1, 1, 1, 0), (0, −1, 0, 0)),
B2 = ((1, 6, 1), (1, 5, −1), (−1, −6, 2)).
306 T : R4 → R2 , T (x1 , x2 , x3 , x4 ) = (x1 − x2 + x3 − x4 , x1 + x2 + x3 + x4 ),
B1 = (1, 0, −1, 1), (0, 1, 1, 1), (−1, 1, 1, 0), (0, −1, 0, 0)),
B2 = ((3, 1), (5, 2)).
307 Sea π un proyector (cfr. el ejercicio propuesto 150 de esta sección) en un espacio vectorial E que tiene
dimensión finita n. Si π tiene rango r; es decir dim(π(E)) = r, mostrar que E posee una base B tal que
[π]B =
Ir
O2
O1
O3
donde Ir es la identidad r × r y las submatrices O1 , O2 y O3 son las matrices cero de tamaños r × (n − r),
(n − r) × r y (n − r) × (n − r), respectivamente.
308 Sean E un espacio vectorial de dimensión finita n, S < E y T un operador lineal en E. Se dice que S es
T -invariante si T (S) ⊂ S. Mostrar que si S tiene dimensión r, entonces E posee una base B tal que
[T ]B =
A B
O C
donde A es una matriz cuadrada de orden r, O es la matriz cero de tamaño (n − r) × r, B ∈ Mr×(n−r) y
C ∈ M(n−r)×(n−r) .
309 Sean E un espacio vectorial de dimensión finita, S1 < E y T : E → E una proyección sobre S1 (cfr. el
ejercicio resuelto 17 de esta sección). Mostrar que E posee una base B tal que [T ]B es diagonal.
Page (PS/TeX): 145 / 561, COMPOSITE
562 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
310 Sea T : R2 → R3 la transformación lineal que satisface T (1, 0) = (0, 1, 1) y T (0, 1) = (0, −1, 1).
(a) Calcular T (x, y) para todo (x, y) ∈ R2 .
(b) Encontrar bases y dimensiones de Ker(T ) y T (R2 ).
(c) Hallar la representación matricial de T para las bases canónicas de R2 y R3 .
(d) Encontrar bases B1 = {e1 ,e2 } y B2 = {f1 , f2 , f3 } de R2 y R3 , respectivamente, tal que [T ]B21 sea
diagonal (cfr. el teorema 5.20, pág. 450).
B
311 Resolver el ejercicio precedente para la transformación T , con T (1, 0) = (−1, 0, 1), T (0, 1) = (1, 1, 1).
312 Sean D, T : P3 → P3 los operadores lineales en D(p) = p , T (p)(x) = xp (x) y T D en P3 . Si F =
{f }
(T D)(E), entonces T D : P3 → F; encontrar bases {ei } y {fi } de E y F, respectivamente, tal que [T D]{eii }
sea diagonal (cfr. el teorema 5.20).
313 Sea f : R2 → R el funcional lineal definido por f (1, 2) = −1 y f (1, 1) = 2. Encontrar f (x, y) para todo
(x, y) ∈ R2 . En particular, hallar f (2, −3).
314 Sea f : R2 → R el funcional lineal definido por f (1, −1) = 3 y f (3, 1) = −4. Encontrar f (x, y) para todo
(x, y) ∈ R2 . En particular, hallar f (−2, 1).
En los ejercicios 315 a 325 φ : E → R es una función definida en el espacio E. Determinar si φ ∈ E∗ ; es
decir, si φ es lineal.
315 E = C[0, 1], φ( f ) = f (0).
316 E = C[a, b], φ( f ) =
b
a
f (x)dx.
317 E = P, φ(p) = p(0).
318 E = P, φ(p) = p (0).
319 E = Mn , φ(A) = tra(A).
320 E = P, φ(p) = p(2).
321 E = P2 , φ(a0 + a1 x + a2 x2 ) = a0 + 2a1 − 3a2 .
322 E = M2 , φ(A) = det(A).
323 Sean u2 , . . . ,un , n − 1 vectores fijos de Rn , E = Rn y φ(u) = det(A) donde A es la matriz con primera fila
u, e i-ésima fila ui , i = 2, . . . , n.
324 E = Rn , φ(x) =x ·a donde a es un vector fijo de Rn .
325 E = R2 , φ(x, y) = x2 − y2 .
Page (PS/TeX): 146 / 562, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 563
En los ejercicios 326 a 333, para cada espacio E, B = {e1 , . . . ,en } es una base del mismo y E∗ el espacio
dual definido en el ejercicio resuelto 30 de esta sección. Utilizar ese ejercicio para construir la base dual
B ∗ para el espacio E∗ (cfr. el ejercicio resuelto 31 de este capı́tulo).
326 E = R2 , B = {(1, 1), (2, 1)}.
327 E = R2 , B = {(2, −3), (−1, 1)}.
328 E = R3 , B = {(1, 2, 3), (−1, −1, −3), (1, 2, 2)}.
329 E = R3 , B = {(1, 4, 3), (0, 1, 2), (1, 4, 2)}.
330 E = P2 , B = {1, x, x2 }.
331 E = P1 , B = {1 − x, 2 + x}.
332 E = P3 , B = {1 − x, 2 + x, x2 − 1, x3 }.
333 E = Rn , B = {ei } la base canónica.
334 Sea E un espacio vectorial con bases B1 = {e1 , . . . ,en } y B2 = {f1 , . . . , fm }; E∗ el espacio dual definido
en el ejercicio resuelto 30 de esta sección. Si B1∗ y B2∗ son las bases duales de B1 y B2 , respectivamente
y P es la matriz cambio de base de la base B1 a la base B2 , mostrar que la matriz cambio de base de la
base B1∗ a la base B2∗ es (P t )−1 .
En los ejercicios 335 a 345:
(i) Probar que el conjunto B ∗ es una base del espacio dual E∗ del espacio dado E.
(ii) Encontrar una base B del espacio E cuya base dual es B ∗ .
335 E = Rn , B ∗ = {π1 , . . . , πn }, donde πi (x1 , . . . , xi , . . . , xn ) = xi es la i-ésima proyección del vector
(x1 , . . . , xi , . . . , xn ).
336 E = R2 , B ∗ = {φ1 , φ2 } donde φ1 (x, y) = x − 2y y φ2 (x, y) = −x + y.
337 E = R2 , B ∗ = {φ1 , φ2 } donde φ1 (x, y) = 3x + 4y y φ2 (x, y) = 2x + 3y.
338 E = R3 , B ∗ = {φ1 , φ2 , φ3 } donde φ1 (x, y, z) = x + 3y − 2z, φ2 (x, y, z) = −x − 2y + 2z, φ3 (x, y, z) = y − z.
339 E = R3 , B ∗ = {φ1 , φ2 , φ3 } donde φ1 (x, y, z) = x + y + 2z, φ2 (x, y, z) = y + z, φ3 (x, y, z) = −x − y − z.
340 E = P1 , B ∗ = {φ1 , φ2 } donde φ1 (p) =
1
0
p(x)dx y φ2 (p) =
2
0
p(x)dx, para todo p ∈ P1 .
341 E = P1 , B ∗ = {φ1 , φ2 } donde φ1 (a + bx) = 4a + 3b y φ2 (a + bx) = 3a + 2b, para todo p = a + bx ∈ P1 .
342 E = P2 , B ∗ = {φ1 , φ2 , φ3 } donde φ1 (p) = p(0), φ2 (p) = p (0) y φ3 (p) = p (0), para todo p(x) =
a0 + a1 x + a 2 x 2 ∈ P 2 .
Page (PS/TeX): 147 / 563, COMPOSITE
564 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
343 E = P2 , B ∗ = {φ1 , φ2 , φ3 } donde φ1 (p) =
2
1
0
p(x)dx, φ2 (p) = p(0) y φ3 (p) = p (1), para todo p(x) =
a0 + a1 x + a2 x ∈ P2 .
344 E = M2 , B ∗ = {φ1 , φ2 , φ
φ1 (A) = a − b, φ2 (A) = 2a − b, φ3 (A) = b + c y φ4 (A) = −a +
3 , φ4 } donde
b + c − d, para toda A =
a
c
b
d
∈ M2 .
345 E = M2 , B ∗ = {φ1 , φ2 , φ3 , φ4 } donde φ1 (A) = a − b + c− d, φ2 (A)
= 2a − b + 2c − 2d, φ3 (A) = a −
a b
c d
b + 2c − d y φ4 (A) = −3a + 3b − 3c + 2d, para toda A =
∈ M2 .
346 Si E es un espacio vectorial de dimensión finita n y f ∈ E∗ y existe u ∈ E tal que f (u) = 0, ¿cuál es el
valor de dim(Ker( f ))?
347 Sean E un espacio vectorial y f , g ∈ E∗ tales que f (u) = 0 ⇒ g(u) = 0; esto es, Ker( f ) ⊂ Ker(g). Probar
que g = k f para algún k ∈ R.
348 Mostrar que si E es un espacio vectorial, f , g ∈ E∗ , h : E →R se define por h(u) = f (u)g(u) y h ∈ E∗ ,
entonces f = θ o g = θ, el funcional constante cero.
En los ejercicios 349 a 356 E es un espacio vectorial con producto interior ·, · y f : E → R es un
funcional. Comprobar que f es lineal y consultar el ejercicio resuelto 37 de este capı́tulo para encontrar
el elemento u f en E tal que f (x) = x,u f para todo x ∈ E.
349 E = R2 , f (x, y) = 2x − 3y, x,y =x ·y.
350 E = R2 , f (x, y) = x − y, x,y =x ·y.
351 E = R3 , f (x, y, z) = x − y + z, x,y =x ·y.
352 E = R3 , f (x, y, z) = 2x + 3y − z, x,y =x ·y.
353 E = M2 , f (A) = a11 − 2a12 + 3a21 + a22 para toda A = [ai j ] ∈ M2 , A, B = tra(B t A).
354 E = M2 , f (A) = 2a11 − a12 + a21 − a22 para toda A = [ai j ] ∈ M2 , A, B = tra(B t A).
355 E = P2 , f (p(x)) =
1
0
p(x)dx para todo p ∈ P2 , p, q =
356 E = P2 , f (p(x)) = p (0) para todo p ∈ P2 , p, q =
1
−1
1
−1
p(x)q(x)dx.
p(x)q(x)dx.
357 Si E es un espacio vectorial de dimensión finita dotado de un producto interior ·, ·, por el ejercicio
resuelto 37 de este capı́tulo, para cada f ∈ E∗ existe un único u f ∈ E tal que f (x) = x,u f para todo
x ∈ E. Probar que la aplicación Φ : E∗ → E definida por Φ( f ) = u f es un isomorfismo.
358 Sea E un espacio vectorial con producto interior ·, ·. Sean u ∈ E y fu : E → R definida por fu (x) = x,u
para todo x ∈ E.
(a) Probar que fu ∈ E∗ .
Page (PS/TeX): 148 / 564, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 565
SECCIÓN 5.4
(b) Si E tiene dimensión finita, demostrar que la función Ψ : E → E∗ definida, para cada u ∈ E, por
Ψ(u) = fu , es un isomorfismo. ¿Qué función es la inversa de Ψ?
359 Sea E un espacio de dimensión finita. Si S ⊂ E es no vacı́o y f ∈ E∗ , se dice que f es ortogonal a S si
f (u) = 0 para todo u ∈ S. Al conjunto de elementos en E que son ortogonales a S se le denota por S⊥ .
(a) Mostrar que S⊥ es un subespacio de E∗ .
(b) Probar que si S es un subespacio de E, entonces
dim(S) + dim(S⊥ ) = dim(E).
En los ejercicios 360 a 364 hallar el operador adjunto T ∗ , definido en el ejercicio propuesto 38 de este
capı́tulo, para el operador lineal T en el espacio E dotado del producto interior ·, ·.
360 T : R2 → R2 , T (x, y) = (x + y, 2x − 5y), x,y =x ·y.
361 T : R3 → R3 , T (x, y, z) = (x + 3y, 2x + z, −4y), x,y =x ·y.
362 T : R4 → R4 , T (x1 , x2 , x3 , x4 )) = (x1 − x2 , 2x3 + x4 , x1 − 2x2 , x1 + 3x4 ), x,y =x ·y.
363 T : P3 → P3 , T (p) = p , p, q =
1
0
p(x)q(x)dx.
364 T : P2 → P2 , T (p) = q, donde q(x) = xp (x), p, q =
1
0
p(x)q(x)dx.
365 Probar que para el operador lineal D : P → P definido por D(p) = p no existe el operador adjunto D∗ si
1
se considera el producto interior en P: p, q =
0
p(x)q(x)dx.
366 Sean E un espacio de dimensión finita con producto interior ·, ·, T : E → E un operador lineal y T ∗ el
operador adjunto correspondiente definido en el ejercicio resuelto 38 de este capı́tulo. Mostrar que si S
es un subespacio T -invariante, entonces S⊥ es T ∗ -invariante (cfr. el ejercicio propuesto 308).
367 (Transpuesta de una transformación lineal). Sean E, F dos espacios vectoriales y T : E → F una
transformación lineal. Se define T t : F∗ → E∗ , para cada φ ∈ F∗ , por
T t (φ) = φ ◦ T ,
la composición de las transformaciones φ y T (cfr. el ejercicio propuesto 277). A T t se le llama la
transpuesta de la transformación T .
(a) Probar que T t ∈ E∗ ; es decir, que T es lineal.
B
(b) Si E y F tienen dimensiones finitas, B1 , B2 son bases de sendos espacios y A = [T ]B21 es la
representación de T relativa a las bases B1 , B2 , demostrar que
B∗
[T t ]B2∗ = At ,
1
donde B1∗ y B2∗ son las bases duales de B1 y B2 , respectivamente.
(c) Si E y F tienen dimensiones finitas, probar que
Rang(T ) = Rang(T t ).
Page (PS/TeX): 149 / 565, COMPOSITE
566 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
En los ejercicios 368 a 376 E es un espacio vectorial de dimensión finita y para cualquier S ⊂ E, S 0
denota el subespacio anulador de S definido en el ejercicio resuelto 40 de este capı́tulo.
368 Probar que S 0 = (L (S))0 , donde L (S) es el espacio generado por S (cfr. el ejercicio resuelto 31 del
capı́tulo 3).
369 Si W es un subespacio de E y u ∈ E −W , probar que existe f ∈ W 0 tal que f (u) = 0.
370 Probar que S 00 = L (Φ(S)); es decir, (S 0 )0 = L (Φ(S)) donde Φ es el isomorfismo entre los espacios
E y E∗∗ definido en el ejercicio resuelto 32 de este capı́tulo y L (Φ(S)) es el subespacio generado por
el conjunto Φ(S) (cfr. el ejercicio resuelto 31 del capı́tulo 3).
371 Mostrar que si W1 ,W2 son dos subespacios de E, entonces W1 = W2 ⇔ W10 = W20 .
372 Si W1 ,W2 son subespacios de E, probar que (W1 +W2 )0 = W10 +W20 .
373 Si W1 ,W2 son subespacios de E y W1 ⊕W2 = E, entonces E∗ = W10 ⊕W20 .
374 Si T : E → E es un operador lineal y W es un subespacio de E, demostrar que W es T -invariante (cfr. el
ejercicio propuesto 308 de este capı́tulo) si y sólo si W 0 es T t -invariante, donde T t es la transformación
transpuesta de T definida en el ejercicio propuesto 367 de este apartado.
375 Si E = R4 y los funcionales lineales fi definidos por
f1 (x1 , x2 , x3 , x4 ) = x1 + x2 − x3 + x4 ,
f2 (x1 , x2 , x3 , x4 ) = −x2 + x3 ,
f3 (x1 , x2 , x3 , x4 ) = −x1 + x2 − x3 .
Encontrar S ⊂ R4 tal que S 0 = gn( f1 , f2 , f3 ). Hallar una base y la dimensión de S 0 .
376 Sea V = gn((1, 1, −2, 3), (1, 2, −1, 2), (−1, −2, 1, −2)), hallar una base de W 0 .
En los ejercicios 377 a 382 T t denota la transformación transpuesta de T definida en el ejercicio propuesto 367 de esta sección.
377 Sea el funcional lineal φ : R2 → R definido por φ(x, y) = 2x − y. Determinar T t (φ) para cada transfor-
mación T : R3 → R2 si:
(a) T (x, y, z) = (x − y + z, y − 2z).
(b) T (x, y, z) = (2x − y, x + y − z).
(c) T (x, y, z) = (−x + z, x − y − 3z).
378 Sean E = P1 , F = R2 , con sendas bases B1 = {1, x}, B2 = {(1, 0), (0, 1)} y T : E → F definido por
T (p) = (p(0) − p(1), 2p(0) + p (0)).
(a) Mostrar que T ∈ L (E, F).
Page (PS/TeX): 150 / 566, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 567
(b) Si f : F → R es el funcional lineal
f (x, y) = x − y,
encontrar T t ( f )
B∗
(c) Hallar [T t ]B2∗ directamente y sin recurrir al resultado del ejercicio propuesto 367.
1
B
(d) Encontrar [T ]B21 , transponer y comparar con el resultado del inciso anterior.
379 Si T1 ∈ L (E, F) y T2 ∈ L (F, G), mostrar que (T2 ◦ T1 )t = T1t ◦ T2t .
380 Si E, F son espacios vectoriales y T ∈ L (E, F), mostrar que
Ker(T t ) = (T t (F∗ ))0 .
381 Si E, F son espacios vectoriales, T ∈ L (E, F) y F tiene dimensión finita, utilizar el ejercicio precedente
y el ejercicio resuelto 40(b) para mostrar que
Rang(T ) = Rang(T t ).
382 Si E, F son espacios vectoriales de dimensiones finitas y T ∈ L (E, F) probar que
(Ker(T ))0 = T t (F∗ ).
383 Sea c00 el espacio de sucesiones finitas (cfr. el ejercicio propuesto 357 del cap. 3, pág. 228); es decir,
c00 = {(an ) ∈ R∞ | an = 0 salvo un número finito de ı́ndices n}.
Demostrar que c00 ∼
= P (el espacio de polinomios).
384 Si E y F son espacios vectoriales de dimensiones 2 y 3, respectivamente, y Ti ∈ L (E, F), i = 1, . . . , 7;
probar que existen constantes α1 , . . . , α7 , no todas nulas, tales ∑7i=1 αi Ti (u) = 0F para todo u ∈ E.
385 Sean α, β ∈ R con β = 0 y S el subespacio de R∞ de sucesiones (xn ) que satisfacen
xn+2 + αxn+1 + βxn = 0 ∀n
Sea T : S → R2 definido por
T ((xn )) = (x1 , x2 ).
(a) Mostrar que S < R∞ .
(b) Probar que T es un isomorfismo y determinar la dimensión de S.
(c) Si λ, μ ∈ R son dos raı́ces distintas de la ecuación
X 2 + αX + β = 0,
mostrar que las sucesiones u = (λn ) y v = (β n ) son una base de S.
Page (PS/TeX): 151 / 567, COMPOSITE
568 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
386 Sean E, F dos espacios vectoriales y E×F el espacio producto de éstos definido en el ejercicio propuesto
133 del capı́tulo 3. Mostrar que E × F ∼
= F × E.
387 Si E es un espacio vectorial y S1 , S2 son subespacios de E tales que E = S1 ⊕ S2 , demostrar que E ∼
=
S1 × S2 .
388 Probar que Rm × Rn ∼
= Rmn .
389 Mostrar que Mm×n ∼
= Rmn , sin utilizar el hecho de que todo par de espacios vectoriales que tienen la
misma dimensión son isomorfos.
390 Probar que el espacio de matrices simétricas de orden 2 es isomorfo a R3 .
391 Encontrar un isomorfismo T : Pn → Rn+1 .
392 Sea P ∈ Mn una matriz invertible. Mostrar que T : Mn → Mn definida por T (A) = P−1 AP es un iso-
morfismo.
393 Sean E, F espacios vectoriales y U : E → F un isomorfismo. Se define Φ : L (E, E) → L (F, F) por
Φ(T ) = U −1 TU
mostrar que Φ es un isomorfismo.
394 Sean E, F espacios vectoriales. Si T ∈ L (E, F), E tiene dimensión finita y B es una base de E. Probar
que T es un isomorfismo si y sólo si T (B) es una base de F.
395 Sean E un espacio vectorial y U, W dos subespacios de E. Demostrar que
(U +W )/W ∼
= U/(U ∩W ).
Donde U +V es la suma de subespacios (cfr. el ejercicio resuelto 26 del capı́tulo 3) y G/H es el espacio
cociente (cfr. los ejercicios resueltos 29 y 41 de los capı́tulos 3 y 5, respectivamente).
396 Sea T una tranformación lineal del espacio E sobre el espacio F. Si W < F y T −1 (W ) es el subespacio
imagen inversa de W bajo T (cfr. el ejercicio resuelto 8 de este capı́tulo), probar que:
(a) Ker(T ) ⊂ T −1 (W ).
(b) T −1 (W )/Ker(T ) ∼
= W.
397 Sean U,W dos subespacios de un espacio vectorial E y K = {(u,v) ∈ E × E |v = −u}, demostrar que
(U ×W )/K ∼
= U +W
Valores y vectores propios, diagonalización (respuestas en páginas 1090-1092)
398 Sean E un espacio vectorial, T : E → E un operador lineal, λ un valor propio de T y a un escalar;
demostrar que aλ es valor propio del operador lineal aT .
Page (PS/TeX): 152 / 568, COMPOSITE
Ejercicios resueltos y ejercicios propuestos 569
SECCIÓN 5.4
399 Sean T un operador lineal en un espacio vectorial E y λ un valor propio de T con u un vector propio
correspondiente.
(a) Mostrar que λ2 es un valor propio de T 2 y que u es un vector propio correspondiente a λ2 .
(b) Si n ∈ N mostrar que λn es un valor propio de T n y que u es un vector propio correspondiente a λn .
400 Sea p(x) = a0 + a1 x + a2 x2 + · · · + an x n un polinomio. Si T : E → E es un operador lineal en el espacio
E, se define el operador lineal
p(T ) = a0 I + a1 T + a2 T 2 + · · · + an T n
donde, como en ejercicios anteriores, T k = T
◦ · · · ◦ T es la composición del operador T consigo mismo
k
k-veces. Si λ es un valor propio de T con u un vector propio correspondiente, probar que μ = p(λ) es
un valor propio del operador p(T ) con u un vector propio correspondiente.
401 Sea T : R2 → R2 el operador lineal que rota cada vector π/2 radianes en sentido contrario a las maneci-
llas del reloj conservando la norma (cfr. el ejercicio resuelto 3 de este capı́tulo).
(a) Probar que T no tiene valores propios.
(b) Mostrar que todo vector no nulo es vector propio de T 2 .
402 Si T : E → E es un operador lineal en el espacio E y λ2 es un valor propio del operador T 2 , mostrar que
λ o −λ es un valor propio de T .
403 Sean C∞ (0, 1) el espacio vectorial de funciones f : (0, 1) → R que tienen derivada de todo orden en cual-
quier punto del intervalo (0, 1) y T : C∞ (0, 1) → C∞ (0, 1) definido, para cada f ∈ C∞ (0, 1), por T ( f ) = g
donde g(x) = x f (x) para todo x ∈ (0, 1). Encontrar los valores y vectores propios correspondientes.
404 Sea el operador lineal T : M2 → M2 definido por T (A) = At . Encontrar los valores y vectores propios
correspondientes.
405 Sea E = C(−∞,
∞) el espacio de funciones continuas en todo punto y S el conjunto de funciones f ∈ E
tales que
x
−∞
t f (t)dt converge para todo x ∈ R.
(a) Mostrar que S es un subespacio de E.
(b) Sea, para cada f ∈ S, T ( f ) = g donde g(x) =
x
−∞
t f (t)dt. Mostrar que g ∈ E y que T : S → E
ası́ definido es un operador lineal (cfr. el ejercicio resuelto 43 de este capı́tulo).
(c) Encontrar los valores y vectores propios correspondientes de T .
406 Sea T : Pn → Pn el operador lineal definido por T (p) = q donde q(x) = p(x + 1). Encontrar los valores
y vectores propios correspondientes de T .
407 Sean E = C[0, π] el espacio de funciones continuas en todo punto del intervalo [0, π], S el subconjunto
de E de funciones f dos veces derivables con continuidad que satisfacen f (0) = 0 = f (π).
(a) Mostrar que S es un subespacio de E.
(b) Sea T : S → E definido por T ( f ) = f . Probar que T es lineal.
Page (PS/TeX): 153 / 569, COMPOSITE
570 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
(c) Encontrar los valores y vectores propios correspondientes del operador T .
408 Encontrar los valores y vectores propios correspondientes del operador T definido en el ejercicio pro-
puesto 124 de este capı́tulo.
409 Sea T : M2 → M2 el operador definido, para cada A ∈ M2 , por (cfr. el ejercicio propuesto 103 de este
capı́tulo)
T (A) =
A + At
.
2
Hallar los valores propios y vectores propios correspondientes de T .
410 Sea T : M2 → M2 el operador definido, para cada A ∈ M2 , por (cfr. el ejercicio propuesto 107 de este
capı́tulo)
T (A) =
A − At
.
2
Hallar los valores y vectores propios correspondientes de T .
411 Sean T un operador lineal en un espacio E, λ y μ (λ = μ) valores propios de T con sendos vectores
propios u y v. Mostrar que si au + bv es un vector propio de T , entonces a = 0 o b = 0.
412 Probar que si T es un operador lineal en un espacio E tal que todo vector no nulo de E es un vector
propio de T , entonces éste tiene la forma T (u) = cu.
413 Sean T , R : E → E dos operadores lineales en el espacio E. Se supone que u es un vector propio de
T correspondiente a un valor propio λ de este operador y que R(u) = 0E , ¿R(u) es vector propio del
operador T correspondiente al mismo valor propio λ?
414 Sea T : E → E un operador lineal en el espacio vectorial E.
(a) Demostrar que T es inyectivo si y sólo si λ = 0 no es valor propio de T .
(b) Si E tiene dimensión finita, mostrar que T es invertible si y sólo si λ = 0 no es valor propio de T .
(c) Si T es invertible probar que λ es valor propio de T si y sólo si λ−1 es valor propio de T −1 .
415 Probar que los valores propios de una matriz cuadrada triangular superior o triangular inferior son los
elementos de la diagonal.
416 Si A es una matriz cuadrada demostrar que A y At tienen el mismo polinomio caracterı́stico y por tanto
los mismos valores propios.
417 Sean E un espacio vectorial de dimensión finita, T : E → E un operador lineal y T t : E∗ → E∗ el operador
transpuesto de T definido en el ejercicio propuesto 367 de esta sección. Probar que T y T t tienen los
mismos valores propios.
418 Sean E es un espacio vectorial de dimensión finita, T : E → E un operador lineal y T ∗ : E → E el
operador adjunto de T definido en el ejercicio resuelto 38 de este capı́tulo; mostrar que T y T ∗ tienen
los mismos valores propios (cfr. el ejercicio resuelto 39 de este capı́tulo).
Page (PS/TeX): 154 / 570, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 571
419 Probar que si A, B ∈ Mn y una de ellas es invertible, entonces AB y BA son similares y por tanto tienen
los mismos valores propios.
420 Sean A, B dos matrices cuadradas de orden n.
(a) Probar que si AB − In es invertible entonces BA − In es también invertible y que
(BA − In )−1 = B(AB − I)−1 A − In .
(b) Mostrar que AB y BA tienen los mismos valores propios.
−1 1
1 1
421 Si A =
yB=
, calcular los valores propios de AB y BA. Por el ejercicio pre1 2
1 1
cedente estos productos deben tener los mismos valores propios, ¿tienen los mismos vectores propios
correspondientes?
En los ejercicios 422 a 440, para la matriz A: (i) encontrar los valores propios; (ii) hallar los vectores y
espacios propios correspondientes; (iii) calcular las dimensiones de los espacios propios.
422 A =
423 A =
424 A =
425 A =
426 A =
427 A =
428 A =
429 A =
430 A =
3
4
−1
−3
5
8
−2
−3
.
0
−1
−4
−7
−5
−2
.
.
12
5
.
2
0
3
2
0
2
−1
3
3
2
2
1
.
.
.
−1
2
1
4
7
−3
16
−7
.
.
⎤
−3
2 0
3 0 ⎦.
431 A = ⎣ −4
4 −2 1
⎡
Page (PS/TeX): 155 / 571, COMPOSITE
572 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
⎤
0
0 ⎦.
−1
⎡
−3
2
3
432 A = ⎣ −4
3 −3
⎡
1
433 A = ⎣ 0
0
⎤
−3
4
4 −2 ⎦.
1
1
⎤
1
0
0
434 A = ⎣ 2 −6 −4 ⎦.
−1
8
6
⎡
⎤
5
0 −3
435 A = ⎣ 6 −1 −3 ⎦.
6
0 −4
⎡
⎤
−1 −2 1
436 A = ⎣ −2 −1 1 ⎦.
2 −4 0
⎡
⎡
5
437 A = ⎣ 2
0
⎤
0 6
1 4 ⎦.
−1 2
⎤
1
0 0
438 A = ⎣ −3 −2 2 ⎦.
2
1 2
⎡
⎡
1
439 A = ⎣ 0
0
⎤
−2
3
−3
1 ⎦.
1 −1
⎤
6 −1 −2
1 −2 ⎦.
440 A = ⎣ 4
6 −2 −1
⎡
En los ejercicios 441 a 463 determinar si la matriz A o el operador T es o no diagonalizable. En caso
afirmativo encontrar una diagonalización para la matriz o el operador en cuestión.
441 A es la matriz del ejercicio propuesto 422 de este capı́tulo.
442 A es la matriz del ejercicio propuesto 424 de este capı́tulo.
443 A =
2 −2
2
6
.
444 A es la matriz del ejercicio propuesto 425 de este capı́tulo.
445 A es la matriz del ejercicio propuesto 426 de este capı́tulo.
⎤
5
3 0
446 A = ⎣ −3 −1 0 ⎦.
1
1 3
⎡
Page (PS/TeX): 156 / 572, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 573
447 A es la matriz del ejercicio propuesto 431 de este capı́tulo.
⎤
2 1 1
448 A = ⎣ 0 2 0 ⎦.
−1 0 4
⎡
⎤
8
3 −3
6 ⎦.
449 A = ⎣ −6 −1
0
0
5
⎡
450 A es la matriz del ejercicio propuesto 432 de este capı́tulo.
451 T (x, y, z) = (−y + 2z, 3x + 4y − 2z, −x + 4z).
452 T (x, y, z) = (−7x + 15y − 11z, −6x + 12y − 7z, z).
453 T : M2 → M2 , T (A) = At .
454 T : M2 → M2 , T (A) =
A+At
2 .
455 T : M2 → M2 , T (A) =
A−At
2 .
456 A es la matriz del ejercicio propuesto 438 de este capı́tulo.
457 A es la matriz del ejercicio propuesto 439 de este capı́tulo.
458 T (x, y, z) = (2x − 7y, 2x − 6y, −x − y + z).
⎤
2 −6
0
0 ⎦.
459 A = ⎣ 2 −5
−3
5 −2
⎡
⎡
⎤
1
0
0
3
0
0 ⎥
⎥.
4 −2 −3 ⎦
−3
3
4
⎡
⎤
0 −2 −3
−2
0
0 ⎥
⎥.
0
5
3 ⎦
0
2
1
1
⎢ −1
460 A = ⎢
⎣ −4
3
−4
⎢ 0
461 A = ⎢
⎣ 7
2
⎤
5
0
4 0
⎢ 0 −3
0 0 ⎥
⎥.
462 A = ⎢
⎣ −8
0 −7 0 ⎦
4
0
4 1
⎡
⎡
2
⎢ −4
463 A = ⎢
⎣ −1
−1
Page (PS/TeX): 157 / 573, COMPOSITE
⎤
0
2 −2
2 −3
2 ⎥
⎥.
0 −1
2 ⎦
0
0
1
574 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
464 Sea T : Pn → Pn definido por T (p) = q donde q(x) = p(x) + xp (x).
(a) Probar que T es un operador lineal.
(b) Encontrar los valores propios de T .
(c) Determinar si T es diagonalizable y en caso positivo hallar una diagonalización para T .
En los ejercicios 465 a 467 para la transformación T : E → E: (i) probar que T es lineal; (ii) determinar
si T es diagonalizable y en caso afirmativo encontrar una base B de E tal que [T ]B sea diagonal.
465 T : P3 → P3 , T (p) = p + p .
466 T : P2 → P2 , T (a0 + a1 x + a2 x2 ) = a2 + a1 x + a0 x2 .
467 T : P2 → P2 , T (a0 + a1 x + a2 x2 ) = a0 + 12 a1 x + 13 a2 x2 .
468 Una matriz A ∈ Mn es escalar si A = λIn para algún escalar λ. Demostrar que si B es una matriz de
orden n y tiene un único valor propio, entonces B es una matriz escalar.
⎤
2 0
1
469 ¿Es diagonalizable la matriz ⎣ 0 2 −1 ⎦?
0 0
2
⎡
470 Encontrar
condiciones necesarias y suficientes, respecto a los parámetros a, b, c, d, para que la matriz
a b
c d
sea diagonalizable (sobre R).
471 Determinar las condiciones sobre los parámetros a, b ∈ R para que la matriz
⎡
2a − b
⎣
1
−a + b
0
a
0
⎤
2a − 2b
⎦
2
−a + 2b
sea diagonalizable.
472 Sea
⎡
1
⎢ a
A=⎢
⎣ a1
a2
0
1
b
b1
0
0
2
c
⎤
0
0 ⎥
⎥.
0 ⎦
2
Encontrar condiciones sobre los parámetros a1 , a2 , b, b1 ∈ R para que la matriz A sea diagonalizable.
En los ejercicios 473 a 484 se consideran valores propios, vectores propios y diagonalización sobre el
campo C. Para la matriz A: (i) encontrar los valores propios; (ii) bases para los espacios propios; (iii) determinar si la matriz A es diagonalizable y en caso afirmativo hallar una diagonalización para la matriz A.
473 A =
i
5
1 −i
Page (PS/TeX): 158 / 574, COMPOSITE
.
SECCIÓN 5.4
474 A =
475 A =
476 A =
477 A =
478 A =
1 − 3i
4
1
−1
2
4
3i
4i
2
1 + 3i
.
2
1
.
−2
−2
2+i
0
Ejercicios resueltos y ejercicios propuestos 575
.
3
2+i
−i
−i
.
.
⎤
1 1 −1
0 ⎦.
479 A = ⎣ 0 1
1 0
1
⎡
⎤
0 −1
0
1
0 ⎦.
480 A = ⎣ 0
−1
0 −i
⎡
⎤
i −1 + i −2 + i
481 A = ⎣ 0 −3 + 2i −3 + i ⎦.
0 6 − 2i
6−i
⎡
⎡
−i
i
482 A = ⎣ −2 − 2i 1 + 2i
−3 − 3i
3i
⎤
0
0 ⎦.
1
⎤
−2i
−1 − i
0
3+i
0 ⎦.
483 A = ⎣ 2 + 2i
−1 − i −1 − i 1 − i
⎡
⎡
0
⎢ 0
484 A = ⎢
⎣ 0
1
1
0
0
0
0
1
0
0
⎤
0
0 ⎥
⎥.
1 ⎦
0
En los ejercicios 485 a 489 hallar An para todo n, det(A) y tra(A) para la matriz diagonalizable A
utilizando las propiedades de las matrices diagonalizables (teorema 5.34, pág. 481) y de los valores
propios de una matriz (teorema 5.36, pág. 486).
⎤
8
3 −3
6 ⎦.
485 A = ⎣ −6 −1
0
0
5
⎡
⎤
0 −3 −2
5
2 ⎦.
486 A = ⎣ 2
−2 −6 −3
⎡
Page (PS/TeX): 159 / 575, COMPOSITE
576 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
⎤
−3i 0
2i
487 A = ⎣ 4i i −2i ⎦.
−4i 0
3i
⎡
⎡
1
⎢ 0
488 A = ⎢
⎣ 0
0
⎡
1
⎢ 2
489 A = ⎢
⎣ 2
0
0 −1 − 3i
1 −3 − i
0
−3i
0
−4i
⎤
2i
2 ⎥
⎥.
2i ⎦
3i
⎤
0
2
2
1 −4 −2 ⎥
⎥.
0
2
3 ⎦
0 −3 −2
490 Sea E un espacio vectorial complejo con producto interior ·, · y u0 un vector de E. Demostrar que la
función f : E →C definida por
f (v) = v,u0 es lineal.
491 Sea E un espacio vectorial complejo de dimensión finita y f : E → C un funcional lineal. Mostrar que
existe un u f ∈ E tal que
f (u) = u,u f para todo u ∈ E.
492 Sea T : C3 → C el funcional lineal definido por
f (z1 , z2 , z3 ) = (2 + i)z1 − z2 + (2 − i)z3 .
Hallar u0 ∈ C3 tal que
f (z) = z,u0 para todoz ∈ C3 , donde (z1 , z2 , z3 ), (w1 , w2 , w3 ) =z · w = ∑3i=1 zi wi es el producto canónico en C3 (cfr.
el ejemplo 5.60, pág. 492).
493 Sean E un espacio vectorial de dimensión finita sobre los números complejos, ·, · un producto interior
en E y T : E → E un operador lineal. Probar que existe un operador lineal T ∗ : E → E tal que
T (u),v = u, T ∗ (v)
∀u,v ∈ E.
Al operador T ∗ se le dice el operador adjunto de T .
494 Sean E y T como en el ejercicio anterior. Probar que si A = [T ]B es la representación matricial de
T relativa a una base ortonormal B y B = [T ∗ ]B es la representación matricial del operador adjunto
T ∗ , entonces B = At , donde M significa la matriz que tiene por componentes los conjugados de las
componentes de la matriz M.
Page (PS/TeX): 160 / 576, COMPOSITE
SECCIÓN 5.4
Ejercicios resueltos y ejercicios propuestos 577
495 Sea T : C3 → C3 el operador lineal definido por
T (z1 , z2 , z3 ) = (iz1 + (2 − 3i)z2 , 2z1 + 3iz2 , z2 − iz3 ).
Hallar T ∗ si se considera el producto interior z, w =z · w (cfr. el ejemplo 5.60).
496 Sea T un operador lineal en un espacio E. Probar que el subespacio S es T -invariante (T (S) ⊂ S) si:
(a) S = {0E }.
(b) S = E.
(c) S = T (E).
(d) S = Ker(T ).
(e) S = Eλ para cualquier valor propio λ del operador T.
En los ejercicios 497 a 500 determinar si el subespacio S es T -invariante para la transformación T : E →
E; esto es, si T (S) ⊂ S.
497 T : P3 → P3 , T (p) = p , S = P2 .
498 T : P → P, T (p) = q donde q(x) = xp(x), S = P2 .
499 T : C[0, 1] → C[0, 1], T ( f ) = g donde g(x) = x
500 T : M2 → M2 , T (A) =
1
0
f (t)dt, S = {g ∈ C[0, 1] | g(x) = a0 + a1 x, a0 , a1 ∈ R}.
0 1
1 0
A, S es subespacio de matrices simétricas.
501 Probar que si T : E → E es un operador lineal en el espacio E y Sα , α ∈ Λ, es una colección de subes
pacios de E, entonces S = α∈Λ Sα es un subespacio T -invariante; es decir, T (S) ⊂ S (cfr. el ejercicio
resuelto 30 del capı́tulo 3, pág. 190).
En los ejercicios 502 a 504 encontrar una base para el subespacio T -cı́clico, definido en el ejercicio
resuelto 48 de este capı́tulo, generado por el vector u.
502 T : P3 → P3 , T (p) = p , u = x3 .
⎤
0 1 0
503 T : M3 → M3 , T (A) = At , u = ⎣ 1 0 1 ⎦.
0 1 0
⎡
504 T : P2 → P2 , T (p) = p ,u = x2 .
En los ejercicios 505 a 514 encontrar el polinomio caracterı́stico y el polinomio mı́nimo de la matriz A.
En algunos casos se debe considerar trabajar sobre el campo C.
505 A =
1
0
Page (PS/TeX): 161 / 577, COMPOSITE
1
1
.
578 CAPÍTULO 5
Transformaciones lineales, valores y vectores propios
506 A =
507 A =
0 0
0 0
1 1
1 1
.
.
⎤
4
3 0
508 A = ⎣ −6 −5 0 ⎦.
3
3 1
⎡
⎤
−4
0 −3
3 ⎦.
509 A = ⎣ 3 −1
6
0
5
⎡
⎤
−5
0
4
510 A = ⎣ 4 −1 −4 ⎦.
−8
0
7
⎡
⎡
−1
⎢ 2
⎢
511 A = ⎣
−3
3
⎤
0
1 −1
1 −1
1 ⎥
⎥.
0
3 −1 ⎦
0 −1
3
⎡
1
1
0
512 A = ⎣ 2
−3 −2
⎡
0
⎢ 1
513 A = ⎢
⎣ 0
0
⎤
0
2 ⎦.
−1
⎤
−1
2 −1
0
1
2 ⎥
⎥.
0
0
1 ⎦
0 −1
0
⎡
−1 1
⎢ −2 1
514 A = ⎢
⎣ 3
1
2 −5
⎤
0
0
0
0 ⎥
⎥.
1
1 ⎦
−2 −1
515 Demostrar el teorema
de Cayley-Hamilton (cfr. el ejercicio resuelto 50 de este capı́tulo) para una matriz
2 × 2, A =
a b
c d
, utilizando directamente la fórmula
pA (λ) = λ2 − tra(A)λ + det(A)
para el polinomio caracterı́stico de A para matrices de orden 2.
Page (PS/TeX): 162 / 578, COMPOSITE
III
Aplicaciones,
uso de tecnología,
métodos numéricos
Page (PS/TeX): 1 / 579, COMPOSITE
Page (PS/TeX): 2 / 580, COMPOSITE
6 Aplicaciones
Se han seleccionado unas cuantas de las aplicaciones que tiene la materia de álgebra lineal para formar
parte de este capı́tulo. Van desde lo elemental hasta aplicaciones más sofisticadas. Todas deben considerarse como introducciones a temas que son bastos y complejos; sin embargo, algunas de ellas se han
tratado con suficiente detalle para que este libro resulte, en la medida de lo posible, un texto autocontenido. Las primeras aplicaciones ilustran conceptos muy simples y cuestiones bastante elementales de
álgebra lineal; pero las demás involucran conceptos que en sı́ requieren de una formulación conceptual
más complicada. Las secciones 6.1, 6.2, 6.4, 6.5 y 6.6 necesitan, esencialmente, el conocimiento de
matrices y sistemas lineales. La sección 6.3 requiere, además, saber los conceptos básicos de matrices
invertibles, ası́ que pueden abordarse inmediatamente que se hayan cubierto esos temas. Para lograr una
mayor flexibilidad en el manejo de este capı́tulo se hacen patentes, al inicio de cada sección y donde
es necesario, los requisitos de álgebra lineal –mencionando los apartados donde están incluidos en el
libro– y los conocimientos de otras ramas de las matemáticas que son necesarios para su comprensión.
Por tanto, su estudio puede llevarse a cabo en el orden que convenga y, no necesariamente, en el orden
en el que aparecen los tópicos. La última sección contiene una serie de ejercicios propuestos al lector
para su resolución.
6.1 Matrices de incidencia y teorı́a de grafos
Requisitos:
Operaciones con matrices: 1.1.1 a 1.1.3
Una matriz de incidencia es una matriz cuadrada cuyas entradas son ceros o unos y, por conveniencia,
todas las componentes de la diagonal son nulas.
Ejemplo 6.1
⎡
0
⎢ 1
A=⎢
⎣ 1
0
0
0
1
1
1
0
0
1
⎤
1
1 ⎥
⎥
0 ⎦
0
es una matriz de incidencia.
Estas matrices tienen una interpretación muy sencilla que es de gran utilidad en varias aplicaciones.
Supongamos que se tienen n personas, P1 , . . . , Pn , con ciertos dispositivos de comunicación, de manera
581
Page (PS/TeX): 3 / 581, COMPOSITE
582 CAPÍTULO 6
Aplicaciones
que algunas personas pueden enviar (transmitir) mensajes a otras. Formamos una matriz A = [ai j ] para
este esquema definiendo
ai j =
1, si i = j y Pi puede transmitir a Pj ;
0 en otro caso.
Entonces, A es una matriz de incidencia. Note que si ai j = 1
no necesariamente a ji = 1; esto es, si la persona Pi puede enviar mensajes a la persona Pj , no forzosamente la persona Pj
puede transmitir a la persona Pi . Una forma de representar
las relaciones de comunicación de este tipo es por medio de
un diagrama llamado grafo dirigido o digrafo. Por ejemplo,
la figura 6-1 muestra el digrafo de la matriz de incidencia del
P2
P4
ejemplo 6.1. En él los individuos Pi , i = 1, . . . , 4, están representados por los puntos Pi que se llaman vértices del digrafo
y las lı́neas que unen ciertos vértices se llaman aristas; las
flechas indican direcciones hacia donde es posible transmitir
comunicación.
Aunque en el digrafo de la figura 6-1 P1 no se puede comunicar directamente con P2 , existe una cadena o trayectoria
P3
a través de la cual puede enviar mensajes a P2 , por ejemplo, P1 → P3 → P2 . Se dice que ésta es una 2-cadena porque
Figura 6-1
para transmitir un mensaje es necesario hacerlo en dos etapas, esto es, recorrer una trayectoria que tiene dos aristas con
un vértice intermedio. Otra trayectoria por la que P1 puede transmitir a P2 es la 3-cadena P1 → P4 → P3 →
P2 . En general, en un digrafo cualquiera, una k-cadena, es una sucesión de la forma Pi → Pl → · · · → Pj
por medio de la cual Pi puede enviar mensajes a Pj , donde esta cadena contiene k + 1 vértices y k aristas.
Supongamos ahora que un digrafo tiene n > 1 vértices y estamos interesados en encontrar el número
de formas distintas en las que un individuo Pi puede transmitir al individuo Pj a través de una 2-cadena;
es decir, el número total de 2-cadenas con vértice inicial Pi y vértice final Pj o, de manera equivalente,
el número de formas distintas en las que Pi puede transmitir a Pj con un intermediario, exactamente,
Pi → Pl → Pj . Representemos por (A2 )i j la componente en la fila i y la columna j de la matriz A2 , donde
A = [Ai j ] es la matriz de incidencia del digrafo. Entonces
P1
⎡
(A2 )i j =
Ai1
···
Ain
⎤
A1 j
⎢ .. ⎥
⎣ . ⎦
An j
n
= ∑ Ail Al j .
l=1
Puesto que A es una matriz de incidencia, los términos de la precedente sumatoria son iguales a 1,
o iguales a 0; y ya que Ail Al j = 1 si y sólo si Pi puede transmitir a Pl y Pl puede transmitir a Pj , se
tiene que el resultado de esta sumatoria es el número total de 2-cadenas con vértice inicial Pi y vértice
final Pj . La generalización de este resultado es inmediata, se hace patente en el siguiente teorema y su
demostración se deja de ejercicio al lector.
Page (PS/TeX): 4 / 582, COMPOSITE
Matrices de incidencia y teorı́a de grafos 583
SECCIÓN 6.1
Teorema 6.1 Sea un digrafo con n > 1 vértices y matriz de incidencia A. Si r ≥ 1 es un número entero
y (Ar )i j representa la componente i j de la matriz Ar , entonces (Ar )i j es el número de r-cadenas con
vértice inicial Pi y vértice final Pj o, equivalentemente, el número de formas distintas en las que Pi
puede transmitir a Pj con r − 1 intermediarios.
Ejemplo 6.2 Consideremos el digrafo que se muestra en la figura 6-1 cuya matriz de incidencia es la
matriz del ejemplo 6.1; esto es,
⎤
⎡
0 0 1 1
⎢ 1 0 0 1 ⎥
⎥
A=⎢
⎣ 1 1 0 0 ⎦.
0 1 1 0
Entonces,
⎡
1
⎢ 0
2
⎢
A =⎣
1
2
2
1
0
1
1
2
1
0
⎤
0
1 ⎥
⎥
2 ⎦
1
Ası́, el individuo P1 puede transmitir en dos formas distintas al individuo P2 , con un relevo (intermediario) de por medio, las 2-cadenas: P1 → P4 → P2 y P1 → P3 → P2 ; el individuo P2 puede transmitir al
individuo P3 en dos formas distintas con un relevo de por medio: P2 → P4 → P3 y P2 → P1 → P3 ; sólo
hay una 2-cadena con vértice inicial P1 y vértice final P4 : P1 → P2 → P4 (es decir, sólo hay una forma de
transmisión de P1 a P4 en dos etapas); hay cero 2-cadenas con vértice inicial P4 y vértice final P3 ; etc.,
lo cual se puede constatar observando la figura 6-1.
Ejemplo 6.3 Si A es la matriz de incidencia del ejemplo anterior,
⎡
3
⎢ 3
3
A =⎢
⎣ 1
1
1
3
3
1
1
1
3
3
⎤
3
1 ⎥
⎥.
1 ⎦
3
Entonces (A3 )14 = 3, ası́ que existen tres 3-cadenas con vértice inicial P1 y vértice final P4 :
P1
P1
P1
→
→
→
P3
P4
P3
→
→
→
P2
P2
P1
→
→
→
P4 ,
P4 y
P4 .
Es evidente que el teorema precedente incluye en el conteo r-cadenas que no son, en general, de
interés en la práctica, son aquellas en las que se repiten vértices; estas cadenas se llaman redundantes.
En el ejemplo anterior, las 3-cadenas
P1
P1
→
→
P4
P3
→
→
P2
P1
→
→
P4 y
P4
son 3-cadenas redundantes.
Si A es una matriz de incidencia, entonces, por el teorema 6.1 (Ak )i j , k = 1, . . . , r, es el número de
k-cadenas con vértice inicial Pi y vértice final Pj , luego (A + A2 + · · · + Ar )i j es el número de cadenas
con a lo más r aristas con vértice inicial Pi y vértice final Pj . Hemos probado ası́ el siguiente corolario.
Page (PS/TeX): 5 / 583, COMPOSITE
584 CAPÍTULO 6
Aplicaciones
Corolario 6.1 Si un digrafo tiene n vértices Pi , A es su matriz de incidencia y r ≥ 1 es un entero,
entonces
(A + A2 + · · · + Ar )i j
es el número de formas distintas que Pi puede transmitir a Pj en a lo más r etapas.
Ejemplo 6.4 Para la matriz de incidencia
⎡
0 1 0
A=⎣ 1 0 1
0 1 0
⎡
1 0 1
A2 = ⎣ 0 2 0
1 0 1
⎡
0 2 0
A3 = ⎣ 2 0 2
0 2 0
⎤
⎦:
⎤
⎦
y
⎤
⎦.
Entonces
(A + A2 + A3 )12 = 3
es el número de formas en las que P1 puede transmitir a P2 en a lo más 3 etapas. La figura 6-2 contiene
el digrafo de esta matriz, donde se puede observar que las k-cadenas, con k = 1, 2, 3, con vértice inicial
P1 y vértice final P2 son:
P1
P1
P1
→
→
→
P2 ,
P2 →
P2 →
P1
P3
→
→
P2 ,
P2 .
P1
P2
P3
Figura 6-2 • Digrafo de la matriz.
Un problema importante que surge en la teorı́a de grafos es determinar subconjuntos maximales de
vértices que estén intercomunicados. Un subconjunto S de un digrafo es un clan si:
1. S contiene 3 o más vértices.
2. Si Pi , Pj ∈ S, entonces Pi → Pj y Pj → Pi ; es decir, cualquier par de vértices en S se pueden comunicar directamente uno con otro.
3. No existe un subconjunto propio del digrafo que satisfaga las dos condiciones precedentes y contenga propiamente a S.
Page (PS/TeX): 6 / 584, COMPOSITE
SECCIÓN 6.1
Matrices de incidencia y teorı́a de grafos 585
P1
P1
P4
P2
P4
P2
P5
P3
P3
(a)
(b)
Figura 6-3 •
Ejemplo 6.5 En la figura 6-3(a) S1 = {P1 , P2 , P3 } y S2 = {P1 , P2 , P4 } son clanes. En la misma figura
(b) ni {P1 , P2 , P3 } ni {P1 , P2 , P4 } son clanes, pues ambos subconjuntos están contenidos en
S = {P1 , P2 , P3 , P4 }, el cual sı́ es un clan (el único) del digrafo.
Supongamos ahora que se tiene un digrafo con matriz de incidencia A, se define la matriz
A (A) = [bi j ] donde bi j = 1 si Pi y Pj pueden transmitir mensajes directos en forma mutua; es decir,
en una etapa y en las dos direcciones; y bi j = 0 en otro caso. Llamaremos a A (A) la matriz asociada de
la matriz A.
Ejemplo 6.6 Hallar la matriz de incidencia del digrafo de la figura 6-3(a) y su matriz asociada.
Solución
De la figura 6-3(a) se desprende que
⎡
0
⎢ 1
A=⎢
⎣ 1
1
1
0
1
1
1
1
0
0
⎤
1
1 ⎥
⎥
1 ⎦
0
1
0
1
1
1
1
0
0
⎤
1
1 ⎥
⎥.
0 ⎦
0
y
⎡
0
⎢ 1
A (A) = ⎢
⎣ 1
1
El siguiente teorema no es difı́cil de probar y su demostración se deja de ejercicio al lector.
Teorema 6.2 Si un digrafo tiene n vértices con matriz de incidencia A y matriz asociada B = A (A),
entonces Pi pertenece a un clan del digrafo si y sólo si (B3 )ii > 0.
Page (PS/TeX): 7 / 585, COMPOSITE
586 CAPÍTULO 6
Aplicaciones
Ejemplo 6.7 Consideremos el digrafo contenido en la figura 6-3(a). Por el ejemplo anterior,
⎡
0
⎢ 1
B=⎢
⎣ 1
1
1
0
1
1
1
1
0
0
⎤
1
1 ⎥
⎥
0 ⎦
0
5
4
5
5
5
5
2
2
⎤
5
5 ⎥
⎥,
2 ⎦
2
ya que
⎡
4
⎢ 5
3
B =⎢
⎣ 5
5
todos los vértices P1 , P2 , P3 y P4 están en un clan. Efectivamente, en el ejemplo 6.5 vimos que este digrafo
tiene dos clanes: S1 = {P1 , P2 , P3 } y S2 = {P1 , P2 , P4 }.
Ejemplo 6.8 Ahora consideremos el digrafo contenido en la figura 6-3(b), su matriz de incidencia es
⎡
⎢
⎢
A=⎢
⎢
⎣
0
1
1
1
0
1
0
1
1
0
1
1
0
1
0
1
1
1
0
0
0
0
1
0
0
0
1
1
1
0
1
0
1
1
0
1
1
0
1
0
1
1
1
0
0
0
0
0
0
0
⎤
⎥
⎥
⎥;
⎥
⎦
mientras que la matriz asociada a A es
⎡
⎢
⎢
B=⎢
⎢
⎣
⎤
⎥
⎥
⎥.
⎥
⎦
Puesto que
⎡
⎢
⎢
B3 = ⎢
⎢
⎣
6
7
7
7
0
7
6
7
7
0
7
7
6
7
0
7
7
7
6
0
0
0
0
0
0
⎤
⎥
⎥
⎥
⎥
⎦
se desprende que todos los vértices, excepto P5 , están en un clan. De hecho, por el ejemplo 6.5, sabemos
que {P1 , P2 , P3 , P4 } es el único clan de este digrafo.
Dominancia total
Supongamos ahora que en un digrafo queremos representar una relación entre ciertos individuos Pi que
tiene que ver con el dominio, o influencia directa, que algunos ejercen sobre otros. Esta relación puede
ser, por ejemplo, de liderazgo o de algún tipo de influencia sicológica o nuevamente de transmisión
de información, de tal manera que si un individuo ejerce dominio sobre otro, éste no lo hace sobre el
Page (PS/TeX): 8 / 586, COMPOSITE
Matrices de incidencia y teorı́a de grafos 587
SECCIÓN 6.1
P2
P1
P3
P5
P4
Figura 6-4 • Digrafo.
primero. Si se supone además que todo individuo domina, o es dominado, en forma directa por los
demás miembros del grupo, entonces se dice que la relación es de dominancia total. Por tanto, en el
digrafo todo par de vértices Pi y Pj están conectados en la forma Pi → Pj o en la forma Pj → Pi , pero
no en ambas. Luego, la matriz de incidencia, A = [ai j ], para una relación de dominancia total tienen una
caracterı́stica más: ai j = 1 si y sólo si a ji = 0. Como antes, la relación de dominancia puede ejercerse
a través de k-cadenas, esto es, si Pi → Pj (y, por tanto, Pj Pi ), puede existir una k-cadena tal que
Pj → · · · → Pl → Pi . Por ejemplo, en el digrafo contenido en la figura 6-4, P4 → P2 y P2 P4 , pero
P2 → P3 → P4 , esto es, P2 establece dominio sobre P4 en dos etapas.
Ejemplo 6.9 Consideremos el digrafo mostrado en la figura 6-4. Entonces, la matriz de incidencia es
⎡
⎢
⎢
A=⎢
⎢
⎣
0
0
1
0
1
1
0
0
1
1
0
1
0
0
1
1
0
1
0
0
0
0
0
1
0
⎤
⎥
⎥
⎥.
⎥
⎦
Por tanto, la relación que representa el digrafo de la figura 6-4 es de dominancia total, ya que: las
componentes de ai j de A son ceros o unos, aii = 0 para todo i, ai j = 1 ⇔ a ji = 0 para todo i = j.
Se puede probar que si A es la matriz de incidencia de una relación de dominancia total, entonces
A + A2 tiene una fila (columna) con todos sus elementos positivos excepto el de la diagonal y, por el
corolario 6.1, se desprende, entonces, que siempre existe un individuo Pi que domina a todos los demás
(o es dominado por todos los demás) en a lo sumo dos etapas.
Ejemplo 6.10 Si A es la relación de dominancia cuya matriz de incidencia es la matriz A del ejemplo
precedente, entonces,
⎡
⎢
⎢
A + A2 = ⎢
⎢
⎣
Page (PS/TeX): 9 / 587, COMPOSITE
0
1
1
1
2
2
0
2
2
2
1
1
0
2
2
1
1
2
0
2
1
0
1
1
0
⎤
⎥
⎥
⎥.
⎥
⎦
588 CAPÍTULO 6
Aplicaciones
Luego, los individuos P1 , P3 , P4 y P5 ejercen su influencia en todos los demás en, a lo sumo, dos etapas;
mientras que P1 , P2 , P3 y P4 son dominados por todos los demás en a lo más dos etapas. El lector puede
verificar estas afirmaciones gráficamente observando el digrafo de la figura 6-4.
Dominancia parcial
Existen relaciones en las que si un individuo domina a otro, éste no domina al primero, pero en las que
no necesariamente en toda pareja del grupo existe una relación de dominio. Entonces se dice que en el
grupo hay una relación de dominancia parcial. En este caso, si A = [ai j ] es la matriz de incidencia se
tiene: todos los ai j son ceros o unos; aii = 0 para todo i; si ai j = 1, entonces a ji = 0. Como antes, la
relación de dominancia parcial se puede transmitir a través de alguna k-cadena.
Ejemplo 6.11 Consideremos la relación representada en el digrafo contenido en la figura 6-5.
P2
P3
P1
P5
Figura 6-5
P4
•
Entonces, la matriz de incidencia para éste es
⎡
⎢
⎢
A=⎢
⎢
⎣
0
0
0
1
1
1
0
1
0
1
1
0
0
0
1
0
0
1
0
0
0
0
0
1
0
⎤
⎥
⎥
⎥.
⎥
⎦
Luego, la relación es de dominancia parcial, pues ai j = 1 ⇒ a ji = 0, las entradas en la diagonal son
nulas y todas las componentes de esta matriz son unos o ceros.
Ejemplo 6.12 Si A es la matriz de incidencia de la relación de dominancia parcial del ejemplo anterior, entonces,
⎡
⎢
⎢
A + A2 = ⎢
⎢
⎣
Page (PS/TeX): 10 / 588, COMPOSITE
0
0
1
2
1
2
0
1
2
3
1
0
0
2
2
1
0
1
0
1
0
0
1
1
0
⎤
⎥
⎥
⎥.
⎥
⎦
Redes de conducción y principios de conservación 589
SECCIÓN 6.2
De donde, por el corolario 6.1, se desprende que P3 , P4 y P5 dominan a todos los demás en, a lo sumo,
dos etapas; mientras que P2 es dominado por todos los demás, cuando mucho, dos etapas y P2 nunca
domina a individuo alguno en este grupo.
6.2 Redes de conducción y principios de conservación
Requisitos:
Sistemas lineales y método de Gauss: 1.2.1 a 1.2.4
En una gran variedad de situaciones es posible resolver problemas utilizando principios básicos de conservación. En esta sección veremos unas cuantas aplicaciones del álgebra lineal que utilizan esta clase
de principios de manera natural. La primera tiene que ver con redes muy simples que conducen cierto
tipo de fluido, éste puede ser lı́quido, gas, electricidad, mensajes, vehı́culos, personas, etc. La figura
6-6 contiene un esquema de una de estas redes. Las lı́neas representan los conductores de la red, las
flechas indican las direcciones hacia donde se mueve el fluido cuando cruza determinada sección de
la red a través de un conductor; los puntos, llamados nodos, es donde convergen dos o más conductores. En los nodos se producen bifurcaciones donde el fluido se reparte a distintos conductores. Cada
literal representa la magnitud del fluido que atraviesa el respectivo conductor en una sección de la red.
f1
A
f2
f3
f4
B
f5
Figura 6-6 •
El germen que rige las redes conductoras es el siguiente:
Principio de los nodos: En cada nodo, la suma de las magnitudes del fluido que entra a él, es igual a
la suma de las magnitudes del fluido que sale del mismo.
Ası́, en la red de la figura 6-6, se cumple:
• En el nodo A: f1 = f2 + f3 .
• En el nodo B: f3 = f4 + f5 .
Conociendo las magnitudes de algunos de los flujos y utilizando el principio de los nodos es posible,
en general, establecer un sistema de ecuaciones lineales cuyo conjunto de soluciones determina los
posibles flujos en la red conductora. Con frecuencia, las direcciones de los flujos que aparecen como
variables en el esquema de una red conductora son convencionales y las direcciones dependen de los
valores que resulten al resolver el sistema; entonces, si una de las soluciones fi resulta negativa, significa
que en realidad el flujo correspondiente tiene dirección opuesta a la que se le asignó en el diagrama; sin
Page (PS/TeX): 11 / 589, COMPOSITE
590 CAPÍTULO 6
Aplicaciones
embargo, en algunas redes, por ejemplo en circuitos vehiculares, las direcciones son fijas y no se pueden
invertir. En tal caso, es necesario imponer resticciones a los parámetros del conjunto solución del sistema
de ecuaciones para que los valores de las fi sean no negativos.
La segunda aplicación trata un tipo particularmente importante de redes de conducción, circuitos o
redes eléctricas que están conformados por mallas de conductores, resistores y baterı́as. Para analizar las
redes eléctricas, además del principio de los nodos, se requiere de un principio fı́sico de conservación
que tiene que ver con los potenciales eléctricos en cada malla del circuito, contenido en la llamada
segunda regla o segunda ley de Kirchhoff. Finalmente, la última aplicación –balance quı́mico– que
trataremos en este apartado, es consecuencia del principio básico de la naturaleza en el que se establece
que la materia no se crea ni se destruye, sino que se transforma en otro tipo de materia o energı́a.
6.2.1 Flujo vehicular
Supongamos que en una zona de cierta ciudad el flujo vehicular se comporta como lo muestra la figura 6-7; donde las direcciones de las flechas indican las sentidos en cada avenida y las cantidades al lado, o
por encima de las mismas, el volumen promedio de automóviles que atraviesan por hora cada sección. Se
requieren determinar los volúmenes promedio en las intersecciones; esto es, los valores xi , i = 1, 2, 3 y 4 de
la figura 6-7. El problema lo podemos resolver utilizando el principio de los nodos, pues en cada una
de las intersecciones la suma de los flujos de entrada debe ser igual a la suma de los flujos de salida; ası́:
150
350
600
x1
D
A
x4
x2
x3
400
B
450
Figura 6-7 • Flujo vehicular en una zona de cierta ciudad.
Page (PS/TeX): 12 / 590, COMPOSITE
600
C
350
500
SECCIÓN 6.2
Redes de conducción y principios de conservación 591
En la intersección A: x1 + 350 = x2 + 600
En la intersección B: x2 + 400 = x3 + 450
En la intersección C: x3 + 350 = x4 + 500
En la intersección D: x4 + 600 = x1 + 150
Llevemos a forma escalonada la matriz aumentada del sistema,
⎡
⎤
⎡
1 −1
0
250
1 −1
0
0
⎢ 0
⎥
⎢ 0
1
−1
50
1
−1
0
⎥ ↔ ⎢
⎢
⎣ 0
⎣ 0
0
1
150 ⎦
0
1 −1
0
1
0
450
1
0
0 −1
⎡
1 −1
0
⎢ 0
1
−1
↔ ⎢
⎣ 0
0
1
0
0
1
⎡
1 −1
0
⎢ 0
1
−1
↔ ⎢
⎣ 0
0
1
0
0
0
0
0
−1
−1
0
0
−1
−1
0
0
−1
0
⎤
250
50 ⎥
⎥
150 ⎦
200
⎤
250
50 ⎥
⎥
150 ⎦
150
⎤
250
50 ⎥
⎥
150 ⎦
0
y hagamos sustitución regresiva para obtener
⎤ ⎡
450 + r
x1
⎢ x2 ⎥ ⎢ 200 + r
⎢
⎥ ⎢
⎣ x3 ⎦ = ⎣ 150 + r
r
x4
⎡
⎤
⎥
⎥ ; r ∈ R.
⎦
Entonces, si se conoce el flujo vehicular entre C y D, se pueden determinar los demás flujos, por ejemplo,
si x4 = 150, entonces
⎤ ⎡
600
x1
⎢ x2 ⎥ ⎢ 350
⎢
⎥ ⎢
⎣ x3 ⎦ = ⎣ 300
150
x4
⎡
⎤
⎥
⎥
⎦
es decir, el problema no tiene solución única. Sin embargo, sirve para modelar el tráfico vehicular
cambiando el valor de x4 (o especificando el valor de una, cualquiera, de las otras variables) para predecir
los valores de las demás, siempre y cuando todas se conserven no negativas.
6.2.2 Circuitos eléctricos
En un circuito eléctrico es posible determinar la corriente en cada una de sus ramas en función de las
resistencias y voltajes. Consideremos el circuito contenido en la figura 6-8. El sı́mbolo
representa
una baterı́a cuyo potencial eléctrico, o fuerza electromotriz ( f em = ε), se mide en voltios (V); la baterı́a
produce una corriente eléctrica que fluye hacia afuera de la terminal indicada mediante la lı́nea vertical
más larga o, en forma esquemática,
Page (PS/TeX): 13 / 591, COMPOSITE
. El resistor, representado por el sı́mbolo
, cuya
592 CAPÍTULO 6
Aplicaciones
resistencia es medida en omhios (Ω), produce una caı́da en el potencial eléctrico gobernada por la ley
de Ohm
E = IR,
donde I es la corriente, medida en amperios (A) y R la resistencia del resistor. Las flechas indican las
direcciones de las corrientes en el circuito; sin embargo, si después de calcular alguna de ellas tiene
signo negativo, significa que tiene dirección contraria a la que inicialmente se le asignó. Los nodos son
los puntos donde se unen dos o más conductores en el circuito, en la figura 6-8 el dispositivo tiene dos
nodos denotados por las letras A y B. Una malla en un circuito es cualquier recorrido conductor cerrado,
en la figura 6-8 la trayectoria ABCDA es una malla de esta red. Para resolver un circuito eléctrico se
usan las llamadas leyes de Kirchhoff:
13 V
D
C
2Ω
I1
3Ω
B
A
I2
4Ω
1Ω
I3
F
E
14 V
Figura 6-8 •
K1 En todo nodo la suma de las corrientes entrantes es igual a la suma de las corrientes salientes.
K2 En toda malla del circuito la suma algebraica de las fuerzas electromotrices es igual a la suma
algebraica de las caı́das de potencial en cada resistencia. Esto es, en una malla dada
∑ ε j = ∑ IjR j ;
donde las ε j son las fuerzas electromotrices en cada baterı́a y los factores en los productos I j R j
están formados por las resistencias R j de los resistores que están en la malla y las respectivas
intensidades de corriente I j que fluyen en cada uno de ellos.
Para resolver un circuito eléctrico es conveniente tener presentes los siguientes puntos:
1. Cuando se aplica la ley K2 en una malla, se elige positivo un sentido de recorrido, por ejemplo,
la dirección en sentido contrario al que avanzan las manecillas del reloj y negativo el sentido
opuesto. Entonces, si una corriente está en contraflujo a la dirección elegida, se considera con
signo negativo para calcular la caı́da de potencial en las resistencias que atraviesa. De manera
similar, toda fuerza electromotriz cuya corriente de salida esté en sentido contrario a la dirección
elegida como positiva, se considera negativa.
Page (PS/TeX): 14 / 592, COMPOSITE
Redes de conducción y principios de conservación 593
SECCIÓN 6.2
2. Si un circuito tiene n nodos, la ley K1 se debe aplicar únicamente a cualquier subconjunto de n − 1
nodos; pues la ecuación que se obtenga con esta ley en el enésimo nodo será redundante.
3. La ley K2 se debe aplicar a cada una de las mallas que forman el circuito.
Ejemplo 6.13 Encontrar las corrientes I j del circuito contenido en la figura 6-8.
Solución
En virtud de K1, en el nodo A se tiene
I1 + I3 = I2 ;
mientras que en el nodo B
I2 = I1 + I3 .
Por K2, en la malla ABCDA (se eligió positivo el sentido contrario al que avanzan las manecillas del
reloj),
2I1 + 3I2 = 13
y en la malla ABFEA (se consideró positivo el sentido en el que avanzan las manecillas del reloj),
3I2 + 5I3 = 14.
De donde se obtiene el sistema (observe que las dos primeras ecuaciones son idénticas, por eso es
recomendable tener en cuenta el punto 2 de las precedentes recomendaciones)
I1
I1
2I1
−
−
+
I2
I2
3I2
3I2
+
+
I3
I3
+
5I3
=
=
=
=
0
0
13
14
ya que
⎡
1 −1 1
⎢ 1 −1 1
⎢
⎣ 2
3 0
0
3 5
⎤
0
1 −1 1
⎢ 2
13 ⎥
3 0
⎥
⎢
⎣ 0
14 ⎦
3 5
0
0
0 0
⎤
⎡
0
1 −1
1
⎢ 0
13 ⎥
5 −2
⎥
∼ ⎢
⎣ 0
14 ⎦
3
5
0
0
0
0
⎤
⎡
0
1 −1
1
⎢ 0
13 ⎥
5 −2
⎥,
∼ ⎢
⎣ 0
31 ⎦
0 31
0
0
0
0
⎤
0
0 ⎥
⎥ ∼
13 ⎦
14
⎡
al hacer sustitución regresiva resulta
I3 = 1A, I2 = 3A, I1 = 2A.
Page (PS/TeX): 15 / 593, COMPOSITE
594 CAPÍTULO 6
Aplicaciones
Ejemplo 6.14 Encontrar las corrientes I j del circuito contenido en la figura 6-9.
B
D
C
5Ω
I1
15 Ω
I2
I3
140 V
80 V
60 V
10 Ω
35 Ω
A
Figura 6-9
Solución
F
E
•
Aplicando K1 al nodo C se obtiene
I1 + I2 = I3 .
Aplicando K2 a la malla CDEFC (se considera positiva la dirección en el sentido en el que avanzan las
manecillas del reloj),
10I2 + 50I3 = 140 + 60;
y aplicando K2 ahora a la malla ABCFA (se eligió la dirección positiva en el sentido en el que avanzan
las manecillas del reloj),
5I1 − 10I2 = 80 − 140.
El sistema a resolver es entonces,
+
I2
10I2
− 10I2
I1
5I1
−
+
I3
50I3
=
=
=
0
200
−60
Y, ya que
⎡
1
⎣ 0
5
1 −1
10 50
−10
0
⎤
0
200 ⎦ ∼
−60
⎡
1
⎣ 0
0
⎡
1
∼ ⎣ 0
0
−1
5
1
1
1
−3
1
1
0
−1
5
16
⎤
0
20 ⎦
−12
⎤
0
20 ⎦ ,
48
al hacer sustitución regresiva resulta
I1 = −2 A, I2 = 5 A, I3 = 3 A;
donde el signo menos en I1 = −2 A, significa que la corriente I1 fluye en sentido contrario al que le
asignamos en la figura 6-9. Page (PS/TeX): 16 / 594, COMPOSITE
SECCIÓN 6.2
Redes de conducción y principios de conservación 595
6.2.3 Balance quı́mico
Las reacciones quı́micas se representan simbólicamente mediante las llamadas ecuaciones quı́micas.
Cuando moléculas con dos atómos de hidrógeno (H2 ) arden, reaccionan con moléculas con 2 atómos de
oxı́geno (O2 ) del aire, para formar moléculas de agua (H2 O). La ecuación quı́mica de esta reacción es
2H2 + O2 −→ 2H2 O
(6.1)
El signo + se lee como “reacciona con” y la flecha “produce”. En el lado izquierdo de la ecuación
quı́mica se encuentran las sustancias de partida, se les llama reactivas y en el lado derecho de la flecha
las sustancias que se producen con la reacción, productos, separados por el sı́mbolo + cuando hay
más de una sustancia producto; los números que anteceden a los términos de la ecuación se llaman
coeficientes y, de manera análoga al álgebra, no se escriben si son iguales a la unidad. Los subı́ndices
significan el número de átomos de un elemento que forma una molécula; por ejemplo, H2 representa
una molécula con dos átomos de hidrógeno (otra vez, si no aparece un subı́ndice es que éste es uno).
Los coeficientes indican el número de moléculas del término; ası́, en la ecuación (6.1) el coeficiente
2 en 2H2 , indica que se tienen dos moléculas con dos átomos de hidrógeno cada una; mientras que el
coeficiente 2 de H2 O en el lado derecho de (6.1), significa que se producen dos moléculas de agua con
dos átomos de hidrógeno y uno de oxı́geno cada una. Dado que en la naturaleza no se crea ni se destruye
materia, en toda ecuación quı́mica, para cualquiera de los elementos que la componen, el número
de átomos de un elemento es igual en ambos lados (de la flecha). De esta manera, en la ecuación (6.1)
en el lado izquierdo se tienen 2 × 2 = 4 átomos de hidrógeno y 2 átomos de oxı́geno; mientras que en el
lado derecho 2(2 átomos de hidrógeno + un átomo de óxigeno) = 4 átomos de hidrógeno y 2 átomos
de oxı́geno. Cuando se cumple con el principio de conservación en una ecuación quı́mica, se dice que
está balanceada. Sin embargo, en general se conocen las sustancias reactivas y las sustancias producto
y se escribe la ecuación quı́mica sin balancear; entonces se tiene que encontrar los coeficientes, para
que se cumpla el principio de conservación de la igualdad en la cantidad de átomos de cada elemento
en ambos lados de la ecuación; a este proceso se le llama balancear la ecuación quı́mica. Por ejemplo,
consideremos la siguiente reacción quı́mica
CH4 + O2 −→ CO2 + H2 O
de las sustancias reactivas metano y óxigeno para producir dióxido de carbono y vapor de agua. Sean
x1 :
número de moléculas de CH2
x2 :
número de moléculas de O2
que tienen que reccionar para producir
x3 :
número de moléculas de CO2
x4 :
número de moléculas de H2 O
de tal manera que la ecuación quı́mica
x1 CH4 + x2 O2 −→ x3 CO2 + x4 H2 O
esté balanceada. Entonces, por el principio de conservación en la igualdad del número de átomos por
cada elemento en ambos lados de la ecuación quı́mica, se debe tener:
Page (PS/TeX): 17 / 595, COMPOSITE
596 CAPÍTULO 6
Aplicaciones
• el número de átomos de carbono (C) debe ser igual en ambos lados: x1 − x3 = 0,
• el número de átomos de hidrógeno (H) debe ser igual en ambos lados: 4x1 − 2x4 = 0,
• el número de átomos de óxigeno (O) debe ser igual en ambos lados: 2x2 − 2x3 − x4 = 0.
Que produce el sistema lineal homogéneo
x1
4x1
y ya que
2x2
−
x3
−
2x3
−
−
2x4
x4
=
=
=
⎤
⎡
1 0 −1
1 0 −1
0
⎣ 4 0
4
0 −2 ⎦ ∼ ⎣ 0 0
0 2 −2
0 2 −2 −1
⎡
1 0 −1
∼ ⎣ 0 2 −2
0 0
4
⎡
0
0
0
⎤
0
−2 ⎦
−1
⎤
0
−1 ⎦ ;
−2
al hacer sustitución regresiva se obtiene
⎡ 1 ⎤
⎤
2
x1
⎢
⎥
⎢ x2 ⎥
⎢ 1 ⎥
⎢
⎥
⎥ = r⎢
⎢ 1 ⎥; r ∈ R
⎣ x3 ⎦
⎣ 2 ⎦
x4
1
⎡
como solución. Como es evidente que los xi deben ser enteros no negativos, se puede tomar r igual a
cualquier múltiplo entero positivo de 2; sin embargo, se acostrumbra siempre elegir el menor entero
para balancear la ecuación. En este caso r = 2. Luego
⎤
⎡
⎤ ⎡
1
x1
⎢ x2 ⎥ ⎢ 2 ⎥
⎥
⎢
⎥ ⎢
⎣ x3 ⎦ = ⎣ 1 ⎦
2
x4
es la solución buscada y la ecuación balanceada resultante es, entonces,
CH4 + 2O2 −→ CO2 + 2H2 O.
6.3 Análisis insumo-producto
6.3.1 Modelo para economı́a abierta
Supongamos que una economı́a se divide en n industrias y cada una de ellas fabrica un solo producto
final. Como es natural, cada una utiliza algunos productos (insumos) de las otras para fabricar sus
propios artı́culos. Además, cada industria debe generar productos terminados para la demanda final. El
análisis de insumo-producto tiene por objetivo determinar la producción de cada una de las industrias
para satisfacer la demanda final si ésta cambia, suponiendo que la estructura económica no varı́a. La
Page (PS/TeX): 18 / 596, COMPOSITE
SECCIÓN 6.3
Requisitos:
2.1.3.
Análisis insumo-producto 597
Sistemas lineales, matrices invertibles y método de Gauss-Jordan: 1.2.4, 1.2.5 y 2.1.1 a
Consumidor
Productor
I1
I2
..
.
In
I1 I2
· · · In
b11 b12 · · · b1n
b21 b22 · · · b2n
..
..
..
..
.
.
.
.
bn1 bn2 · · · bnn
Demanda
final
Producción
total
h1
h2
..
.
x1
x2
..
.
hn
xn
Tabla 6-1 • Tabla de insumo-demanda-producción.
tabla 6-1, es una tabla de insumo-demanda-producción que contiene la información necesaria para
llevar a cabo este análisis. Cada elemento bi j es el importe, en unidades monetarias, del producto que
fabrica la industra Ii y requiere la industria I j . Cada hi es el importe, en unidades monetarias, que se
demanda finalmente del producto que fabrica la industria Ii y cada xi es la producción total necesaria,
también en unidades monetarias, del producto fabricado por Ii . Entonces se debe tener
xi =
n
∑ bi j + hi
∀i.
(6.2)
j=1
Definamos
ai j =
bi j
xj
es decir, ai j es el valor monetario de la industria Ii que la industria I j debe adquirir para producir una
unidad monetaria de su propio producto. Se tiene entonces
xi =
n
∑ bi j + hi
j=1
=
∑ ai j x j + hi .
j=1
De esta forma, si
A = [ai j ],
el sistema de ecuaciones (6.2) equivale a la ecuación matricial
Ax +h =x
donde x = (x1 , x2 , . . . , xn ) = [ x1
temente (6.3) equivale a
x2
···
xn ]t y h = (h1 , h2 , . . . , hn ) = [ h1
(In − A)x = h
(6.3)
h2
···
hn ]t . Eviden(6.4)
donde In es la matriz identidad de orden n. La matriz In − A se conoce como matriz de Leontief1 (para
econonomı́a abierta), por el creador de estas ideas y ganador del premio Nobel en economı́a en 1973
por sus estudios relacionados con el análisis insumo-producto (input-output) y a la matriz A se le llama
11 Wassily Leontief (1906-1999).
Page (PS/TeX): 19 / 597, COMPOSITE
598 CAPÍTULO 6
Aplicaciones
matriz de insumos o matriz de intercambio. En el caso de que la matriz de Leontief sea invertible, la
solución de estos sistemas equivalentes está dada por
x = (In − A)−1h
siempre que2 x ≥ 0Rn .
Ejemplo 6.15 Una economı́a hipotética consta de tres industrias I1 , I2 e I3 , con la siguiente tabla de
insumo-demanda-producción:
Consumidor
Productor
I1
I2
I2
I1 I2
80 100
80 100
80 60
I3
100
100
100
Demanda
final
Producción
total
40
40
160
320
320
400
Determinar el correspondiente vector de producción x si la demanda final cambia a:
1. h = (84, 56, 35).
2. h = (56, 63, 70).
Las cifras están en millones de unidades monetarias.
Solución
La matriz de insumos A = [ai j ], ai j =
⎡
bi j
xj ,
está dada por
80/320 100/320
100/400
⎢
A = ⎣ 80/320 100/320
⎡
⎢
=⎣
80/320
1
4
1
4
1
4
5
16
5
16
3
16
1
4
1
4
1
4
⎤
⎥
100/400 ⎦
60/320 100/400
⎤
⎥
⎦
Entonces,
⎤ ⎡
1 0 0
⎢
I3 − A = ⎣ 0 1 0 ⎦ − ⎣
0 0 1
⎡
⎡
=
3
4
⎢ 1
⎣ −4
− 14
5
− 16
− 14
11
16
3
− 16
1 5 1
4 16 4
1 5 1
4 16 4
1 3 1
4 16 4
⎤
⎥
⎦
⎤
⎥
− 14 ⎦ .
1
4
Calculemos, por el método de Gauss-Jordan, la inversa de la matriz de Leontief I3 − A:
12 Recuerde que si U = [ui j ] y V = [vi j ] son dos matrices del mismo tamaño, la notación U < V significa ui j < vi j para todo par
i j; mientras 0Rn representa el vector que tiene sus n componentes nulas, y que utilizamos las notaciones u = (u1 , u2 , . . . , un ) para
representar indistintamente a esta n-eada ordenada, o a la matriz columna [ u1 u2 · · · un ]t .
Page (PS/TeX): 20 / 598, COMPOSITE
Análisis insumo-producto 599
SECCIÓN 6.3
⎡
⎢
⎣
3
4
− 14
− 14
5
− 16
− 41
11
16
3
− 16
− 41
3
4
1 0 0
⎤
⎡
1
5
− 12
− 31
− 41
− 14
11
16
3
− 16
⎥ ⎢
0 1 0 ⎦ ∼ ⎣ − 14
0 0 1
⎡
5
− 12
− 13
− 13
0
7
12
7
− 24
⎡
1
5
− 12
− 13
⎢
∼⎣ 0
⎡
7
− 24
2
3
1
5
− 12
− 13
⎢
∼⎣ 0
⎡
0
0
1
2
1
5
− 12
− 13
1 − 47
4
3
4
7
0
0
1
1
5
− 12
⎢
∼⎣ 0
⎡
⎢
∼⎣ 0
0
⎡
1
⎢
∼⎣ 0
0
1
⎢
(I3 − A)−1 = ⎣
1
⎢
=⎣
7
16
7
2
0
8
7
8
7
1
1
1
2
0
⎡ 1 ⎤1
292
=⎣ 264 ⎦ .
210
Page (PS/TeX): 21 / 599, COMPOSITE
⎤⎡
1 2
9
7
16
7
8
7
8
7
⎤
⎥
⎦.
2
⎤
⎥
0 ⎦
12
7
1
⎤
84
⎥⎣
⎦ 56 ⎦
35
2
8
7
8
7
1
0 0
15
7
8
7
⎤
⎥
0 ⎦
12
7
1
2
1
1. Si h = (84, 56, 35), entonces
7
8
7
0 0
0 1
Por tanto:
x=(I3 − A)−1h
⎡ 15
9
0 1
1 0
1
⎤
⎥
0 ⎦
12
7
2
3
8
7
0
1
0 0
1
3
16
7
0
9
7
16
7
15
7
8
7
0 1
5
3
8
7
0
De donde
⎡
⎥
1 0 ⎦
4
3
4
7
1
2
1 − 47
⎤
0 0
4
3
4
7
1
3
1 − 47
0
0 0 1
4
3
1
3
1
3
2
3
⎤
0 0
⎥
0 1 0 ⎦
3
4
1
⎢
∼⎣ 0
4
3
⎤
⎥
⎦
⎤
⎥
⎦.
600 CAPÍTULO 6
Aplicaciones
2. Si h = (56, 63, 70),
⎡
⎢
x = ⎣
⎡
15
7
8
7
9
7
16
7
1
1
⎤
281
= ⎣ 288 ⎦ .
259
⎤⎡
⎤
56
⎥⎣
⎦ 63 ⎦
70
2
8
7
8
7
Para resolver este tipo de problemas no siempre es necesario encontrar (In − A)−1 , donde A es la matriz de insumos, pues si únicamente se va a buscar el vector de producción para un solo vector de demanda dado h1 , entonces es posible que convenga resolver por el método de Gauss el sistema (In − A)x =h1 ,
formando la matriz ampliada [ In − A h1 ] para llevarla a forma escalonada y hacer sustitución regresiva. Pero, dado que en la práctica la demanda final va cambiando por perı́odos, entonces el calcular una
vez la inversa de la matriz de Leontief, y multiplicar por las correspondientes demandas finales, resulta
más útil para estos casos. También, con frecuencia este tipo de problemas se plantea dando la información de la matriz de insumos, en vez de la tabla de insumo-demanda-producto, y la demanda final.
Ejemplo 6.16 Una economı́a está dividida en tres sectores: manufactura (I1 ), agricultura (I2 ) y
servicios (I3 ). La siguiente tabla contiene la información (hipotética) del intercambio de las cantidades de insumos entre ellas por unidad de producción:
Productor
I1
I2
I2
Consumidor
I1 I2 I3
⎤
1/4 1/8 3/8
⎣ 3/8 1/4 1/8 ⎦
1/8 1/8 1/4
⎡
Encontrar las cantidades que tienen que producir (en millones de unidades monetarias) estas industrias
para satisfacer la demanda final:
• 82 unidades del sector manufactura.
• 41 unidades del sector agricultura.
• 123 unidades del sector de servicios.
⎡
Solución
1
⎣ 0
0
0
1
0
⎤ ⎡
1/4
0
0 ⎦ − ⎣ 3/8
1/8
1
⎤ ⎡ 3
4
1/8 3/8
⎢
1/4 1/8 ⎦ = ⎣ − 38
1/8 1/4
− 18
Como el vector de demanda final es h = [ 82 41 123
del sistema
⎤ ⎡
⎡
3
− 18 − 38
4
−1/8
82
⎥ ⎣
⎢
1
3
41
−3/8
∼
−
⎦
⎣ − 38
4
8
123
3/4
3
1
1
−8 −8
4
⎡
1
∼⎣ −3/8
3/4
Page (PS/TeX): 22 / 600, COMPOSITE
− 18
− 38
3
4
− 18
3
4
⎤
⎥
− 18 ⎦
]V t , el vector de produción x es la solución
−1/8
3/4
3/4 −1/8
−1/8 −3/8
⎤
123
41 ⎦
82
1
−6
3/4 −1/8
−1/8 −3/8
⎤
−984
41 ⎦
82
SECCIÓN 6.3
⎡
1
−6
− 19
8
0
9
8
− 78
33
8
820
1
1
−6
−984
⎢
∼⎣ 0
⎡
−984
1
⎢
∼⎣ 0
0
⎡
1 − 19
9
− 78
33
8
1 1 −6
⎢
∼⎣ 0 1 − 19
9
41
18
0 0
Análisis insumo-producto 601
⎤
⎥
−328 ⎦
⎤
⎥
− 2624
⎦
9
820
⎤
−984
⎥
− 2624
⎦
9
5084
9
y al hacer sustitución regresiva obtenemos
⎤
⎤ ⎡
x1
272
⎣ x2 ⎦ = ⎣ 232 ⎦ .
248
x3
⎡
Es decir, el sector de manufactura debe producir 272 unidades, el sector agropecuario debe producir 232
unidades y el sector de servicios tiene que producir 248 unidades. Una cuestión básica, que ya mencionamos, es la posibilidad de que la matriz de Leontief pueda no ser
invertible y si lo es, ello no garantiza (In − A)−1h ≥ 0Rn para todos los vectores de demanda admisibles.
La suma de los elementos de una columna de la matriz de insumos representa la fracción de una unidad
monetaria que la industria, que encabeza esa columna, gasta para crear una unidad monetaria de su
propio producto. En una economı́a abierta existe un sector externo (exógeno), que consume la demanda
final de cada sector industrial; este sector participa en el proceso, por ejemplo, con mano de obra; ası́ que
parte del gasto que hace cada industria debe destinarse a salarios, los cuales no están considerados en la
matriz de insumos. Por tanto, en el modelo de Leontief, la suma de los elementos de cada columna debe
ser inferior a una unidad monetaria; pues el resto se destina, por ejemplo, a pagar salarios. Esta propiedad
es suficiente para garantizar la no singularidad de la matriz de Leontief y la no negatividad del producto
de su inversa con los vectores de demanda que son admisibles. Enunciamos este resultado en la siguiente
proposición y postergamos la demostración para el final de esta sección (apartado 6.3.4, proposición
6.9) donde también se incluye un método de aproximación para la inversa de la matriz de Leontief.
Proposición 6.1 Sea A una matriz de insumos para una economı́a abierta; esto es, A = [ai j ] ∈
n
Mn , ai j ≥ 0 para todo par de subı́ndices i, j y ∑ ai j < 1, para todo j = 1, 2, . . . , n. Entonces:
i=1
1. La matriz de Leontief (In − A), donde In es la matriz identidad de orden n, es invertible.
2. Todas las componentes de la matriz (In − A)−1 son no negativas.
3. (In − A)−1x ≥ 0Rn para todo x ≥ 0Rn .
Page (PS/TeX): 23 / 601, COMPOSITE
602 CAPÍTULO 6
Aplicaciones
6.3.2 Modelo para economı́a cerrada
En el análisis insumo-producto supusimos que existe una demanda externa de los productos que fabrican
los sectores industriales que forman el sistema económico productivo. Sin embargo, es posible que en
economı́as más simples todo lo producido por esos sectores sea consumido en su totalidad por ellos
mismos. En tal caso el modelo de Leontief, para economı́as cerradas, consiste en encontrar valores de
equilibrio del sistema; es decir, la relación que deben tener las producciones de cada sector de tal manera
que sus ingresos igualen a sus egresos. Supongamos que una economı́a sencilla tiene la siguiente tabla
insumo-producción,
Productor
I1
I2
···
In
I1
I2
..
.
a11
a21
..
.
a12
a22
..
.
···
···
..
.
a1n
a2n
..
.
In
an1
an2
···
ann
Consumidor
(6.5)
donde ai j es la fracción del total de la producción de la industria I j que requiere como insumo la industria Ii . En este modelo todo lo que produce una industria se consume en el sistema; ası́ que los ai j
satisfacen 0 ≤ ai j ≤ 1 y ∑ni=1 ai j = 1 para todo j; es decir, la suma de los elementos en cada columna
es uno. Nuevamente, a la matriz A = [ai j ] se le llama matriz de insumos o matriz de intercambio. Sea
x = (x1 , x2 , . . . , xn ) el vector de producción; esto es, xi es la cantidad, en unidades monetarias, que la industria Ii debe producir para que se cumplan las condiciones de equilibrio. Sea Ii una de estas industrias,
entonces, de la tabla 6-5, el egreso total de Ii está dado por
ai1 x1 + ai2 x2 + · · · + ain xn
puesto que el egreso debe ser igual al ingreso,
ai1 x1 + ai2 x2 + · · · + ain xn = xi .
Por tanto, se obtiene el sistema lineal homogéneo
(1 − a11 )x1
−a21 x1
−
+
..
.
a12 x2
(1 − a22 )x2
−an1 x1
−
an2 x2
− ··· −
− ··· −
..
..
.
.
− ··· −
a1n xn
a2n xn
=
=
..
.
0
0
(1 − ann )xn
=
0
Es decir,
(In − A)x = 0Rn
(6.6)
Llamaremos a la matriz In − A, matriz de Leontief para el modelo de economı́a cerrada.
Ejemplo 6.17 En una economı́a sencilla, la distribución insumo-producto se muestra en la siguiente
tabla (hipotética):
Page (PS/TeX): 24 / 602, COMPOSITE
SECCIÓN 6.3
Análisis insumo-producto 603
Productor
Consumidor
Agricultura
Construcción
Vestido
Agricultura
1/4
1/2
1/4
Construcción
1/2
1/4
1/4
Vestido
1/4
1/4
1/2
Encontrar qué condición debe cumplir el vector de producción para que los ingresos sean iguales a los
egresos en cada sector.
Solución
La matriz de insumo para este caso es
⎡
1/4 1/2
A = ⎣ 1/2 1/4
1/4 1/4
⎤
1/4
1/4 ⎦
1/2
Resolvamos el sistema homogéneo (6.6):
⎤ ⎡
1/4
1 0 0
⎣ 0 1 0 ⎦ − ⎣ 1/2
1/4
0 0 1
⎡
3/4 −1/2 −1/4
⎣ −1/2
3/4 −1/4
−1/4 −1/4
1/2
⎡
−1/4 −1/4
1/2
⎣ −1/2
3/4 −1/4
3/4 −1/2 −1/4
⎡
1
1
−2
⎣ −1/2
3/4 −1/4
3/4 −1/2 −1/4
⎤
⎡
1
1
−2
⎣ 0
5/4 −5/4 ⎦
0 −5/4
5/4
⎡
⎤
1
1
−2
⎣ 0 5/4 −5/4 ⎦
0
0
0
⎤
⎡
1 1 −2
⎣ 0 1 −1 ⎦
0 0
0
⎡
I3 − A
=
=
∼
∼
∼
∼
∼
1/2
1/4
1/4
⎤
⎤
1/4
1/4 ⎦
1/2
⎦
⎤
⎦
⎤
⎦
Al hacer sustitución regresiva obtenemos
⎡
⎤ ⎡ ⎤
x1
r
⎣ x2 ⎦ = ⎣ r ⎦ , r > 0.
r
x3
Es decir, los tres sectores deben producir el mismo número de unidades monetarias.
Para que existan soluciones del sistema (6.6) es necesario que la matriz In − A no sea invertible
(contrariamente al modelo para economı́a abierta); sin embargo, como la economı́a es cerrada, todo
se vende y todo se compra dentro del propio sistema; por tanto, la suma de las componentes de cada
columna en la matriz de insumo debe resultar igual a 1. Esto garantizará que la matriz de Leontief para
Page (PS/TeX): 25 / 603, COMPOSITE
604 CAPÍTULO 6
Aplicaciones
el modelo de economı́a cerrada no sea invertible y que el sistema homogéneo (6.6) tenga una infinidad
de soluciones. Debido a esto, en el modelo de economı́a cerrada no se resuelve el problema de cómo
fijar los valores de la producción en el vector que las contiene, sino las relaciones numéricas que ellos
tienen; en el ejemplo precedente la relación es x1 = x2 = x3 . El lector puede consultar la demostración
de que la matriz de Leontief para el modelo de economı́a cerrada no es invertible en la proposición 6.2
del siguiente apartado dedicado a ese fin.
6.3.3 Singularidad de la matriz de Leontief para el modelo de economı́a cerrada
Requisitos:
Criterios de independencia lineal en Rn : 3.3.1
Recordemos que en el inciso (b), del teorema 3.12, del apartado 3.3.1, mostramos que una matriz cuadrada de orden n no es invertible si y sólo si los n vectores que corresponden a sus columnas son linealmente
dependientes. Es evidente, dado que una matriz es invertible si y sólo si su matriz transpuesta lo es, que
la citada afirmación del teorema 3.12 sigue siendo válida si en lugar de considerar los vectores columna
de la matriz, se aplica el criterio a los vectores fila de la matriz.
Proposición 6.2 Sea A = [ai j ] la matriz de insumos para el modelo de economı́a cerrada de Leontief,
esto es:
1. 0 ≤ ai j ≤ 1 para todo i, j.
2. ∑ni=1 ai j = 1 para todo j = 1, 2, . . . , n.
Entonces, la matriz de Leontief para el modelo de economı́a cerrada, In − A, no es invertible.
DEMOSTRACIÓN
⎡
Q
⎢
⎢
⎢
In − A = ⎢
⎢
⎣
1 − a11
−a21
−a31
..
.
−a12
1 − a22
−a32
..
.
−a13
−a23
1 − a33
..
.
···
···
···
..
.
−a1n
−a2n
−a3n
..
.
−an1
−an2
−an3
···
1 − ann
⎤
⎥
⎥
⎥
⎥.
⎥
⎦
(6.7)
y ya que para cada j = 1, . . . , n, ∑ni=1 ai j = 1, entonces
1 − a11 = −(−a21 − a31 − · · · − an1 )
−a12 = −(1 − a22 − a32 − · · · − an2 )
−a13 = −(−a23 + (1 − a33 ) − · · · − an3 )
..
.
−a1n = −(−a2n − a3n − · · · + (1 − ann ));
por tanto
(1 − a11 , −a12 , −a13 , . . . , −a1n ) = (−1)(−a21 , 1 − a22 , −a23 , . . . , −a2n )
+(−1)(−a31 , −a32 , 1 − a33 , . . . , −a3n )
+ · · · + (−1)(−an1 , −an2 , −an3 , . . . , 1 − ann ).
Por lo que las filas de la matriz son linealmente dependientes y, por ende, la matriz In − A no es invertible.
Page (PS/TeX): 26 / 604, COMPOSITE
Q
SECCIÓN 6.3
Análisis insumo-producto 605
6.3.4 Inversa de la matriz de Leontief para el modelo de economı́a abierta
6.3.4 y método de aproximación
Requisitos:
Espacios vectoriales normados, nociones de lı́mite de sucesiones reales: 4.2.
Inversa de la matriz de Leontief
En el ejemplo 4.41 vimos que (x1 , x2 , . . . , xn ) 1 = |x1 | + |x2 | + · · · + |xn | es una norma en Rn ; en el
ejemplo 4.43 probamos que si A = [ai j ] es una matriz de tamaño m × n, entonces A 1 = ∑ni=1 ∑nj=1 |ai j |,
la suma de los valores absolutos de todas las componentes de la matriz y A ∞ = máx{ |ai j | : i = 1, . . . , n,
j = 1, . . . , m } son normas en el espacio vectorial Mm×n . En el teorema 4.22 se hizo patente el hecho
de que cualquier par de normas en un espacio vectorial de dimensión finita son equivalentes y que,
por tanto, para fines de proximidad, se puede trabajar en cualquier espacio finitamente generado con
la norma que más convenga. Vamos entonces a definir, en la siguiente proposición, una norma en el
espacio de matrices cuadradas que será bastante cómoda para poder establecer la demostración de la
proposición 6.1 y dar un método de aproximación a la inversa de la matriz de Leontief.
Proposición 6.3 Sea A = [ai j ] ∈ Mn , con columnask j = (a1 j , a2 j , . . . , an j ) = [ a1 j
j = 1, 2, . . . , n; se define
A = máx k j 1
a2 j
···
an j ]t ,
1≤ j≤n
es decir,
A = máx
1≤ j≤n
n
∑ |ai j |
.
i=1
Entonces · es una norma en Mn .
DEMOSTRACIÓN
Q 1. Claramente A ≥ 0 para toda matriz A ∈ Mn .
2. Si A = O, evidentemente A = 0. Supongamos que A = [ai j ] ∈ Mn y A = 0, entonces
|ai j | ≤ A = 0
implica A = O.
3. Sea λ ∈ R y A = [ai j ] ∈ Mn . Entonces
λA = máx λk j
1≤ j≤n
1
= máx |λ| k j
1
= |λ| máx k j
1
1≤ j≤n
1≤ j≤n
= |λ| A .
4. Si A = [ai j ] y B = [bi j ] son matrices cuadradas de orden n con columnas k j y h j , respectivamente,
entonces
Page (PS/TeX): 27 / 605, COMPOSITE
606 CAPÍTULO 6
Aplicaciones
A + B = máx k j +h j
1
1≤ j≤n
≤ máx
1≤ j≤n
k j
1+
h j
1
≤ A + B .
De 1, 2, 3 y 4 se concluye que · es una norma en Mn .
Q
La norma definida en la proposición anterior tiene una propiedad muy importante que no poseen
otras normas, por ejemplo · ∞ , (cfr. ejercicio 327 del capı́tulo 4); esta es la razón por la que hemos
dicho que es una norma cómoda para alcanzar el propósito de este apartado. La propiedad a la que
hacemos referencia está contenida en el segundo inciso de la siguiente proposición.
Proposición 6.4 Sea · la norma definida en la proposición 6.3, entonces
1.
Ax
≤ A x
1
1
para toda matriz A ∈ Mn y para todo x ∈ R .
n
AB ≤ A B
2.
para todo par de matrices A, B ∈ Mn .
DEMOSTRACIÓN
Q 1. Sea A ∈ Mn , con columnas k j , y x = (x1 , x2 , . . . , xn ) ∈ Rn . Entonces (cfr. ejemplo 1.15)
Ax
1
= x1k1 + x2k2 + · · · + xnkn
≤ |x1 | k1 1 + |x2 | k2 1 + · · · + |xn | kn
1
≤ |x1 | A + |x2 | A + · · · + |xn | A
= A (|x1 | + |x2 | + · · · + |xn |)
= A x
1.
2. Sean A, B ∈ Mn , con h j , j = 1, 2, . . . , n, las columnas de B. Entonces (cfr. ejemplo 1.14)
AB = [ Ah1
Ah2
Ahn ]
···
y, por tanto,
AB = máx Ah j
1≤ j≤n
1
≤ máx A h j
1≤ j≤n
= A B .
1
Q
Definición 6.1 (Convergencia de sucesiones de matrices) Sea {Aν } una sucesión de matrices
A1 , A2 , . . . , Aν , . . . en el espacio de matrices cuadradas Mn . Se dice que la sucesión {Aν } converge o
tiene como lı́mite a una matriz L ∈ Mn , cuando ν tiende a infinito y se escribe
lı́m Aν = L,
ν→∞
Page (PS/TeX): 28 / 606, COMPOSITE
si
lı́m Aν − L = 0.
ν→∞
SECCIÓN 6.3
Análisis insumo-producto 607
Una sucesión de matrices cuadradas, {Aν }, converge a lo más a una matriz L. En efecto, si L1 , L2 ∈
Mn y la sucesión de matrices converge a L1 y a L2 , entonces
L1 − L2 = (L1 − Aν ) + (Aν − L2 )
≤ (L1 − Aν ) + (Aν − L2 )
y como {Aν } converge a L1 y L2 , entonces (L1 − Aν ) , (Aν − L2 ) son arbitrariamente pequeños
tomando ν suficientemente grande; lo cual implica
L1 − L 2 = 0
y, por tanto, L1 = L2 .
P Nota 6.1 Se puede probar, lo cual no haremos para no extendernos más, que una sucesión {Aν } es
convergente si y sólo si
lı́m
ν,μ→∞
Aμ − Aν = 0.
Esta es un propiedad fundamental en las matemáticas que no se da únicamente en este caso, sino en
cualquier espacio vectorial normado de dimensión finita. Pero no siempre es válida si la dimensión
del espacio es infinita; de hecho, cuando se cumple en un espacio, se dice que éste es completo. Esta
propiedad es de gran utilidad porque sirve para probar la convergencia de una sucesión aun cuando no
sea posible exhibir explı́citamente su lı́mite.
Las siguientes dos propiedades son sencillas de probar y se dejan de ejercicio las demostraciones al
lector.
Proposición 6.5 Si lı́mν→∞ Aν = L y lı́mν→∞ Bν = H y α ∈ R, entonces:
lı́m (Aν + Bν ) = L + H.
1.
ν→∞
lı́m α Aν = αL.
2.
ν→∞
Proposición 6.6 Sean {Aν } una sucesión de matrices cuadradas que converge a L ∈ Mn y M ∈ Mn .
Entonces
lı́m MAν = ML.
ν→∞
DEMOSTRACIÓN
Q
lı́m MAν − ML = lı́m M(Aν − L)
ν→∞
ν→∞
≤ lı́m M
ν→∞
Aν − L
= M lı́m Aν − L
ν→∞
= M ·0
= 0;
Page (PS/TeX): 29 / 607, COMPOSITE
608 CAPÍTULO 6
Aplicaciones
lo cual implica
lı́m MAν = ML. Q
ν→∞
(ν)
Proposición 6.7 Sea Aν = [ai j ] una3 sucesión de matrices cuadradas y L = [li j ] ∈ Mn . Entonces
(ν)
lı́m Aν = L ⇔ lı́m ai j = li j ∀ i, j.
ν→∞
DEMOSTRACIÓN
ν→∞
Q (⇒) Supongamos que lı́mν→∞ Aν = L, entonces si i, j son un par de ı́ndices fijos,
(ν)
≤
ai j − li j
n
∑
(ν)
ak j − lk j
k=1
≤
Aν − L
de donde
(ν)
lı́m ai j − li j = 0.
ν→∞
(ν)
(ν)
(⇐) Sean k j las columnas de la matriz Aν y l j las columnas de la matriz L. Entonces lı́mν→∞ ai j = li j
∀ i, j implica
(ν)
lı́m k j −l j
ν→∞
1
=0
y, por tanto,
(ν)
lı́m Aν − L = lı́m máx k j −l j
ν→∞
ν→∞ 1≤ j≤1
= 0.
1
Q
Ejemplo 6.18 Probar que si A ∈ Mn es tal que A < 1, entonces
lı́m Aν = O.
ν→∞
DEMOSTRACIÓN
Q Sabemos que si {aν } es una sucesión de números reales, con |aν | < 1 para todo ν, entonces lı́mν→∞ aν =
0; por tanto, de la proposición 6.4,
0 ≤ lı́m Aν ≤ lı́m A
ν→∞
ν→∞
luego
lı́m Aν = 0;
ν→∞
esto es,
lı́m Aν = O .
ν→∞
(v)
13 En la notación ai j , (ν) es un supraı́ndice, no un exponente.
Page (PS/TeX): 30 / 608, COMPOSITE
Q
ν
= 0,
Análisis insumo-producto 609
SECCIÓN 6.3
Proposición 6.8 (Serie geométrica en Mn ) Sea A ∈ Mn con A < 1. Se define Sν = In + A + A2 +
· · · + Aν , para cada v = 1, 2, . . . . , donde In es la matriz identidad de orden n. Entonces la sucesión
{Sν } es convergente.
DEMOSTRACIÓN
Q Sabemos que una sucesión de números reales {an } es convergente si y sólo si lı́mv,μ→∞ (aν − aμ ) = 0.
Entonces, ya que, suponiendo sin perder generalidad que μ ≥ ν,
Sμ − Sν = Aν+1 + Aν+2 + · · · + Aμ
≤ Aν+1 + Aν+2 + · · · + Aμ
≤ A
ν+1
se desprende del hecho de que la serie geométrica
ν+2
+ A
∞
∑
K
A
+···+ A
μ
converge, pues A < 1, que
k=1
lı́m
ν,μ→∞
Sμ − Sν = lı́m
ν,μ→∞
A
ν+1
+ A
Descargar