Subido por Mariela Lima

VolumenUNO

Anuncio
See discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/326829698
Matemáticas Avanzadas: de los espacios lineales al análisis vectorial, con
aplicaciones en MAXIMA
Preprint · August 2018
DOI: 10.13140/RG.2.2.16232.37129
CITATIONS
READS
0
424
2 authors:
Héctor Hernández
Luis Nunez
University of the Andes (Venezuela)
Industrial University of Santander
23 PUBLICATIONS 359 CITATIONS
247 PUBLICATIONS 4,340 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
Caracterización de SiPMs View project
Water Cherenkov Detector at Universidad Industrial de Santander View project
All content following this page was uploaded by Héctor Hernández on 04 August 2018.
The user has requested enhancement of the downloaded file.
SEE PROFILE
ad
o
rr
Bo
lim
rP
re
ar
in
ar
in
rP
re
lim
Matemáticas Avanzadas:
de los espacios lineales al análisis vectorial,
con aplicaciones en Maxima
H. Hernández
Departamento de Fı́sica, Facultad de Ciencias,
Universidad de Los Andes, Mérida-Venezuela
ad
o
L. A. Núñez
Escuela de Fı́sica, Facultad de Ciencias,
Universidad Industrial de Santander, Bucaramanga-Colombia
Bo
rr
4 de agosto de 2018
ad
o
rr
Bo
lim
rP
re
ar
in
ii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
rP
re
ad
o
rr
Bo
iii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
in
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
lim
1. Los vectores de siempre
1.1. Vectores geométricos . . . . . . . . . . . . . . . . . . . . . .
1.1.1. Escalares y vectores . . . . . . . . . . . . . . . . . .
1.1.2. Álgebra de vectores . . . . . . . . . . . . . . . . . .
1.1.3. Vectores linealmente independientes . . . . . . . . .
1.1.4. Productos de vectores . . . . . . . . . . . . . . . . .
1.1.5. Producto triple o mixto . . . . . . . . . . . . . . . .
1.1.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . .
1.1.7. Practicando con Maxima . . . . . . . . . . . . . . .
1.1.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Vectores en componentes . . . . . . . . . . . . . . . . . . . .
1.2.1. Bases y componentes . . . . . . . . . . . . . . . . . .
1.2.2. Cosenos directores . . . . . . . . . . . . . . . . . . .
1.2.3. Una división fallida . . . . . . . . . . . . . . . . . . .
1.2.4. Algebra vectorial en componentes . . . . . . . . . . .
1.2.5. Dependencia e independencia lineal . . . . . . . . . .
1.2.6. Productos de vectores en componentes . . . . . . . .
1.2.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . .
1.2.8. Practicando con Maxima . . . . . . . . . . . . . . .
1.2.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . .
1.3. Aplicaciones del álgebra vectorial . . . . . . . . . . . . . . .
1.3.1. Rectas y vectores . . . . . . . . . . . . . . . . . . . .
1.3.2. Planos y vectores . . . . . . . . . . . . . . . . . . . .
1.3.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . .
1.3.4. Practicando con Maxima . . . . . . . . . . . . . . .
1.3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . .
1.4. Álgebra vectorial con ı́ndices . . . . . . . . . . . . . . . . .
1.4.1. Convención de Einstein . . . . . . . . . . . . . . . .
1.4.2. Vectores e ı́ndices . . . . . . . . . . . . . . . . . . . .
1.4.3. Rotación de coordenadas . . . . . . . . . . . . . . .
1.4.4. Escalares, pseudoescalares, vectores y pseudovectores
1.4.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . .
1.4.6. Practicando con Maxima . . . . . . . . . . . . . . .
1.4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . .
1.5. Un comienzo a la derivación e integración de vectores . . .
1.5.1. Vectores variables . . . . . . . . . . . . . . . . . . .
1.5.2. Derivación . . . . . . . . . . . . . . . . . . . . . . . .
1.5.3. Velocidades y aceleraciones . . . . . . . . . . . . . .
1.5.4. Vectores y funciones . . . . . . . . . . . . . . . . . .
1.5.5. El operador ∇ . . . . . . . . . . . . . . . . . . . . .
1.5.6. Integración . . . . . . . . . . . . . . . . . . . . . . .
1.5.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . .
1.5.8. Practicando con Maxima . . . . . . . . . . . . . . .
1.5.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . .
1.6. Vectores y números complejos . . . . . . . . . . . . . . . . .
ar
Índice general
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
4
4
6
7
9
9
11
13
14
14
15
16
16
16
17
18
19
21
22
22
23
24
25
26
28
29
30
31
32
34
35
37
37
37
38
39
41
43
44
45
51
58
60
ÍNDICE GENERAL
iv
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2. Espacios vectoriales lineales
2.1. Grupos, campos y espacios vectoriales . . . . . . . . . . . . .
2.1.1. Grupos . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.2. Campo . . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.3. Espacios vectoriales lineales . . . . . . . . . . . . . . .
2.1.4. Algunos espacios vectoriales . . . . . . . . . . . . . . .
2.1.5. La importancia de la notación . . . . . . . . . . . . . .
2.1.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . .
2.1.7. Practicando con Maxima . . . . . . . . . . . . . . . .
2.1.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Espacios métricos, normados y con producto interno . . . . .
2.2.1. Métricas y espacios métricos . . . . . . . . . . . . . .
2.2.2. Normas y espacios normados . . . . . . . . . . . . . .
2.2.3. Espacios euclidianos . . . . . . . . . . . . . . . . . . .
2.2.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.5. Practicando con Maxima . . . . . . . . . . . . . . . .
2.2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . .
2.3. Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1. Dependencia/Independencia lineal . . . . . . . . . . .
2.3.2. Bases de un espacio vectorial . . . . . . . . . . . . . .
2.3.3. El determinante de Gram . . . . . . . . . . . . . . . .
2.3.4. Ortogonalidad y bases ortogonales . . . . . . . . . . .
2.3.5. Ortogonalización . . . . . . . . . . . . . . . . . . . . .
2.3.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.7. Practicando con Maxima . . . . . . . . . . . . . . . .
2.3.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . .
2.4. Aproximación de funciones . . . . . . . . . . . . . . . . . . .
2.4.1. Complementos ortogonales y descomposición ortogonal
2.4.2. Condiciones para la aproximación de funciones . . . .
2.4.3. El método de mı́nimos cuadrados . . . . . . . . . . . .
2.4.4. Interpolación polinomial de puntos experimentales . .
2.4.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.6. Practicando con Maxima . . . . . . . . . . . . . . . .
2.4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
77
77
77
80
80
81
83
83
85
87
89
89
90
91
95
96
99
104
104
104
106
106
109
109
112
115
116
116
117
118
119
119
123
130
3. Vectores duales y tensores
3.1. Funcionales lineales . . . . . . . . . . . . . . . . . . . .
3.1.1. Espacio vectorial dual . . . . . . . . . . . . . .
3.1.2. Espacios duales y bases recı́procas . . . . . . .
3.1.3. Vectores, formas y leyes de transformación . .
3.1.4. Ejemplos . . . . . . . . . . . . . . . . . . . . .
3.1.5. Practicando con Maxima . . . . . . . . . . . .
3.1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . .
3.2. Tensores y producto tensorial . . . . . . . . . . . . . .
3.2.1. Tensores, una definición funcional . . . . . . .
3.2.2. Producto tensorial . . . . . . . . . . . . . . . .
3.2.3. Espacios tensoriales . . . . . . . . . . . . . . .
3.2.4. Bases para un producto tensorial . . . . . . . .
3.2.5. Tensores, sus componentes y sus contracciones
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
135
136
136
137
138
139
141
146
147
147
148
149
150
151
rP
re
ad
o
rr
Bo
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
60
61
63
65
68
70
73
ar
.
.
.
.
.
.
.
in
Los números complejos y su álgebra
Vectores y el plano complejo . . . .
Fórmulas de Euler y De Moivre . . .
Algunas aplicaciones inmediatas . .
Ejemplos . . . . . . . . . . . . . . .
Practicando con Maxima . . . . . .
Ejercicios . . . . . . . . . . . . . . .
lim
1.6.1.
1.6.2.
1.6.3.
1.6.4.
1.6.5.
1.6.6.
1.6.7.
ÍNDICE GENERAL
v
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
154
155
155
156
158
175
178
180
181
182
184
187
188
191
191
192
195
198
200
202
206
4. Matrices, determinantes y autovectores
4.1. Operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.1. Espacio vectorial de operadores lineales . . . . . . . . .
4.1.2. Composición de operadores lineales . . . . . . . . . . . .
4.1.3. Proyectores . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1.5. Practicando con Maxima . . . . . . . . . . . . . . . . .
4.1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2. Tipos de operadores . . . . . . . . . . . . . . . . . . . . . . . .
4.2.1. Espacio nulo e imagen de un operador . . . . . . . . . .
4.2.2. Operadores biyectivos e inversos . . . . . . . . . . . . .
4.2.3. Operadores adjuntos . . . . . . . . . . . . . . . . . . . .
4.2.4. Operadores hermı́ticos . . . . . . . . . . . . . . . . . . .
4.2.5. Operadores unitarios . . . . . . . . . . . . . . . . . . . .
4.2.6. Funciones de operadores . . . . . . . . . . . . . . . . . .
4.2.7. Diferenciación de operadores . . . . . . . . . . . . . . .
4.2.8. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2.9. Practicando con Maxima . . . . . . . . . . . . . . . . .
4.2.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3. Representación matricial de operadores . . . . . . . . . . . . .
4.3.1. Álgebra elemental de matrices . . . . . . . . . . . . . .
4.3.2. Bases y la representación matricial de operadores . . . .
4.3.3. Representación matricial y transformaciones . . . . . . .
4.3.4. Traza de operadores . . . . . . . . . . . . . . . . . . . .
4.3.5. Un paréntesis determinante . . . . . . . . . . . . . . . .
4.3.6. Diferenciación de operadores y representación matricial
4.3.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3.8. Practicando con Maxima . . . . . . . . . . . . . . . . .
4.3.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4. Un zoológico de matrices cuadradas . . . . . . . . . . . . . . .
4.4.1. Matriz unidad y la matriz nula . . . . . . . . . . . . . .
4.4.2. Matriz diagonal y diagonal a bloques . . . . . . . . . . .
4.4.3. Matriz transpuesta . . . . . . . . . . . . . . . . . . . . .
4.4.4. Matriz de cofactores . . . . . . . . . . . . . . . . . . . .
4.4.5. Matriz adjunta . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
211
212
214
215
216
216
218
220
221
221
223
224
225
225
225
226
228
229
230
231
232
232
233
233
234
237
238
243
247
249
250
250
250
250
250
rP
re
ad
o
rr
Bo
ar
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
in
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
lim
3.2.6. Tensor métrico, ı́ndices y componentes . . . . . . . .
3.2.7. Métrica, elemento de lı́nea y factores de escala . . .
3.2.8. Teorema del cociente . . . . . . . . . . . . . . . . . .
3.2.9. Vectores, formas, tensores y leyes de transformación
3.2.10. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . .
3.2.11. Practicando con Maxima . . . . . . . . . . . . . . .
3.2.12. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . .
3.3. Vectores, tensores y espacios pseudoeuclidianos . . . . . . .
3.3.1. Espacios minkowskianos . . . . . . . . . . . . . . . .
3.3.2. Un toque de Relatividad Especial . . . . . . . . . . .
3.3.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . .
3.3.4. Practicando con Maxima . . . . . . . . . . . . . . .
3.3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . .
3.4. Espacios de funciones . . . . . . . . . . . . . . . . . . . . .
3.4.1. La función delta de Dirac . . . . . . . . . . . . . . .
3.4.2. Bases continuas . . . . . . . . . . . . . . . . . . . . .
3.4.3. Bases de ondas planas y la transformada de Fourier
3.4.4. Las representaciones |ri y |pi . . . . . . . . . . . . .
3.4.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . .
3.4.6. Practicando con Maxima . . . . . . . . . . . . . . .
3.4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . .
ÍNDICE GENERAL
vi
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
251
251
251
251
252
253
255
256
256
257
258
258
259
260
263
265
265
266
267
267
274
277
279
279
281
282
285
292
294
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
299
300
301
302
303
305
306
309
310
317
322
323
325
325
327
327
327
329
330
330
333
336
339
340
342
343
348
ar
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
rP
re
lim
in
4.4.6. Matriz singular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.7. Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.8. Matriz ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.9. Matrices complejas . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.10. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.11. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . .
4.4.12. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5.1. Eliminación de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . .
4.5.2. El método de la matriz inversa . . . . . . . . . . . . . . . . . . . . . .
4.5.3. Factorización LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5.4. Método de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5.6. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . .
4.5.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6. Autovectores y autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6.1. Autovalores, autovectores e independencia lineal . . . . . . . . . . . .
4.6.2. El polinomio caracterı́stico, autovalores y autovectores de un operador
4.6.3. El caso degenerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6.5. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . .
4.6.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.7. Autovalores y autovectores de matrices importantes . . . . . . . . . . . . . .
4.7.1. Autovalores y autovectores de matrices hermı́ticas y unitarias . . . . .
4.7.2. Autovalores y autovectores de matrices similares . . . . . . . . . . . .
4.7.3. Conjunto completo de observables que conmutan . . . . . . . . . . . .
4.7.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.7.5. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . .
4.7.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Bo
rr
ad
o
5. Coordenadas curvilı́neas, campos y operadores diferenciales
5.1. Coordenadas curvilı́neas generalizadas . . . . . . . . . . . . . .
5.1.1. Coordenadas cartesianas . . . . . . . . . . . . . . . . . .
5.1.2. Coordenadas cilı́ndricas . . . . . . . . . . . . . . . . . .
5.1.3. Coordenadas esféricas . . . . . . . . . . . . . . . . . . .
5.1.4. Otros sistemas coordenados . . . . . . . . . . . . . . . .
5.1.5. Curvas y parámetros . . . . . . . . . . . . . . . . . . . .
5.1.6. Covectores, tensores y coordenadas curvilı́neas . . . . .
5.1.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1.8. Practicando con Maxima . . . . . . . . . . . . . . . . .
5.1.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2. Campos tensoriales . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.1. Campos escalares y superficies . . . . . . . . . . . . . .
5.2.2. Campos vectoriales y curvas integrales . . . . . . . . . .
5.2.3. Flujo de campos vectoriales . . . . . . . . . . . . . . . .
5.2.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.5. Practicando con Maxima . . . . . . . . . . . . . . . . .
5.2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3. La fauna de los operadores vectoriales . . . . . . . . . . . . . .
5.3.1. Derivada direccional, diferencial total y gradiente . . . .
5.3.2. Divergencia y flujo en campos vectoriales . . . . . . . .
5.3.3. Rotores, lı́neas de torbellino y circulación . . . . . . . .
5.3.4. Formulario del operador nabla, ∇ . . . . . . . . . . . .
5.3.5. Nabla dos veces y el laplaciano . . . . . . . . . . . . . .
5.3.6. Derivadas direccionales de campos vectoriales . . . . . .
5.3.7. La derivada covariante . . . . . . . . . . . . . . . . . . .
5.3.8. Derivadas absolutas y geodésicas . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
ÍNDICE GENERAL
vii
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
349
356
359
361
361
363
364
365
367
369
370
370
374
377
382
384
385
386
387
388
388
389
390
394
397
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Bo
rr
ad
o
6. Apéndice
6.1. Introducción a los CAS . . . .
6.2. Maxima: Sintaxis básica . . . .
6.2.1. Cálculos elementales . .
6.2.2. Bibliotecas . . . . . . .
6.2.3. Maxima en modo texto
6.2.4. Invocando la ayuda . . .
6.2.5. Ejercicios . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
401
402
403
406
414
417
418
419
lim
in
ar
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
rP
re
5.3.9. Ejemplos . . . . . . . . . . . . . . . . . . . .
5.3.10. Practicando con Maxima . . . . . . . . . . .
5.3.11. Ejercicios . . . . . . . . . . . . . . . . . . . .
5.4. Integrales y campos vectoriales . . . . . . . . . . . .
5.4.1. Integrales de lı́nea . . . . . . . . . . . . . . .
5.4.2. Integrales de superficie . . . . . . . . . . . . .
5.4.3. Integrales de volumen . . . . . . . . . . . . .
5.4.4. Ejemplos . . . . . . . . . . . . . . . . . . . .
5.4.5. Practicando con Maxima . . . . . . . . . . .
5.4.6. Ejercicios . . . . . . . . . . . . . . . . . . . .
5.5. Campos vectoriales y teoremas integrales . . . . . .
5.5.1. Teorema de Gauss . . . . . . . . . . . . . . .
5.5.2. Teorema de Stokes . . . . . . . . . . . . . . .
5.5.3. Ejemplos . . . . . . . . . . . . . . . . . . . .
5.5.4. Practicando con Maxima . . . . . . . . . . .
5.5.5. Ejercicios . . . . . . . . . . . . . . . . . . . .
5.6. Teorı́a de Potencial . . . . . . . . . . . . . . . . . . .
5.6.1. Potenciales escalares . . . . . . . . . . . . . .
5.6.2. Potenciales vectoriales y calibres . . . . . . .
5.6.3. Teorema de Green y potenciales . . . . . . .
5.6.4. Teorema de Helmholtz . . . . . . . . . . . . .
5.6.5. Teoremas integrales para campos tensoriales .
5.6.6. Ejemplos . . . . . . . . . . . . . . . . . . . .
5.6.7. Practicando con Maxima . . . . . . . . . . .
5.6.8. Ejercicios . . . . . . . . . . . . . . . . . . . .
ÍNDICE GENERAL
Bo
rr
ad
o
rP
re
lim
in
ar
viii
ar
Introducción
Bo
rr
ad
o
rP
re
lim
in
Como toda obra, el contenido de este libro tuvo como motivación inicial la insatisfacción con lo que estaba
disponible y esa necesidad de discutir un conjunto de conceptos con el matiz personal de los autores. A lo largo de
casi 10 años se fue dibujando esa ruta, donde confluyen: una presentación abstracta, una herramienta de cálculo
algebraico y variados ejemplos de aplicación proveniente de la más diversas áreas. Hemos tratado de mostrar que
los conceptos abstractos son útiles porque engloban, bajo un mismo enfoque, una multiplicidad de aplicaciones que
normalmente las percibimos aisladas.
Existe, desde hace mucho tiempo, cierta resistencia en los Departamentos de Fı́sica en incluir en sus programas de
docencia cursos para la enseñanza de herramientas de computación cientı́fica y cálculo numérico, tal vez debido a los
altos costos de la mayorı́a de estos programas, casi todos comerciales. Pensamos que la utilización de herramientas
computacionales enriquece enormemente el aprendizaje de los estudiantes ya que los enseñan a abordar los problemas
desde diferentes puntos de vista, les ayuda a familiarizarse con determinados lenguajes de programación y los
incentiva a desarrollar sus propias técnicas de cálculo.
Hemos decidido utilizar un sistema de computación algebraico de domino público (o software libre) como Maxima porque estos programas tienen la capacidad de ofrecer al estudiante toda una gama de herramientas de cálculo
simbólico, numérico y de visualización de muy alto rendimiento. Maxima es un programa que no requiere conocimientos previos de lenguajes de programación pero permitirá que el estudiante se familiarice con la sintaxis de
programación y la transición a los lenguajes del tipo Fortran, C, o Python será mas sencilla.
Los contenidos que aquı́ presentamos han sido utilizados en cursos de Métodos Matemáticos para estudiantes de
pregrado en Fı́sica de la Universidad de los Andes (Mérida-Venezuela) y más recientemente en los cursos de pregrado
y posgrado para estudiantes en Fı́sica e Ingenierı́as en la Universidad Industrial de Santander (BucaramangaColombia).
1
ad
o
rr
Bo
lim
rP
re
ar
in
2
ÍNDICE GENERAL
ar
Capı́tulo 1
in
Los vectores de siempre
lim
La ruta de este capı́tulo
Vectores geométricos
ad
o
1.1.
rP
re
Suponemos que los estudiantes se acercan a estas notas, no solo conociendo algunos términos sino siendo capaces
de buscar muchos otros en la red. Por lo tanto, concebimos este capı́tulo para que apunte a varios objetivos. Por
un lado, buscamos refrescar un conjunto de conceptos básicos que seguramente son conocidos por el lector. Si no
lo son, aprovechamos la oportunidad para presentarlos –en el marco de R3 , es decir ejemplificando con vectores
tridimensionales– utilizando el lenguaje abstracto al cual haremos referencia en los próximos capı́tulos. Siguiendo
esta lógica presentamos las propiedades de los vectores en la próxima sección 1.1; la independencia lineal, bases,
producto interno (sección 1.1.3) y los sistemas de coordenadas (sección 1.2). Con la excusa del algebra vectorial en
coordenadas, introducimos algunos elementos de álgebra vectorial con ı́ndices, que normalmente no son cubiertos
tan tempranamente (sección 1.4) en cursos de métodos matemáticos. Adicionalmente, esta excusa nos sirve de
puente para presentar nociones operativas de tensores y de análisis de vectorial que formalizaremos más adelante en
los capı́tulos 3 y 5, respectivamente. La representación de los número complejos como vectores, con “componentes”
reales y complejas justifica la incorporación de este repaso en la última sección 1.6. Finalmente, este capı́tulo nos
sirve para iniciar el uso de la herramienta de cálculo algebraico que nos acompañará en el resto del libro y que se
detalla en el apéndice 6.1.
Desde los primeros cursos de Fı́sica en educación media, venimos hablando de vectores como cantidades que
tienen que ser representadas con más de un número. Son varias las razones que obligan a introducir este (y otro)
tipo de cantidades “multidimensionales”. Enumeraremos algunas que, a nuestro criterio personal, son las más
representativas.
rr
1. Necesidad de modelos matemáticos de la naturaleza. Desde los albores del renacimiento, con Galileo
Galilei a la cabeza, nos es imperioso representar cantidades de manera precisa. Las matemáticas nos apoyan
en esta necesidad de precisión y desde ese entonces son el lenguaje de la actividad cientı́fica.
Bo
2. Los modelos tienen que ser contrastados con los experimentos. Las ciencias y sus modelos, en última
instancia, tienen que ver con la realidad, con la naturaleza y por ello debemos medir y contrastar las hipótesis
con esa realidad que modelamos. Necesitamos representar cantidades medibles (observables) y que, por lo
tanto, tienen que ser representadas de la forma más compacta, pero a la vez más precisa posible.
3. Las leyes de los modelos deben ser independiente de los observadores. Cuando menos a una familia
significativa de observadores, el comportamiento de la naturaleza no puede depender de la percepción de un
determinado observador, por lo tanto, los modelos que construimos para describirla tampoco pueden depender
de los observadores.
Es común que tropecemos con: escalares, vectores, tensores y espinores, dependiendo del número de cantidades
que necesitemos para representar determinado objeto matemático. Podremos constatar que las leyes de la Fı́sica
vienen escritas en forma vectorial (o tensorial) y, por lo tanto, será la misma ley para la familia de observadores
equivalentes.
3
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
lim
in
ar
4
1.1.1.
Escalares y vectores
rP
re
Figura 1.1: Vectores y sus operaciones
Dejaremos para más adelante caracterizar objetos como tensores y espinores, por ahora nos contentaremos con
refrescar nuestros recuerdos con cantidades como:
Escalares: Serán aquellas cantidades las cuales se representan con UN solo número, una magnitud: temperatura, volumen, masa, entre otras. Es costumbre no denotarlas de manera especial, ası́ T = 5◦ C representará
una temperatura de 5 grados centı́grados.
rr
ad
o
Vectores: Serán cantidades las cuales, para ser representadas por un objeto matemáticos, necesitan más de
una cantidad: requieren de UN número, UNA dirección y UN sentido. Entre las cantidades que tı́picamente
reconocemos como vectores están: la velocidad, la aceleración, la fuerza. En términos gráficos podremos decir
que un vector será un segmento orientado, en el cual la dimensión del segmento representará su módulo y
su orientación la dirección y el sentido. Para diferenciarlos de las cantidades escalares hay una variedad de
representaciones, entre ellas: en negrita a; con una flecha arriba de la cantidad ~a; con una tilde arriba o abajo
−−→
ã; o explicitando el origen del segmento orientado OP . El módulo del vector lo representaremos dentro de la
función valor absoluto, o sencillamente sin la flecha arriba a = |a| = |~a|.
Bo
Los vectores son independientes del sistema de coordenadas. Sus caracterı́sticas (módulo, dirección y sentido) se
preservarán en todos los sistemas de coordenadas. Más aún, habrá vectores que podremos desplazar (conservando
su módulo dirección y sentido) paralelos a ellos mismos, y seguirán representando las mismas cantidades. Por ello
encontraremos el término de vectores deslizantes. Un ejemplo son las fuerzas que actúan en un determinado cuerpo,
como se muestra en el cuadrante I en la figura 1.1. También habrá vectores atados a un punto en el espacio, por
cuanto representan una de las propiedades de ese punto: la velocidad del viento, el campo eléctrico, o sus variaciones
son ejemplos de vectores atados (observe la figura 1.2 como ejemplos ilustrativos).
1.1.2.
Álgebra de vectores
Enumeraremos rápidamente el álgebra de vectores sin hacer referencia a un sistema de coordenadas en particular.
Desde los cursos básicos de matemáticas nos enseñaron a representar gráficamente este álgebra, ası́ tenemos que:
Vector nulo. Es aquel que tiene por módulo cero y no se le pude asignar dirección ni sentido. El frecuente
representar al vector nulo por 0.
1.1. VECTORES GEOMÉTRICOS
5
Vector unitario. Es aquel que tiene por módulo la unidad, es muy útil por cuanto, para efectos algebraicos,
“contiene” únicamente dirección y sentido. Lo denotaremos con un acento circunflejo, comúnmente llamado “sombrero” ûa = a/|a|, con lo cual todo vector se podrá expresar por un módulo en la dirección y sentido de un vector
unitario: a = |a| ûa = a ûa .
ar
Comparación de vectores. Al comparar sus módulos diremos que pueden ser mayores, menores o iguales. Por
lo tanto, tal y como mostramos en el cuadrante IIa de la figura 1.1, dos vectores serán iguales, a = b, si tienen la
misma dirección y sentido.
lim
in
Multiplicación por un número. Un vector
multiplicado por un número, α, cambiará su módulo si α > 0 y cambiará su sentido, y eventualmente
su módulo, si α < 0. Tal y como puede apreciarse
en el cuadrante IIa de la figura 1.1. Claramente
dos vectores proporcionales serán colineales. Diremos además, que el inverso del vector a será la
multiplicación de a por (−1). Esto es: (−1) a = −a.
Suma de vectores. Para sumar vectores utilizamos la regla del paralelogramo, es decir, desplazamos paralelamente uno de los vectores y lo colocamos a continuación del otro, de tal forma que la
diagonal del paralelogramo, que tiene por lados los
vectores sumandos, constituye el vector suma, (ver
cuadrantes IIa y IIb de la figura 1.1).
rP
re
Figura 1.2: Ejemplos de vectores atados
Este esquema se puede generalizar para varios vectores tal y como lo mostramos en el cuadrante III de la figura
1.1. Allı́ construimos un polı́gono cuyos lados los constituyen los vectores sumandos a, b, c, d y n con n = a+b+c+d.
Nótese que aún en el caso tridimensional, el vector suma siempre será coplanar (estará en el mismo plano) a los
sumandos que lo generaron.
Igualmente, podemos definir la resta de vectores al sumar el inverso. Esto es:
a − b ≡ a + (−b)
⇒ 0 = a − a ≡ a + (−a) .
ad
o
En términos gráficos la resta de dos vectores se representa colocando los vectores (minuendo y sustraendo) con
el mismo origen y uniendo las cabezas de flecha. Dependiendo de cual vector es el minuendo y cual el sustraendo el
vector resta apuntará del sustraendo hacia el minuendo, esto es: (a + b + c) − a = b + c.
Claramente, el módulo del vector resta representa la distancia entre los dos extremos de los vectores minuendo
y sustraendo.
Las propiedades (obvias) del álgebra de vectores son:
rr
Un resumen de propiedades.
La suma de vectores:
• es cerrada a + b = c,
Bo
• es conmutativa a + b = b + a,
• es asociativa (a + b) + c = a + (b + c),
• tiene un único elemento neutro 0 + a = a + 0 = a, ∀ a,
• existe un elemento simétrico −a (uno para cada vector) tal que 0 = a − a ≡ a + (−a),
• es distributiva respecto a la multiplicación por números: α (a + b) = αa + αb.
La multiplicación de números por vectores:
• es conmutativa aα = αa,
• es asociativa α (βa) = (αβ) a,
• es distributiva (α + β) a = αa + βa.
6
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
1.1.3.
Vectores linealmente independientes
Armados con el álgebra y siendo explı́cito en sus propiedades podemos construir la primera aproximación a uno
de los conceptos fundamentales del álgebra lineal. La noción de independencia o dependencia lineal. Diremos que
tres vectores a, b, c son linealmente independientes en R3 si se cumple que:
α a+β b+γ c=0
⇒
α = β = γ = 0.
in
β
α
α a + β b + γ c = 0 ⇒ c = − a − b ⇒ c = ᾱ a + β̄ b .
γ
γ
ar
Es decir, que la única manera que al sumar cualquier múltiplo de a, b y c de modo que la suma se anule es obligando
a que los escalares sean necesariamente nulos. En caso contrario, es decir, si no se cumple lo anterior diremos que
uno de los vectores será linealmente dependiente y por lo tanto se podrá expresar como combinación lineal de los
otros dos. Si por ejemplo γ 6= 0, entonces:
lim
Es muy importante señalar que los vectores linealmente independientes formarán una base para el espacio donde
estos vectores “viven” y el número máximo de vectores linealmente independientes será la dimensión de ese espacio
de “residencia”. Más adelante estudiaremos con más detalle el concepto de bases.
Tratemos de concretar algunas de estas afirmaciones.
rP
re
Dos vectores linealmente dependientes son colineales. Es decir, los vectores están contenidos en la misma lı́nea
y es claro que:

 a = −β b


α
α 6= 0
α a + β b = 0 con alguno de
⇒
β 6= 0


 b = −αa
β
el contrario también será cierto: si dos vectores son colineales ellos serán linealmente dependientes.
a = λb ⇒ αa + βb = 0 ⇒ αλb + βb = 0 ⇒ (αλ + β) b = 0 ⇒ λ = −
β
,
α
con lo cual podremos afirmar que si dos vectores son linealmente independientes ellos no son colineales.
ad
o
Tres vectores linealmente dependientes son coplanares. Por ser los tres vectores linealmente dependientes al
menos uno de los escalares tiene que ser distinto de cero, digamos γ, esto es:
α a+β b+γ c=0
⇒
α
β
c = − a − b = ξ1a + ξ2b ,
γ
γ
pero como ξ 1 a ∝ a y ξ 2 b ∝ b, esto significa que: ξ 1 a y a son colineales, de la misma manera que ξ 2 b y b, y
por lo tanto, la suma estará en el mismo plano.
rr
Dos vectores linealmente independientes generan todos los vectores coplanares. Dado dos vectores a y b linealmente independientes, entonces cualquier vector c, coplanar con a y b, podrá expresarse como una combinación
lineal de éstos. Diremos que: c se expresa en términos de a y b como: c = ξ 1 a + ξ 2 b, y esa expresión es única.
Bo
La primera de las afirmaciones es directa por cuanto hemos visto que si a y b son linealmente independientes
y c es coplanar con a y b, entonces, necesariamente a, b y c son linealmente dependientes. Esto es:
α
β
α a + β b + γ c = 0 ⇒ c = − a − b = ξ1a + ξ2b .
γ
γ
La demostración de que la expansión es única viene de suponer que existen dos maneras distintas de representar
al mismo vector c. Veamos:

 1
c = ξ1a + ξ2b 
ξ1 = ζ 1
 ξ − ζ1 = 0 ⇒
1
1
2
2
⇒ 0= ξ −ζ a+ ξ −ζ b ⇒

 2
c = ζ 1a + ζ 2b
ξ − ζ2 = 0 ⇒
ξ2 = ζ 2
debido a que a y b son linealmente independientes.
La demostración para el caso tridimensional es equivalente. Es decir tres vectores linealmente independientes
a, b y c expanden, de manera unı́voca, todos los vectores del espacio. Esta demostración queda para el lector.
7
lim
in
ar
1.1. VECTORES GEOMÉTRICOS
Figura 1.3: Productos de vectores
1.1.4.
rP
re
Vectores Base. Cuando un vector c se pueda expresar en términos de dos vectores linealmente independientes,
a y b, por ejemplo: c = ξ 1 a + ξ 2 b, diremos que a y b forman una base para todos los vectores coplanares a
éstos. Igualmente para el caso tridimensional: tres vectores linealmente independientes a, b y c conformarán
una base para los vectores del espacio. Los números ξ 1 y ξ 2 para elcaso bidimensional se denominan las
componentes de c a lo largo de a y b. Equivalentemente, ξ 1 , ξ 2 , ξ 3 serán las componentes de cualquier
vector para el caso 3D a lo largo de a, b y c, respectivamente. Esta nomenclatura será más evidente luego de
la próxima sección.
Productos de vectores
ad
o
Hemos sumado y restado vectores, el siguiente paso es multiplicarlos. Básicamente existen dos formas de multiplicar vectores: el producto escalar y el producto vectorial, veremos a continuación de que se trata y sin especificar
un sistema de coordenadas para referirlos.
Producto escalar
rr
Denominaremos producto escalar de dos vectores a y b a un escalar cuyo valor será igual al producto de los
módulos multiplicado por el coseno del ángulo que ellos forman:
ζ = a · b = |a| |b| cos(θ)ha,bi .
Bo
El significado geométrico del producto escalar es evidente, cuadrante I de la figura 1.3. El producto escalar
representa la proyección de a sobre b y equivalentemente la proyección de b sobre a.
De esta definición se derivan varias consecuencias las cuales por obvias no dejan de ser importantes:
El producto escalar de un vector consigo mismo, siempre es positivo:
2
ζ = a · a = |a| ≥√0, y sólo√será nulo si a es el vector nulo. Esto es, ζ = 0 ⇒ a = 0. Con esto podemos
concluir que |a| = a · a = ζ.
El producto escalar es conmutativo:
ζ = a · b = b · a, ya que el ángulo entre los vectores es el mismo y la multiplicación entre escalares es
conmutativa.
El producto escalar es distributivo:
Esto es, a · (b + c) = a · b + a · c. La demostración (gráfica) puede apreciarse en el cuadrante II de la figura
1.3.
8
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
La multiplicación por un número:
ζ̄ = αζ = |α| (a · b) = (αa) · b = a · (αb) = |αa| |b| cos(θ)ha,bi = |a| |αb| cos(θ)ha,bi .
Desigualdad de Cauchy-Schwarz.
A partir de la definición de producto interno es inmediata la comprobación de la siguiente desigualdad:
2
(a · b) = |a| |b| cos(θ)ha,bi
2
2
2
2
⇒ (a · b) ≤ |a| |b|
⇔ a · b ≤ |a| |b| ,
ar
ya que: 0 ≤ cos2 (θ)ha,bi ≤ 1.
2
2
2
in
Del producto escalar surge el teorema del coseno.
Es inmediato calcular el producto escalar de un vector consigo mismo, para ello vamos a suponer que c = a+b,
con lo cual:
c = a + b ⇒ c · c = (a + b) · (a + b) ⇒ |c| = |a| + |b| + 2 |a| |b| cos(θ) ,
lim
donde θ es el ángulo que forman los vectores a y b. Esto no es otra cosa que el teorema del coseno y está
ilustrado en el cuadrante III de la figura 1.3.
Dos vectores no nulos son ortogonales (perpendiculares) si su producto escalar es nulo.
Esta afirmación es inmediata:
a ⊥ b ⇒ θha,bi =
rP
re
Producto vectorial
π
⇒ a · b = |a| |b| cos(θ)ha,bi = 0 .
2
A diferencia del producto escalar que genera un escalar, el producto vectorial tiene como resultado otro vector:
c = a × b (realmente un pseudovector o vector axial en contraposición a los vectores polares, pero eso lo veremos
más adelante en la sección 1.4.4), con las siguientes caracterı́sticas:
El módulo de c, será:
|c| = |a| |b| sen(θ)ha,bi .
Es claro que el módulo de c representa el área del paralelogramo cuyos lados están formados por a y b (ver
el cuadrante V de la figura 1.3).
ad
o
Tal y como muestran los cuadrantes IV y V de la figura 1.3, c tendrá como dirección la perpendicular al plano
que forman a y b, y como sentido la regla del pulgar derecho, regla de la mano derecha, o de manera más
elegante, será positiva cuando la multiplicación de a × b corresponda al sentido antihorario.
Podemos deducir algunas consecuencias de esta definición.
rr
El producto vectorial es anticonmutativo.
a × b = −b × a, y se sigue de la definición que expresa el cuadrante IV de la figura 1.3.
El producto vectorial es distributivo respecto a la suma.
a × (b + c) = a × b + a × c. La demostración de esto lo dejaremos para más adelante.
Bo
La multiplicación por un número.
|c| = |α| |a × b| = |(αa) × b| = |a × (αb)| = |αa| |b| sen(θ)ha,bi = |a| |αb| sen(θ)ha,bi .
Dos vectores serán colineales si su producto vectorial se anula.
Como en el caso cuando se anulaba el producto escalar identificábamos a dos vectores ortogonales, cuando se
anula el producto vectorial tendremos dos vectores paralelos. Es claro que esto se cumple de inmediato:
a k b ⇒ θha,bi = 0 ⇒ |c| = |a × b| = |a| |b| sen(θ)ha,bi = 0 .
Si el módulo del vector es cero, obvio que es el vector nulo. Ahora bien, también de aquı́ deducimos que:
c = a × b ⇒ c · a = (a × b) · a = c · b = (a × b) · b = 0 .
1.1. VECTORES GEOMÉTRICOS
1.1.5.
9
Producto triple o mixto
Analicemos ahora el número (pseudoescalar) que proviene de la multiplicación:
V = c · (a × b) = |c| |(a × b)| cos(θ)hc,a×bi .
Este producto también cumple con algunas propiedades que enunciaremos ahora y demostraremos más tarde.
ar
El producto mixto representa el volumen del paralelepı́pedo cuyos lados son los vectores a, b y c.
|a × b| representa el área de la base y la altura está representada por la proyección del vector c sobre la
perpendicular al plano de la base que es, precisamente |c| cos(θ)hc,a×bi .
(a × b) · c = (c × a) · b = (b × c) · a .
Esta afirmación se verá demostrada más adelante.
lim
El producto mixto se anula cuando se repite alguno de sus factores.
in
El producto mixto es cı́clico respecto a sus factores.
(a × b) · a = (a × b) · b = (a × a) · c = (b × b) · c = 0 .
Claramente, si (a × b) ⊥ a ⇒ (a × b) · a = 0.
Si los tres vectores a, b y c son coplanares (linealmente dependientes) entonces:
rP
re
(a × b) · c = 0 .
Dicho de manera más elegante, útil e impactante: tres vectores que cumplen con:
(a × b) · c 6= 0 ,
son linealmente independientes y forman una base para el espacio tridimensional. Esa base se denominará
levógira (contraria al giro de las manecillas del reloj) si el producto (a × b)·c < 0 y dextrógira (la convencional
base de la mano derecha) si (a × b) · c > 0.
Ejemplos
ad
o
1.1.6.
1. En un segmento de recta AB ubicamos un punto D de manera que este punto divide al segmento en dos
partes, es decir, en la proporción α : β (AB = AD + DB = α + β). Para ubicar el vector posición del punto
D podemos hacer lo siguiente.
Bo
rr
A los puntos A y B le hacemos corresponder el vector a y el vector b, respectivamente, con un origen común
O. De manera que c = b − a es un vector que va desde el punto A al punto B. Entonces, la distancia OD, a
la que le podemos asociar el vector d, no es más que:
α
α
α
β
α
d = OD = a +
(b − a) = 1 −
a+
b=
a+
b.
α+β
α+β
α+β
α+β
α+β
2. Hemos definido la posición r del centro de masa, para un sistema de N partı́culas, al vector:
r=
ΣN
i=1 mi ri
,
ΣN
j=1 mj
donde ri corresponde con la posición de la i−ésima partı́cula. Determinaremos la posición del centro de masa
para un sistema de tres masas, mi = 1,2,3, ubicadas en los vértices de un triángulo equilátero de lado l = 2.
Colocando el origen de coordenadas en uno de los vértices y uno de los ejes de coordenadas sobre uno de los
lados, entonces tenemos:
√ √
1 · 2i + 3 · i + 3j
Σ3i=1 mi ri
m1 r1 + m1 r1
5
3
r= 3
=
=
= i+
j.
Σj=1 mj
MT
6
6
2
10
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
3. Dada una base ortonormal {i, j, k} y los siguientes vectores:
a = 3i + 2j + k ,
b = 3i − 2j + k ,
c = i − k.
Queremos comprobar si {a, b, c} forman una base.
ar
Veamos, para que los vectores formen una base tienen que ser linealmente independientes. Esto es: αa + βb +
γc = 0 ⇒ α = β = γ = 0, con lo cual:

 3α + 3β + γ = 0
2α − 2β = 0
α (3i + 2j + k) + β (3i − 2j + k) + γ (i − k) = 0 ⇒

α+β−γ =0
Otra manera de resolverlo es mostrar que: c · (a × b) 6= 0, y efectivamente:
1
3
3
0
2
−2
−1
1
1
= 4 6= 0 .
lim
c · (a × b) =
in
es fácil ver que la solución de este sistema es: α = β = γ = 0, por lo tanto, se demuestra que los vectores son
linealmente independientes y por consiguiente forman una base.
Ahora bien, si {a, b, c} forman una base, podemos expresar otros vectores en términos de ésta base. Tomemos
los vectores: d = i + 2j , e = 3i − 2j y f = a × b y expresémoslos en términos de {a, b, c}.
Entonces, para el vector d tenemos:
rP
re

 3α + 3β + γ = 1
2α − 2β = 2
d = i + 2j = α (3i + 2j + k) + β (3i − 2j + k) + γ (i − k) ⇒

α+β−γ =0
resolviendo el sistema de ecuaciones anterior tendremos que: d = 85 a − 38 b + 14 c.
Seguidamente, para el vector e se tiene:
ad
o

 3α + 3β + γ = 3
2α − 2β = −2
e = 3i − 2j = α (3i + 2j + k) + β (3i − 2j + k) + γ (i − k) ⇒

α+β−γ =0
resolviendo el nuevo sistema de ecuaciones resulta que: e = − 81 a + 78 b + 34 c.
Ahora bien,
f = a × b = (3i + 2j + k) × (3i − 2j + k) =
i
3
3
j
2
−2
k
1
1
= 4i − 12k ,
rr
con lo cual para el vector f resulta:
Bo

 3α + 3β + γ = 4
2α − 2β = 0
f = 4i − 12k = α (3i + 2j + k) + β (3i − 2j + k) + γ (i − k) ⇒

α + β − γ = −12
y finalmente, al resolver el sistema anterior, f = a × b = −a − b + 10c .
4. Consideremos los siguientes tres vectores: w1 = i + 3k , w2 = 2i − 3j y w3 = −j + k ¿Formarán una base para
R3 ?
Veamos entonces si son linealmente independientes:
αw1 + βw2 + γw3 = 0 ⇒ α = β = γ = 0 ,
La comprobación es directa al resolver el siguiente sistema de ecuaciones:
α
3α
+2β
−3β
−γ
+γ
=0
=0
=0
1.1. VECTORES GEOMÉTRICOS
11
cuya solución es α = β = γ = 0. Por lo tanto, forman una base para R3 .
es decir:
a=
1
1
w1 + w2 + 2w3 .
3
3
Practicando con Maxima
in
1.1.7.
ar
Como forman base, podemos expresar otro vector, digamos: a = i−3j+3k, en término de la base {w1 , w2 , w3 },
esto es:

α = 13






=1 
 α +2β

−3β −γ = −3
β = 13
a = αw1 + βw2 + γw3 ⇒
⇒




3α
+γ = 3



γ=2
lim
El programa de manipulación simbólica Maxima está diseñado para realizar una gran cantidad de cálculos
algebraicos y numéricos que iremos descubriendo a medida que desarrollemos los diferentes temas de este curso. Es
indispensable ir al apéndice 6.1 para familiarizarnos con la sintaxis básica del programa.
Maxima es una potente calculadora y maneja números de diferentes tipos: enteros, racionales, irracionales,
complejos y números con decimales (punto flotante).
Haremos algunos cálculos sencillos para ir calentando.
(%i1) log(20);
rP
re
( %o1) log(20)
Es probable que necesitemos el valor numérico de log(20).
(%i2) log(20),numer;
( %o2) 2,995732273553991
(%i3) 420/16000;
21
800
(%i4) 420/16000,numer;
ad
o
( %o3)
( %o4) 0,02625
Podemos utilizar la función float para el mismo resultado
(%i5) float(log(20)); float(420/16000);
rr
( %o5) 2,995732273553991
( %o6) 0,02625
Bo
El programa contiene una gran cantidad de funciones matemáticas básicas internas y entre ellas las trigonométricas:
(%i7) sin(%pi/3);cos(%pi/3);tan(%pi/3);
√
3
( %o7)
2
1
( %o8)
2
√
( %o9) 3
Ahora recurriremos a una de las facilidades que nos ofrece el programa para agrupar objetos matemáticos: las
listas. Las listas se escriben entre corchetes y los objetos de la lista separados con comas.
(%i10)[sin(%pi/3),cos(%pi/3),tan(%pi/3)];
12
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
"√
#
3 1 √
, , 3
( %o10)
2 2
(%i11)[sin(%pi/3),cos(%pi/3),tan(%pi/3)],numer;
( %o11) [0,8660254037844386, 0,5000000000000001, 1,732050807568877]
ar
Cuando necesitemos generar una lista por medio de alguna regla especı́fica o formula usamos la función makelist.
La sintaxis es la siguiente:
(%i12)makelist(exp(t*x),t,1,10);
( %o12) ex , e2 x , e3 x , e4 x , e5 x , e6 x , e7 x , e8 x , e9 x , e10 x
in
Podemos también aplicar una función a cada elemento de la lista, en este caso a cada elemento le aplicaremos
la función ln(x). Para tal fin utilizaremos el comando map.
( %o13) [x, 2 x, 3 x, 4 x, 5 x, 6 x, 7 x, 8 x, 9 x, 10 x]
lim
(%i13)map(log,(makelist(exp(t*x),t,1,10)));
(%i14)apply("+",%);
( %o14) 55 x
rP
re
Si queremos, por ejemplo, sumar todos los elementos de la lista anterior utilizamos la función apply con la
operación que queremos realizar. Aquı́ aprovecharemos para utilizar un atajo muy práctico que consiste en el uso
del sı́mbolo %, que toma la última salida del programa para ser usado en la instrucción siguiente, de esta manera
nos evitamos volver a escribir toda la instrucción anterior. La sintaxis para todo esto es:
Podemos asignarle a una lista el nombre de una variable.
(%i15)L:[sin(%pi/3),log(3),sqrt(2),abs(x),exp(x^2)];
"√
#
√
3
x2
( %o15)
, log(3), 2, |x| , e
2
ad
o
De manera que para aislar elementos de una lista escribimos:
(%i16)L[1]; L[4];
√
3
( %o16)
2
( %o17) |x|
rr
Esto nos permite operar con sus elementos.
Bo
(%i18)L[2]*(L[1]+ L[4])/L[5];
√ !
3
−x2
( %o18) log(3) e
|x| +
2
La primera utilidad que le podemos dar a las listas es que nos permite definir vectores. Si queremos que el
programa interprete los vectores
a = (a1 , a2 , a3 ) , b = (b1 , b2 , b3 ) , c = (c1 , c2 , c3 ) , v0 = (0, 0, 0) ,
los podemos escribir como listas:
(%i19)a:[a1,a2,a3]; b:[b1,b2,b3];c:[c1,c2,c3]; v0:[0,0,0];
( %o19) [a1 , a2 , a3 ]
( %o20) [b1 , b2 , b3 ]
1.1. VECTORES GEOMÉTRICOS
13
( %o21) [c1 , c2 , c3 ]
( %o22) [0, 0, 0]
Como vimos, las operaciones básicas sobre los vectores cumplen un conjunto de propiedades:
(%i23)a+b=b+a;
( %o23) [b1 + a1 , b2 + a2 , b3 + a3 ] = [b1 + a1 , b2 + a2 , b3 + a3 ]
( %o24) [c1 + b1 + a1 , c2 + b2 + a2 , c3 + b3 + a3 ] = [c1 + b1 + a1 , c2 + b2 + a2 , c3 + b3 + a3 ]
(%i25)a+v0=a;
in
( %o25) [a1 , a2 , a3 ] = [a1 , a2 , a3 ]
ar
(%i24)(a+b)+c=a+(b+c);
(%i26)a-a=v0;
(%i27)alpha*(a+b)=alpha*a+alpha*b,factor;
lim
( %o26) [0, 0, 0] = [0, 0, 0]
( %o27) [α (b1 + a1 ) , α (b2 + a2 ) , α (b3 + a3 )] = [α (b1 + a1 ) , α (b2 + a2 ) , α (b3 + a3 )]
(%i28)(alpha+beta)*a=alpha*a+beta*a,factor;
1.1.8.
Ejercicios
rP
re
( %o28) [a1 (β + α) , a2 (β + α) , a3 (β + α)] = [a1 (β + α) , a2 (β + α) , a3 (β + α)]
1. Dado el triángulo: A = (2, 3), B = (6, 9), C = (8, 1). Utilizando álgebra vectorial encuentre:
a) el baricentro, es decir, el punto donde se interceptan las medianas del triángulo.
b) el circuncentro, es decir, el punto donde se interceptan las mediatrices del triángulo.
ad
o
2. Utilice métodos vectoriales para probar que las lı́neas que unen los puntos medios con las aristas opuestas
(bimedianas) de un tetraedro OABC se interceptan en un punto, y que ese punto divide en dos partes cada
una de las lı́neas.
3. Los vertices de un triángulo ABC tienen como vectores posición a, b y c, respectivamente y relativos a un
origen común O. Demuestre que el vector posición g del centróide G del triángulo viene dado por:
1
(a + b + c) .
3
rr
g=
4. Un paralelogramo tiene un ángulo agudo de π/3 y lados de longitud a = 1 y b = 2. Si pensamos que esos
lados como vectores a y b encuentre:
Bo
a) Los vectores: a + b y a − b.
b) Los vectores: 2a + 3b y 5a − 7b.
5. Con la definición de posición de centro de masa del ejemplo 1.1.6, encuentre el centro de masas para los
siguientes sistemas:
a) Masas iguales a: 1, 2, 3, 4 en los vértices de un cuadrado de lados a = 2.
b) Masas iguales a: 1, 2, 3, 4 en los vértices inferiores de un cubo cuyos lados son de longitud a = 2 y masas
iguales a: 5, 6, 7, 8 en la vértices superiores.
6. ¿Los siguientes vectores son linealmente independientes?
a = (0, 2, −1), b = (0, 1/2, −1/2), c = (0, −2/3, −1/3) .
14
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
7. Las componentes de un vector y la regla para sumar vectores se combinan para introducir la forma más simple
de representar un vector como una combinación lineal de los vectores más elementales que podemos tener.
Estos vectores forman lo que conocemos la base canónica: {i, j, k}, vectores de longitud unitaria que apuntan
en la dirección positiva de los ejes x, y y z.
Compruebe, entonces, si los siguientes vectores forman una base:
e2 = i − 4k ,
e3 = 4i + 3j − k
b) e1 = i − 3j + 2k ,
e2 = 2i − 4j − k ,
e3 = 3i + 2j − k
ar
a) e1 = 2i + j − 3k ,
8. Un paralelogramo tiene un ángulo agudo de π/4 y lados a = 1, b = 2. Si consideramos que los lados son
vectores, encuentre:
in
a) El área del paralelogramo.
b) La proyección de cada lado sobre la dirección del otro.
lim
9. Considere un triángulo cuyos lados están conformados por los vectores a, b y c = a + b. Con el producto
vectorial entre ellos demuestre la ley del seno:
b
c
a
=
=
.
sin(α)
sin(β)
sin(γ)
donde α, β, γ son los ángulos opuestos a los lados a, b, c respectivamente.
rP
re
10. Demuestre que el volumen de un tetraedro formado a partir de tres vectores a, b y c que coinciden en un
mismo origen, puede representarse de la manera siguiente:
V =
1.2.
1
|a · (b × c)| .
6
Vectores en componentes
1.2.1.
ad
o
La formulación de las leyes fı́sicas debe hacerse en término de cantidades vectoriales (tensoriales). Esto independiza su formulación de un sistema particular de coordenadas, pero llegado el momento de calcular valores y
utilizar estas leyes, es mucho más conveniente referirla a un sistema de coordenadas particularmente adaptado a la
geometrı́a del problema. En ese caso, la ecuación vectorial se convertirá en tantas ecuaciones como componentes
(referidas al sistema de coordenadas utilizado) tengan los vectores en ese sistema de coordenadas.
Bases y componentes
Bo
rr
Tal y como mencionamos anteriormente, tres vectores no coplanares cualesquiera son linealmente independientes y constituyen una base para el espacio tridimensional. Denominaremos a estos vectores base como {wi }, y
por ser linealmente independientes podremos expresar cualquier vector a como una combinación lineal única, tal y
como lo mostramos en el cuadrante I de la figura 1.4.
Con los vectores base {w1 , w2 , w3 } podemos construir un sistema (oblicuo en general) de coordenadas al colocarlos con un mismo origen, esto es:
a = a1 w1 + a2 w2 + a3 w3 ,
1 2 3
donde las cantidades a , a , a son números (no son escalares) que representan las componentes del vector a a lo
largo de cada uno de los vectores base {w1 , w2 , w3 }. Nótese que por costumbre (la cual será evidente más adelante,
en la sección 3.1.1) etiquetamos estos números con superı́ndices y la letra que identifica al vector.
−−→
Más aún, cada punto P del espacio viene definido por
vector r (P ) ≡ OP que une el origen de
1 un2 radio
3
coordenadas con el punto P y se le
n asocian tresonúmeros x , x , x , los cuales son las proyecciones a lo largo de
cada uno de los ejes coordenados 0x1 , 0x2 , 0x3 . Los números x1 , x2 , x3 se denominarán componentes de r (P )
en el sistema de referencia {w1 , w2 , w3 }.
Existe una familia de sistemas de coordenadas en la cual sus vectores base son ortogonales (o mejor ortonormales),
es decir los vectores base {e1 , e2 , e3 } son perpendiculares entre si. Tal y como mostraremos más adelante, siempre
se puede construir un sistema ortogonal {e1 , e2 , e3 } u ortonormal {i1 , i2 , i3 } a partir de una base genérica de
vectores linealmente independientes {w1 , w2 , w3 }. Cuando el sistema sea ortogonal sus componentes se denominarán
15
lim
in
ar
1.2. VECTORES EN COMPONENTES
Figura 1.4: Vectores, bases y componentes
rP
re
rectangulares. Dependiendo del signo del triple producto mixto, el sistema de coordenadas será dextrógiro ((e1 × e2 )·
e3 > 0) o levógiro ((e1 × e2 ) · e3 < 0), tal y como se muestra en el cuadrante III de la figura 1.4.
Es costumbre ancestral1 utilizar la convención dextrógira donde el producto: (e1 × e2 ) · e3 > 0, y en ese caso
utilizamos el bien conocido conjunto de vectores unitarios {i, j, k} con los que ya hemos estado familiarizados:
a = ax i + ay j + az k
y
r (P ) = x i + y j + z k .
También es costumbre representar este sistema de coordenadas ortonormal como: i ≡ i1 , j ≡ i2 y k ≡ i3 para
recordar que estamos en un sistema de coordenadas cartesianas y utilizaremos los superı́ndices 1, 2, 3 para indicar
las componentes del vector.
y
r (P ) = x1 i1 + x2 i2 + x3 i3 .
ad
o
a = a1 i1 + a2 i2 + a3 i3
Obviamente el módulo del vector se podrá expresar con la utilización del teorema de Pitágoras:
p
p
|a| = (a1 )2 + (a2 )2 + (a3 )2 y |r (P )| = (x1 )2 + (x2 )2 + (x3 )2 ,
y la multiplicación por un número será:
p
αa = α a1 i1 + a2 i2 + a3 i3 = αa1 i1 + αa2 i2 + αa3 i3 ⇒ |αa| = α (a1 )2 + (a2 )2 + (a3 )2 .
Bo
rr
Igualmente para un vector unitario:
ûa =
a
a1 i1 + a2 i2 + a3 i3
=p
,
|a|
(a1 )2 + (a2 )2 + (a3 )2
con lo cual todo vector:
1.2.2.
a = |a| ûa =
p
(a1 )2 + (a2 )2 + (a3 )2 ûa .
Cosenos directores
Como se puede apreciar en el cuadrante IV de la figura 1.4, podemos construir tres triángulos rectángulos con
el radio vector a (P ) como hipotenusa de cada uno de ellos. Los ángulos que forma el radio vector a (P ) con cada
uno de los ejes coordenados {x, y, z} son {α, β, γ}, respectivamente, con lo cual:
ax = |a| cos(α) ,
1 Quizá
ay = |a| cos(β)
y
az = |a| cos(γ)
⇒
cos2 (α) + cos2 (β) + cos2 (γ) = 1 ,
(1.1)
por las arraigadas relaciones de dominación de los derechos sobre los izquierdos (en latı́n e italiano los zurdos son siniestros),
o quizá tal vez por conservar la definición de volumen como positivo.
16
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
pero además:
ûa =
1.2.3.
a
= cos(α) i + cos(β) j + cos(γ) k .
|a|
Una división fallida
Algebra vectorial en componentes
lim
1.2.4.
in
ar
Uno esperarı́a que para cada una de las definiciones de productos vectoriales, existiera el vector cociente, es
decir, que pudiéramos “despejar” uno de los vectores multiplicados en términos del otro. La situación es que esta
operación no está definida unı́vocamente y lo podemos intuir a partir de una de la definición del producto escalar.
Supongamos que tenemos que: ζ = a · b, con lo cual, si pudiéramos “despejar”,
b = ζ/a ¿Tendrı́amos
digamos,
ζ
+ d , donde a ⊥ d, por lo cual
entonces definido b de una manera unı́voca? La respuesta es NO, ya que ζ = a ·
a
ζ
existen infinitos b = + d que cumplen ζ = a · b.
a
Es posible reescribir toda el álgebra vectorial que hemos visto mediante operaciones referidas a sistemas de
coordenadas, como mostraremos a continuación. Por simplicidad, anclaremos nuestro sistema de coordenadas a la
base canónica {ii }.
Para los vectores a = a1 i1 + a2 i2 + a3 i3 y b = b1 i1 + b2 i2 + b3 i3 , la suma será representada por:
rP
re
a + b = a1 i1 + a2 i2 + a3 i3 + b1 i1 + b2 i2 + b3 i3 = a1 + b1 i1 + a2 + b2 i2 + a3 + b3 i3 ,
y obviamente, la resta:
a − b = a1 i1 + a2 i2 + a3 i3 − b1 i1 + b2 i2 + b3 i3 = a1 − b1 i1 + a2 − b2 i2 + a3 − b3 i3 ,
con lo cual la distancia entre dos puntos P y M será:
1.2.5.
2
2
2
(x1 − y 1 ) + (x2 − y 2 ) + (x3 − y 3 ) .
ad
o
d (P, M ) = |(r (P ) = a) − (r (M ) = b)| =
q
Dependencia e independencia lineal
Ahora es fácil estudiar la dependencia o independencia lineal en coordenadas. Otra vez, tres vectores: a =
a1 i1 + a2 i2 + a3 i3 , b = b1 i1 + b2 i2 + b3 i3 y c = c1 i1 + c2 i2 + c3 i3 , serán linealmente independientes si se cumple que:
rr
α a + β b + γ c = 0 ⇒ α = β = γ = 0.
Bo
Veamos qué sucede para la base canónica: i1 = i ≡ (1, 0, 0) , i2 = j ≡ (0, 1, 0) , i3 = k ≡ (0, 0, 1). Estos vectores
son claramente linealmente independientes y por lo tanto constituyen una base.
En general tendremos que:
0 = α a1 i1 + a2 i2 + a3 i3 + β b1 i1 + b2 i2 + b3 i3 + γ c1 i1 + c2 i2 + c3 i3

 αa1 + βb1 + γc1 = 0
1
1
1
2
2
2
3
3
3
αa2 + βb2 + γc2 = 0
= αa + βb + γc i1 + αa + βb + γc i2 + αa + βb + γc i3 ⇒

αa3 + βb3 + γc3 = 0
Esto no es otra cosa que un sistema de 3 ecuaciones lineales con 3 incógnitas: {α, β, γ}, y la solución que estamos
buscando α = β = γ = 0 se cumplirá si:
a1
a2
a3
b1
b2
b3
c1
c2
c3
= a1 b2 c3 − b3 c2 + a2 b3 c1 − b1 c3 + a3 b1 c2 − b2 c1 6= 0 .
1.2. VECTORES EN COMPONENTES
1.2.6.
17
Productos de vectores en componentes
Producto escalar
Ahora refrasearemos, en término de una base de vectores ortogonales, lo expresado en la sección 1.1.4. Representaremos el producto escalar de dos vectores en una base cartesiana {i1 , i2 , i3 }, que es una base ortonormal, de la
siguiente manera:
a · b = a1 i1 + a2 i2 + a3 i3 · b1 i1 + b2 i2 + b3 i3 = a1 b1 + a2 b2 + a3 b3 ,
i1 · i1 = i2 · i2 = i3 · i3 = 1 ,
y
ar
ya que por ser ortogonales se tiene que:

 i1 · i2 = i2 · i1 = 0
i1 · i3 = i3 · i1 = 0

i2 · i3 = i3 · i2 = 0
El producto escalar de un vector consigo mismo, siempre es positivo.
2
lim
ζ = a · a = |a| = (a1 )2 + (a2 )2 + (a3 )2 ≥ 0 ,
in
Las propiedades del producto escalar en coordenadas cartesianas se comprueban fácilmente.
y
(a1 )2 + (a2 )2 + (a3 )2 = 0 ⇒ a1 = a2 = a3 = 0
p
√
√
Adicionalmente: |a| = ζ = a · a = (a1 )2 + (a2 )2 + (a3 )2 .
El producto escalar es conmutativo.
⇔
a = 0.
rP
re
ζ = a · b = b · a = a1 b1 + a2 b2 + a3 b3 = b1 a1 + b2 a2 + b3 a3 .
El producto escalar es distributivo.
a · (b + c) = a1 i1 + a2 i2 + a3 i3 · b1 + c1 i1 + b2 + c2 i2 + b3 + c3 i2 ,
por lo tanto:
a1 b1 + c1 + a2 b2 + c2 + a3 b3 + c3
= a1 b1 + a1 c1 + a2 b2 + a2 c2 + a3 b3 + a3 c3
= a1 b1 + a2 b2 + a3 b3 + a1 c1 + a2 c2 + a3 c3
= a · b + a · c.
La multiplicación por un escalar.
ad
o
|α| (a · b) = (αa) · b = a · (αb) = αa1 b1 + αa2 b2 + αa3 b3 = a1 αb1 + a2 αb2 + a3 αb3 .
Desigualdad de Cauchy-Schwarz.
a · b = a1 b1 + a2 b2 + a3 b3 ≤
p
(a1 )2 + (a2 )2 + (a3 )2
p
(b1 )2 + (b2 )2 + (b3 )2 = |a| |b| .
rr
Diremos que dos vectores, no nulos son ortogonales (perpendiculares) si su producto escalar es nulo. Esta
afirmación es inmediata:
π
a ⊥ b ⇒ θha,bi =
⇒ a · b = |a| |b| cos(θ)ha,bi = 0 ,
2
por lo cual:
Bo
a1 b1 + a2 b2 + a3 b3
p
a1 b1 + a2 b2 + a3 b3 = |a| |b| cos(θ)ha,bi ⇒ cos(θ)ha,bi = p
,
(a1 )2 + (a2 )2 + (a3 )2 (b1 )2 + (b2 )2 + (b3 )2
de donde se deduce que para dos vectores perpendiculares:
a⊥b ⇒ 0 = a1 b1 + a2 b2 + a3 b3 .
Del producto escalar surge el teorema del coseno.
Es inmediato generalizar el producto escalar de un vector consigo mismo, para ello suponemos que c = a + b,
con lo cual:
2
2
2
c = a + b ⇒ c · c = (a + b) · (a + b) ⇒ |c| = |a| + |b| + 2 |a| |b| cos(θ)ha,bi ,
que no es otra cosa que el teorema del coseno y está ilustrado en el cuadrante III de la figura 1.3.
18
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
Producto vectorial
De igual manera, lo que aprendimos en la sección 1.1.4 ahora lo expresamos en términos de las componentes de
los vectores en una base ortonormal de la forma:
c = a × b = a2 b3 − a3 b2 i1 + a3 b1 − a1 b3 i2 + a1 b2 − a2 b1 i3 ,
c=a×b=
i1
a1
b1
i2
a2
b2
i3
a3
b3
ar
lo anterior se puede organizar como el determinante de la matriz:
,
q
2
2
in
con lo cual:
2
(a2 b3 − a3 b2 ) + (a3 b1 − a1 b3 ) + (a1 b2 − a2 b1 )
p
p
(a1 )2 + (a2 )2 + (a3 )2 (b1 )2 + (b2 )2 + (b3 )2 sen(θ)ha,bi .
=
lim
|c| =
Triple producto mixto
Finalmente, analicemos el número (pseudoescalar) que proviene de la multiplicación:
c2
a2
b2
rP
re
V = c · (a × b) = |c| |a × b| cos(θ)hc,a×bi =
c1
a1
b1
c3
a3
b3
.
Obviamente, este número representa del volumen del paralelepı́pedo cuyos lados quedan definidos por los vectores:
a, b y c.
1.2.7.
Ejemplos
1. Si tenemos los vectores a = i + 3j + 5k y b = 2i + 4j + 6k podemos ver que el ángulo que forman es fácil de
calcular:
a·b
[i + 3j + 5k] · [2i + 4j + 6k]
44
22
2 + 12 + 30
√
=√
=√ √ =√ √ .
= √ √
2
2
2
2
2
2
|a||b|
35 56
35 56
14 35
1 +3 +5 2 +4 +6
Por lo tanto, θ = arc cos √1422√35 = 0,11088.
ad
o
cos(θ) =
Notemos que de la ecuación (1.1) para los vectores a y b y su componentes resulta que:
ax
1
ay
3
az
5
= √ , cos(β) =
= √ , cos(γ) =
=√
⇒
|a|
|a|
|a|
35
35
35
rr
cos(α) =
bx
2
by
4
bz
6
cos(α) =
= √ , cos(β) =
= √ , cos(γ) =
=√
⇒
|b|
|b|
|b|
56
56
56
1
√
35
2
2
√
56
2
2 2
3
5
+ √
+ √
= 1,
35
35
4
+ √
56
2
6
+ √
56
2
= 1.
Bo
Y además podemos ver claramente que el ángulo entre los vectores y los cosenos directores están relacionados,
como se muestra a continuación:
1
2
3
4
5
6
22
cos(θ) = √ √ + √ √ + √ √ = √ √ .
35 56
35 56
35 56
14 35
2. Consideremos los vectores: e1 = i ≡ (1, 0, 0) , e2 = i + j ≡ (1, 1, 0) , e3 = i + j + k ≡ (1, 1, 1). Al escribir el
sistema de ecuaciones resulta:
α = 0,
α + β = 0,
α + β + γ = 0 ⇒ α = 0,
β = 0,
γ = 0,
con lo cual demostramos que son linealmente independientes y por lo tanto constituyen una base para los
vectores tridimensionales.
1.2. VECTORES EN COMPONENTES
19
3. Dados los vectores: a = i + 2j + 3k, b = 4i + 5j y c = 3i + 2j + k.
Podemos ver que αa + βb + γc = 0 implica que:

 α + 4β + 3γ = 0
2α + 5β + 2γ = 0
α [i + 2j + 3k] + β [4i + 5j] + γ [3i + 2j + k] = 0 ⇒

3α + γ = 0
Por otro lado, si queremos calcular el volumen recurrimos al triple producto vectorial:
ar
Cuya solución es: α = β = γ = 0. Por lo tanto el conjunto {a, b, c} es linealmente independiente.
V = a · [b × c] = [i + 2j + 3k] · [4i + 5j] × [3i + 2j + k] = [i + 2j + 3k] · [5i − 4j − 7k] = −24 .
a·d
,
a · (b × c)
resulta:
c2 = −
b·d
,
a · (b × c)
c3 = −
c·d
.
a · (b × c)
lim
c1 = −
in
Si tenemos un vector arbitrario, digamos, d = d1 i + d2 j + d3 k y construimos las siguientes cantidades:
d1 + 2d2 + 3d3
4d1 + 5d2
3d1 + 2d2 + d3
, c2 =
, c3 =
,
24
24
24
y podemos ver que: c1 (b × c) + c2 (c × a) + c3 (a × b) + d, es igual a:
c1 =
+
4d1 + 5d2
3d1 + 2d2 + d3
(4i − 8j + 4k) +
(−15i + 12j − 3k)
24
24
d1 i + d2 j + d3 k = 0 .
rP
re
d1 + 2d2 + 3d3
(5i − 4j − 7k)
24
+
Es decir,
c1 (b × c) + c2 (c × a) + c3 (a × b) + d = 0 ,
siempre y cuando el conjunto {a, b, c} sea linealmente independiente y d un vector arbitrario.
1.2.8.
Practicando con Maxima
ad
o
Con el programa de manipulación simbólica Maxima haremos algunos cálculos sencillos con vectores. Nuevamente recomendamos ver el apéndice 6.1 como introducción al programa.
Dados los vectores, en coordenadas cartesianas: a = i + 2j + 3k y b = 7i + 8j + 9k.
(%i1) a:[1,2,3];
( %o1) [1, 2, 3]
(%i2) b:[7,8,9];
rr
( %o2) [7, 8, 9]
La multiplicación por escalares y suma es simple, si queremos calcular α a + β b, escribimos:
Bo
(%i3) alpha*a + beta*b;
( %o3) [7 β + α, 8 β + 2 α, 9 β + 3 α]
Para el producto escalar procedemos utilizando el operador punto, como se muestra a continuación.
(%i4) a.b;
( %o4) 50
El cálculo de producto vectorial no es tan obvio, debemos cargar previamente la librerı́a vect.
(%i5) load(vect)$
20
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
El operador para el producto vectorial es una tilde y además debemos utilizar la función express. Entonces,
para calcular a × b, ejecutamos los siguientes comandos:
(%i6) express(a~b);
( %o6) [−6, 12, −6]
La norma de un vector, como ya vimos, es:
√
a·a
( %o7)
√
ar
(%i7) sqrt(a.a);
14
in
Si tenemos otro vector, digamos c = −4i + 5j − 6k, el producto triple: a · b × c se calcula ası́:
(%i8) c:[-4,5,-6];
(%i9) a.express(b~c);
( %o9) 120
El ángulo entre los vectores a y b, es:
.
rP
re
θ = arc cos
a·b
|a||b|
lim
( %o8) [−4, 5, −6]
En Maxima usamos la función acos(x) para el arcocoseno(x). Consultar el manual del programa para ver el resto
de las funciones trigonométricas.
(%i10)acos((a.b)/(sqrt(a.a)*sqrt(b.b)));
50
( %o10) acos √ √
14 194
ad
o
Seguramente lo queremos es el valor numérico, esto se hace agregando la función float. Con la siguiente sintaxis
logramos el objetivo:
(%i11)acos((a.b)/(sqrt(a.a)*sqrt(b.b))),float;
( %o11) 0,2858867976945064
Bo
rr
Para finalizar, podemos considerar el problema de la independencia lineal de vectores. Tomemos el conjunto de
vectores del ejemplo 1.2.7, es decir, los vectores: a = i + 2j + 3k, b = 4i + 5j y c = 3i + 2j + k. El sistema de
ecuaciones a resolver era:

 α + 4β + 3γ = 0
2α + 5β + 2γ = 0

3α + γ = 0
Disponemos de un comando que permite resolver sistemas de ecuaciones lineales, este comando se llama linsolve.
Podemos escribir el sistema de ecuaciones como una lista y luego resolver:
(%i12)ecus:[alpha+4*beta+3*gamma=0,2*alpha+5*beta+2*gamma=0,3*alpha+gamma=0];
( %o12) [3 γ + 4 β + α = 0, 2 γ + 5 β + 2 α = 0, γ + 3 α = 0]
(%i13)linsolve(ecus,[alpha,beta,gamma]);
( %o13) [α = 0, β = 0, γ = 0]
1.2. VECTORES EN COMPONENTES
1.2.9.
21
Ejercicios
1. Con la definición del producto escalar entre vectores, demuestre que si θ es el ángulo entre los vectores a y b,
entonces:
a1 b1
a2 b2
a3 b3
cos(θ) =
+
+
.
ab
ab
ab
Donde las cantidades ai /a y bi /b son los cosenos directores de a y b respectivamente.
ar
2. Encuentre la distancia del punto P al origen, si P viene dado por el vector posición: r = 2i + 4j − 3k. Y si
para un punto arbitrario el vector posición es: r = xi + yj + zk ¿Qué superficie describe éste vector cuando
|r| = 3?
3. Encuentre los cosenos directores y los correspondientes ángulos para los siguientes vectores:
in
a) a = i + j + k.
b) b = i − 2j + 2k.
c) c = 4i − 2j + 3k.
a = i + 2j + 3k ,
b = i + 5j ,
lim
4. Sea {i1 , i2 , i3 } una base ortonormal dextrógira. Verifique que los vectores:
c = 3i + 2j + k .
forman una base ¿Esta base será del tipo dextrógiro o levógiro?
5. Sea {i1 , i2 , i3 } una base ortonormal ¿Son los siguientes conjuntos de vectores una base?
a2 = i − 4k ,
b) b1 = i − 3j + 2k ,
b2 = 2i − 4j − k ,
6. Dados los vectores:
a = i1 + 2i2 + 3i3 ,
a) Encuentre:
a3 = 4i + 3j − k.
rP
re
a) a1 = 2i + j − 3k ,
b3 = 3i + 2j − k.
b = 4i1 + 5i2 + 6i3 ,
a + b + c + d,
a + b − c − d,
c = 3i1 + 2i2 + i3 ,
a − b + c − d,
d = 6i1 + 5i2 + 4i3 .
−a + b − c + d .
b) El ángulo entre los vectores a, b, c, d y los vectores base i1 , i2 , i3 .
ad
o
c) La magnitud de los vectores a, b, c, d.
d ) El ángulo entre a y b y entre c y d.
e) La proyección de a sobre b.
f ) ¿Son los vectores a, b, c, d coplanares?
g) Encuentre (a + b) · (c + d).
h) Los productos a × b, b × c, c × d y los ángulos que estos forman con d.
rr
i ) c · (a × b).
7. Verifique la desigualdad triangular: |a + b| ≤ |a| + |b|, para los siguientes vectores:
Bo
a) a = i + 2j + 3k y b = 2i + j + 7k.
b) a = 2i − j − 2k y b = 3i + 2j + 3k.
8. Si a y b son vectores arbitrarios y α y β números, demuestre que:
|αa + βb|2 ≤ α2 |a|2 + 2αβ(a · b) + β 2 |b|2 .
9. Si a, b, c y d son vectores arbitrarios y α, β, γ escalares que satisfacen:
α(b × c) + β(c × a) + γ(a × b) + d = 0 ,
demuestre que si a, b y c son linealmente independientes, entonces:
α=−
a·d
,
a · (b × c)
β=−
b·d
,
a · (b × c)
γ=−
c·d
.
a · (b × c)
22
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
10. Si a, b, c y d son vectores arbitrarios y α, β, γ escalares que satisfacen:
αa + βb + γc + d = 0 ,
demuestre que si a, b y c son linealmente independientes, entonces:
d · (b × c)
,
a · (b × c)
β=−
d · (c × a)
,
a · (b × c)
γ=−
d · (a × b)
.
a · (b × c)
Ayuda: tome el producto escalar de la ecuación con b × c, a × c y a × b.
ar
α=−
11. Demuestre que los vectores a = i + 2j + k, b = 2i − j − k y c = 4i + 3j + k son linealmente independientes.
Escoja un vector d y verifique los resultados de los dos últimos ejercicios.
Aplicaciones del álgebra vectorial
lim
1.3.
in
12. Utilizando Maxima realice todos los ejercicios anteriores y compare los resultados.
Uno de los terrenos más exitosos de las aplicaciones del álgebra vectorial es la geometrı́a analı́tica. Esto se realiza
en base a la definición que hiciéramos del radio vector, en la cual a cada punto, P , del espacio le asociábamos un
radio vector posición tal y como lo mostramos en el cuadrante I de la figura 1.4.
⇒ r (P ) = x i + y j + z k = x1 i1 + x2 i2 + x3 i3 =
rP
re
P ←→ (x, y, z) ≡ x1 , x2 , x3
3
X
xi i i .
i=1
A partir de esta definición todas las propiedades geométricas del espacio las podemos construir con vectores.
1.3.1.
Rectas y vectores
La ecuación de la recta en término de vectores la definiremos fijando uno de sus puntos, digamos:
r (P1 ) ≡ x (P1 ) = x1 = x1 i + y1 j + z1 k = x1(1) i1 + x2(1) i2 + x3(1) i3 ←→ (x1 , y1 , z1 ) ,
ad
o
y un vector que indique su dirección, digamos a = a1 i + a2 j + a3 k (ver cuadrante I de la figura 1.5) con lo cual la
ecuación de una recta en lenguaje vectorial será:

x = x1 + λa1





y = y1 + λa2
x = x1 + λa ⇒ x1 i + y1 j + z1 k + λ a1 i + a2 j + a3 k ⇒





z = z1 + λa3
rr
donde x = x i + y j + z k es el conjunto de puntos genéricos que cumple con la ecuación de la recta en 3D.
Existe una manera más elegante, como veremos en la sección siguiente, de reescribir las ecuaciones anteriores
utilizando la notación de ı́ndices2 . Las ecuaciones ahora son más evidentes:
Bo
x = x1 + λa ⇒ xi ii = xi(1) ii + λai ii ⇒ xi = xi(1) + λai ,
para i = 1, 2, 3 .
donde: (x, y, z) ≡ x1 , x2 , x3 y (i, j, k) ≡ (i1 , i2 , i3 ).
Nótese que efectivamente se cumplen tres ecuaciones escalares y cada una de ellas tiene la forma de una recta.
Además, tal y como se muestra la figura 1.5 el punto genérico (x, y, z) lo describe (sobre la recta) la variación
del módulo de a mediante la constante de proporcionalidad λ. Si se requiere describir una recta que pase por dos
puntos: (x1 , y1 , z1 ) y (x2 , y2 , z2 ) entonces una vez seleccionado uno de los puntos (digamos (x1 , y1 , z1 )) seleccionamos
el vector a = r (P2 ) − r (P1 ) como la resta de los dos radio vectores a los puntos P2 y P1 . Esto es:
x = x1 + λ (x2 − x1 ) .
2 Quitaremos aquı́ el sı́mbolo de sumatoria, esta convención quedará clara en la siguiente sección, pero mantengamos en mente que
tenemos una suma sobre el ı́ndice i.
23
Al despejar λ de la ecuaciones de las rectas resulta:
y de manera equivalente:
xi − xi(1)
ai
=
x − x1
y − y1
z − z1
=
=
,
a1
a2
a3
rP
re
xi = xi(1) + λai ⇒ λ =
lim
Figura 1.5: Geometrı́a analı́tica y vectores cartesianos
in
ar
1.3. APLICACIONES DEL ÁLGEBRA VECTORIAL
xi − xi(1)
y − y1
z − z1
x − x1
xi = xi(1) + λ xi(2) − xi(1) ⇒ λ = i
=
=
.
=
i
x2 − x1
y2 − y1
z2 − z1
x(2) − x(1)
1.3.2.
Planos y vectores
ad
o
Ocurre exactamente lo mismo cuando construimos la ecuación vectorial para un plano. En general una superficie
la define su vector normal (perpendicular). En el caso de una superficie plana (un plano) tendrá una única normal
que lo define, por lo tanto, un plano vendrá definido por su vector perpendicular en un punto, digamos Q = P1 :
−−→
(x1 , y1 , z1 ). La ecuación vectorial del plano vendrá definida por todos los vectores P Q tales que sean perpendiculares
a un determinado vector a (ver cuadrante II de la figura 1.5). Donde el punto P es un punto genérico (x, y, z) que
define un radio vector. La ecuación vectorial del plano será simplemente:


−−→
a · P Q = a · r (P ) − r (P1 ) = 0 ⇔ a · (r − r1 ) = 0 ⇔ a · r = a · r1 .
| {z }
| {z }
b
rr
b
Bo
Esto es, se tiene que cumplir la condición:
a1 i + a2 j + a3 k · [(x i + y j + z k) − (x1 i + y1 j + z1 k)] = 0
a1 i + a2 j + a3 k · [(x − x1 ) i + (y − y1 ) j + (z − z1 ) k] = 0
a1 (x − x1 ) + a2 (y − y1 ) + a3 (z − z1 ) = 0 ,
con lo cual, la ecuación del plano queda como siempre la hemos conocido:
a1 x + a2 y + a3 z − a1 x1 − a2 y1 − a3 z1 = 0 ⇒ a1 x + a2 y + a3 z = b = a1 x1 + a2 y1 + a3 z1 .
Nuevamente, de manera compacta:
ai xi − aj xj(1) = 0 ⇒ ak xk = b = al xl(1) .
Es claro que a · r1 = b es la proyección del radio vector r (P1 ) sobre la perpendicular que define al plano. Por lo
tanto será la distancia entre el plano y el origen de coordenadas. Si b = 0 el plano pasa por el origen de coordenadas.
24
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
Consideremos ahora el cuadrante III de la figura 1.5. Allı́ están especificados tres puntos en el espacio caracterizados por sus correspondientes radio vectores posición: r (P1 ) = r1 , r (P2 ) = r2 y r (P3 ) = r3 . Estos tres puntos
serán coplanares si:
m
n
n
l
l
(r1 − r2 ) · [(r2 − r3 ) × (r3 − r1 )] = 0 ⇔ εmnl (xm
1 − x2 ) (x2 − x3 ) x3 − x1 = 0 ,
y la ecuación vectorial del plano vendrá dada por:
1.3.3.
ar
(r − r1 ) · [(r2 − r1 ) × (r3 − r1 )] = 0 .
Ejemplos
rAB = B − A = (0, 1, 2) ,
in
1. Un plano viene determinado por los puntos A = (1, 1, 1), B = (1, 2, 3) y C = (0, 0, 0). Para encontrar la
ecuación del plano podemos hacer lo siguiente: Encontremos el vector posición de los puntos A y B,
rAC = C − A = (−1, −1, −1) ,
un vector normal al plano es: n = rAB × rAC = (1, −2, 1).
lim
Para la ecuación del plano, podemos escoger el vector a = (1, 1, 1) por lo que tenemos entonces que:
n · r = n · a ⇒ (1, −2, 1) · (x, y, z) = (1, −2, 1) · (1, 1, 1) ⇒ x − 2y + z = 0 .
2. Dados los siguientes puntos en el espacio: (1, 0, 3), (2, −1, 0), (0, −1, 1), (−1, 0, 1).
rP
re
Consideremos los tres primeros puntos, que podemos considerar coplanares ya que bastan tres puntos para
definir un plano. Estos tres puntos son los vertices de un triángulo cuya área podemos calcular de la siguiente
manera:
Primero seleccionamos uno de los puntos como un vértice privilegiado (digamos (2, −1, 0)) respecto al cual
construiremos dos vectores que representan dos de los lados del triángulo. Esto es:
a = (1, 0, 3) − (2, −1, 0) ↔ a = −i + j + 3k ,
b = (0, −1, 1) − (2, −1, 0) ↔ b = −2i + k ,
ad
o
con lo cual, el área del triángulo será la mitad del área del paralelogramo que tiene por lados estos dos vectores.
Es decir:
√
i
j k
30
1
1
−1
1
3
.
= i − 5j + 2k ⇒ A = |i − 5j + 2k| =
A = |a × b| ⇒ a × b =
2
2
2
−2 0 1
Por otro lado, la ecuación del plano que generan estos tres puntos se calcula con la siguiente ecuación:
(r − r1 ) · ((r2 − r1 ) × (r3 − r1 )) = 0 ,
donde:
r = xi + yj + zk,
r1 = i + 3k,
r2 = 2i − j,
r3 = −j + k,
rr
con lo cual la ecuación del plano queda como:
(z − 3)
−3
−2
= 0 ⇒ −(x − 1) + 5y − 2(z − 3) = 0 ⇒ x − 5y + 2z = 7 .
Bo
(x − 1) y
1
−1
−1
−1
Podemos verificar si el cuarto punto, (−1, 0, 1), se encuentra en el plano, es decir, debemos verificar que cumple
la ecuación que lo define.
x − 5y + 2z = 7 ⇒ (−1) − 5(0) + 2(1) 6= 7 ,
por lo tanto, los cuatro puntos no son coplanares. Podemos entonces calcular la distancia del cuarto punto al
plano construyendo un vector unitario normal al plano.
n̂P =
1
a×b
= √ (i − 5j + 2k) ,
|a × b|
30
con lo cual la distancia al cuarto punto será:
1
6
d = n̂P · c = √ (i − 5j + 2k) · (−3i + j + k) = − √ .
30
30
1.3. APLICACIONES DEL ÁLGEBRA VECTORIAL
1.3.4.
25
Practicando con Maxima
Consideremos el plano determinado por los puntos P = (1, 1, 1), Q = (2, 4, 6) y R = (2, 2, 2). Para construir la
ecuación del plano primero ingresamos los vectores posición de cada punto. También incorporaremos las librerı́as
vect y draw que necesitaremos.
(%i1) load(vect)$ load(draw)$
(%i2) P:[1,1,1];
ar
( %o2) [1, 1, 1]
(%i3) Q:[2,4,6];
in
( %o3) [2, 4, 6]
(%i4) R:[2,2,2];
lim
( %o4) [2, 2, 2]
Podemos verificar que los vectores estén en el mismo plano simplemente calculando el triple producto vectorial:
P · (Q × R) entre ellos. Sabemos que si es nulo es porque los vectores son coplanares.
(%i5) P.express(Q~R);
rP
re
( %o5) 0
Necesitamos ahora calcular los vectores que van del punto P al punto Q y del punto P al punto R, es decir, los
vectores: PQ = Q − P y PR = R − P
(%i6) PQ:Q-P;
( %o6) [1, 3, 5]
(%i7) PR:R-P;
( %o7) [1, 1, 1]
ad
o
Un vector normal al plano será sencillamente el vector N = PQ × PR:
(%i8) N:express(PQ~PR);
( %o8) [−2, 4, −2]
Podemos escoger cualquiera de los vectores originales, en este caso al vector P, para escribir la ecuación del
plano: N · r = N · P.
rr
(%i9) r:[x,y,z];
( %o9) [x, y, z]
Bo
(%i10)plano:N.r=N.P;
( %o10) − 2 z + 4 y − 2 x = 0
Probemos a graficar el plano. Para saber mas sobre las diferentes opciones que incorpora Maxima para hacer
gráficas, en dos o tres dimensiones, es recomendable consultar el manual de usuario.
Utilizaremos el comando wxdraw3d para hacer que la figura aparezca embebida dentro de nuestra hoja de
trabajo. Es recomendable consultar también las funciones draw y gr3d.
(%i11)wxdraw3d(implicit(plano,x,-1,1,y,-1,1,z,-1,1));
( %o11)
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
1.3.5.
lim
in
ar
26
Ejercicios
1. Para las rectas dadas a continuación:
3x−1
4
=
b) L :
2x+1
3
=
2y+3
2
3y+2
3
= 2 − 3z.
= −2 + 4z.
rP
re
a) L :
Encuentre los vectores posición para dos puntos diferentes sobre la recta y un vector unitario paralelo a la
recta L.
2. Dada una linea recta L1 que pasa a través de los puntos (−2, 3, 1) y (1, 4, 6) encuentre:
a) El vector posición de un punto sobre la recta y un vector paralelo a ésta.
b) Una recta L2 paralela a L1 y que pase por el punto (1, 2, 1).
ad
o
3. Una linea recta tiene como ecuación vectorial: r = a + λb, donde: a = 3j + 2k y b = 2i + j + 2k.
Encuentre la ecuación cartesiana de la recta y las coordenadas de tres puntos sobre la recta.
4. Una linea recta pasa por el punto (3, 2, −3) y paralela al vector a = 2i + 3j − 3k. Encuentre la ecuación
cartesiana de la recta y las coordenadas de tres puntos sobre la recta.
5. Dado un plano que pasa por el punto (2, 3, −5) y con vector normal a = 2i + k, encuentre la forma cartesiana
de la ecuación del plano.
rr
6. Encuentre la ecuación del plano con normal a y que contiene el punto P cuando:
a) a = 2i − 3j + k, P = (1, 0, 1).
Bo
b) a = i − 2j + 2k, P = (2, −3, 4).
7. El ángulo entre dos planos se define como el ángulo entre sus normales. Encuentre el ángulo entre los siguientes
planos:
a) x + 3y + 2z = 4 y 2x − 5y + z = 2.
b) 3x + 2y − 2z = 4 y 2x + y + 2z = 1.
8. Demuestre que la ecuación de una esfera puede expresarse como:
|r − c|2 = (r − c) · (r − c) = a2 ,
donde c es el vector posición del centro de la esfera y a el radio.
27
lim
in
ar
1.3. APLICACIONES DEL ÁLGEBRA VECTORIAL
Figura 1.6: Las 5 redes de Bravais bidimensionales fundamentales: 1 Oblicuas, 2 rectangular, 3 rectangular centrada
(rómbica), 4 hexagonal, y 5 cuadrada. Figura tomada de http://en.wikipedia.org/wiki/Bravais_lattice.
rP
re
9. Auguste Bravais3 se dio cuenta que replicando un arreglo geométrico muy simple, se puede describir una
estructura cristalina. Dicho de otro modo, que conociendo una celda simple, podemos conocer la estructura
cristalina. Esto es, que las posiciones de los átomos en una red cristalina puede ser descrita por un vector:
R = a + b + c = n1 a1 + n2 a2 + n3 a3 = ni ai ,
donde los ai son vectores no coplanares (vectores primitivos o, simplemente en nuestro lenguaje, vectores
base). Los ni son números enteros (negativos, cero o positivos). La posición de cada átomo de un cristal puede
ser descrita como reescalamientos (discretos) de este vector genérico o, de manera más precisa, la traslación
del origen de coordenadas por un vector.
ad
o
Ese concepto se conoce como redes de Bravais4 . En cada red puede haber varios vectores primitivos5 . Se puede
definir la celda primitiva como la estructura mı́nima que replicada reproduce todo el cristal. Vale decir, la
estructura cristalina es invariante bajo traslaciones espaciales del tipo:
R0 = R + T ,
con T = mi ai .
a) Redes de Bravais bidimensionales. Tal y como muestra la figura 1.6 existen 5 tipos distintos de redes
de Bravais bidimensionales.
Bo
rr
1) Dada la red bidimensional de la figura 1.7 (Izquierda) encuentre todos los posibles vectores primitivos
y celdas primitivas asociadas.
2) La humanidad ha estado seducida por la geometrı́a desde que empezó a representar figuras. A partir
de las cuatro imágenes que se ilustran en la figura 1.7 (Centro), encuentre todos los posibles vectores
y celdas primitivas asociadas.
3) Maurits Cornelis Escher6 fue un fenomenal dibujante holandés, quien se interesó por las simetrı́as de
los grupos de imágenes de papel tapiz. Berend, hermano de Maurits, era cristalógrafo y le mostró la
belleza de las simetrı́as de la naturaleza. En las cuatro obras del género de teselado7 de M.C. Escher,
presentadas en la figura 1.7 (Derecha) encuentre todos los posibles vectores y celdas primitivas
asociadas.
b) Redes de Bravais tridimensionales. Este tipo de redes complica un poco más el escenario. Se puede
demostrar que existen 14 de estas redes, tal y como se muestran en la figura 1.8.
3 http://en.wikipedia.org/wiki/Auguste_Bravais
4 http://en.wikipedia.org/wiki/Bravais_lattice
5 http://www.engr.sjsu.edu/rkwok/Phys175A/Chapter%201.pdf
6 http://en.wikipedia.org/wiki/M._C._Escher
7 http://en.wikipedia.org/wiki/Tessellation
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
ar
28
lim
in
Figura 1.7: A la izquierda red cristalina bidimensional. Al centro cuatro detalles geométricos: mural egipcio, mural asirio, tejido tahitı́ e ilustración en pieza de porcelana china (Tomado de: http://en.wikipedia.org/wiki/
Wallpaper_group). A la derecha, teselados de M.C. Escher, tomados de: http://www.wikipaintings.org/en/
paintings-by-genre/tessellation?firstArtist=m-c-escher#artist-m-c-escher.
1) Muestre que los volúmenes de ocupación atómica, para los sistemas: monoclı́nico, triclı́nico, ortorómbico, tetragonal, romboédrico, hexagonal y cúbico, corresponden a las expresiones que se muestran en la figura 1.8.
rP
re
c) El sistema cúbico, el más simple, corresponde a un sistema con un único parámetro de red a = |a|, ya
que a = b = c. Además, una posible descripción, para el caso más simple, es a = i , b = j , c = k, los tres
vectores cartesianos ortogonales. Existen otros sistemas que también están asociados al cúbico. Estos
son el sistema cúbico cara centrada (fcc por sus siglas en inglés) y cúbico cuerpo centrado (bcc). En el
primero existen átomos en el centro de cada una de las caras del cubo definido por la trı́ada, a = b = c.
En el sistema fcc se añade un átomo la centro del cubo simple.
1) Muestre que un sistema bcc también puede ser descrito por los vectores primitivos:
a = ai ,
b = aj ,
c = a(i + j + k)/2 .
ad
o
Dibuje la celda primitiva y calcule su volumen.
2) Muestre que un sistema bcc también puede ser descrito por los vectores primitivos:
a = a(j + k − i)/2 ,
b = a(k + i − j)/2 ,
c = a(i + j − k)/2 .
Dibuje la celda primitiva y calcule su volumen.
3) Muestre que un sistema fcc también puede ser descrito por los vectores primitivos:
a = a(j + k)/2 ,
b = a(i + k)/2 ,
c = a(i + j)/2 .
rr
Otra vez, dibuje la celda primitiva y calcule su volumen.
d ) Se puede definir la red recı́proca como:
b×c
,
a · (b × c)
b0 =
c×a
a · (b × c)
y
c0 =
a×b
.
a · (b × c)
Bo
a0 =
De esta manera es claro que, por construcción, a0 · b = a0 · c = 0 y además a0 · a = 1. Con lo cual podemos
0
0
generalizarlo como êi · êj = δji .
Exprese los vectores y las celdas recı́procas para los sistemas cúbico simple, y los distintos bcc y fcc.
Calcule además el volumen de cada celda recı́proca.
10. Realice los cálculos anteriores utilizando el programa Maxima.
1.4.
Álgebra vectorial con ı́ndices
Antes de comenzar con la presentación de este esquema de cálculo cabe aclarar algunas costumbres y convenciones
con la notación de ı́ndices que estaremos utilizando durante el resto de este curso.
29
rP
re
lim
in
ar
1.4. ÁLGEBRA VECTORIAL CON ÍNDICES
Figura 1.8: Las 14 Redes de Bravais tridimensionales y las estructuras cristalinas asociadas. Tomado de: http:
//en.wikipedia.org/wiki/Bravais_lattice.
1.4.1.
Convención de Einstein
ad
o
El convenio de suma de Einstein, es una simplificación que se utiliza para abreviar la escritura de las sumatorias,
en el que se suprime el sı́mbolo de sumatoria y consiste en lo siguiente:
1. Los ı́ndices repetidos (arriba y abajo) indicarán suma por los valores que tomen los ı́ndices. Las componentes
de los vectores tendrán ı́ndices arriba y los vectores base abajo:
a = a1 e1 + a2 e2 + a3 e3 =
3
X
am em
⇔
a = am em = ai ei .
m=1
k j aj = k m am = k 1 a1 + k 2 a2 + k 3 a3 = b .
Bo
rr
2. Los ı́ndices repetidos son mudos (no importa las letras que los etiquete) y representan suma. Ası́:
En este punto del discurso, la posición de los ı́ndices (arriba y abajo) solo tiene sentido estético y solo ası́
indican suma. Más adelante veremos que representan cantidades distintas.
3. Llamaremos contracción cuando sumamos respecto a un par de ı́ndices, vale decir:
X
Aji ⇒
Aii = A11 + A22 + A33 ⇒ Aii = A11 + A22 + A33 .
i
Las cantidades con dos o más ı́ndices las llamaremos componentes de tensores, y deben entenderse como arreglos
bidimensionales (tridimensionales, tetradimensionales, según el número de ı́ndices). Estas cantidades serán considerados en detalle posteriormente pero por ahora, contentémonos con saber qué cosas son cantidades con dos ı́ndices.
Es claro que la contracción de ı́ndices convierte un conjunto de números (i × j) → 1, en un sólo número.
30
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
Los ı́ndices libres (aquellos que no están sumados) indican el número de objetos disponibles y deben mantenerse
a ambos lados de la ecuación. Por ejemplo:
 1
K1 A1 + K12 A2 + K13 A3 = B1





K21 A1 + K22 A2 + K23 A3 = B2
Bi = Kik Ak ⇔




 1
K3 A1 + K32 A2 + K33 A3 = B1
δki
=
1
K1j
δ11
|{z}
=1
+
1
K2j
=0
=0
=0
=0
=0
in
=0
k
Kij
ar
con lo cual Bi = Kik Ak representa 3 ecuaciones. La operación Bij = Kik Akj representa 9.
La delta de Kronecker8 es un objeto matemático de dos ı́ndices, representa δik = 1 si i = k, y es nula en los otros
casos. Por ejemplo:
z}|{
z}|{
z}|{
z}|{
z}|{
z}|{
1
2
2
2
3
3
3
δ12 + K3j
δ13 + K1j
δ21 + K2j
δ22 + K3j
δ23 + K1j
δ31 + K2j
δ32 + K3j
δ33 ,
|{z}
|{z}
=1
lim
es decir:
=1
k i
k
i
1
2
3
Kij
δk = Kkj
= Kij
= K1j
+ K2j
+ K3j
.
introduciremos el sı́mbolo de permutación de Levi-Civita9 , εijk , para el caso
{(i, j, k) = (1, 2, 3) ; (3, 1, 2) ; (2, 3, 1)} permutación cı́clica
{(i, j, k) = (1, 3, 2) ; (3, 2, 1) ; (2, 1, 3)} permutación impar o anticı́clica
{i = j , i = k ∧ j = k}
rP
re
Además de la delta de Kronecker
de tres dimensiones: i, j, k = 1, 2, 3.

 +1 cuando
−1 cuando
εijk = εijk =

0 cuando
Por lo tanto, es distinto de cero cuando todos los ı́ndices son diferentes. Toma el valor 1 si la permutación de ı́ndices
es cı́clica (o par), y toma el valor −1 si la permutación es anticı́clica (o impar).
Si queremos calcular, por ejemplo: ci = εijk aj bk , entonces resulta:
c1 = ε111 a1 b1 + ε112 a1 b2 + ε113 a1 b3 + ε121 a2 b1 + ε122 a2 b2 + ε123 a2 b3 + ε131 a3 b1 + ε132 a3 b2 + ε133 a3 b3 ,
c2 = ε211 a1 b1 + ε212 a1 b2 + ε213 a1 b3 + ε221 a2 b1 + ε222 a2 b2 + ε223 a2 b3 + ε231 a3 b1 + ε232 a3 b2 + ε233 a3 b3 ,
con lo cual:
ad
o
c3 = ε311 a1 b1 + ε312 a1 b2 + ε313 a1 b3 + ε321 a2 b1 + ε322 a2 b2 + ε323 a2 b3 + ε331 a3 b1 + ε332 a3 b2 + ε333 a3 b3 ,
ci = εijk aj bk
 1
c = ε123 a2 b3 + ε132 a3 b2 = a2 b3 − a3 b2





c2 = ε231 a3 b1 + ε213 a1 b3 = a3 b1 − a1 b3
⇒




 3
c = ε312 a1 b2 + ε321 a2 b1 = a1 b2 − a2 b1
Bo
rr
A continuación enumeramos algunas propiedades de la delta de Kronecker y del sı́mbolo de permutación de
Levi-Civita, dejamos al lector su demostración. Ellas son:
1.4.2.
δjj = 3 ,
εjkm εilm = δji δkl − δki δjl = δji δkl − δjl δki ,
εjmn εimn = 2δji ,
εijk εijk = 6 .
Vectores e ı́ndices
Disponemos ahora de una manera más elegante para escribir ecuaciones que involucren vectores. Veamos que
forma toma el álgebra vectorial con esta nueva notación.
8 Leopold Kronecker (7 diciembre 1823 Legnica, Polonia, 29 diciembre 1891, Berlin, Alemania) Matemático polaco con importantes
contribuciones en teorı́a de números, funciones elı́pticas y álgebra, ası́ como la interrelación entre estas disciplinas.
9 Tullio Levi-Civita (1873 Padova, Veneto, 1941 Roma, Italia) Geómetra italiano y uno de los desarrolladores del cálculo tensorial
que más tarde serı́a utilizado por Einstein y Weyl como el lenguaje de la Relatividad General.
1.4. ÁLGEBRA VECTORIAL CON ÍNDICES
31
Sumas de vectores
La suma de vectores será expresada de la siguiente manera:
a + b = ai ei + bi ei = ai + bi ei = ci ei ⇒ ci = ai + bi
con i = 1, 2, 3 .
Producto escalar
ar
A partir da ahora y de forma equivalente, expresaremos el producto escalar en término de los ı́ndices. De forma
y manera que:
a · b = |a| |b| cos(θ)ab = ai bi con i = 1, 2, 3 .
Producto vectorial
i
ci = (a × b) = εijk aj bk
con i, j, k = 1, 2, 3 .
in
En términos de ı́ndices, la componente i del producto vectorial se puede expresar como:
lim
De esta manera, todas las particularidades de producto vectorial ahora descansan en las propiedades del sı́mbolo
de Levi-Civita.
Triple producto mixto
rP
re
Para finalizar, analicemos ahora el número (pseudoescalar) que proviene de la multiplicación mixta:
i
j k
i j k
c · (a × b) = |c| |a × b| cos(θ)hc,a×bi = c εijk a b = εijk c a b =
1.4.3.
c1
a1
b1
c2
a2
b2
c3
a3
b3
.
Rotación de coordenadas
ad
o
Consideremos un sistema de coordenadas cartesiano (x, y, z) y su base canónica {i, j, k}, si rotamos el sistema
de coordenadas un ángulo φ alrededor del eje z tendremos un nuevo sistema de coordenadas (x̃, ỹ, z̃) y una nueva
base {ĩ, j̃, k̃}. La regla de transformación que relaciona ambos sistemas de coordenadas es:


 x = x̃ cos(φ) − ỹ sen(φ)
 x̃ = x cos(φ) + y sen(φ)
y = x̃ sen(φ) + ỹ cos(φ)
ỹ = −x sen(φ) + y cos(φ)
⇐⇒


z = z̃
z̃ = z
Bo
rr
Mientras que las bases transformarán, como veremos más adelante, como:

 ĩ = i cos(φ) + j sen(φ)
j̃ = −i sen(φ) + j cos(φ)

k̃ = k
Diremos que un triplete de números a1 , a2 , a3 definen las componente de un vector a = a1 i + a2 j + a3 k si estas
cantidades transforman bajo rotación de la siguiente manera:
ã1 = a1 cos(φ) + a2 sen(φ) ,
ã2 = −a1 sen(φ) + a2 cos(φ) ,
ã3 = a3 .
Notemos también lo siguiente, al usar la notación de ı́ndices podemos escribir las ecuaciones de transformación
de coordenadas ası́:

 1
 x̃ = x cos(φ) + y sen(φ)
 x̃ = A11 x1 + A12 x2 + A13 x3
x̃2 = A21 x1 + A22 x2 + A23 x3 ⇒ x̃i = Ãij xj ,
ỹ = −x sen(φ) + y cos(φ) ⇒

 3
x̃ = A31 x1 + A32 x2 + A33 x3
z̃ = z
con: i, j = 1, 2, 3.
Se puede ver fácilmente que las cantidades Ãij , en coordenadas cartesianas, vienen dadas por:
Ãij =
∂ x̃i
,
∂xj
32
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
y como la transformación de coordenadas es invertible, se tiene que:
xj = Aji x̃i ,
Aji =
con:
∂xj
,
∂ x̃i
y se cumple la siguiente condición de ortogonalidad:
Ãik Aji = δkj .
1.4.4.
∂ x̃i j
a ≡ Ãij aj
∂xj
⇔
ai =
∂xi j
a ≡ Aij aj .
∂ x̃j
Escalares, pseudoescalares, vectores y pseudovectores
in
ãi =
ar
Por lo tanto, en general, diremos que las componentes de un vector transformarán de la manera siguiente:
lim
Además de las rotaciones podemos considerar otra clase de transformaciones: las reflexiones. Estas transformaciones, (x1 , x2 , x3 ) → (−x1 , x2 , x3 ), muestran una sutil diferencia entre dos tipos de cantidades vectoriales: los
vectores polares y los axiales, diferencia que no se puede apreciar en las rotaciones.
Una reflexión en el plano yz se puede representar como un cambio de signo en la componente x del vector:
(ax , ay , az ) → (−ax , ay , az ) ,
o también:
(1.2)
rP
re
a1 e1 + a2 e2 + a3 e3 → a1 (−e1 ) + a2 e2 + a3 e3 ≡ (−a1 )e1 + a2 e2 + a3 e3 .
Diremos que los objetos que transforman de esta manera bajo reflexión son vectores polares o simplemente
vectores. Nótese que esa transformación de coordenadas es equivalente a invertir el vector base: e1 → −e1 .
Ahora bien, si dos vectores polares a y b, son transformados bajo reflexión como en (1.2), entonces un vector
axial c transformará como:
c = a × b → ã × b̃ = −c̃ .
Bo
donde:
rr
ad
o
Es decir, los vectores axiales o pseudovectores cambian de signo bajo reflexión de los vectores que los generan10 .
De igual manera notamos que d = a·b queda invariante bajo la transformación (1.2), mientras que V = c·(a × b)
cambia de signo. Siguiendo el ejemplo de vectores y pseudovectores, llamaremos escalar a d y pseudoescalar a V .
Existen importantes cantidades fı́sicas que vienen representadas por pseudovectores, entre ellas mencionamos: la
∂B
= −∇ × E.
cantidad de momento angular, L = r × p; el torque τ = r × F y el campo de inducción magnética,
∂t
Pseudovectores y vectores representan distintos objetos geométricos. Los primeros se asocian a orientaciones de
superficies, mientras que los segundos lo están con segmentos de rectas orientadas. El vector velocidad angular, ω,
es un pseudovector por cuanto r y v son vectores polares y v = ω × r. Algo equivalente ocurre con la aceleración
de Lorentz a = qv × B, donde B es el campo magnético.
En general, podemos representar la reflexión (1.2) bajo el esquema que presentamos en (1.4.3), es decir, como
transformaciones del tipo:

 
 


ãx
−ax
−1 0 0
ax
 ãy  ≡  ay  =  0 1 0   ay  .
ãz
az
0 0 1
az

−1
∂ x̃
 0
ãi = Ãij aj , donde Ãij =
=
∂xj
0
i
0
1
0

0
0 ,
1
es la matriz de transformación de coordenadas11 .
Notemos que aquı́ el determinante de la matriz de transformación tiene como valor −1 (det |Ã| = −1) ¿Cuál es
el valor del determinante de la matriz que podemos asociar a (1.4.3)?
10 Esta inversión de vector axial puede comprobarse fácilmente utilizando la definición de productor vectorial (1.2.6) en la cual se
aprecia que un cambio en el signo en ax y bx induce un cambio de signo en cy y cz .
11 Una discusión de vectores y pseudovectores puede consultarse en la nota de Quigley, Robert J. “Pseudovectors and Reflections”
American Journal of Physics 41, no. 3 (1973): 428-430; y en el capı́tulo 52 del Vol. 1 de Feynman, R.P., Leighton, R.B. and Sands, M.,
2013. The Feynman Lectures on Physics, Desktop Edition. Basic Books. Para algunas de las consecuencias que se presentan cuando se
consideran cantidades fı́sicas y transformaciones de reflexión.
1.4. ÁLGEBRA VECTORIAL CON ÍNDICES
33
Bo
rr
ad
o
rP
re
lim
in
ar
El hecho de que el det |Ã| = 1 o det |Ã| = −1, permite clasificar a las transformaciones de coordenadas en
transformaciones propias o transformaciones impropias, respectivamente.
Entonces, en general, diremos que las componentes de vectores y pseudovectores transformarán bajo reflexión
de la siguiente manera:
 i
vectores polares o simplemente vectores,
 ã = Ãij aj ,
i
∂
x̃
i
⇒
si: Ãj =
 i
∂xj
p̃ = det |Ã|Ãij pj , pseudovectores o vectores axiales.
34
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
1.4.5.
Ejemplos
1. Mostraremos a continuación dos casos de identidades vectoriales que pueden ser fácilmente demostradas
mediante la utilización de ı́ndices.
a) a × (b × c) = (c · a) b − (a · b) c
El resultado será un vector, por lo tanto:
= εijk aj εkmn bm cn = εijk εkmn aj bm cn = εijk εmnk aj bm cn
i j
j i
i j
j i
= δm
δn − δm
δn aj bm cn = δm
δn aj bm cn − δm
δn aj bm cn
ar
i
(a × (b × c)) = εijk aj (b × c)k
i m j
j
= δm
b δn aj cn − δni cn δm
aj bm = bi an cn − ci aj bj
| {z }
|{z}
(c·a)
i
i
(a·b)
in
= b (c · a) − c (a · b) = b (c · a) − c (a · b) .
b) (a × b) · (c × d) = (a · c) (b · d) − (a · d) (b · c)
El lado derecho es un escalar, por lo tanto:
l
(a × b) · (c × d) = (a × b) (c × d)l
lim
En la segunda lı́nea hemos hecho uso de la identidad: εjkm εilm = δji δkl − δki δjl = δji δkl − δjl δki .
= εljk aj bk εlmn cm dn = εljk εlmn aj bk cm dn
j k
k j
= εjkl εmnl aj bk cm dn = δm
δn − δm
δn aj bk cm dn
rP
re
j k
k j
= δm
δn aj bk cm dn − δm
δn aj bk cm dn
j
= δm
aj cm δ k bk dn − δ k bk cm δ j aj dn
| {z }|n {z } |m {z }|n {z }
(a·c)
(b·d)
(b·c)
(a·d)
= (a · c) (b · d) − (b · c) (a · d) .
2. Si tenemos tres vectores {a, b, c} queremos ver si se cumple:
a × (b × c) + b × (c × a) + c × (a × b) = 0 .
ad
o
En notación de ı́ndices resulta:
a × (b × c) + b × (c × a) + c × (a × b) = lmi am ijk bj ck + lmi bm ijk cj ak + lmi cm ijk aj bk ,
con lo cual, arreglando:
lmi ijk am bj ck + lmi ijk bm cj ak + lmi ijk cm aj bk
=
+
δjl δkm − δjm δkl am bj ck + δjl δkm − δjm δkl bm cj ak
δjl δkm − δjm δkl cm aj bk ,
Bo
rr
y ahora desarrollando los productos de las δ’s, e identificando término a término, notamos que se anulan:
ak bl ck − ak bk cl + bk cl ak − bk ck al + ck al bk − ck ak bl = 0 .
| {z } | {z } | {z } | {z } | {z } | {z }
I
II
II
III
III
I
3. Vimos que los vectores polares transforman bajo una reflexión respecto al plano yz de la forma:
e1 → −e1 ⇒ (ã1 , ã2 , ã3 ) = (−a1 , a2 , a3 ) .
Para saber que pasa con el vector c = a × b, cuando lo sometemos a esta reflexión, estudiemos como se
transforman sus componentes directamente de la definición del producto vectorial, miremos con respecto a la
componente x de c. Entonces, para a y b vectores polares se tiene:
h
i
c̃ = ã × b̃ =
ã2 b̃3 − ã3 b̃2 , ã3 b̃1 − ã1 b̃3 , ã1 b̃2 − ã2 b̃1
2 3
=
a b − a3 b2 , a3 (−b1 ) − (−a1 )b3 , (−a1 )b2 − a2 (−b1 )
2 3
=
a b − a3 b2 , − a3 b1 − a1 b3 , − a1 b2 − a2 b1 ,
1.4. ÁLGEBRA VECTORIAL CON ÍNDICES
35
es decir, c es un vector axial por el hecho de obedecer a una ley de transformación diferente:
e1 → −e1 ⇒ (c̃1 , c̃2 , c̃3 ) = (c1 , −c2 , −c3 ) .
ar
Supongamos que ahora queremos aplicar una reflexion al vector c = a × b pero con a axial y b polar. Veamos
lo que sucede:
i
h
c̃ = ã × b̃ =
ã2 b̃3 − ã3 b̃2 , ã3 b̃1 − ã1 b̃3 , ã1 b̃2 − ã2 b̃1
=
(−a2 )b3 − (−a3 )b2 , (−a3 )(−b1 ) − a1 b3 , a1 b2 − (−a2 )(−b1 )
= − a2 b3 − a3 b2 , a3 b1 − a1 b3 , a1 b2 − a2 b1 .
e1 → −e1 ⇒ (c̃1 , c̃2 , c̃3 ) = (−c1 , c2 , c3 ) ,
1.4.6.
Practicando con Maxima
lim
por lo tanto, en este caso c es un vector polar.
in
Esto es:
A fines prácticos, las transformaciones de coordenadas del tipo rotaciones o reflexiones es de utilidad representarlas por matrices. Por ejemplo, las rotaciones alrededor del eje z se puede representar como:
rP
re
(%i1) Rz:matrix([cos(theta),sin(theta),0],[-sin(theta),cos(theta),0],[0,0,1]);


cos(θ) sin(θ) 0
( %o1) − sin(θ) cos(θ) 0
0
0
1
De manera que un vector a transformará bajo esta rotación en un nuevo vector a0 .
(%i2) a:[a1,a2,a3];
( %o2) [a1 , a2 , a3 ]
ad
o
(%i3) Rz.a;


a2 sin(θ) + a1 cos(θ)
( %o3) a2 cos(θ) − a1 sin(θ)
a3
Si la rotación se hace al rededor del eje x o y las matrices correspondientes son las siguientes:
Bo
rr
(%i4) Rx:matrix([1,0,0],[0,cos(theta),-sin(theta)],[0,sin(theta),cos(theta)]);


1
0
0
( %o4) 0 cos(θ) − sin(θ)
0 sin(θ) cos(θ)
(%i5) Ry:matrix([cos(theta),0,sin(theta)],[0,1,0],[-sin(theta),0,cos(theta)]);


cos(θ) 0 sin(θ)
1
0 
( %o5)  0
− sin(θ) 0 cos(θ)
Notemos que el determinante de éstas matrices es:
(%i6) determinant(Rx),trigsimp;
( %o6) sin2 (θ) + cos2 (θ)
(%i7) trigrat(%);
( %o7) 1
Si la rotación es en un ángulo de θ = 60◦ entonces:
36
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
(%i8) sublis([theta=%pi/3], Rx);


1 0
0√


( %o8) 0 √12 − 23 
1
0 23
2
ar
Si el eje de rotación se define a través de un vector unitario, digamos, û = ux i + uy j + uz k, la matriz de rotación
para un ángulo θ es:
(%i9) t:1-cos(theta)$
Por ejemplo, si el eje de rotación coincide con el vector û =
θ = 60◦ , entonces:
√i
3
+
√j
3
+
k
√
3
y la rotación es en un ángulo de
rP
re
(%i11)[ux,uy,uz]:1/sqrt(3)*[1,1,1]; theta:%pi/3$
1
1
1
( %o11) √ , √ , √
3
3
3
lim
in
(%i10)R:matrix([cos(theta)+ux^2*t,ux*uy*t-uz*sin(theta),ux*uz*t+uy*sin(theta)],
[uy*ux*t+uz*sin(theta),cos(theta)+uy^2*t,uy*uz*t-ux*sin(theta)],
[uz*ux*t-uy*sin(theta),uz*uy*t+ux*sin(theta),cos(theta)+uz^2*t]);


(1 − cos(θ)) ux2 + cos(θ)
(1 − cos(θ)) ux uy − sin(θ) uz (1 − cos(θ)) ux uz + sin(θ) uy
(1 − cos(θ)) uy 2 + cos(θ)
(1 − cos(θ)) uy uz − sin(θ) ux
( %o10) sin(θ) uz + (1 − cos(θ)) ux uy
(1 − cos(θ)) ux uz − sin(θ) uy (1 − cos(θ)) uy uz + sin(θ) ux
(1 − cos(θ)) uz 2 + cos(θ)
Al evaluar con el comando ev podemos ver como queda la matriz R con estos valores definidos
(%i13)Ru:ev(R);
 2

2
− 13
3
3
2
− 13 
( %o13)  23
3
1
2
2
−3
3
3
De manera que un vector, por ejemplo, a = i + 2j + 3k transformará bajo esta rotación de la manera siguiente:
ad
o
(%i14)a:[1,2,3];
( %o14) [1, 2, 3]
rr
(%i15)Ru.a;
 
2
( %o15) 1
3
Por otro lado, una reflexión en el plano xy es más sencilla de representar porque es la matriz:
Bo
(%i16)Re:matrix([-1,0,0],[0,1,0],[0,0,1]);


−1 0 0
( %o16)  0 1 0
0 0 1
De manera que bajo ésta reflexión el vector transforma como:
(%i17)Re.a;
 
−1
( %o17)  2 
3
1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES
1.4.7.
37
Ejercicios
1. Verifique las siguientes identidades:
a × (b × c) + b × (c × a) + c × (a × b) = 0.
(a × b) × (c × d) = b[a · (c × d)] − a[b · (c × d)].
(a × b) · (c × d) + (b × c) · (a × d) + (c × a) · (b × d) = 0.
a · (b × a) = 0.
(a × b) · (a × b) = a2 b2 − (a · b)2 .
a·c a·d
f ) (a × b) · (c × d) =
b·c b·d
vector
pseudovector
pseudovector
vector
pseudovector
pseudovector
3. Considere lo expuesto en la sección 1.4.3 y demuestre que:
rP
re
Ãik Aji = δkj ,
=
escalar
= pseudoescalar
=
escalar
= pseudovector
=
vector
= pseudovector
lim
vector
·
vector
·
pseudovector ·
vector
×
vector
×
pseudovector ×
in
2. Demuestre la siguiente tabla de relaciones:
ar
a)
b)
c)
d)
e)
y además, como un caso especial, establecer la relación con los cosenos directores que satisfacen:
cos(α)2 + cos(β)2 + cos(γ)2 = 1 .
4. Considere el radio vector posición r = xi ei ≡ xı̂ + y̂ en 2 dimensiones. Dado el conjunto de transformaciones
que se indican a continuación, demuestre en cuales casos las componentes de r transforman como verdaderas
componentes de vectores.
(x, y) → (−y, x) ,
(x, y) → (x, −y) ,
(x, y) → (x − y, x + y) ,
(x, y) → (x + y, x − y) .
ad
o
5. Resuelva los ejercicios anteriores utilizando Maxima.
1.5.
Un comienzo a la derivación e integración de vectores
1.5.1.
rr
En esta penúltima sección de este capı́tulo abordaremos una introducción somera a las consecuencias que imponen la variación de un vector. Mostraremos, de manera funcional y como una ejercitación a los conceptos de
derivación e integración de vectores y campos vectoriales12 .
Vectores variables
Bo
Los vectores podrán ser constantes o variables. Ahora bien, esta caracterı́stica se verificará tanto en las componentes como en la base. Esto quiere decir que cuando un vector es variable podrá variar su módulo, su dirección,
su sentido, o todo junto o por separado. Obviamente esta variabilidad del vector dependerá de la base en la cual
se exprese, por lo cual un vector podrá tener una componente constante en una base y no constante en otra, vale
decir:
0
a (t) = ak (t) ek (t) = ak ek0 (t) .
Nótese que hemos utilizado una base {ek (t)} de vectores variables a diferencia de la tradicional base de vectores
cartesianos, los cuales son constantes en módulo, dirección y sentido (ver los cuadrantes I y II de la figura 1.9).
Más aún, tal y como se muestra en cuadrante II de la figura 1.9, todo vector variable podrá ser expresado como la
suma de uno variable, α (t), más otro constante c.
a(t) = α(t) + c .
12 Un
análisis más detallado lo presentaremos en el último capı́tulo 5
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
lim
in
ar
38
1.5.2.
rP
re
Figura 1.9: Vectores variables
Derivación
De esta manera, cuando uno piensa en un vector variable a (t) uno rápidamente intenta establecer un cociente
incremental:
∆a (t)
a (t + ∆t) − a (t)
da (t)
= lı́m
=
.
lı́m
∆t→0 ∆t
∆t→0
∆t
dt
El cuadrante IV de la figura 1.9 ilustra gráficamente este cociente incremental.
Como siempre, las propiedades de esta operación derivación serán:
rr
ad
o
d
d
d
[a (t) + b(t)] =
a(t) + b (t) ,
dt
dt
dt
d
d
d
[α (t) a(t)] =
α(t) a (t) + α(t)
a (t) ,
dt
dt
dt
d
d
d
[a (t) · b(t)] =
a(t) · b (t) + a(t) ·
b (t) ,
dt
dt
dt
d
d
d
[a (t) × b(t)] =
a(t) × b (t) + a(t) ×
b (t) .
dt
dt
dt
Bo
Ahora bien, esto implica que:
d ak (t)ek (t)
da(t)
dak (t)
dek (t)
a(t) = a (t)ek (t) ⇒
=
=
ek (t) + ak (t)
,
dt
dt
dt
dt
k
(1.3)
con lo cual hay que tener cuidado al derivar vectores y cerciorarse de la dependencia funcional de la base y componentes.
Habrá sistemas de coordenadas (bases de vectores) que serán constantes y otros en los cuales sus vectores bases
cambiarán en su dirección. El primer término de (1.3) representa la variación del módulo, y el segundo muestra
la contribución de los cambios en dirección del vector. Más aún, mostraremos apoyándonos en la ilustración de el
cuadrante III de la figura 1.9 que, independientemente del sistema de coordenadas, el cambio en el módulo apunta
en la dirección del vector, mientras que las contribuciones en dirección apuntan en la dirección perpendicular al
vector. Esto es:
da (t)
d |a(t)|
=
ûk + |a (t)| û⊥ , con ûk · û⊥ = 0 .
dt
dt
1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES
39
Es fácil convencernos de la forma del primer término. Siempre podemos representar un vector como su módulo
y un vector unitario en la dirección apropiada. Esto es:
a(t) = |a(t)| û(t) ⇒
d [|a (t)| û(t)]
d |a(t)|
dû(t)
da(t)
=
=
û(t) + |a(t)|
.
dt
dt
dt
dt
û(t) ·
da (t)
d |a(t)|
dû(t)
= û(t) ·
û(t) + |a(t)|
dt
dt
dt
⇒

d |a (t)|
da (t)



 û(t) · dt =
dt




û(t) ·
dû (t)
=0
dt
in
ar
Por ser |û(t)| = 1, resulta que û(t) · dû(t)
dt = 0, es decir, son perpendiculares.
Como podemos ver a continuación cuando multiplicamos por û(t):
lim
Es decir que el cambio en el módulo de un vector se manifiesta en la dirección del mismo vector, tal y como era
intuitivo suponer. Adicionalmente, vemos que el vector û siempre será perpendicular a su derivada. Gráficamente
podemos apreciarlo en el cuadrante IV de la figura 1.9, pero también surge analı́ticamente si derivamos el vector
unitario en la dirección de a(t):
2
d |û(t)|
d (1)
dû(t)
dû(t)
d [û(t) · û (t)]
≡
=
≡ 0 = û (t) ·
⇒ û(t) ⊥
,
dt
dt
dt
dt
dt
es decir:
rP
re
d [|a(t)| û(t)]
d |a(t)|
d |a(t)|
da(t)
dû(t)
=
=
=
û(t) + |a(t)|
ûk + |a(t)| û⊥ .
dt
dt
dt
dt
dt
Supongamos que ahora definimos un vector ∆θ = ∆θ v̂, con:

v̂ × ûk = û⊥





v̂ ⊥ ûk 

û⊥ × v̂ = ûk
⇒



v̂ ⊥ û⊥



ûk × û⊥ = v̂
ad
o
donde ∆θ es el ángulo de rotación del vector a(t) (ver cuadrante V de la figura 1.9). Claramente:
∆a⊥ = [a (t + ∆t) sen (∆θ)] û⊥ ≈ [a (t + ∆t) ∆θ] û⊥ ⇒ ∆a⊥ = ∆θ × a(t) ,
entonces:
∆a⊥
∆a
∆θ
da (t)
dθ(t)
≡
· a⊥ a⊥ =
× a (t) ⇒
· û⊥ û⊥ =
v̂ × a(t) = ω × a(t) ,
∆t
∆t
∆t
dt
dt
Bo
rr
donde hemos identificado ω = dθ(t)
dt v̂.
Podemos ir más allá observando el cuadrante V de la figura 1.9, vemos que si suponemos que el módulo del
vector es constante, entonces:
d |a(t)|
da(t)
da (t)
=0 ⇒
= |a(t)| û⊥ ⇒
· û⊥ û⊥ = ω × a(t) .
dt
dt
dt
1.5.3.
Velocidades y aceleraciones
El radio vector posición de una partı́cula genera, como sabemos, los vectores velocidad y aceleración:
r = r(t) ⇒ v(t) =
dr(t)
dv(t)
d2 r(t)
⇒ a(t) =
=
,
dt
dt
dt2
ahora bien:
r = rûr = xi + yj + zk ,
con: ûr = cos(θ) i + sen(θ) j + zk .
40
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
Si suponemos que la partı́cula describe una trayectoria, entonces:

r = r(t) 





 x = x(t)
θ = θ(t)
y = y(t) ; ûr = ûr (t) ;
⇐⇒



z = z(t)



z = z(t)
i = const
j = const
k = const
dûr
dt
in
ar
Es muy común denotar a la derivada temporal sobre funciones de una variable con un punto, es decir, podemos
utilizar la siguiente notación:
df (t)
,
f˙(t) ≡
dt
con lo cual, y en el caso de que z = z(t) = constante, se tiene:
d [cos(θ (t))i + sen(θ (t))j]
= θ̇(t)[− sen(θ(t))i + cos(θ(t))j] = θ̇(t)ûθ .
{z
}
|
dt
=
ûθ
lim
Ya que:
|ûr | =
p
p
ûr · ûr = [cos(θ(t)) i + sen(θ(t)) j] · [cos(θ(t)) i + sen(θ(t)) j] = 1 ,
|ûθ | =
p
ûθ · ûθ =
[− sen(θ(t)) i + cos(θ(t)) j] · [− (sen(θ(t)))i + cos(θ(t))j] = 1 .
rP
re
Entonces:
p
ûθ · ûr = ûr · ûθ = [− sen(θ(t)) i + cos(θ(t)) j] · [cos(θ(t)) i + sen(θ (t)) j] = 0 .
Además:
d [−sen(θ(t)) i + cos(θ(t)) j]
dûθ
=
= −θ̇(t) [cos(θ(t)) i + sen(θ(t)) j] = −θ̇(t)ûr .
dt
dt
Para una partı́cula que sigue un movimiento arbitrario, su trayectoria vendrá descrita, en coordenadas cartesianas, por:
r = x(t) i + y(t) j + z(t) k .
Su velocidad será:
d [x(t)i + y(t)j + z(t)k]
dr(t)
=
= ẋ(t)i + ẏ(t)j + ż(t)k = vx (t)i + vy (t)j + vz (t)k .
dt
dt
ad
o
v(t) =
Y su aceleración:
a(t) = v̇x (t)i + v̇y (t)j + v̇z (t)k = ax (t)i + ay (t) j + az (t)k .
rr
Mientras que en coordenadas polares las ecuaciones son:
Bo
Velocidad:
v(t) =
r(t) = r(t)ûr (t) .
d [r (t) ûr (t)]
dûr (t)
= ṙ(t)ûr (t) + r(t)
= ṙ(t)ûr (t) + r(t)θ̇(t)ûθ (t) ,
dt
dt
Aceleración:
a(t) =
dv(t)
=
dt
h
i
d ṙ(t)ûr (t) + r(t)θ̇(t)ûθ (t)
= r̈(t)ûr (t) + ṙ(t)
=
dt
=
d [ṙ (t) ûr (t)]
+
dt
h
i
d r(t)θ̇(t)ûθ (t)
dt
dûr (t)
dûθ (t)
+ ṙ(t)θ̇(t)ûθ (t) + r(t)θ̈(t)ûθ (t) + r(t)θ̇(t)
dt
dt
2 n
o
r̈(t) − r(t) θ̇(t)
ûr (t) + 2 ṙ(t)θ̇(t) + r(t)θ̈(t) ûθ (t) .
1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES
41
Claramente para el caso de un movimiento circular, donde r = R = const, resulta:

r(t) = R ûr (t)





dR
v(t) = R θ̇(t)ûθ
=0 ⇒

dt




a(t) = −R θ̇(t)2 ûr (t) + R θ̈(t)ûθ (t)
es decir, dr(t) = lı́m∆t→0
i
P
i
∆t→0
i
∆ r(ti ) es tangente a la trayectoria. Es claro que:
dy(t)
dz(t)
dx(t)
i+
j+
k.
dt
dt
dt
lim
dr(t) = d [x(t)i + y(t)j + z(t)k] ≡
in
i
ar
De aquı́ podemos ver que el vector velocidad v(t) y el vector posición r(t) son ortogonales. La velocidad, v(t),
siempre es tangente a la trayectoria r (t) y en este caso la trayectoria es una circunferencia.
En general el vector:
Z
X
X
X
rmed =
∆r(ti ) =
(r (ti + ∆ti ) − r(ti )) ⇒ lı́m
∆r(ti ) = dr(t) = r(t) ,
rP
re
Tal y como mencionamos arriba, para el sistema de coordenadas cartesiano podemos definir un vector (en este
caso) velocidad angular ω tal que:

ω
× ûr = ûv 


|ω|






ω
= ûr
ûv ×
⇒ v(t) = ω × r(t) .
|ω|





ω 



ûr × ûv =
|ω|
ad
o
Supongamos por simplicidad que elegimos el sistema de coordenadas cartesiano, donde r está en el plano xy.
En este caso es inmediato comprobar que v i = εijk ωj xk , y dado que r y v tienen únicamente componentes 1 y 2
entonces, necesariamente ω tiene únicamente componente 3, Es decir:

 1

r = ri ei 
 v = ε1j2 ωj x2 
⇒
⇒ ω = |ω| e3 = ωk ,

 2

v = v i ei
v = ε2j1 ωj x1
como r = x(t)i + y(t)j, entonces:
dr(t)
= vx (t)i + vy (t)j = ω × r(t) = θ̇(t)k × [x(t)i + y(t)j] .
dt
Se verá más claro en coordenadas polares, esto es:
v(t) =
dr(t)
=r(t)θ̇(t)ûθ (t) = [|ω| ûn (t)] × [r(t)ûr (t)] ,
|r(t)| = const
dt
=r(t)θ̇(t)ûθ (t) = |ω| r(t)ûθ (t) ⇒ θ̇(t) ≡ |ω| .
| {z }
Bo
rr
v(t) =
1.5.4.
v⊥
Vectores y funciones
Antes de continuar con la integración repensemos algunas funciones de tipo φ xi y A(xi ). Estas funciones son
sin duda funciones de varias variables, en el caso cartesiano:
φ = φ(x, y, z) ,
A = A(x, y, z) = iAx (x, y, z) + jAy (x, y, z) + kAz (x, y, z) .
Un par de reflexiones se pueden hacer en este punto, primeramente, dado que hemos relacionado un punto del
espacio con el radio vector posición, entonces:

 φ = φ(x, y, z) ≡ φ (r)
P(x,y,z) ↔ (x, y, z) ↔ r = x i + y j + z k ⇒

A = A(x, y, z) ≡ A (r)
42
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
La primera función, φ (r), será una función escalar de argumento vectorial o, simplemente un campo escalar y
la segunda, A (r), se conoce como una función vectorial de argumento vectorial o campo vectorial. Como hemos
dicho, este tipo de funciones y las operaciones que pueden ser realizadas con ellas, y su significado, serán analizadas
en detalle más adelante durante el desarrollo de este curso.
En segundo lugar, siempre podremos parametrizar las coordenadas y tendremos
φ = φ(t) = φ (x(t), y (t) , z(t)) ,
ar
A = A(t) = A (x(t), y(t), z(t)) = Ax (x(t), y (t) , z(t)) i + Ay (x(t), y(t), z(t)) j + Az (x(t), y(t), z (t)) k .
in
Este caso lo hemos encontrado en montones de situaciones, por ejemplo, el movimiento parabólico viene descrito
por vectores velocidad y posición dados por:

 vx = v0x
vy = v0y
v(t) = −gt k + v0 = −gt k + (v0x i + v0y j + v0z k) ⇒

vz = v0z − gt
lim

 x = v0x t
g
g
y = v0y t
r(t) = − t2 k + v0 t = − t2 k + (v0x i + v0y j + v0z k) t ⇒

2
2
z = v0z t − g2 t2
Derivada de funciones del tipo: φ (r(t))
rP
re
Al derivar una función de argumento vectorial también se aplica la “regla de la cadena”. Esto es, si
φ (r(t)) = φ (x (t) , y(t), z(t)) ,
entonces:
dφ (r(t))
∂φ (x(t), y(t), z(t)) dx(t) ∂φ (x(t), y(t), z(t)) dy(t) ∂φ (x(t), y(t), z(t)) dz(t)
=
+
+
dt
∂x
dt
∂y
dt
∂z
dt
ad
o
∂φ (x, y, z)
∂φ(x, y, z) ∂φ(x, y, z)
dx(t)
dy(t)
dz(t)
=
i+
j+
k ·
i+
j+
k
∂x
∂y
∂z
dt
dt
dt
= ∇φ (x(t), y (t) , z(t)) ·
dr (t)
,
dt
donde hemos representado:
∂φ(x, y, z)
∂φ(x, y, z)
∂φ(x, y, z)
i+
j+
k = ∂ i φ xj ii = φ,i xj ii ,
∂x
∂y
∂z
rr
∇φ (r(t)) ≡
Bo
y lo llamaremos el gradiente de la función φ (r(t)).
El gradiente de un campo escalar es uno de los objetos más útiles que encontraremos en el estudio de problemas
de Fı́sica-Matemática, el cual lo utilizaremos por ahora de manera operacional. Es bueno recordar que emerge como
consecuencia de una derivación contra un parámetro. El gradiente mide el cambio de la función φ (x, y, z).
La idea de gradiente nos lleva a considerar a ∇ como un operador vectorial que actúa sobre la función escalar
de variable vectorial φ (r(t)).
∇φ (r(t)) ≡
∂
∂
∂
i+
j+ k φ(x, y, z) = ii ∂ i φ(x, y, z) .
∂x
∂y ∂z
Es decir, y con un poquito de imaginación:
∇ (◦) =
∂
∂
∂
i+
j+
k (◦) = ii ∂ i (◦) .
∂x
∂y
∂z
1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES
43
Derivada de funciones del tipo: A (r(t))
De modo que inspirados en la regla de la cadena de una función escalar de variable vectorial podemos comprobar
que:
dAi xj
dAx (x, y, z)
dAy (x, y, z)
dAz (x, y, z)
dA
=
i+
j+
k=
ii ,
dt
dt
dt
dt
dt
ar
por
consiguiente,
si A, tiene por componentes cartesianas (Ax , Ay , Az ) las componentes del vector derivado serán:
dAx dAy dAz
. Con lo cual, para cada componente:
dt , dt , dt
in
d Ai (x(t), y(t), z(t))
d Ai xj (t)
∂ Ai xj dxk (t)
dr(t)
=
=
=
· ∇ Ai (x, y, z) .
dt
dt
∂xk
dt
dt
En términos vectoriales es:
dr(t)
d (◦)
· ∇ A ≡ (v · ∇) A ⇒
= (v · ∇) (◦) ≡ v i ∂i (◦) ,
dt
dt
lim
dA
=
dt
rP
re
con v la derivada del radio vector posición r (t), es decir, la velocidad. Entonces, estamos viendo que el cambio del
vector A respecto al tiempo es el cambio de sus componentes en la dirección de la velocidad.
Si se nos ocurre calcular la derivada del vector velocidad para encontrar la aceleración tendremos que nos quedará
expresada como:
dv
= (v · ∇) v ⇒ ai = (v · ∇) v i ,
a=
dt
donde las componentes cartesianas de los vectores velocidad y aceleración son: v i = v i (x (t) , y(t), z (t)) y ai =
ai (x(t), y (t) , z(t)), respectivamente.
1.5.5.
El operador ∇
El operador vectorial ∇ (◦) merece un poco de atención en este nivel. Tal y como hemos visto cuando construimos:
El Gradiente:
∂φ(x, y, z)
∂φ(x, y, z)
∂φ(x, y, z)
i+
j+
k
∂x
∂y
∂z
= ∂ 1 φ(x, y, z)i1 + ∂ 2 φ(x, y, z)i2 + ∂ 3 φ(x, y, z)i3 = ∂ i φ xj ii .
ad
o
∇φ(x, y, z)
=
(1.4)
rr
Podemos ver ahora que existen otras posibilidades:
El Rotor: Se puede construir la siguiente operación: ∇ × A, que denominaremos rotor de A, y vendrá dado
por la siguiente expresión:
Bo
∇×A
=
=
∂
∂
∂
i+
j+
k × (Ax i + Ay j + Az k)
∂x
∂y
∂z
∂Az
∂Ay
∂Ax
∂Az
∂Ay
∂Ax
−
i+
−
j+
−
k = εijk ∂j Ak ii .
∂y
∂z
∂z
∂x
∂x
∂y
(1.5)
La Divergencia: También podemos hablar del “producto escalar” de nabla por un vector A. A esta operación
la llamaremos divergencia de A:
∂Ax (x, y, z) ∂Ay (x, y, z) ∂Az (x, y, z)
∂Ai xj
∇·A=
≡ ∂i Ai xj ≡
+
+
,
∂xi
∂x
∂y
∂z
pero por ahora consideremos nabla ∇ como un vector.
De este modo habrá una gran cantidad de relaciones vectoriales que involucran a ∇, las cuales se podrán
demostrar.
44
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
1.5.6.
Integración
Después de haber diferenciado campos escalares y vectoriales, el siguiente paso es integrarlos. Encontraremos
algunos objetos vectoriales a integrar y serán:
Integración de un vector por un escalar:
Z
A (u) du
ar
Integración de un escalar a lo largo de un vector:
Z
φ(x, y, z) dr
in
c
Integración de un vector a lo largo de otro vector:
Z
A(x, y, z) · dr
lim
c
Un vector por un escalar:
R
rP
re
El primero de los casos es el tipo de integral que siempre hemos utilizado para encontrar la posición a partir de
la velocidad. Los siguientes tres casos se conocen con el nombre de integrales de lı́nea por cuanto es importante la
“ruta” o trayectoria que sigamos al integrar. Esto aparece indicado por la letra C en la integral y será evidente más
adelante. En general la integral de lı́nea dependerá de la trayectoria.
A (u) du
El primer caso de este tipo integrales es el trivial que ya sabemos calcular:
Z
Z
Z
Z
Z
A (u) du = i Ax (u) du + j Ay (u) du + k Az (u) du =
Ai (u) du ii .
ad
o
La integral de un vector (en un sistema de coordenadas cartesianas) por un escalar se convierte en la suma de tres
integrales, cada una a lo largo de las componentes cartesianas del vector.
Recordemos que ası́ integramos la aceleración en un movimiento parabólico:
Z
Z
dv
= a = −g k ⇒ v = a dt = k
−g dt = −k gt + v0 = −kgt + iv0x + jv0y + kv0z .
dt
rr
Ahora bien, existen sutilezas en este caso que debemos tener en cuenta. Por ejemplo, considere la integral:
Z
Z
Z
d2 a
d
da
da da
d
da
da
dt a × 2 = dt
a×
−
×
= dt
a×
=a×
+ c.
dt
dt
dt
dt
dt
dt
dt
dt
Bo
Pero en general los casos quedan resueltos integrando componente a componente con la ayuda de la notación de
ı́ndices:
Z
Z
ijk
dt (a × b) =
dt ε aj bk ii .
Un escalar a lo largo de un vector:
R
C
φ (r) dr
El segundo objeto que “tropezaremos” es la integración de funciones de varias variables a lo largo de una curva
determinada. Esto es:
Z
Z
Z
Z
Z
φ (x, y, z) dr =
φ(xi ) (dxi + dyj + dzk) = i
φ(xi )dx + j
φ(xi )dy + k
φ(xi )dz .
C
C
C
C
C
La integral se nos ha convertido en tres integrales, las cuales son ahora componentes de un vector. Esto es posible
dado que la base (i, j, k) es una base constante. Ahora bien, cada una de estas integrales son interdependientes,
dado que hay que seguir la misma curva C.
1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES
Un vector a lo largo de otro vector:
R
C
45
F (r) · dr
R
Quizá la integral de lı́nea más conocida sea una del tipo C F (r) · dr por cuanto nos la hemos “tropezado” en
el cálculo del trabajo que realiza una fuerza. Todo lo que hemos considerado al parametrizar la curva en el caso
anterior, sigue siendo válido.
Z
Z
Z
Z
Z
F (r) · dr =
Fx (x, y, z) dx +
Fy (x, y, z) dy +
Fz (x, y, z) dz =
F i xj dxi .
C
C
C
C
Ejemplos
ar
1.5.7.
C
1. Si una partı́cula se mueve a lo largo de una curva descrita por:
y(t) = 4t3 − t ,
z(t) = t .
in
x(t) = 3t2 ,
Entonces, las expresiones para los vectores: posición, velocidad y aceleración de esa partı́cula son:
v = 6ti + (12t2 − 1)j + k ,
a = 6i + 24tj .
lim
r(t) = 3t2 i + (4t3 − t)j + tk ,
Si nos proponemos encontrar las expresiones, más generales, de los vectores tangentes y perpendiculares a
todo punto de la trayectoria de la partı́cula podemos ver que el vector tangente a todo punto de la trayectoria
es el vector velocidad
v = 6ti + (12t2 − 1)j + k ,
rP
re
El vector perpendicular a todo punto, será un vector b = bx i + by j + bz k, tal que:
(6ti + (12t2 − 1)j + k) · (bx i + by j + bz k) = 6tbx + (12t2 − 1)by + bz = 0 ,
con lo cual:
b = bx i + by j − (6tbx + (12t2 − 1)by )k .
2. La trayectoria de un punto en el plano vista por un observador (1) es la siguiente:
r1 (t) = 5 cos(3t2 ) i + 5 sen(3t2 ) j .
ad
o
Queremos expresar las aceleraciones radiales y tangenciales de esta partı́cula ya que es claro que la partı́cula
describe un movimiento circular, donde θ(t) = 3t2 . Entonces:
r(t) = 5ûr ⇒ v(t) =
dθ(t)
da(t)
dr(t)
=5
ûθ = 30t ûθ ⇒ a(t) =
= 30 ûθ − 30t ûr .
dt
dt
dt
rr
Consideremos ahora un segundo observador (2), el cual describe una trayectoria respecto al primero representada por:
r21 (t) = (t3 − 4t)i + (t2 + 4t) j .
Bo
Y queremos encontrar las expresiones para los vectores posición, velocidad y aceleración de la partı́cula medidos
respecto al segundo observador.
Por lo tanto, la trayectoria de la partı́cula respecto al segundo observador será:
r2 (t) = r1 (t) − r21 (t) = 5 cos(3t2 ) i + 5 sen(3t2 ) j − ((t3 − 4t)i + (t2 + 4t) j) ,
con lo cual:
r2 (t) = 5 cos(3t2 ) − t3 + 4t i + 5 sen(3t2 ) − t2 − 4t j ,
entonces:
v2 (t) =
dr2 (t)
= − 30 sen 3 t2 t + 3 t2 − 4 i + 30 cos 3 t2 t − 2 t − 4 j ,
dt
y
a2 (t) =
dv2 (t)
= −6 30 cos 3t2 t2 + 5sen 3t2 + t i − 2 90sen 3t2 t2 − 15 cos 3t2 + 1 j .
dt
46
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
3. Demostrar que:
∇ (a · b) = (a · ∇) b + (b · ∇) a + a × (∇ × b) + b × (∇ × a) .
El resultado es un gradiente, es decir un vector. El lado izquierdo será:
i
(∇ (a · b)) = ∂ i (a · b) = ∂ i aj bj = ∂ i aj bj + ∂ i bj aj .
Mientras que el lado derecho:
i
(∇ (a · b)) = aj ∂ j bi +
= aj ∂ j bi +
= aj ∂ j bi +
= aj ∂ j bi +
in
ar
bj ∂ j ai + εijk aj (∇ × b)k + εijk bj (∇ × a)k
bj ∂ j ai + εijk aj εkmn ∂ m bn + εijk bj εkmn ∂ m an
bj ∂ j ai + εijk εmnk aj ∂ m bn + εijk εmnk bj ∂ m an
i j
j i
i j
j i
bj ∂ j ai + δm
δn − δm
δn aj ∂ m bn + δm
δn − δm
δn bj ∂ m an
i j
j i
i j
j i
= aj ∂ j bi + bj ∂ j ai + δm
δn aj ∂ m bn − δm
δn aj ∂ m bn + δm
δn bj ∂ m an − δm
δn bj ∂ m an
= aj ∂ j bi + bj ∂ j ai + an ∂ i bn − am ∂ m bi + bn ∂ i an − bm ∂ m ai
lim
= aj ∂ j bi − am ∂ m bi + bj ∂ j ai − bm ∂ m ai + an ∂ i bn + bn ∂ i an
{z
} |
{z
}
|
=0
=0
= an ∂ i bn + bn ∂ i an = ∂ i aj bj = ∂ i (a · b) .
4. Demostrar la siguiente identidad:
rP
re
∇ × (a · ∇) a = (∇ · a) (∇ × a) − [∇ · (∇ × a)] a + (a · ∇) (∇ × a) − [(∇ × a) · ∇] a .
Iniciamos la traducción a ı́ndices por el lado izquierdo de la ecuación, ası́:
∇ × (a · ∇) a = ijk ∂j (am ∂ m ) ak = ijk (∂j am ) ∂ m ak + ijk am ∂j ∂ m ak
= ijk (∂j am ) ∂ m ak + am ∂ m ijk ∂j ak .
El lado derecho lo traduciremos término por término:
ad
o
(∇ · a) (∇ × a) = (∂ m am ) ijk ∂j ak
− [∇ · (∇ × a)] a = − ∂m mjk ∂j ak ai = − mjk ∂m ∂j ak ai = 0
(a · ∇) (∇ × a) = am ∂ m ijk ∂j ak
− [(∇ × a) · ∇] a = − mjk ∂j ak ∂m ai .
Bo
rr
El segundo término se anula por cuanto mjk es antisimétrico respecto a los ı́ndices m, j, mientras que ∂m ∂j
es simétrico. El tercer término del desarrollo del lado derecho corresponde con el segundo del desarrollo del
lado izquierdo. Por lo tanto, llegamos a la siguiente igualdad:
ijk (∂j am ) ∂ m ak = (∂ m am ) ijk ∂j ak − mjk ∂j ak ∂m ai .
(>)
Para verificar la igualdad tendremos que evaluar componente a componente, esto es, para i = 1, el lado
izquierdo de (>) resulta en:
1jk (∂j am ) ∂ m ak = 123 (∂2 am ) ∂ m a3 + 132 (∂3 am ) ∂ m a2 = (∂2 am ) ∂ m a3 − (∂3 am ) ∂ m a2
= (∂2 a1 ) ∂ 1 a3 + (∂2 a2 ) ∂ 2 a3 + (∂2 a3 ) ∂ 3 a3 − (∂3 a1 ) ∂ 1 a2 − (∂3 a2 ) ∂ 2 a2 − (∂3 a3 ) ∂ 3 a2 .
Para el primer término del lado derecho de (>):
(∂ m am ) 1jk ∂j ak = (∂ m am ) 123 ∂2 a3 + (∂ m am ) 132 ∂3 a2
= ∂2 a3 ∂ 1 a1 + ∂2 a3 ∂ 2 a2 + ∂2 a3 ∂ 3 a3 − ∂3 a2 ∂ 1 a1 − ∂3 a2 ∂ 2 a2 − ∂3 a2 ∂ 3 a3 ,
| {z }
| {z }
α
β
1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES
47
y el segundo término de (>) se escribe como:
− mjk ∂j ak ∂m ai = − 1jk ∂j ak ∂1 a1 − 2jk ∂j ak ∂2 a1 − 3jk ∂j ak ∂3 a1
= − (∂2 a3 − ∂3 a2 ) ∂1 a1 − (∂3 a1 − ∂1 a3 ) ∂2 a1 − (∂1 a2 − ∂2 a1 ) ∂3 a1
= ∂3 a2 ∂1 a1 − ∂2 a3 ∂1 a1 + ∂1 a3 ∂2 a1 − ∂3 a1 ∂2 a1 + ∂2 a1 ∂3 a1 − ∂1 a2 ∂3 a1 .
| {z } | {z }
| {z } | {z }
α
β
γ
γ
Ξ
ar
Al sumar ambos términos se eliminan los sumandos indicados con letras griegas, y queda como:
(∂ m am ) 1jk ∂j ak − mjk ∂j ak ∂m ai = ∂2 a3 ∂2 a2 + ∂2 a3 ∂3 a3
Υ
−∂3 a2 ∂2 a2 −∂2 a2 ∂3 a3 + ∂1 a3 ∂2 a1 −∂1 a2 ∂3 a1 ,
Ω
Ψ
Λ
in
Σ
y al compararlo con el desarrollo del lado derecho de (>) e identificar término a término queda demostrada
la igualdad:
Λ
Ξ
Υ
De igual manera se procede con i = 2 e i = 3.
lim
1jk (∂j am ) ∂ m ak = (∂2 a1 ) ∂1 a3 + (∂2 a2 ) ∂2 a3 + (∂2 a3 ) ∂3 a3 − (∂3 a1 ) ∂1 a2 − (∂3 a2 ) ∂2 a2 − (∂3 a3 ) ∂3 a2 .
Σ
Ω
Ψ
5. Utilizando la notación de ı́ndices muestre si se cumple la siguiente identidad:
rP
re
∇ × (a × b) = a (∇ · b) − b (∇ · a) + (b · ∇) a − (a · ∇) b .
Desarrollemos en ı́ndices el lado izquierdo:
j
i j
∇ × (a × b) = ijk ∂j (klm al bm ) = (δli δm
− δm
δl )∂j (al bm ) = ∂m (ai bm ) − ∂l (al bi ) ,
expandiendo la derivada:
∇ × (a × b) = bm ∂m (ai ) + ai ∂m (bm ) − bi ∂l (al ) − al ∂l (bi ) ≡ (b · ∇)a + (∇ · b)a − (∇ · a)b − (a · ∇)b .
ad
o
6. Tal vez, uno de los problemas que ilustra mejor el uso del álgebra vectorial y la derivación de vectores es
el movimiento bajo fuerzas centrales. La ley de gravitación de Newton nos dice que para un sistema de dos
masas, m y M se tiene:
X
F = m a ⇒ mG
dv
dv
GM
M
ûr = m
⇒
= 2 ûr .
2
rmM
dt
dt
rmM
rr
Es costumbre definir la velocidad areolar , va , como el área barrida por el radio vector posición, r(t), que
describe la trayectoria de la partı́cula:
dr
d (r ûr )
dr
dûr
dûr
dûr
2va ≡ r ×
= r ûr ×
= rûr ×
ûr + r
= r ûr × r
= r2 ûr ×
.
dt
dt
dt
dt
dt
dt
Bo
Nótese que:
d
dt
dûr
dûr
dûr
ûr ×
= 0 ⇒ ûr ×
= c ⇒ 2va = r2 ûr ×
= const ,
dt
dt
dt
donde c es un vector constante, con lo cual:
d
(v × va )
dt
=
=
dv
GM
GM
dûr
× va = 2 ûr × va =
ûr × ûr ×
dt
rmM
2
dt
dûr
dûr
GM dûr
GM
ûr ·
ûr − (ûr · ûr )
=
.
2
dt
dt
2 dt
Integrando:
v × va =
GM
ûr + p ,
2
48
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
donde p es un vector arbitrario que aparece como constante de integración.
Finalmente nos damos cuenta que:
r · (v × va )
= r ûr ·
GM
GM
ûr + p =
r + rp cos(θ)
2
2
= εijk ri vj vak ≡ va · (r × v) = va · va = va2 ,
y entonces:
GM
r + rp cos(θ) ⇒ r =
=
2
GM
2
2
2va
GM
2p
GM cos(θ)
va2
≡
+ p cos(θ)
1+
,
ar
va2
que constituye la ecuación de una curva cónica ¿Cuál curva?
in
7. Consideremos la siguiente función:
φ (x, y) = 3x2 + 2y .
(0,0)
(1,2)
lim
Queremos calcular la siguiente integral de lı́nea:
Z
Z (1,2)
Z (1,2)
3x2 + 2y dr = i
3x2 + 2y dx + j
3x2 + 2y dy .
(0,0)
(0,0)
Se requiere especificar la curva C a lo largo de la cual integraremos, en este caso, desde el punto P1 → (0, 0)
al punto P2 → (1, 2). Podemos ir por diferentes recorridos:
rP
re
Si recorremos la ruta C1 : (0, 0) → (1, 0) → (1, 2) podemos hacerlo de la manera más sencilla:
Z (1,0)
Z (1,0)
Z 1
(0, 0) → (1, 0) ⇒ y = cte = 0 ⇒
3x2 + 2y dr = i
3x2 + 2y dx = i
3x2 dx = i
(0,0)
(0,0)
(1,0)
Z
2
(1, 0) → (1, 2) ⇒ x = cte = 1 ⇒
3x + 2y dr = j
C1 ←→ (0, 0) → (1, 0) → (1, 2) ⇒
−−−−−→
−−−−−→
ad
o
Z
(0,0)
Z
C1A
2
3x + 2y dy = j
(0,0)
con lo cual:
(1,2)
Z
0
C1B
2
(3 + 2y) dy = 10j
0
(1,2)
3x2 + 2y dr = i + 10j .
(0,0)
Si hubiéramos seleccionado la recta que une a estos dos puntos como la curva C2 entonces:
C2 :
y = 2x ⇒ dy = 2dx ,
esto es:
Z
(1,2)
3x2 + 2y dr = i
rr
(0,0)
Z
(1,2)
3x2 + 2y dx + j
(0,0)
1
Z
=i
0
(1,2)
Z
3x2 + 2 (2x) dx + j
3x2 + 2y dy
(0,0)
1
Z
3x2 + 2 (2x) 2dx = 3i + 6j .
0
Bo
En general la curva C se puede parametrizar y las integrales en varias variables se convertirán en integrales
a lo largo del parámetro que caracteriza la curva.
C : {x = x (τ ) , y = y (τ ) , z = z (τ )}
Por lo tanto:
Z
Z
∂x (τ )
∂y (τ )
∂z (τ )
dτ i +
dτ j +
dτ k
φ (x, y, z) dr =
φ (x (τ ) , y (τ ) , z (τ ))
∂τ
∂τ
∂τ
C
C
Z
Z
∂x (τ )
∂y (τ )
=i
φ (x (τ ) , y (τ ) , z (τ ))
dτ + j
φ (x (τ ) , y (τ ) , z (τ ))
dτ
∂τ
∂τ
C
C
Z
∂z (τ )
+k
φ (x (τ ) , y (τ ) , z (τ ))
dτ .
∂τ
C
1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES
Las parametrización de las curvas anteriores es muy simple:


 x=τ
 x=2
C1A =
; C1B =
;


y=0
y=τ
C2 =
49

 x=τ

y = 2τ
(0,0)
Queda ahora como:
Z (1,2)
2
1
Z
(0,0)
2
Z
1
3τ 2 + 4τ 2dτ = 3i + 6j .
in
(0,0)
3τ + 4τ dτ + j
3x + 2y dr = i
0
(0,0)
ar
Con esta manera de parametrizar, la integral que resolvimos anteriormente tomando el camino C2 :
Z (1,2)
Z (1,2)
Z (1,2)
3x2 + 2y dx + j
3x2 + 2y dy .
3x2 + 2y dr = i
0
lim
Ya que: 0 ≤ τ ≤ 1.
8. Consideramos el siguiente campo vectorial:
F (r) = 3x2 + 2xy 3 i + 6xy j .
Queremos evaluar la siguiente integral:
Z (1, 43 √2)
Z (1, 43 √2)
3x2 + 2xy 3 i + 6xy j (dx i + dy j)
rP
re
F (r) · dr =
(0,0)
(0,0)
Z (1, 43 √2)
=
2
3x + 2xy
3
Z (1, 43 √2)
dx +
(0,0)
6xy dy .
(0,0)
Consideremos que la curva que une esos puntos viene parametrizada por:
x = 2τ 2 , y = τ 3 + τ ⇒
∂y (τ )
∂x (τ )
= 4τ ,
= 3τ 2 + 1 ,
∂τ
∂τ
ad
o
entonces, la primera de las integrales resulta:
Z (1, 43 √2)
√
2
3x + 2xy
3
2
2
Z
dx =
(0,0)
3 2τ 2
2
+ 2 2τ 2
τ3 + τ
3 (4τ ) dτ
0
√
Z
2
2
=
0
Z (1, 43 √2)
rr
Y la segunda:
Z
√
2
2
6 2τ 2
6xy dy =
(0,0)
con lo cual:
Z (1, 34 √2)
Bo
9305 √
16 τ 12 + 48 τ 10 + 48 τ 8 + 16 τ 6 + 48 τ 5 dτ = 1 +
2.
24024
τ3 + τ
0
Z (1, 34 √2)
F (r) · dr =
(0,0)
2
3x + 2xy
3
65
3τ 2 + 1 dτ , =
,
32
Z (1, 43 √2)
dx +
(0,0)
6xy dy =
(0,0)
9. El campo de fuerzas de un oscilador anisótropo bidimensional se escribe como:
F = −k1 x2 i + k2 yj .
Encontremos el trabajo realizado
Z
(x2 ,y2 )
F · dr ,
(x1 ,y1 )
a lo largo de las siguientes trayectorias:
97
9305 √
+
2.
32 24024
50
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
a) (1, 1) → (4, 1) → (4, 4)
(4,1)
Z
2
Z
(4,4)
(idx) · (−k1 x i + k2 j) +
(1,1)
(jdy) · (−k1 16i + k2 yj) = −21k1 +
15k2
.
2
(idx) · (−k1 x2 i + k2 4j) = −21k1 +
15k2
.
2
(4,1)
b) (1, 1) → (1, 4) → (4, 4)
(1,4)
Z
(4,4)
(jdy) · (−k1 i + k2 yj) +
(1,1)
(1,4)
ar
Z
c) (1, 1) → (4, 4) siguiendo la recta x = y
(4,4)
(idx + jdx) · (−k1 x2 i + k2 xj) =
Z
(4,4)
(−k1 x2 + k2 x)dx = −21k1 +
(1,1)
(1,1)
Bo
rr
ad
o
rP
re
lim
Dejamos al lector que calcule el trabajo para la trayectoria y = x2 .
15k2
.
2
in
Z
1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES
1.5.8.
51
Practicando con Maxima
1. Maxima nos permite hacer cálculos con el operador ∇ en coordenadas cartesianas, más adelante veremos que también es posible en otros sistemas de coordenadas. Los operadores que se pueden expresar son:
grad(gradiente), div (divergencia), curl (rotacional), laplacian (laplaciano). Debemos hacer uso de la librerı́a
vect para poder utilizar los operadores diferenciales.
x2 + y 2
.
+ y 2 + z 2 )1/2
(x2
in
f=
ar
Por otro lado, se debe usar también de función express(expr) para transformar los nombres de los operadores
diferenciales en expresiones que contienen derivadas parciales y con la función ev evaluamos la expresión.
Veamos como se hace si queremos calcular el gradiente de la siguiente función:
(%i1) load(vect)$
lim
(%i2) f:(x^2+y^2)/(x^2+y^2+z^2)^(1/2);
y 2 + x2
( %o2) p
z 2 + y 2 + x2
(%i3) grad(f);
!
p
z 2 + y 2 + x2
rP
re
( %o3) grad
y 2 + x2
Estaremos haciendo uso del sı́mbolo % que representa la última expresión de salida, de esta manera nos
ahorramos estar escribiendo nuevamente el último resultado en la nueva linea de entrada.
(%i4) express(%);
"
( %o4)
d
dx
!
y 2 + x2
p
z 2 + y 2 + x2
d
,
dy
y 2 + x2
p
z 2 + y 2 + x2
!
d
,
dz
!#
y 2 + x2
p
z 2 + y 2 + x2
ad
o
Notemos que el resultado anterior es una lista del tipo [x, y, z], que es la manera como el programa maneja
los vectores. En este caso, el primer elemento de la lista es la componente x del vector gradiente. De la misma
manera para las componentes y y z. Evaluamos las derivadas de la última salida:
(%i5) ev(%, diff);
"
2x
x y 2 + x2
2y
y y 2 + x2
y 2 + x2 z
#
p
−
−
3 , p
3 ,−
3
z 2 + y 2 + x2
z 2 + y 2 + x2
(z 2 + y 2 + x2 ) 2
(z 2 + y 2 + x2 ) 2
(z 2 + y 2 + x2 ) 2
rr
( %o5)
Bo
En este punto podemos intentar simplificar las expresiones anteriores, esto lo hacemos con el comando ratsimp
y ası́ obtener finalmente el vector gradiente:
(%i6) ratsimp(%);
"
( %o6)
#
p
p
z 2 + y 2 + x2 2 x z 2 + x y 2 + x3
z 2 + y 2 + x2 2 y z 2 + y 3 + x2 y
y 2 + x2 z
,
,−
3
z 4 + (2 y 2 + 2 x2 ) z 2 + y 4 + 2 x2 y 2 + x4 z 4 + (2 y 2 + 2 x2 ) z 2 + y 4 + 2 x2 y 2 + x4
(z 2 + y 2 + x2 ) 2
Hagamos uso de los otros operadores. Por ejemplo, dado el vector:
a=
x2
y2
z2
i
+
j
+
k,
x2 + y 2
x2 + y 2
x2 + y 2
calculemos la divergencia, ∇ · a. Esta vez combinaremos algunos comandos en una misma linea.
52
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
(%i7) a:[x^2/(x^2+y^2),y^2/(x^2+y^2),z^2/(x^2+y^2)];
( %o7)
y2
z2
x2
,
,
y 2 + x2 y 2 + x2 y 2 + x2
(%i8) express(div (a));
z2
y 2 + x2
d
+
dy
y2
y 2 + x2
d
+
dx
x2
y 2 + x2
ar
d
( %o8)
dz
( %o9)
in
(%i9) ev (%, diff),ratsimp;
2 y 2 + 2 x2 z + 2 x y 2 + 2 x2 y
y 4 + 2 x2 y 2 + x4
(%i10)ev(express(curl(a)),diff);
"
2,
(y 2 + x2 )
2 x z2
2,
(y 2 + x2 )
2 x2 y
2
(y 2 + x2 )
−
#
2 x y2
2
(y 2 + x2 )
rP
re
( %o10) −
2 y z2
lim
Calculemos ahora el rotor de a, ∇ × a, pero combinado más comandos en una sola instrucción:
Intentemos simplificar nuevamente para ver lo que ocurre:
(%i11)ratsimp(%);
( %o11) −
2 y z2
2 x z2
2 x y 2 − 2 x2 y
,
,
−
y 4 + 2 x2 y 2 + x4 y 4 + 2 x2 y 2 + x4
y 4 + 2 x2 y 2 + x4
Finalmente, calculemos el laplaciano de f , ∇2 f , todo en una sola instrucción
( %o12)
ad
o
(%i12)ratsimp(ev(express(laplacian(f)),diff));
4 z2
3
(z 2 + y 2 + x2 ) 2
Podemos verificar rapidamente que: ∇2 f = ∇ · ∇f
rr
(%i13)div(grad(f));
( %o13) div grad
y 2 + x2
!!
p
z 2 + y 2 + x2
Bo
(%i14)ratsimp(ev(express((%)),diff));
( %o14)
4 z2
3
(z 2 + y 2 + x2 ) 2
2. Maxima integra simbólicamente funciones por medio del comando integrate(expr, x, a, b). Esto es, calcula
la integral definida de la expr respecto de x con los lı́mites de integración a y b. Si se omiten los lı́mites de
integración se calcula la integral indefinida.
Por ejemplo, si queremos calcular la integral:
Z
a sen(x + b)3 dx .
1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES
53
Escribimos:
(%i15)integrate(a*sin(x+b)^3,x);
( %o15) a
cos3 (x + b)
− cos (x + b)
3
Calculemos ahora el área de la región comprendida entre las funciones:
y
g(x) = −x + 1 .
ar
f (x) = x3 − 3x2 + 1
Es decir, vamos a calcular la integral:
Z
b
in
[f (x) − g(x)]dx .
a
(%i16)f(x):=x^3-3*x^2+1; g(x):=-x+1;
( %o16) f (x) := x3 − 3 ∗ x2 + 1
rP
re
( %o17) g(x) := −x + 1
lim
Aprovecharemos este ejercicio para aprender, entre otras cosas, a graficar y definir funciones. Primero que
todo, debemos introducir al programa las dos funciones y a diferencia de los cálculos anteriores, usaremos :=
para definirlas.
La diferencia de estas dos funciones la podemos llamar la función d(x).
(%i18)d(x):=f(x)-g(x);
( %o18) d(x) := f (x) − g(x)
Haremos la gráfica de las dos funciones. Maxima permite hacer gráficos en 2D con el comando plot2d. Pero
aquı́ utilizaremos una variante y haremos el gráfico con el comando wxplot2d para que la figura aparezca
embebida dentro de nuestra hoja de cálculo.
ad
o
Es necesario introducir las funciones como una lista, es decir, dentro de corchetes. Por otra parte, le pediremos
al programa que grafique para los valores comprendidos de: −1 ≤ x ≤ 3.
Posteriormente, necesitaremos encontrar los puntos donde las funciones se interceptan. Para este fin, utilizaremos el comando solve, que resuelve la ecuación algebraica y devuelve una lista de igualdades con las
variables despejadas. Si la expresión a resolver no es una igualdad, se supone que se quiere resolver la ecuación
ya igualada a cero.
rr
Entonces, para graficar las funciones f (x) y g(x) entre [−1, 3] escribimos el siguiente comando:
(%i19)wxplot2d([f(x),g(x)],[x,-1,3]);
Bo
( %o19)
Calculemos los puntos donde se interceptan las curvas:
(%i20)solve(f(x)-g(x),x);
"
√
5−3
,x =
( %o20) x = −
2
Los valores numéricos son:
(%i21)float(%);
√
#
5+3
,x = 0
2
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
lim
in
ar
54
( %o21) [x = 0,3819660112501051, x = 2,618033988749895, x = 0,0]
Procedemos ahora sı́ a integrar la función diferencia para encontrar el área contenida dentro de las dos
funciones. En este caso será la integral:
√
5−3
2
5−3
2
rP
re
√
Z
−
Z
d(x) dx +
A=
−
0
√
5−3
2
(−d(x)) dx .
(%i22)integrate(d(x),x,0,-(sqrt(5)-3)/2)+integrate(-d(x),x,-(sqrt(5)-3)/2,(sqrt(5)+3)/2);
3
( %o22)
3
5 2 + 11 5 2 − 11
+
8
4
(%i23)float(%);
ad
o
( %o23) 2,817627457812107
3. Calculemos ahora las dos integrales que aparecen en el ejemplo 8 de 1.5.7. Es decir las integrales:
Z (1, 34 √2)
2
3x + 2xy
3
Z (1, 34 √2)
dx ,
6xy dy .
(0,0)
rr
(0,0)
donde hicimos los cambio de variables: x = 2τ 2 , y = τ 3 + τ ⇒ dx = 4τ dτ , dy = (3τ 2 + 1)dτ .
Escribiremos primero los dos integrandos:
Bo
(%i24)int1:(3*x^2+2*x*y^3)*dx; int2:6*x*y*dy;
( %o24) dx 2 x y 3 + 3 x2
( %o25) 6 dy x y
Realizaremos el cambio de variable a través de comando subst que nos permite sustituir expresiones dentro
de otras:
(%i26)e1:subst([x=2*t^2,dx=4*t,y=t^3+t,dy=3*t^2+1],int1);
3
( %o26) 4 t 4 t2 t3 + t + 12 t4
1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES
55
(%i27)e2:subst([x=2*t^2,dx=4*t,y=t^3+t,dy=3*t^2+1],int2);
( %o27) 12 t2 3 t2 + 1
t3 + t
Podemos introducir las integrales sin evaluarlas en el momento, esto se consigue mediante el operador de
comilla simple. En este caso la función no es evaluada y devuelve una expresión simbólica o imagen pictórica.
1
√
2
Z
( %o28) 4
ar
(%i28)int1:’integrate(e1,t,0,sqrt(2)/2);
3
t 4 t2 t3 + t + 12 t4 dt
in
0
Ahora si evaluamos la integral:
( %o29)
9305
5
3003 2 2
+1
Y para la segunda integral:
Z
( %o30) 12
1
√
2
t2 3 t2 + 1
0
rP
re
(%i30)int2:’integrate(e2,t,0,sqrt(2)/2);
lim
(%i29)ev(int1,integrate),expand;
t3 + t dt
(%i31)ev(int2,integrate),expand;
( %o31)
65
32
ad
o
(%i32)kill(all)$
4. Para finalizar, aclaremos la diferencia entre asignar una expresión a una variable y la definición de funciones.
Consideremos el movimiento de una partı́cula que sigue la trayectoria:
1
x = x0 + v0 t + at2 .
2
rr
Primero escribiremos la expresión y se la asignamos a una variable que llamaremos x.
(%i1) x:x0+v0*t+a*t^2/2;
Bo
( %o1) x0 + t v0 +
a t2
2
Si queremos evaluarla para algún valor de la variable t, digamos t = 1, entonces podemos escribir:
(%i2) subst(t=1,x);
( %o2) x0 + v0 +
a
2
Si queremos evaluar la expresión con el resto de parámetros, entonces:
(%i3) subst([t=1,a=-9.8,x0=0,v0=10],x);
56
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
( %o3) 5,1
Las sustituciones se realizan pero no se asignan a las variables. Podemos ver que x sigue siendo lo que le
asignamos originalmente.
(%i4) x;
a t2
2
ar
( %o4) x0 + t v0 +
Ahora definamos la expresión anterior pero como la función x(t).
t2
2
lim
( %o5) x(t) := x0 + v0 t + a
in
(%i5) x(t):=x0+v0*t+a*t^2/2;
Evaluarla es ahora más sencillo:
(%i6) x(1);
a
2
rP
re
( %o6) x0 + v0 +
También podemos escribir:
(%i7) subst([a=-9.8,x0=0,v0=10],x(1));
( %o7) 5,1
Si queremos asignarle los valores a los parámetros de manera global, entonces escribimos:
ad
o
(%i8) a:-9.8$ x0:0$ v0:10$
De manera que:
(%i11)x(1);
( %o11) 5,1
rr
Para limpiar los parámetros que acabamos de asignar hacemos lo siguiente:
(%i12)kill(a,v0,x0)$
Bo
Por lo tanto:
(%i13)x(1);
( %o13) x0 + v0 +
a
2
La velocidad y la aceleración son funciones fáciles de calcular:
(%i14)’diff(x(t),t)=diff(x(t),t);
( %o14)
d
dt
x0 + t v0 +
a t2
2
= v0 + a t
1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES
57
(%i15)’diff(x(t),t,2)=diff(x(t),t,2);
d2
( %o15) 2
dt
a t2
x0 + t v0 +
=a
2
En el caso de que estemos interesados en definir una nueva función a partir de algún cálculo anterior podemos
utilizar la función define.
ar
Entonces, lo que vamos a hacer, en las siguientes lineas de comandos, es definir la función velocidad a partir
de la derivada de la posición.
(%i16)diff(x(t),t);
in
( %o16) v0 + a t
( %o17) v(t) := v0 + at
(%i18)v(1);
( %o18) v0 + a
( %o19) 0,1999999999999993
rP
re
(%i19)subst([a=-9.8,x0=0,v0=10],v(1));
lim
(%i17)define(v(t),%);
5. Cuando necesitemos manejar campo vectoriales podemos utilizar las listas. Veamos el primer ejemplo de 1.5.7
donde:
r = 3t2 i + (4t3 − t)j + tk .
Escribamos el vector posición:
ad
o
(%i20)[x,y,z]:[3*t^2,4*t^3-t,t];
( %o20) 3 t2 , 4 t3 − t, t
La velocidad:
(%i21)v:diff([x,y,z],t);
rr
( %o21) 6 t, 12 t2 − 1, 1
Bo
La aceleración:
(%i22)a:diff([x,y,z],t,2);
( %o22) [6, 24 t, 0]
Podemos facilmente calcular:
(%i23)v.[bx,by,bz];
( %o23) by 12 t2 − 1 + 6 bx t + bz
(%i24)solve(%,bz);
58
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
( %o24) bz = −12 by t2 − 6 bx t + by
1.5.9.
Ejercicios
1. Demuestre que:
dc
dt
ar
d
dt
db
[a · (b × c)] = da
dt · (b × c) + a · dt × c + a · b ×
h i
d
d2 a
d3 a
a · da
b) dt
= a · da
dt × dt2
dt × dt3
a)
c) ∇ × (∇ × a) = ∇∇ · a − ∇ · ∇a
in
d ) ∇ × (φ∇φ) = 0
e) ∇ × [a × (∇ × a)] = 0, si a = ax (y, z)i.
r = x i + y j + z k = xi ii ,
lim
2. Considere que:
a = a(r) = a(x, y, z) = ai (x, y, z)ii y b = b(r) = b(x, y, z) = bi (x, y, z)ii ,
φ = φ(r) = φ(x, y, z)
y ψ = ψ(r) = ψ(x, y, z).
a) ∇(φψ) = φ∇ψ + ψ∇φ.
rP
re
Utilizando la notación de ı́ndices, e inspirándose en las secciones: 1.4.5, 1.5.5 y 1.5.7, demuestre las siguientes
identidades vectoriales:
b) ∇ · (φa) = φ∇ · a + (∇φ) · a.
c) ∇ × ∇φ = 0.
d ) ∇ · (∇ × a) ¿Qué puede decir de ∇ × (∇ · a)?
e) ∇ · (a × b) = (∇ × a) · b − a · (∇ × b).
f ) ∇ × (∇ × a) = ∇(∇ · a) − ∇2 a .
3. Para los vectores dados a continuación, encuentre dr/ds
ad
o
a) r = ti + 3t2 j − (t − 1)k, y t = ln(1 + s2 ).
b) r = sen(t)i + cos(t)j + tan(t)k, y t = 2 + s2 .
4. Una partı́cula describe un movimiento dado por el vector posición r. Encuentre la componente de su velocidad
en la dirección del vector indicado:
a) r = t2 i + 4 cos(2t)j + 3sen(2t)k,
2
2i + j + 2k.
rr
b) r = 3 cos(t)i + 3sen(t)j + (t − 2)k,
i + 2j − k.
Bo
5. Si u, v y w son funciones que dependen del parámetro t, demuestre que:
du
d
dv
a) dt
[u · (v × w)] = u · v × dw
dt + u · dt × w + dt · (v × w).
du
d
dv
b) dt
[u × (v × w)] = u × v × dw
dt + u × dt × w + dt × (v × w).
6. Si u = 2ti − t2 j + k, v = 2i + 3tj + tk y w = ti + 2tj − tk. Utilice el resultado del ejercicio (a) anterior para
d
[u · (v × w)].
encontrar: dt
7. Si u = ti − tj + t2 k, v = −ti + 2tj − t2 k y w = 2ti − 2tj + tk. Utilice el resultado del ejercicio (b) anterior
d
para encontrar: dt
[u × (v × w)].
8. Encuentre el gradiente de los siguientes campos:
a) φ(x, y, z) = x2 + 3xyz − yz 2 .
−1
b) φ(x, y, z) = x2 + 2y 2 + 4z 2
.
1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES
59
9. Encuentre la divergencia de los siguientes campos:
a) a(x, y, z) = x2 yi + y 2 z 2 j + xz 3 k.
b) a(x, y, z) = (1 − x2 )i + sen(yz)j + exyz k.
10. Encuentre el rotor de los siguientes campos:
a) a(x, y, z) = xyz 2 i + x2 yzj + xy 2 k.
11. Evalúe las siguientes integrales:
R
a)
tsen(t)i + 2t2 j − 7tk dt.
R
b)
cosh2 (t)i + 2sen2 (2t)j − k dt.
12. Un campo de fuerza:
F = −kxi − kyj ,
in
ar
b) a(x, y, z) = senh(xy)i + cosh(yz)j + xyzk.
a) (1, 1) → (4, 1) → (4, 4).
b) (1, 1) → (1, 4) → (4, 4).
13. Dado el campo de fuerza:
c) (1, 1) → (4, 4), siguiendo el camino: x = y.
x
y
i+ 2
j.
x2 + y 2
x + y2
rP
re
F=−
lim
actúa sobre un oscilador. Compare el trabajo hecho al moverse en contra de este campo al ir desde el punto
(1, 1) al punto (4, 4), siguiendo los siguientes caminos:
Calcule el trabajo hecho en contra de este campo de fuerza al moverse al rededor de un circulo de radio uno
y en el plano x − y.
a) desde 0 a π en sentido contrario a la agujas del reloj.
b) desde 0 a −π en sentido de las agujas del reloj.
14. Evaluar la siguiente integral:
I
r · dr .
ad
o
15. Una partı́cula se mueve bajo la ley r(t) = x(t)i + y(t)j + z(t)k, con:
x(t) = 2t2 ;
y(t) = t2 − 4t;
z(t) = 3t − 5.
El parámetro t representa el tiempo.
rr
Encuentre las expresiones para la aceleración y la velocidad de la partı́cula, para t = 1 y en la dirección del
vector i − 3j + 2k.
16. Suponga ahora el caso general de una partı́cula que se mueve en una curva descrita por:
r(t) = x(t)i + y(t)j + z(t)k .
Bo
Muestre que el vector velocidad es tangente a la trayectoria descrita.
17. Encuentre la ecuación vectorial para una trayectoria recta que pasa por los puntos P → (1, 2, 3) y Q → (1, 1, 1).
18. Encuentre el ángulo entre los siguientes planos: x + y + z = 9 y x + y − z = 3.
19. Un fluido se considera irrotacional si su campo de velocidades v = v(r) = v(x, y, z) cumple con la ecuación:
∇ × v = 0. Suponga, ahora que: v = (x + 2y + az)i + (bx − 3y − z)j + (4x + cy + 2z)k.
a) Encuentre el valor de a, b y c para que este campo de velocidades sea irrotacional.
b) Es intuitivo convencerse que si ∇ × v = 0 ⇒ v = ∇ψ. Encuentre la expresión para la función potencial
ψ = ψ(r) = ψ(x, y, z).
R
c) Considere la siguiente integral: I = C dr · v. Donde C es el circuito a recorrer.
60
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
1) Calcule el valor de la integral I a lo largo del trayecto: (0, 0, 0) → (1, 1, 0) mediante una segmento
de recta. Luego, de (1, 1, 0) → (2, 0, 0) a lo largo de otro segmento de recta. Finalmente regresando
(2, 0, 0) → (0, 0, 0) también siguiendo una recta.
2) Calcule el valor de la integral I de (0, 0, 0) → (2, 0, 0) a lo largo de un arco de circunferencia que
cumple con la ecuación: (x − 1)2 + y 2 = 1. Ahora regresando de (2, 0, 0) → (0, 0, 0) también a través
de una recta.
3) ¿Qué puede concluir del campo v?
1.6.
ar
20. Resuelva todos los problemas anteriores utilizando Maxima.
Vectores y números complejos
o cuadrático:
2
x +4=0 ⇒
x = 2i
x = −2i
lim
in
Desde los primeros cursos de matemática nos hemos tropezado con las llamadas raı́ces imaginarias o complejas
de polinomios. La solución a un polinomio cúbico:


 x = 2i 
x = −2i
x3 − 3x2 + 4x − 12 = 0 ⇒
⇒ (x + 2i) (x − 2i) (x − 3) = 0 ,


x=3
⇒ (x + 2i) (x − 2i) = 0 .
1.6.1.
rP
re
nos lleva a definir un número i2 ≡ −1.
De lo anterior podemos ver que al multiplicar el número imaginario i por cualquier número real obtendremos
el número imaginario puro ib, con b ∈ R. La nomenclatura de números imaginarios surgió de la idea de que estas
13
cantidades no representaban mediciones fı́sicas. Esa idea ha sido abandonada pero el
√ nombre quedó .
2
Es importante señalar aquı́, que suele tomarse
i ≡ −1 que i = −1. Pero si hacemos esto, sin
√
√ de
√ la definición
pensarlo bien, llegamos a que: −1 = i2 = ii = −1 −1 = 1 = 1. La contradicción surge por el hecho de que aquı́
el −1 no es un número real sino un número complejo y será evidente más adelante cuando desarrollemos el algebra
de los números complejos.
Los números complejos y su álgebra
ad
o
Un número complejo, z, es la generalización de los números imaginarios (puros), ib. Esto es:
a → parte real
z = a + ib
con a, b ∈ R ⇒
b → parte imaginaria
rr
Obviamente los números reales serán a + i0 números complejos con su parte imaginaria nula. Los números
imaginarios puros serán números complejos con su parte real nula, esto es, 0 + ib. Por ello, en general diremos que:
z = a + ib ⇒ a = Re (z)
∧
b = Im (z) ,
Bo
es decir, a corresponde a la parte real de z y b a su parte imaginaria.
Cada número complejo, z tendrá asociado un número complejo conjugado, z ∗ tal que:
z ∗ = a − ib ,
z = a + ib
⇓
∗ ∗
∧
(z ) = z
z · z ∗ = a2 + b2 ,
claramente:
2
2
z · z ∗ ≥ 0 ⇒ |z| = |z ∗ | = z · z ∗ = a2 + b2 .
13 Los números complejos comienzan a aparecer en los trabajos de Cardano (1501-1576) y Bombelli (1526-1672) mientras estudiaban
las raı́ces de la ecuación cúbica . Pero es a René Descartes (1596-1650) a quién se le atribuye la afirmación: “ciertas ecuaciones algebraicas
sólo tienen solución en nuestra imaginación” y utilizó el término “números imaginarios”. Caspar Wessel en 1799 y Jean-Robert Argand
en 1806 proponen la estructura del plano complejo y la representación de la unidad imaginaria como el punto (0, 1) del eje vertical de
dicho plano. Pero el término, hoy usado de ”números complejos” se debe a Johann Carl Friedrich Gauss (1777-1855).
1.6. VECTORES Y NÚMEROS COMPLEJOS
61
Es importante señalar que, en general, no existe relación de orden entre los números complejos. Vale decir, que
no sabremos si un número complejo es mayor que otro. No está definida esta operación.
z1 ≯ z2
∨
z1 ≮ z2 .
Dos números complejos serán iguales si sus partes reales e imaginarios lo son:
z1 = z2 ⇒ (a1 + ib1 ) = (a2 + ib2 ) ⇒ a1 = a2
∧
b1 = b2 .
in
Se suman dos números complejos sumando sus partes reales y sus partes imaginarias:
ar
Las relaciones de orden sólo se podrán establecer entre módulos de números complejos y no números complejos
en general.
Rápidamente recordamos el álgebra de los números complejos:
z3 = z1 + z2 ⇒ (a1 + ib1 ) + (a2 + ib2 ) = (a1 + a2 ) + i(b1 + b2 ) = a3 + ib3 ,
∗
lim
claramente z + z ∗ = 2 Re z, también z − z ∗ = 2 Im z. Igualmente es inmediato comprobar que:
(z1 + z2 ) = z1∗ + z2∗ .
Se multiplican números complejos por escalares multiplicando el escalar por sus partes reales e imaginarias:
rP
re
z3 = αz1 ⇒ α (a1 + ib1 ) = αa1 + i (αb1 ) .
Se multiplican números complejos entre si, multiplicando los dos binomios y teniendo cuidado que i2 = −1:
z3 = z1 z2 ⇒ (a1 + ib1 ) · (a2 + ib2 ) = (a1 a2 − b1 b2 ) + i (a1 b2 + b1 a2 ) ,
∗
también es inmediato comprobar que (z1 z2 ) = z1∗ z2∗ .
Se dividen números complejos siguiendo la estrategia de racionalización de fracciones irracionales. Esto es:
z1
(a1 + ib1 ) (a2 − ib2 )
a1 a2 + b1 b2
b1 a 2 − a 1 b2
(a1 + ib1 )
=
=
+i
,
⇒
2
2
z2
(a2 + ib2 )
(a2 + ib2 ) (a2 − ib2 )
(a2 + b2 )
(a22 + b22 )
ad
o
z3 =
es claro que el divisor será cualquier número complejo excepto el cero complejo: 0 + i0.
1.6.2.
Vectores y el plano complejo
rr
Mirando con cuidado el álgebra de números complejos nos damos cuenta que un número complejo puede ser
representado por una dupla de números, es decir:
z = (a + ib)
z = (a, b) .
Bo
Las propiedades entre números complejos de igualdad, suma y multiplicación por un escalar arriba expuestas
se cumplen de forma inmediata con esta nueva representación. Hay que definir las operaciones de multiplicación y
división entre números complejos de forma que:
(a1 , b1 )
a1 a2 + b1 b2 b1 a2 − a1 b2
(a1 , b1 ) (a2 , b2 ) = (a1 a2 − b1 b2 , a1 b2 + b1 a2 ) ∧
=
,
.
(a2 , b2 )
(a22 + b22 )
(a22 + b22 )
Con está definición para la multiplicación de números complejos podemos ver que si la unidad compleja viene
representa por el par i = (0, 1), entonces ahora si:
i2 = ii = (0, 1)(0, 1) = (−1, 0) = −1 .
Figura 1.10: Representación del plano complejo. El
eje horizontal recibe el nombre de eje real, y el eje
vertical el nombre de eje imaginario.
lim
La asociación de un número complejo con una
pareja de números inmediatamente nos lleva a
imaginar un punto (x, y) en un plano (complejo)
en el cual la primera componente (horizontal) representa la parte real y la segunda componente
(vertical) representa la parte imaginaria.
De esta forma asociamos a un número complejo a
un vector que une a ese punto (x, y) con el origen
del plano complejo.
Como mencionamos con anterioridad, todo
número complejo z tiene asociado su complejo
conjugado z ∗ . La representación geométrica de
z ∗ no es otra cosa que la reflexión de z respecto
al eje real.
√
Por otro lado, |z| = zz ∗ viene a ser la distancia del punto (0, 0) al punto (x, y), es decir, la
longitud o norma del vector (x, y).
ar
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
in
62
rP
re
Esta representación de números complejos como vectores en el plano (complejo) se conoce con el nombre de
Diagrama de Argand14 a pesar que no fue Jean Argand, sino Caspar Wessel15 el primero en proponerlo. Por cierto,
esta interpretación fue tres veces redescubierta, primero por Caspar Wessel en 1799, luego por Jean Argand en 1806
y finalmente por Gauss16 en 1831.
De esta manera, como un recordatorio al plano real podemos ver que:

p
√
∗
2
2

 r = zz = |z| = x + y
z = x + iy
z = r (cos(θ) + i sen(θ)) , con:

 tan(θ) = y donde − π ≤ θ ≤ π
x
Con esta interpretación tendremos:
componente real del vector z o parte real de z
componente imaginaria del vector z o parte imaginaria de z
módulo, magnitud o valor absoluto de z
ángulo polar o de fase del número complejo z
ad
o
x = Re z
y =√
Im z
r = zz ∗ = |z|
θ
La interpretación vectorial de números complejos permite que la suma de números complejos: z1 = x1 + iy1 y
z2 = x2 + iy2 sea representada por la “regla del paralelogramo”, es decir, en la representación gráfica de la suma es
fácil ver que z1 y z2 limitan un paralelogramo cuya diagonal es z1 + z2 .
Mientras que los productos escalar y vectorial nos llevan a:
rr
z1 · z2 = Re (z1 z2∗ ) = Re (z1∗ z2 ) ∧ z1 × z2 = Im (z1∗ z2 ) = −Im (z1 z2∗ ) .
√
Volviendo nuevamente a la relación |z| = zz ∗ , observemos que:
|z1 z2 | = |z1 | |z2 |.
Bo
Ya que si |z1 z2 |, |z1 | y |z2 | son cantidades positivas, entonces:
2
∗
2
2
2
|z1 z2 | = (z1 z2 ) (z1 z2 ) = z1 z2 z1∗ z2∗ = z1 z1∗ z2 z2∗ = |z1 | |z2 | = (|z1 | |z2 |) .
|z1 + z2 | ≤ |z1 | + |z2 |.
14 Jean Robert Argand (Ginebra, Suiza, 18 Julio 1768; Parı́s, Francia 13 agosto 1822). Contador pero matemático aficionado, propuso
esta interpretación de números complejos como vectors en un plano complejo en un libro autoeditado con sus reflexiones que se perdió
y fue rescatado 7 años después, fecha a partir de la cual Argand comenzó a publicar en Matemáticas.
15 Caspar Wessel (Vestby, Noruega 8 junio 1745; 25 marzo 1818, Copenhagen,Dinamarca) Matemático noruego que se dedicó principalmente al levantamiento topográfico de Noruega. Su trabajo sobre la interpretación de números complejos permaneció desconocido
por casi 100 años.
16 Johann Carl Friedrich Gauss (30 abril 1777, Brunswick, Alemania; 23 febrero 1855, Göttingen, Alemania). Uno de los matemáticos
más geniales y precoces de la Historia. Desde los 7 años comenzó a mostrar sus condiciones de genialidad. Sus contribuciones en
Astronomı́a y Matemáticas son múltiples y diversas.
1.6. VECTORES Y NÚMEROS COMPLEJOS
63
Veamos:
2
|z1 + z2 |
∗
=
(z1 + z2 ) (z1 + z2 ) = (z1 + z2 ) (z1∗ + z2∗ ) = z1 z1∗ + z2 z2∗ + z1 z2∗ + z1∗ z2 =
=
|z1 | + |z2 | + 2Re(z1 z2∗ ) ≤ |z1 | + |z2 | + 2 |Re(z1 z2∗ )|
≤
|z1 | + |z2 | + 2 |z1 z2∗ | = |z1 | + |z2 | + 2 |z1 | |z2∗ | = |z1 | + |z2 | + 2 |z1 | |z2 |
=
(|z1 | + |z2 |) .
2
2
2
2
2
2
2
2
2
2
2
ar
Notemos que la igualdad |z1 + z2 | = |z1 | + |z2 | se satisface si, y sólo si, Re(z1 z2∗ ) = |z1 z2∗ |.
a · b = ai
∗
in
Producto escalar: El producto escalar definido con anterioridad para vectores puede ser redefinido al caso de
vectores con componentes complejas.
Dados los vectores: a = ai ei y b = bi ei , con {ai } y {bi } ∈ C, entonces
bi .
lim
∗
√
Notemos que con esta definición, el producto a · a = ai ai siempre será un número real. Por lo tanto, |a| = a · a
∈ R.
Esta definición hace que ahora cambien algunas de las propiedades del producto escalar.
∗
a · b = (b · a) .
a · (λb) = λ a · b.
1.6.3.
rP
re
(λa) · b = λ∗ a · b.
Fórmulas de Euler y De Moivre
En cursos anteriores, nos hemos tropezado con la expansión en Taylor17 de funciones, ésta serie permite expresar
cualquier función analı́tica18 alrededor de un punto x0 como una serie infinita de potencias del argumento de la
función, esto es:
df (x)
dx
(x − x0 ) +
x=x0
1 d2 f (x)
2 dx2
ad
o
f (x) = f (x0 ) +
2
(x − x0 ) +
x=x0
1 d3 f (x)
3! dx3
3
(x − x0 ) + · · · · · ·
x=x0
O de manera equivalente:
n
f (x) = Cn (x − x0 )
con Cn =
1 dn f (x)
n! d xn
y n = 0, 1, 2, 3, . . .
x=x0
rr
Si consideramos que x0 = 0, podremos ver a continuación algunos desarrollos en series de funciones elementales:
1
1
1
1 5
1 6
1 7
1 + x + x2 + x3 + x4 +
x +
x +
x + ······
2
6
24
120
720
5040
1
1
1 6
cos(x) = 1 − x2 + x4 −
x + ······
2
24
720
1
1 5
1 7
sen(x) = x − x3 +
x −
x + ······
6
120
5040
=
Bo
ex
Es fácil convencerse que para la serie de ex se tiene:
1
1
1
1 5
1 6
1
eiθ = 1 + iθ − θ2 + − i θ3 + θ4 +
iθ −
θ + −
i θ7 + · · · · · ·
2
6
24
120
720
5040
17 Brook Taylor (18 agosto 1685, Edmonton, Inglaterra; 29 diciembre 1731, Londres, Inglaterra) Fı́sico y Matemático inglés contemporáneo de Newton y Leibniz y junto con ellos participó profundamente en el desarrollo del cálculo diferencial e integral. Además de
sus aportes al estudio del magnetismo, capilaridad y termometrı́a, desarrolló el área de diferencias finitas que hasta hoy utilizamos para
cálculos en computación. Inventó la integración por partes y descubrió la serie que lleva su nombre.
18 Básicamente, una función analı́tica es una función que puede expresarse como una serie de potencias convergente.
64
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
y que puede arreglarse como:
1
1
1
1 6
1 5
1 7
eiθ = 1 − θ2 + θ4 −
θ + · · · · · · + i θ − θ3 +
θ −
θ + ······
2
24
720
6
120
5040
{z
}
{z
}
|
|
cos(θ)
sen(θ)
obteniéndose la importante relación:
eiθ = cos(θ) + i sen(θ) ,
ar
conocida como la relación de Euler19 . La fórmula de Euler, para −π < θ < π resulta en los siguientes simpáticos
resultados:
π
π
i = ei 2 , −1 = eiπ , −i = e−i 2 , 1 = ei2kπ con k = 0, ±1, ±2, ±3 . . .
z = x + iy
z = |z| (cos(θ) + i sen(θ))
in
Entonces, tenemos tres formas de representar un número complejo:
z = |z|eiθ .
lim
La expresión z = x + iy se conoce como forma cartesiana de representación de un número complejo, la forma
z = r (cos(θ) + i sen(θ)) será la forma trigonométrica o polar y la expresión z = reiθ será la forma de Euler.
Es importante notar una sutileza implı́cita en esta notación. La forma cartesiana representa unı́vocamente a un
número complejo, mientras que la forma polar (y la de Euler), es ambigua, ya que:
z = r (cos(θ) + isen(θ)) = r (cos(θ + 2nπ) + isen(θ + 2nπ)) ,
n = 0, ±1, ±2, ±3, . . .
rP
re
Es decir,√existen varios valores del argumento que definen el mismo número complejo. Por ejemplo, el número
z = 1 + 3i lo podemos representar de las siguientes maneras:
h
π
π i
√
π
z = 1 + 3i = 2e 3 i = 2 cos
+ isen
3h
3 π
π
i
π
+2nπ )i
(
3
= 2 cos
+ 2nπ + isen
+ 2nπ .
= 2e
3
3
ad
o
Analicemos estas situaciones con más detalle. Primero es importante notar que r es siempre positivo, mientas
que el ángulo θ puede tomar infinitos valores incluyendo valores negativos. Como ya vimos, θ se relaciona con las
coordenadas cartesianas por la ecuación tan(θ) = y/x, y donde es necesario especificar el cuadrante para su cálculo.
A cada valor del ángulo se le denomina el argumento de z.
Por lo tanto, si tenemos un número complejo z denotaremos por arg(z) a:
arg(z) = {θ ∈ R / |z|(cos(θ) + isen(θ))} .
rr
Esto significa que dos números complejos z1 y z2 serán iguales si: |z1 | = |z2 | y arg(z1 ) = arg(z2 ).
Dado un número complejo, z 6= 0, existe un único argumento Θ que se encuentra en el intervalo [−π, π], y lo
representaremos por Arg(z), el argumento principal o valor principal, de manera que:
arg(z) = Arg(z) + 2nπ ,
n = 0, ±1, ±2, ±3, . . .
Bo
Un número complejo, digamos z = −1 − i (tercer cuadrante) tendrá como valor principal:
tan(Θ) =
y
3π
= 1 ⇒ Arg(−1 − i) = −
.
x
4
Nota: no debe tomarse el valor − 5π
4 , ya que −π ≤ Θ ≤ π.
Lo que si es cierto es que:
arg(−1 − i) = −
3π
+ 2nπ ,
4
n = 0, ±1, ±2, ±3, . . .
19 Leonhard Euler (15 abril 1707, Basilea, Suiza; 18 septiembre 1783, San Petersburgo, Rusia). Uno de los matemáticos más prolı́ficos
de todos los tiempos. Desarrolló inmensamente campos como la geometrı́a analı́tica y trigonometrı́a, siendo el primero que consideró
el coseno y el seno como funciones. Hizo aportes significativos en el desarrollo del cálculo diferencial e integral ası́ como también,
astronomı́a, elasticidad y mecánica de medios continuos.
1.6. VECTORES Y NÚMEROS COMPLEJOS
65
Otro aspecto a rescatar de la forma de Euler o
exponencial, es que la ecuación:
z = reiθ ,
0 ≤ θ ≤ 2π ,
ar
no es más que una representación paramétrica
del cı́rculo |z| = r, es decir, de un cı́rculo de
radio r y centrado en el origen.
Por lo tanto, un cı́rculo centrado en z0 y de radio
R tendrá como ecuación paramétrica:
|z − z0 | = R ⇒ z = z0 + Reiθ ,
con 0 ≤ θ ≤ 2π. Como podemos apreciar en la
figura 1.11.
in
Figura 1.11: Representación en el plano complejo del
cı́rculo |z − z0 | = R.
lim
Es claro que las sumas de números complejos se plantean más fácilmente en su forma cartesiana. Mientras las
multiplicación y división serán directas en la forma de Euler. Si z1 = |z1 |eiθ1 y z2 = |z2 |eiθ2 , entonces:
z1 z2 = |z1 |eiθ1 |z2 |eiθ2 = |z1 ||z2 |ei(θ1 +θ2 ) = |z1 z2 | (cos (θ1 + θ2 ) + isen (θ1 + θ2 )) .
(1.6)
rP
re
Esto significa que para multiplicar dos números complejos se debe, por un lado, multiplicar sus módulos y por
el otro, sumar sus argumentos. Geométricamente, al sumarse los argumentos, la multiplicación es en realidad un
giro en el plano complejo por el producto de sus módulos, es decir, si multiplicamos un número por i, el resultado
es un giro de un cuarto de vuelta hacia la izquierda, es por eso, que i2 = −1 = eiπ .
Mientras que para la división:
|z1 | i(θ1 −θ2 )
|z1 |
z1
|z1 |eiθ1
=
e
=
(cos (θ1 − θ2 ) + isen (θ1 − θ2 )) .
=
z2
|z2 |eiθ2
|z2 |
|z2 |
Podemos notar de esta última expresión que el inverso de un número complejo diferente se cero es:
z −1 =
1
1 −iθ
=
e
.
z
|z|
(1.7)
ad
o
Se puede mostrar que a partir de (1.6) y de (1.7) resulta que:
arg(z1 z2 ) = arg(z1 ) + arg(z2 ) ,
z1
arg
= arg(z1 ) − arg(z2 ) .
z2
rr
Por otro lado, notemos lo siguiente. Si z = x + iy, entonces:
ez = e(x+iy) = ex eiy = ex (cos(y) + isen(y)) ,
Bo
y a partir de la relación o fórmula de Euler se puede demostrar:
n
n
z n = |z|n eiθ = |z|n einθ ⇒ |z|n (cos(θ) + isen(θ)) = |z|n (cos (nθ) + isen (nθ)) ,
con n entero.
De manera que llegamos a la fórmula de De Moivre:20
1.6.4.
n
(cos(θ) + isen(θ)) = cos (nθ) + isen (nθ) ,
con n entero.
Algunas aplicaciones inmediatas
Presentaremos algunas aplicaciones inmediatas la fórmula de De Moivre en diferentes ámbitos.
20 Abraham De Moivre (26 mayo 1667 en Vitry-le-François, Francia; 27 noviembre 1754, Londres, Inglaterra) Matemático francés que
tuvo que emigrar a Inglaterra por razones religiosas. Contemporáneo de Newton, Leibniz y Halley, fue pionero con sus contribuciones
en geometrı́a analı́tica y teorı́a de probabilidades.
66
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
Identidades trigonométricas
La primera de las aplicaciones de la fórmula de De Moivre es para construir identidades trigonométricas en las
cuales se expresa el coseno, o el seno, de factores de un ángulo. Veamos las siguientes (nada triviales) identidades
trigonométricas:
cos(3θ) = 4 cos3 (θ) − 3 cos(θ)
o
sen(3θ) = 3 sen(θ) − 4sen3 (θ) .
Para demostrar estas (y otras) identidades utilizamos la fórmula de De Moivre, es decir:
3
ar
cos(3θ) + i sen( 3θ) = (cos(θ) + i sen(θ))
= cos3 (θ) − 3 cos(θ) sen2 (θ) + i 3 cos2 (θ) sen(θ) − sen3 (θ) .
Igualando ahora parte real e imaginaria tendremos:
in
cos3 (θ) − 3 cos(θ) sen2 (θ) = cos3 (θ) − 3 cos(θ) 1 − cos2 (θ) = 4 cos3 (θ) − 3 cos(θ) ,
= 3 cos2 (θ)sen(θ) − sen3 (θ) = 3 1 − sen2 (θ) sen(θ) − sen3 (θ) = 3sen(θ) − 4sen3 (θ) .
cos(3θ)
=
sen(3θ)

1
n


 z + z n = 2 cos(nθ)
rP
re
z = eiθ = cos(θ) + i sen(θ) ⇒
lim
El método puede extenderse a expresiones de senos y cosenos de nθ.
Igualmente podemos desarrollar un método para encontrar expresiones de potencias de funciones trigonométricas
n
en término de funciones de factores de ángulo del tipo (cos(θ)) = F (cos(nθ), sen(nθ)). Para empezar, supongamos
que tenemos un número complejo de módulo 1, de tal forma que:


 z n − 1 = 2i sen(nθ)
zn
Estas identidades surgen de manera inmediata a partir de:
zn +
1
n
−n
= (cos(θ) + i sen(θ)) + (cos(θ) + i sen(θ)) = (cos(nθ) + i sen(nθ)) + (cos (−nθ) + i sen (−nθ))
zn
= cos(nθ) + i sen(nθ) + cos(nθ) − i sen(nθ) = 2 cos(nθ) ,
ad
o
igualmente puede demostrarse la segunda de las afirmaciones anteriores.
Supongamos además que n = 1, con lo cual se cumple que:
z+
1
= eiθ + e−iθ = 2 cos(θ)
z
y
z−
1
= eiθ − e−iθ = 2i sen(θ) ,
z
que también lo sabı́amos desde la más temprana edad de nuestros cursos de bachillerato.
Ahora bien, lo que quizá no sabı́amos en ese entonces (y quizá ahora tampoco) es que a partir de aquı́ podemos
construir, expresiones como:
1
z+
z
1
⇒ cos (θ) = 5
2
rr
1
cos(θ) =
2
5
5
1
1
1
5
10
5
3
z+
= 5
z + 5 + 5z + 3 + 10z +
,
z
2
z
z
z
es decir:
Bo
1
[2 cos(5θ) + 10 cos(3θ) + 20 cos(θ)] .
25
De la misma manera se puede proceder con otras potencias y con potencias de la función seno.
cos5 (θ) =
Raı́ces de polinomios
Las raı́ces de un número complejo se obtienen de la relación:
θ + 2kπ
θ + 2kπ
1/n
z 1/n = [|z| (cos (θ) + i sen (θ))]
= |z|1/n cos
+ i sen
,
n
n
donde k = 0, 1, . . . n − 1. De manera que la fórmula de De Moivre nos puede ayudar para encontrar raı́ces de
polinomios.
1.6. VECTORES Y NÚMEROS COMPLEJOS
67
Supongamos, para empezar, que queremos encontrar las n raı́ces de la ecuación:
zn = 1 .
Para ello procedemos con el siguiente artificio:
z n = 1 = ei(2πk) = cos (2πk) + isen (2πk) ,
donde k = 0, 1, 2, ....
z n = 1 = ei(2πk) ⇒ z = ei(
2πk
n
),
(1.8)
esto es:
z1 = e2πi( n ) ;
1
z2 = e2πi( n ) ;
z3 = e2πi( n ) ; · · ·
2
zn−2 = e2πi(
3
n−2
n
);
zn−1 = e2πi(
n−1
n
),
in
z0 = 1;
ar
con lo cual las n raı́ces de la ecuación z n = 1 serán:
z = e i(
2πk
3
lim
es decir, n raı́ces corresponderán a los n valores de k = 0, 1, 2, · · · n − 2, n − 1. Mayores valores de k no proveen
nuevas raı́ces.
Las raı́ces de la ecuación z 3 = 1 serán entonces:
4π
) ⇒ z = 1 , z = ei( 2π
3 ) , z = e i( 3 ) .
0
1
2
ak z k = 0 ,
rP
re
Como veremos más adelante, estas propiedades pueden extenderse a raı́ces de polinomios que contengan más
términos.
Una afirmación que nos han dicho, y que quizá no sepamos de dónde viene, es que si un polinomio con coeficientes
reales tiene raı́ces complejas, ellas serán complejas conjugadas unas de otras. Vale decir, si z 5 − z 4 + 2z − 2 = 0
tiene como raı́z (1 + i), también tendrá como raı́z (1 − i).
Esta afirmación se prueba de forma general si suponemos que tenemos la siguiente ecuación:
con k = 0, 1, 2, · · · n − 1, n ⇒ a0 + a1 z + a2 z 2 · · · + an−1 z n−1 + an z n = 0 ,
donde los coeficientes a0 , a1 , a2 , · · · , an−1 , an los suponemos reales, esto es: ak = a∗k para todos los valores del ı́ndice
k.
Al tomar el complejo conjugado nos queda:
2
n−1
+ a∗n (z ∗ ) = 0 ,
2
n−1
+ an (z ∗ ) = 0 ,
ad
o
a∗0 + a∗1 z ∗ + a∗2 (z ∗ ) · · · + a∗n−1 (z ∗ )
n
y como los coeficientes son reales tenemos que:
a0 + a1 z ∗ + a2 (z ∗ ) · · · + an−1 (z ∗ )
n
esto nos dice que si z es solución también lo será z ∗ ya que la ecuación es la misma por tener los mismos coeficientes
(reales).
rr
Logaritmos y potencias de números complejos
Bo
La motivación surge cuando queremos resolver la ecuación:
ew = z = reiΘ ,
con
w, z ∈ C
y
−π < Θ < π.
(1.9)
Notemos que al despejar w en realidad lo que tenemos es la función logarı́tmica, que como veremos en su debido
tiempo puede escribirse de la forma w = u + iv. Por lo tanto:
eu+iv = eu eiv = reiΘ ⇒ eu = r ∧ v = Θ + 2πn .
donde n es un entero. Por lo tanto, es claro que:
eu = r ⇒ u = ln(r) ,
y que la ecuación (1.9) se satisface si y sólo si:
w = ln(r) + i (Θ + 2πn) ,
con
n = 0, ±1, ±2, ±3, . . .
68
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
Por lo tanto, si definimos la función multivaluada:
Log(z) ≡ ln |r| + i (Θ + 2πn) ,
con
n = 0, ±1, ±2, ±3, . . .
(1.10)
podemos escribir la relación:
eLog(z) = z
z 6= 0 .
con
ar
Llamaremos valor principal de Log(z) al valor que se obtiene cuando n = 0 en la ecuación (1.10) y lo denotaremos
con Ln(z).
Ln(z) = ln |r| + iΘ .
(1.11)
Notemos que ésta es una función univaluada cuando z 6= 0, y además, si combinamos (1.10) y (1.11) obtenemos:
Log(z) = Ln(z) + i 2πn ,
con
n = 0, ±1, ±2, ±3, . . .
in
Podemos ver que cuando z es un número real positivo, es decir, z = rei0 , entonces recobramos la función
logarı́tmica usual:
Ln(z) = Ln(r) = ln(r) .
Log(1)
=
ln(1) + i (0 + 2πn)
Log(−1)
=
ln(1) + i (π + 2πn)
con n = 0, ±1, ±2, ±3, . . .
Por otro lado, podemos ver también:
=
∧
Ln(1) = 0
∧
Ln(−1) = iπ
n
ln [{|z| (cos(θ) + i sen(θ))} ] = n ln [|z| (cos(θ) + i sen(θ))] = n ln |z| eiθ
rP
re
ln(z n )
lim
En consecuencia, podemos ver que:
= n ln (|z|) + n(θ + 2kπ)i = n ln (|z|) + (nθ)i + (2nkπ)i ,
1.6.5.
Ejemplos
con k entero .
1. En la sección 1.6.3, vimos que para el número complejo z = −1 − i, resultaba que:
arg(−1 − i) = −
3π
+ 2nπ
4
n = 0, ±1, ±2, ±3, . . .
ad
o
Si lo queremos escribir en la forma exponencial tenemos que hacer lo siguiente:
p
√
√
3π
|z| = (−1)2 + (−1)2 = 2 ⇒ −1 − i = 2e−i( 4 ) .
Pero en realidad hay infinitas posibilidades para la forma exponencial de z = −1 − i:
√
3π
−1 − i = 2ei(− 4 +2nπ) ,
n = 0, ±1, ±2, . . .
rr
2. Consideremos el número z = 2 + 2i, para representarlo en la forma polar debemos calcular primeramente su
módulo:
p
p
√
√
|z| = x2 + y 2 = 22 + 22 = 8 = 2 2 .
y luego el argumento:
tan(θ) =
y
2
π
=
⇒ θ = arctan(1) = .
x
2
4
Bo
√
Por lo tanto, z = 2 + 2i = 2 2 (cos(π/4) + i sen(π/4)), es un punto ubicado en el primer cuadrante cuyo radio
vector hace un ángulo de 45◦ con respecto al eje x.
√
En cambio, para el número complejo z = − 3 + i, resulta:
q √
√
1
π
2
2
|z| = (− 3) + 1 = 4 = 2 , θ = arctan − √
=− .
6
3
Aquı́ debemos tener cuidado, pues el argumento principal en realidad es:
θ=π−
π
5π
=
.
6
6
√
z = − 3 + i = 2 (cos(5π/6) + i sen(5π/6)), es un punto ubicado en el segundo cuadrante cuyo radio vector
hace un ángulo de 150◦ con respecto al eje x.
1.6. VECTORES Y NÚMEROS COMPLEJOS
69
3. Supongamos la siguiente ecuación polinómica con sus raı́ces:
z 5 − z 4 + 2z − 2 = 0 ⇒
z 4 + 2 (z − 1) = 0 ⇒
 4
 z + 2 = 0 ⇒ z 4 = −2

z−1=0 ⇒ z =1
ar
Entonces, de la ecuación (1.8) podemos ver que:
h i1/4
2πk
2πk
23/4
= (−2)1/4 ei( 4 ) =
z 4 = −2(1) = −2 ei(2πk) ⇒ z = −2 ei(2πk)
(1 + i) ei( 4 ) ,
2
√
π 1/2
π
donde hemos utilizado el hecho de que: (−1)1/4 = i1/2 = ei 2
= ei 4 = 22 (1 + i) .
Por lo tanto:
=
z2
=
1
(1 + i) ,
21/4
1
1
(1 + i) ei(π) = − 1/4 (1 + i) ,
21/4
2
π
1
i
(1 + i) ei( 2 ) = 1/4 (1 + i)
21/4
2
3π
1
i
z3 = 1/4 (1 + i) ei( 2 ) = − 1/4 (1 + i) .
2
2
z1 =
in
z0
lim
Entonces, la ecuación z 5 − z 4 + 2z − 2 = 0, tendrá las siguientes cinco raı́ces:
1
1
1
1
z0 = 1/4 (1 + i) , z1 = − 1/4 (1 − i) , z2 = − 1/4 (1 + i) , z3 = 1/4 (1 − i) ,
2
2
2
2
4. Ahora consideremos el siguiente polinomio complejo:
z4 = 1 .
P (z) = z 6 − z 5 + 4z 4 − 6z 3 + 2z 2 − 8z + 8 = 0 .
rP
re
Si por algún método comprobamos que (z 3 − 2) es uno de sus factores, entonces podremos encontrar las raı́ces
del polinomio P (z).
Veamos, claramente si (z 3 − 2) es un factor, entonces podemos expresar:
P (z) = z 6 − z 5 + 4z 4 − 6z 3 + 2z 2 − 8z + 8 = (z 3 − 2)(z 3 − z 2 + 4z − 4) = (z 3 − 2)(z − 1)(z 2 + 4) ,
con lo cual, como z es complejo, hay que tener cuidado con las raı́ces encubiertas. Entonces, la raı́ces son:
z3 = 2 ,
z = 1,
z 2 = −4 .
Para z 2 = −4 ⇒ z = ±2i .
1/3
2πk
⇒ z = 2 ei(2πk)
= 21/3 ei( 3 ) .
ad
o
Para z 3 = 2 ⇒ z 3 = 2 ei(2πk)
Por lo tanto:
z0 = 21/3 ,
6
5
z1 = 21/3 ei(
2π
3
4
2
3
) = −2
1/3
2
h
1−
√ i
3i ,
z2 = 21/3 ei(
4π
3
1/3
) = −2
2
h
√ i
1 + 3i .
La ecuación: z − z + 4z − 6z + 2z − 8z + 8 = 0, tendrá las siguientes seis raı́ces:
√ i
√
1 h
3
z = 2, z = −√
1 ± 3 i , z = 1 , z = ±2i .
3
4
rr
5. Consideremos:
con n = 0, 1, 2, · · ·
Bo
i
π
h
π
Log (−3i) = Log 3ei(− 2 +2nπ) = ln(3) + i − + 2nπ
2
decimos que el valor principal de Log (−3i) será Ln = ln(3) − i π2 .
Con la misma intuición se procede con las potencias de números complejos.
Si queremos evaluar z = i−5i tendremos que proceder como sigue:
h π
i
π
z = i−5i ⇒ Log (z) = Log i−5i = −5iLog (i) = −5iLog ei( 2 +2nπ) = 5
+ 2nπ ,
2
−5i
con lo cual z = i
¡es un número real!
h√
i
3
Para finalizar consideremos otro par de casos de potencias y logaritmos: ii y Log
3+i
.
h π
ii
2 π
π
ii = ei( 2 +2nπ) = ei ( 2 +2nπ) = e−( 2 +2nπ) .
h √
h
i
3 i
i arctan √13
Log
3+i
= 3Log 2e
= 3 ln(2) + i arctan √13 + 2nπ = ln(8) + i
π
2
+ 6nπ .
70
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
1.6.6.
Practicando con Maxima
Maxima maneja números complejos escritos en la forma: a + bi. Donde la unidad imaginaria es interpretada
por el programa como i = %i. Si no queremos que las salidas del programa mantenga la notación del %i podemos
is a la parte superior de la ventana del programa y hacer click en:
wxMaxima > Preferencias > Worksheet
y desactivar el botón que dice
ar
[] Mantener signo porcentual en sı́mbolos especiales: %e, %i, etc.
1. Algunos cálculos básicos.
in
Los
√ números imaginarios aparecen si queremos calcular la raı́z cuadrada de un número negativo, por ejemplo,
−7
( %o1)
√
7i
lim
(%i1) sqrt(-7);
El programa nos permite desarrollar toda el algebra en variable compleja. Si queremos sumar z1 = 1 + 2i y
z2 = 3 + 4i, escribimos:
( %o2) 2 i + 1
( %o3) 4 i + 3
(%i4) z1+z2;
( %o4) 6 i + 4
La multiplicación:
ad
o
(%i5) z1*z2,expand;
rP
re
(%i2) z1:1+2*%i; z2:3+4*%i;
( %o5) 10 i − 5
Y la división:
rr
(%i6) z1/z2;
( %o6)
2i + 1
4i + 3
Bo
(%i7) rectform(%);
( %o7)
2 i 11
+
25 25
Este último comando pertenece a una lista de funciones de Maxima para el cálculo de números complejos:
rectform(expresión) expresión en forma cartesiana o binómica
realpart(expresión) parte real de expresión
imagpart(expresión) parte imaginaria de expresión
polarform(expresión) forma polar de expresión
abs(expresión) módulo o valor absoluto de expresión
cabs(expresión) módulo de expresión compleja
1.6. VECTORES Y NÚMEROS COMPLEJOS
71
carg(expresión) argumento de expresión
conjugate(expresión) conjugado de expresión
demoivre(expresión) expresa el número complejo utilizando senos y cosenos
exponentialize(expresión) expresa el número complejo utilizando exponenciales
Veamos como funcionan algunas de estos comandos:
(%i8) realpart(z1); imagpart(z1);
ar
( %o8) 1
( %o9) 2
in
(%i10)abs(z1);
√
( %o10) 5
lim
(%i11)polarform(z1);
√
( %o11) 5 ei arctan(2)
(%i12)cabs(z1);carg(z1);
√
( %o12) 5
rP
re
( %o13) arctan(2)
(%i14)conjugate(z1);
( %o14) 1 − 2 i
2. Para una función, digamos tan(x + iy), la podemos escribir como exponenciales o funciones senos y cosenos.
(%i15)tan(x+%i*y);
ad
o
( %o15) tan (i y + x)
(%i16)exponentialize(%),factor;
i ey − ei x ey + ei x
( %o16)
e2 y + e2 i x
rr
(%i17)demoivre(%),factor;
( %o17)
i (ey − i sin(x) − cos(x)) (ey + i sin(x) + cos(x))
e2 y + i sin (2 x) + cos (2 x)
Bo
(%i18)log(3+%i*2);
( %o18) log (2 i + 3)
(%i19)cabs(%);
s
( %o19)
log2 13
+ arctan2
4
(%i20)float(%);
( %o20) 1,410846683153171
2
3
72
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
3. Tomemos dos números complejos, o vectores del plano complejo:
(%i21)z:a+b*%i; w:c+d*%i;
( %o21) i b + a
( %o22) i d + c
ar
Revisemos la llamada igualdad del paralelogramo: la suma de los cuadrados de las longitudes de los cuatro
lados de un paralelogramo, es igual a la suma de los cuadrados de las longitudes de las dos diagonales de éste.
Es decir:
|z + w|2 + |z − w|2 = 2 |z|2 + |w|2 .
in
Pero sabemos que |z|2 = zz ∗ , y por lo tanto:
Calculemos el lado izquierdo de la ecuación anterior:
lim
(w + z)(w + z)∗ + (w − z)(w − z)∗ = 2 |z|2 + |w|2 .
(%i23)(w+z)*conjugate(w+z)+(w-z)*conjugate(w-z),expand;
( %o23) 2 d2 + 2 c2 + 2 b2 + 2 a2
rP
re
Ahora el lado derecho, es decir, la suma de las longitudes al cuadrado de los cuatro lados:
(%i24)2*cabs(z)^2+2*cabs(w)^2,expand;
( %o24) 2 d2 + 2 c2 + 2 b2 + 2 a2
4. Para encontrar las raı́ces de un número complejo, debemos declarar a la variable como compleja.
ad
o
(%i25)declare(z,complex)$
De manera que si queremos encontrar las raı́ces de z 3 = 1
(%i26)ec1:z^3=1;
( %o26) z 3 = 1
rr
(%i27)solve(ec1,z);
"
#
√
3i − 1
3i + 1
,z = −
,z = 1
2
2
Bo
( %o27) z =
√
5. En otro de los ejemplo que discutimos anteriormente tenı́amos la ecuación:
z 6 − z 5 + 4z 4 − 6z 3 + 2z 2 − 8z + 8 = 0 ,
por lo tanto:
(%i28)ec2:z^6-z^5+4*z^4-6*z^3+2*z^2-8*z+8=0;
( %o28) z 6 − z 5 + 4 z 4 − 6 z 3 + 2 z 2 − 8 z + 8 = 0
(%i29)factor(ec2);
1.6. VECTORES Y NÚMEROS COMPLEJOS
( %o29) (z − 1) z 2 + 4
73
z3 − 2 = 0
(%i30)solve(ec2,z),factor;
√
( %o30) z =
1.6.7.
3i − 1
2
23
√
,z = −
3i + 1
2
23
#
1
3
, z = 2 , z = 1, z = −2 i, z = 2 i
ar
"
Ejercicios
in
1. Si los números complejos z1 = x1 + iy1 y z2 = x2 + iy2 se pueden representar como vectores en el plano
z1 = x1 i + y1 j y z2 = x2 i + y2 j, muestre que:
z1∗ z2 = z1 · z2 + ik · (z1 × z2 ) .
lim
2. Demuestre:
a) cos(3α) = cos3 (α) − 3 cos(α)sen2 (α) .
b) sen(3α) = 3 cos2 (α)sen(α) − sen3 (α) .
3. Demuestre:
1
8
(3 + 4 cos(2α) + cos(4α)) .
3
b) cos (α) + sen3 (α) =
1
4
cos(3α) + 3 cos(α) − sen3 (α) + 3sen(α) .
4. Demuestre:
rP
re
a) cos4 (α) =
ix − 1
ix + 1
iy
= e(−2y cot
−1
(x))
,
donde x y y son números reales.
5. Encuentre las raı́ces de:
(2i)1/2
b)
1−
√ 1/2
3i
c)
(−1)1/3
d)
81/6
e)
ad
o
a)
6. Demuestre que:
a) Log(−ie) = 1 − π2 i .
b) Log(1 − i) =
1
2
ln(2) − π4 i .
rr
c) Log(e) = 1 + 2nπi .
d ) Log(i) = 2n + 12 πi .
7. Dos funciones complejas Z1 (t) y Z2 (t) cumplen con las siguientes ecuaciones:
Bo
dZ1∗
−i
==
dt
Z1 − Z2
y
dZ2∗
−i
==
dt
Z2 − Z1
Muestre que las siguientes cantidades son constantes:
a) Z1 + Z2
b) |Z1 − Z2 |
c) |Z1 |2 + |Z2 |2
8. Considere la siguiente ecuación:
z 7 − 4z 6 + 6z 5 − 6z 4 + 6z 3 − 12z 2 + 8z + 4 = 0 .
Encuentre sus raı́ces sabiendo que z 3 = 2.
√
(−8 − 8 3i)1/4 .
74
CAPÍTULO 1. LOS VECTORES DE SIEMPRE
9. Muestre que la expansión binomial puede ser escrita como:
n
(1 + x) =
n
X
Am (n) xm ,
con
Am (n) =
m=0
n!
.
m!(n − m)!
n
X
Am (n) cos(nθ) = 2n cosn
nθ
θ
cos
,
2
2
Am (n) sen(nθ) = 2n cosn
nθ
θ
sen
.
2
2
m=0
n
y muestre que:
ar
Si está convencido de la expansión anterior, considere ahora una parecida: 1 + eiθ
n
X
m=0
10. Las funciones hiperbólicas se definen como:
ex + e−x
2
y
senh(x) =
ex − e−x
,
2
lim
cosh(x) =
in
y
y de manera análoga a las funciones trigonométricas tendremos el resto de funciones:
tanh(x) =
senh(x)
;
cosh(x)
sech(x) =
1
;
cosh(x)
1
;
senh(x)
rP
re
a) Muestre las siguientes equivalencias:
csech(x) =
cosh(x) = cos(ix),
i senh(x) = sen(ix),
cos(x) = cosh(ix)
ctanh(x) =
y
1
;
tanh(x)
i sen(x) = senh(x) .
b) Muestre las siguientes identidades:
cosh2 (x) − senh2 (x) = 1;
sech2 (x) = 1 − tanh2 (x);
cosh(2x) = cosh2 (x) + senh2 (x) .
c) Resuelva las siguientes ecuaciones hiperbólicas:
2 cosh(4x) − 8 cosh(2x) + 5 = 0
y
cosh(x) = senh(x) + 2sech(x) .
ad
o
cosh(x) − 5senh(x) − 5 = 0,
11. Resuelva con Maxima los ejercicios anteriores.
12. Utilizando un programa de manipulación simbólica (ver Apéndice 6.1) realice las siguientes tareas.
rr
a) Calcule la función f (z) = ez a partir de su expansión en serie que la define. Calcule también f (z) cuando
inπ
z = e 6 para n = 0, 1, 2, . . . , 12. Para los diferentes valores de n haga una tabla con los valores de:
z
z
z
θ = nπ
6 , Re (z), Im (z), Re (e ), Im (e ), |z| y la fase de e .
b) Calcule y haga una tabla para los valores de (x; y) = (0, 0; 0, 0)(0, 1; 0, 1)(0, 5; 0, 5)(1, 0; 1, 0) de: Re (senh(z)),
Im (senh(z)), |senh(z)| y la fase de senh(z).
Bo
c) Calcule y haga una tabla para los valores de (x; y) = (0, 0; 0, 0)(0, 1; 0, 1)(0, 5; 0, 5)(1, 0; 1, 0) de: Re (cosh(z)),
Im (cosh(z)), | cosh(z)| y la fase de cosh(z).
ar
Bibliografı́a
[1] Arfken, G. B., Weber, H. J., & Harris, F. E. (2011). Mathematical methods for physicists. Academic press.
in
[2] Riley, K. F., Hobson, M. P., & Bence, S. J. (2006). Mathematical methods for physics and engineering:
a comprehensive guide. Cambridge University Press.
lim
[3] Santaló, L.A (1969) Vectores y Tensores. Editorial Universitaria, Buenos Aires).
[4] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York ).
Bo
rr
ad
o
rP
re
[5] Brown, J. W., Churchill, R. V. (2004) Complex Variables and Applications (McGraw Hill ).
75
ad
o
rr
Bo
lim
rP
re
ar
in
76
BIBLIOGRAFÍA
ar
Capı́tulo 2
in
Espacios vectoriales lineales
lim
La ruta de este capı́tulo
2.1.
ad
o
rP
re
Este es el capı́tulo central de esta obra, en el cual discutiremos los conceptos fundamentales sobre espacios
vectoriales abstractos, sus propiedades y sus múltiples expresiones: vectores de Rn , matrices, polinomios, funciones
continuas (entre otras). Además, introduciremos la notación de bra y ket que facilita mucho la organización de
los conceptos y, que nos acompañará por el resto de este libro. Haremos una constante referencia a los conceptos
que fueron discutidos en el capı́tulo anterior en el marco de los vectores en R3 . Como en el capı́tulo 1, cada una
de las secciones presenta ejemplos con la utilización de la herramienta de cómputo algebraico Maxima, la cual
consideramos como parte fundamental de estas notas y nos permite mostrar el alcance de los conceptos abstractos.
Para empezar, en la próxima sección, iniciamos con una discusión somera sobre grupos y sus propiedades.
Seguimos con la sección 2.1.3, en la cual presentamos el concepto de espacio vectorial lineal para describir varios
de sus escenarios que usualmente se presentan desconectados. Hacemos un esfuerzo por ilustrar, bajo un mismo
enfoque, su aplicación desde Rn hasta los espacios vectoriales de funciones continuas C[a,b] . Luego, en la sección 2.2.3,
abordamos los conceptos de distancia (métrica), norma y, finalmente el de producto interno. Esta última definición
nos permite equipar los espacios vectoriales, no solo con norma y distancia, sino también dotarlos de geometrı́a, vale
decir, definir ángulos entre vectores abstractos. Nos detenemos un momento para discutir el significado de ángulo
entre vectores pertenecientes a espacios vectoriales reales y complejos. En la sección 2.3 mostramos el concepto
de variedades lineales, discutimos el criterio de independencia lineal y, a partir de éste definimos las bases para
los espacios vectoriales. Apoyándonos en el criterio de ortogonalidad construimos bases ortogonales para varios
espacios vectoriales, discutimos los subespacios vectoriales ortogonales y las proyecciones ortogonales. El capı́tulo
lo finalizamos mostrando la utilidad de expresar funciones como combinación lineal de vectores ortogonales y, cómo
este tipo de expansiones constituye la mejor aproximación a la función.
Grupos, campos y espacios vectoriales
Bo
rr
En los cursos básicos de matemáticas nos enseñaron el concepto de conjunto: una colección de elementos de una
misma naturaleza, y aprendimos una gran variedad de operaciones aplicadas a los elementos que conforman los
conjuntos y a los conjuntos mismos. Es probable que en esos tiempos nos quedara la sensación de la poca utilidad
de todos esos conceptos de la teorı́a de conjuntos, pero como veremos en esta sección, la noción de conjuntos
es fundamental para desarrollar todas las ideas que conforman lo que se conoce como el algebra abstracta. En el
estudio de las estructuras algebraicas se incluyen las teorı́as sobre: grupos, anillos, campos, espacios vectoriales,
redes, algebras; que merecen ahora nuestra atención. Comenzaremos con la estructura de grupo, y nos daremos
cuenta de que una buena cantidad de objetos matemáticos, en apariencia muy diferentes, que hemos utilizando en
todos los cursos anteriores tienen incorporadas la estructura de grupo. La noción de grupo no llevará entonces al
importante concepto de espacios vectoriales abstractos que discutiremos en la sección 2.1.3 y a la definición de los
espacios métricos, sección 2.2.1, fundamentales en el desarrollo de las teorı́as fı́sicas.
2.1.1.
Grupos
Considere el siguiente conjunto no vacio G = {g1 , g2 , g3 , · · · , gn , · · · } y la operación interna (la ley del grupo).
Entonces los elementos del conjunto forman un grupo respecto a la operación si ∀ gi ∈ G se cumplen las siguientes
77
78
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
condiciones:
1. Cerrada respecto a la operación : {gi ∈ G, gj ∈ G} ⇒ ∃ gk = gi gj ∈ G.
2. Asociativa respecto a la operación : gk (gi gj ) = (gk gi ) gj .
3. Existencia de un elemento neutro: ∃ ĝ ∈ G ⇒ gi ĝ = gi = ĝ gi .
ar
4. Existencia de un elemento inverso: gi ∈ G ⇒ ∃ gi−1 ∈ G ⇒ gi gi−1 = gi−1 gi = ĝ.
Si adicionalmente se cumple que:
Suele denotarse al grupo G como (G, ) para indicar el tipo de operación.
Algunos grupos:
Los racionales respecto a la suma y a la multiplicación.
Los números complejos z = eiθ respecto a la multiplicación.
lim
Los enteros Z = {· · · − 3 − 2, −1, 0, 1, 2, 3, · · · } respecto a la suma.
in
5 Conmutativa respecto a la operación : gi gj ≡ gj gi ; el grupo se denomina grupo abeliano1 .
rP
re
Las rotaciones en 2 dimensiones (2D), y las rotaciones en 3D (grupo no-abeliano).
Las matrices de dimensión n × m respecto a la suma (grupo abeliano).
Dado un grupo de tres elementos: G = {1, a, b}, con ĝ ≡ 1 y la operación . Por construcción, si queremos
que la operación de dos de los elementos provea un tercero distinto, entonces la ÚNICA “tabla de multiplicación”
posible será:
1
1
a
b
a
a
b
1
b
b
1
a
ad
o
1
a
b
Notemos que el grupo más simple será aquel conformado únicamente por el elemento neutro: G = {1} y, como
veremos más adelante, se puede definir subgrupos si un subconjunto de los elementos de un grupo gi ∈ G también
forman un grupo.
Podemos resumir, sin demostración, las principales propiedades que presenta un grupo (G, ).
1. El elemento identidad o neutro es único.
rr
2. Para todo g ∈ G existe un inverso único g −1 ∈ G.
−1
3. Para todo elemento g ∈ G se cumple que: g −1
= g.
−1
Bo
4. Para cualesquiera g1 y g2 ∈ G, se cumple que: (g1 g2 )
= g1−1 g2−1 .
El número de los elementos de un grupo puede ser finito o infinito. En el primer caso se denominan grupos finitos
y el número de elementos que contenga, el cardinal del conjunto, se conoce como el orden del grupo. Un grupo
finito que se construye
a partir de una operación con un único miembro se denomina grupo cı́clico, y el caso más
elemental es G = 1, g, g 2 , g 3 , · · · , g n−1 . Obviamente hemos definido aquı́: g 2 = gg y g 3 = g 2 g = ggg y ası́
consecutivamente hasta ejecutarse n − 1 veces, entonces se retoma el elemento identidad, esto es: g n−1 g = g n = 1.
1 NIELS HENRIK ABEL, (1802-1829 Noruega) Pionero en el desarrollo de diferentes ramas de la matemática moderna, Abel mostró
desde su infancia un notable talento para el estudio de las ciencias exactas. Tal predisposición se verı́a muy pronto confirmada por
sus precoces investigaciones sobre cuestiones de álgebra y cálculo integral, en particular sobre la teorı́a de las integrales de funciones
algebraicas (a las que se denominarı́a “abelianas” en honor de quien la formuló) que no habrı́a de publicarse hasta 1841, doce años
después de su fallecimiento. En 2002 el gobierno noruego lanzó el premio Abel que llenará el vacı́o que existe en la premiación Nobel
del gobierno sueco, en el cual no existe premiación para la comunidad matemática.
2.1. GRUPOS, CAMPOS Y ESPACIOS VECTORIALES
79
Subgrupos
Dado un grupo (G, ) y H un subconjunto de G, H ⊆ G. Si H es un grupo bajo la operación , definida para
G, entonces diremos que H es un subgrupo. De manera equivalente: si H ⊆ G entonces H es un subgrupo si para
cualesquiera h1 y h2 ∈ H se cumple:
h1 h2 ∈ H.
ar
h−1 ∈ H ∀ h ∈ H.
lim
in
Es decir, 1 ∈ H y H es cerrado para la misma operación que define G y para sus inversos.
Existe una condición necesaria para que un subconjunto de un grupo finito G sea un subgrupo, esta condición
se conoce como el teorema de Lagrange, que dice lo siguiente: si (G, ) es un grupo finito y H un subgrupo de G,
entonces el orden de H divide al orden de G.
Por otro lado, sea (G, ) un grupo y g ∈ G, se puede demostrar que el conjunto H = {g n }, con n perteneciente
al conjunto de los números enteros, es un subgrupo de G. Con la propiedad adicional de que H es el subgrupo, que
contiene a g, más pequeño de G.
Como mencionamos con anterioridad, un grupo finito que se construye a partir de operar con un único miembro
se le denomina grupo cı́clico, en este caso de dice que H es un subgrupo cı́clico generado por g. A éste elemento se
le llama el generador de H y se acostumbra a denotarlo con H =< g >.
Para finalizar, definiremos el orden de un elemento de un grupo. Sea un elemento g ∈ G, el orden de g es el
menor entro positivo n tal que: g n = 1. Cuando éste entero positivo no existe se dice que g tiene un orden infinito.
rP
re
Grupos Isomorfos
Muchas veces podemos comparar la estructura entre grupos buscando relaciones entre ellos, esto lo podemos
hacer estudiando, por ejemplo, cómo “se multiplican”. La búsqueda de estas relaciones no llevan al concepto de
isomorfismo de grupos. Si podemos decir que dos grupos son isomorfos es porque tienen aspectos en común dentro
de sus estructuras algebraicas.
Consideremos los siguientes conjuntos y la operación2 multiplicación módulo X, es decir (a · b)modX :
Gmod8 = {1, 3, 5, 7} y la operación multiplicación módulo 8. De esta manera construimos la tabla de multiplicación del grupo:
ad
o
×mod8
1
3
5
7
1
1
3
5
7
3
3
1
7
5
5
5
7
1
3
7
7
5
3
1
rr
Recordemos que la regla usada, por ejemplo para 3 y 7, es la siguiente: 3 · 7 = 21 y el residuo de dividir 21
entre 8 es 5, por lo tanto (3 · 7)mod8 = (21)mod8 = 5. (21 ÷ 8 = 2 × 8 + 5).
Bo
Gmod5 = {1, 2, 3, 4} y la operación multiplicación módulo 5. Tabla:
×mod5
1
2
3
4
1
1
2
3
4
2
2
4
1
3
3
3
1
4
2
4
4
3
2
1
⇔
×mod5
1
2
4
3
1
1
2
4
3
2
2
4
3
1
4
4
3
1
2
3
3
1
2
4
Gmod24 = {1, 5, 7, 11} y la operación multiplicación módulo 24. Tabla de multiplicación:
2 Vamos a considerar lo que se conoce como Arimética Modular. Sabemos que para la división de dos enteros a y b (b 6= 0) existe
un único entero c tal que a = cb + r con 0 ≤ r ≤ |b|. Y como es conocido: a, b, c y r son: el dividendo, el divisor, el cociente y el
resto, respectivamente. Cuando r = 0 se dice que a es divisible por b. En esta “arimética”tan particular se establece una relación de
congruencia sobre los enteros: para un entero positivo n, dos enteros a y b se llaman congruentes módulo n (mod n) si a y b tienen el
mismos resto r cuando se dividen entre n, y se denota a ≡ b mod n.
80
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
×mod24
1
5
7
11
1
1
5
7
11
5
5
1
11
7
7
7
11
1
5
11
11
7
5
1
1
1
i
-1
-i
i
i
-1
-i
1
-1
-1
-i
1
i
-i
-i
1
i
-1
in
×
1
i
-1
-i
ar
G× = {1, i, −1, −i} y la operación multiplicación:
×
1
A
B
C
1
1
A
B
C
A
A
1
C
B
B
B
C
1
A
lim
Diremos que los grupos Gmod8 y Gmod24 son isomorfos porque tienen tablas equivalentes de multiplicación. Esto
es, dado un grupo genérico G = {1, A, B, C} su tabla de multiplicación será:
C
C
B
A
1
rP
re
Note que A−1 = A, y que siempre la operación de dos elementos da uno distinto a los operados.
De igual forma los grupos G× y Gmod5 , estos son isomorfos con una tabla de multiplicación:
×
1
A
B
C
Campo
A
A
B
C
1
B
B
C
1
A
C
C
1
A
B
ad
o
2.1.2.
1
1
A
B
C
Definiremos como un campo (o cuerpo) el conjunto K = {α1 , α2 , α3 , · · · , αn , · · · } sobre el cual están definidas
dos operaciones: suma (+) y multiplicación (·) y que satisfacen las siguientes propiedades:
1. Forman un grupo abeliano respecto a la suma (+) con el elemento neutro representado por el cero 0.
rr
2. Forman un grupo abeliano respecto a la multiplicación (·). Se excluye el cero 0 y se denota el elemento neutro
de la multiplicación como 1.
3. Es distributiva respecto a la suma (+). Dados αi , αj y αk , se tiene que: αi · (αj + αk ) = αi · αj + αi · αk .
Bo
Ejemplos tı́picos de campos lo constituyen el conjunto de los números racionales Q, los números reales R y los
números complejos C. Normalmente se refiere estos campos como campos escalares.
La noción de campo nos permite introducir el importante concepto de espacio vectorial.
2.1.3.
Espacios vectoriales lineales
Sea el conjunto de objetos V = {|v1 i , |v2 i , |v3 i , · · · , |vi i , · · · }. Se denominará V un espacio vectorial lineal y
sus elementos |vi i vectores, si existe una operación suma, , respecto a la cual los elementos |vi i ∈ V forman un
grupo abeliano y una operación multiplicación por un elemento de un campo, K = {α, β, γ · · · }, tal que3 :
1. V es cerrado bajo la operación : ∀ |vi i , |vj i ∈ V ⇒ |vk i = |vi i |vj i ∈ V .
2. La operación es conmutativa: ∀ |vi i , |vj i ∈ V ⇒ |vi i |vj i = |vj i |vi i .
3 También
suele decirse: un espacio vectorial V sobre K.
2.1. GRUPOS, CAMPOS Y ESPACIOS VECTORIALES
81
3. La operación es asociativa: ∀ |vi i , |vj i , |vk i ∈ V ⇒ (|vi i |vj i) |vk i = |vi i (|vj i |vk i) .
4. Existe un único elemento neutro |0i : |0i |vi i = |vi i |0i = |vi i ∀ |vi i ∈ V .
5. Existe un elemento simétrico para cada elemento de V: ∀ |vi i ∈ V ∃ |−vi i / |vi i |−vi i = |0i .
6. V es cerrado bajo el producto por un número: ∀ α ∈ K y cualquier |vi i ∈ V ⇒ α |vi i ∈ V .
ar
7. α (β |vi i) = (αβ) |vi i .
8. (α + β) |vi i = α |vi i β |vi i .
9. α (|vi i |vj i) = α |vi i α |vj i .
in
10. 1 |vi i = |vi i ∀ |vi i ∈ V y 1 ∈ K .
2.1.4.
rP
re
lim
Es importante resaltar lo siguiente: existen dos objetos neutros, el vector |0i ∈ V y el elemento 0 ∈ K y también
dos operaciones producto diferentes, el producto de dos números dentro de K y el producto de un α ∈ K por un
vector |vi ∈ V.
Notemos también que podemos definir subespacios S vectoriales dentro de los espacios vectoriales. Ellos serán
aquellos conjuntos de vectores que cumplan con los requisitos anteriores pero además cerrados dentro de los mismos
conjuntos de vectores. Se puede ver entonces que la condición necesaria y suficiente para que S ⊆ V sea un
subespacio vectorial de V es que para cualesquier |ui i y |vi i de S y para cualesquier α y β de K se tiene que:
α |ui i + β |vi i ∈ S.
Algunos espacios vectoriales
1. Los conjunto de los números reales V = R y el conjunto de los números complejos V = C con el campo K de
reales o complejos y definidas las operaciones ordinarias de suma y multiplicación.
Cuando el campo K es el conjunto de los números reales se dirá que es un espacio vectorial real de números
reales si V ≡ R, pero si V ≡ C se dirá un espacio vectorial real de números complejos. Por su parte, si K ≡ C
diremos que es un espacio vectorial complejo. Siempre se asociará el campo de escalares al espacio vectorial:
se dirá que es un espacio vectorial sobre el campo de los escalares. Es decir, si el campo es real (complejo) se
dirá que el espacio vectorial es real (complejo).
ad
o
2. El conjunto V ≡ Rn = R × R × · · · × R, vale decir el producto cartesiano de R, cuyos elementos son n−uplas
de números, con la operación suma ordinaria de vectores en n−dimensionales y la multiplicación por números.
|xi = (x1 , x2 , x3 , · · · xn )
∧
|yi = (y1 , y2 , y3 , · · · , yn ) ,
|xi |yi ≡ (x1 + y1 , x2 + y2 , x3 + y3 , · · · xn + yn ) ,
α |xi = (αx1 , αx2 , αx3 , · · · αxn ) .
rr
Este espacio vectorial es de dimensión finita.
Bo
Igualmente, será un espacio vectorial V ≡ Cn = C × C × · · · × C, en donde los elementos xi ∈ C. Si para este
caso el campo, sobre el cual se define el espacio vectorial Cn es real, tendremos un espacio vectorial real de
números complejos.
Es obvio que en el caso V ≡ R, para el cual |xi1 = (x1 , 0, 0, · · · , 0) y |yi1 = (y1 , 0, 0, · · · , 0) o cualquier
espacio de vectores formados por las componentes, i.e. |xii = (0, 0, 0, · · · , xi , · · · 0) y |yii = (0, 0, 0, · · · , yi , · · · 0)
formarán subespacios vectoriales dentro de Rn .
En el caso especı́fico de R3 , y en donde hemos desarrollado todo un conjunto de conceptos matemáticos, es
bueno comentar sobre la equivalencia que hemos tomado como obvia entre dos definiciones diferentes:
Los vectores a = (a1 , a2 , a3 ) y b = (b1 , b2 , b3 ) con sus respectivas operaciones para la suma a + b =
(a1 + b1 , a2 + b2 , a3 + b3 ) y multiplicación por un escalar λa = (λa1 , λa2 , λa3 ), con {ai }, {bi } y λ ∈ R.
Los vectores geométricos, es decir, segmentos orientados en el espacio con un origen común y donde la
suma se definió mediante la regla del paralelogramo y el producto por un escalar como el alargamiento
o acortamiento de los segmentos o flechas con el posible cambio de dirección.
82
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
Aunque ambos son vectores de R3 es bueno tener claro que se trata de objetos diferentes que viven en espacios
vectoriales diferentes. Se puede decir también que son dos representaciones diferentes para los vectores. Es
buena la ocasión para señalar que existe una manera de pasar de una representación a otra, esto se hace por
medio de una función que asigne a una trı́ada (x1 , x2 , x3 ) una y sólo una flecha (y viceversa), conservando por
supuesto las operaciones de suma y multiplicación por números. A este tipo de funciones se les denomina un
isomorfismo.
ar
Para finalizar, también es posible ver R3 simplemente como un conjunto de puntos donde se pueden definir
superficies embebidas, como por ejemplo una esfera, S2 , centrada en el origen y de radio R. En un punto q
sobre la esfera es posible generar un plano tangente a la esfera y en ese punto construir un espacio vectorial
con todos los vectores cuyo origen está en q, y por lo tanto, son tangentes a la esfera. En el lenguaje de la
geometrı́a diferencial y las variedades a este conjunto de vectores se le denota con: Tq S2 . Lo anteriormente
dicho se puede generalizar para Rn .
|xi = (x1 , x2 , x3 , · · · , xn , · · · )
∧
|yi = (y1 , y2 , y3 , · · · , yn , · · · ) ,
α |xi = (αx1 , αx2 , αx3 , · · · , αxn , · · · ) ,
lı́m
n→∞
n
X
xi = L ,
i=1
lim
|xi |yi ≡ (x1 + y1 , x2 + y2 , x3 + y3 , · · · , xn + yn , · · · )
con la siguiente restricción:
in
3. El espacio E∞ constituido por vectores |xi = (x1 , x2 , x3 , · · · xn , · · · ) contables pero con infinitas componentes.
con L finito .
rP
re
4. El conjunto de las matrices n × n, reales o complejas, con el campo K real o complejo.
|xi = Mab
∧
|yi = Nab ,
|xi |yi ≡ Mab + Nab = (M + N )ab ,
α |xi = αMab = (αM )ab .
Es también obvio que se podrán formar subespacios vectoriales cuyos elementos sean matrices de dimensión
menor a n × n.
ad
o
5. El conjunto de los vectores geométricos, o vectores cartesianos, en 2 y 3 dimensiones, con las propiedades
habituales de suma vectorial y multiplicación por un escalar.
6. El conjunto de todos los polinomios con coeficientes reales: P = a0 , a1 x, a2 x2 , · · · , an xn , · · · , con la suma
ordinaria entre polinomios y la multiplicación ordinaria de polinomios con números.
7. Espacios Funcionales (de los cuales los polinomios son un caso particular). En estos espacios los vectores serán
funciones, la suma será la suma ordinaria entre funciones y la multiplicación por un escalar también será la
multiplicación ordinaria de una función por un elemento de un campo:
|f i = f (x)
∧
|gi = g(x) ,
rr
|f i |gi ≡ f (x) + g(x) ≡ (f + g) (x) ,
α |f i = (αf ) (x) ≡ αf (x) .
Bo
8. El conjunto de todas las funciones continuas e infinitamente diferenciables, definidas en el intervalo [a, b] :
∞
C[a,b]
.
9. El conjunto de todas las funciones complejas de variable real, ψ(x), definidas en [a, b], de cuadrado integrable
Rb
2
(es decir para las cuales a dx |ψ (x)| sea finita). Este espacio se denomina comúnmente L2 y puede ser
definido dentro de un rango [a, b], finito o infinito, y para más de una variable.
10. El conjunto de todas las soluciones de un sistema de ecuaciones lineales y homogéneas, por ejemplo:
a + 3b + c =
4a + 2b + 2c =
0
0
Este sistema tiene como solución al conjunto: {a, b = a/2, c = −5a/2}. La suma de estos elementos y la
multiplicación por un número conforman un espacio vectorial en el sentido de que son soluciones del sistema
de ecuaciones.
2.1. GRUPOS, CAMPOS Y ESPACIOS VECTORIALES
83
Subespacios
Supongamos que tenemos un conjunto S de elementos de un espacio vectorial lineal V que satisface las siguientes
propiedades:
1. Si |s1 i , |s2 i ∈ S, entonces |s1 i |s2 i ∈ S.
2. Si |si ∈ S y α es un elemento del campo K, entonces α |si ∈ S.
2.1.5.
lim
in
ar
De esta manera, las operaciones que hacen de V un espacio vectorial también están definidas para S. Se puede
demostrar que S es también un espacio vectorial lineal, es decir, satisface el conjunto de axiomas 2.1.3. Al conjunto
S ⊂ V que satisface las propiedades 1 y 2 más los axiomas 2.1.3 se le denomina un subespacio vectorial lineal (o
simplemente subespacio) del espacio vectorial lineal V.
Notemos que el conjunto conformado con el vector neutro como único elemento: S = {|0i} ∈ V es el subespacio
vectorial más pequeño de V. Por otro lado, el espacio completo V es el subespacio más grande posible de V. Se
acostumbra llamar a estos dos subespacios los subespacios triviales de V.
La importancia de la notación
2.1.6.
ad
o
rP
re
En los ejemplos antes mencionados hemos utilizado para representar un vector abstracto la notación de |vi y con
éstos construimos un espacio vectorial abstracto V = {|v1 i , |v2 i , |v3 i , · · · , |vn i}. Un espacio vectorial abstracto será
un conjunto de elementos genéricos que satisfacen ciertos axiomas. Dependiendo del conjunto de axiomas tendremos
distintos tipos de espacios abstractos, la teorı́a desarrolla las consecuencias lógicas que resultan de esos axiomas. En
matemática el concepto de espacios abstractos es reciente (1928) y, aparentemente, se le debe a Maurice Fréchet4 .
Los elementos de esos espacios se dejan sin especificar a propósito. Ese vector abstracto puede representar,
vectores en Rn , matrices n×n o funciones continuas. La notación |vi, que se denomina un ket y al cual le corresponde
un bra hu| proviene del vocablo inglés braket que significa corchete y será evidente más adelante cuando construyamos
escalares braket hu |vi. Esta útil notación la ideó Paul Dirac5 , uno de los fı́sicos más influyentes en el desarrollo de
la Fı́sica del siglo XX. En Mecánica Cuántica un estado cuántico particular suele representarse por una función de
onda ψ(x), que depende de la variable posición x o de una función alternativa que puede depender de la variable
momentum p. En la notación de Dirac, el sı́mbolo |ψi denota el estado cuántico sin referirse a la función en particular
y también sirve para distinguir a los vectores de los escalares (números complejos) que vienen a ser los elementos
fundamentales en el espacio de Hilbert de la Mecánica Cuántica.
Ejemplos
rr
1. Consideremos el conjunto de las permutaciones de 3 objetos, cuyos elementos pueden ser representados como
se muestra a continuación:
1 2 3
1 2 3
1 2 3
P0 =
; P1 =
; P2 =
;
1 2 3
2 1 3
3 2 1
P3 =
1
1
2
3
3
2
; P4 =
1
2
Bo
y la operación de composición de permutaciones:
K
1 2 3 K 1
P1
P3 =
2 1 3
1
2
3
3
1
2
3
; P5 =
3
2
=
1
2
1
3
2
1
2
3
3
1
3
2
;
= P4 ,
es decir, luego de intercambiar las primera y segunda posición, intercambio la segunda y la tercera. La tabla
de multiplicación del grupo quedará:
4 MAURICE FRÉCHET (1878 Maligny, Yonne, Bourgogne-1973 Parı́s, Francia). Versátil matemático francés, con importantes contribuciones en espacios métricos, topologı́a y creador del concepto de espacios abstractos.
5 PAUL ADRIEN MAURICE DIRAC (1902 Bristol, Inglaterra 1984-Tallahassee, EE.UU). Además de contribuir de manera determinante en la comprensión de la Mecánica Cuántica, es uno de los creadores de la Mecánica Cuántica Relativista la cual ayudó a
comprender el papel que juega el espı́n en las partı́culas subatómicas. Por sus importantes trabajos compartió con Erwin Schrödinger
el Premio Nobel de Fı́sica en 1933.
84
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
J
P0
P1
P2
P3
P4
P5
P0
P0
P1
P2
P3
P4
P5
P1
P1
P0
P4
P5
P2
P3
P2
P2
P5
P0
P4
P3
P1
P3
P3
P4
P5
P0
P1
P2
P4
P4
P3
P1
P2
P5
P0
P5
P5
P2
P3
P1
P0
P4
ar
2. El conjunto de la rotaciones del espacio ordinario cuando rotamos un ángulo φ alrededor del eje z, ecuación
(1.4.3), forman un grupo.
Gφ1 Gφ2 = Gφ1 +φ2 .
Entonces podemos ver que:
in
Denominaremos a este grupo por Rzφ = {Gφi }, con 0 ≤ φ ≤ 2π. Donde con Gφ esteremos indicando un giro
alrededor del eje z y la operación que nos define las rotaciones la definiremos de la siguiente forma:
lim
a) es una operación cerrada ya que dos rotaciones resulta en otro rotación:
Gφ1 Gφ2 = Gφ1 +φ2 = Gφ3 ∈ Rzφ .
b) es asociativa:
(Gφ1 Gφ2 ) Gφ3 = Gφ1 (Gφ2 Gφ3 ) .
rP
re
c) Existe el elemento neutro, Gφ0 , que no hace ninguna rotación:
Gφ1 Gφ0 = Gφ0 Gφ1 = Gφ1 .
d ) Existe el elemento inverso, Gφ− , ya que podemos rotar en un sentido y en sentido inverso:
Gφ1 Gφ−1 = Gφ−1 Gφ1 = Gφ0 .
e) Es conmutativa ya que las rotaciones no se afectan por el orden en que son producidas:
Gφ1 Gφ2 = Gφ2 Gφ1 .
ad
o
3. Consideremos el grupo G = Z × Z, es decir, el conjunto de duplas (xi , yi ) de números enteros. Y la operación:
(x1 , y1 )(x2 , y2 ) = (x1 + x2 , y1 + y2 ) .
Aquı́ la suma + es la suma convencional de números enteros.
Probemos que tenemos un grupo.
rr
a) La operación es cerrada para la suma:
(x1 , y1 )(x2 , y2 ) = (x1 + x2 , y1 + y2 ) = (x3 , y3 ) ∈ G .
b) La operación es asociativa:
Bo
((x1 , y1 )(x2 , y2 )) (x3 , y3 )
=
(x1 + x2 , y1 + y2 )(x3 , y3 ) = ((x1 + x2 ) + x3 , (y1 + y2 ) + y3 )
=
(x1 + (x2 + x3 ), y1 + (y2 + y3 )) = (x1 , y1 ) ((x2 , y2 )(x3 , y3 )) .
c) Existe el elemento neutro, (0, 0):
(x1 , y1 )(0, 0) = (0, 0) (x1 , y1 ) = (x1 , y1 ) .
d ) Existe el elemento inverso, (−x1 , −y1 ):
(x1 , y1 )(−x1 , −y1 ) = (−x1 , −y1 )(x1 , y1 ) = (0, 0) .
e) La operación es conmutativa:
(x1 , y1 )(x2 , y2 ) = (x2 , y2 )(x1 , y1 ) .
2.1. GRUPOS, CAMPOS Y ESPACIOS VECTORIALES
2.1.7.
85
Practicando con Maxima
En este módulo utilizaremos algunas de las herramientas disponibles para incorporar el algebra discreta. Comenzaremos con la introducción a los conjuntos. Podemos operar con conjuntos pero primero debemos definirlos.
Existen varias posibilidades, como mostramos a continuación:
(%i1) A:{1,2,3,4,5,6,7,8,9};
( %o1) {1, 2, 3, 4, 5, 6, 7, 8, 9}
ar
(%i2) B:set(1,3,5,7,9);
( %o2) {1, 3, 5, 7, 9}
( %o3) {2, 4, 6, 8}
lim
(%i4) D:makeset(i/j, [i,j], [[1,3], [2,3], [3,3], [4,3]]);
1 2
4
( %o4)
, , 1,
3 3
3
in
(%i3) C:set(2,4,6,8);
Notemos que es igual definir los conjuntos con llaves, con la función set o makeset. Podemos preguntar si
determinado elemento perteneces, o no, a un conjunto.
( %o5) true
(%i6) elementp(7,C);
( %o6) false
rP
re
(%i5) elementp(7,A);
Operaciones elementales con conjuntos:
(%i7) UBC:union(B,C);
ad
o
( %o7) {1, 2, 3, 4, 5, 6, 7, 8, 9}
(%i8) is (A=UBC);
( %o8) true
(%i9) Cv:intersection(B,C);
rr
( %o9) {}
Para Maxima el conjunto vacı́o es {}.
(%i10)setdifference(A,C);
Bo
( %o10) {1, 3, 5, 7, 9}
Esto es, el conjunto con los elementos del conjunto A que no pertenecen al conjunto C.
Si queremos el conjunto de todos los subconjuntos del conjunto {a, b, c} le podemos pedir al programa que nos
lo muestre:
(%i11)powerset({a,b,c});
( %o11) {{} , {a} , {a, b} , {a, b, c} , {a, c} , {b} , {b, c} , {c}}
El producto cartesiano de los conjuntos A y B es el conjunto conformado por los pares (a, b):
A x B = {(a, b)/a ∈ A , b ∈ B}.
86
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
(%i12)cartesian_product(B,C);
( %o12) {[1, 2] , [1, 4] , [1, 6] , [1, 8] , [3, 2] , [3, 4] , [3, 6] , [3, 8] , [5, 2] , [5, 4] , [5, 6] , [5, 8] , [7, 2] , [7, 4] , [7, 6] , [7, 8] ,
[9, 2] , [9, 4
Le podemos pedir al programa la suma de los pares del producto cartesiano anterior:
(%i13)makeset(a+b, [a,b], cartesian_product(B,C));
ar
( %o13) {3, 5, 7, 9, 11, 13, 15, 17}
Maxima trata a los conjuntos y a las listas como objetos de distinta naturaleza, lo que permite trabajar con
conjuntos cuyos elementos puedan ser también conjuntos o listas, es decir, subconjuntos.
in
(%i14)lista:makelist(i,i,1,30);
( %o14) [1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30]
(%i15)E:setify(lista);
lim
La lista anterior la convertiremos en un conjunto, para este fin debemos utilizar el comando setify.
( %o15) {1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30}
De este último conjunto podemos construir el subconjunto conformado por los números primos:
rP
re
(%i16)Primos:subset(E,primep);
( %o16) {2, 3, 5, 7, 11, 13, 17, 19, 23, 29}
Con cardinality podemos saber cuantos elementos contiene un conjunto:
(%i17)cardinality(%);
( %o17) 10
ad
o
La función de Maxima que nos permite calcular las tablas que utilizamos en la sección 2.1 es la función mod.
Veamos:
(%i18)Gm8:{1,3,5,7};
( %o18) {1, 3, 5, 7}
Todos los productos posibles entre los elementos de este conjunto son:
rr
(%i19)makeset(a.b, [a,b],cartesian_product(Gm8,Gm8));
( %o19) {1, 3, 5, 7, 9, 15, 21, 25, 35, 49}
Bo
Los modulo 8 para algunos de los números anteriores son:
(%i20)mod(21,8);mod(35,8);mod(49,8);
( %o20) 5
( %o21) 3
( %o22) 1
Para generar el grupo Gmod5 escribimos:
(%i23)setify(makelist(mod(i,5),i,1,4));
( %o23) {1, 2, 3, 4}
2.1. GRUPOS, CAMPOS Y ESPACIOS VECTORIALES
87
En la sección 2.1.1, definimos el orden de un elemento g ∈ G. Consideremos el siguiente conjunto de números
enteros:
Z15 = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14} .
Se podrı́a demostrar que el orden de g ∈ G es igual al número de elementos de < g > y lo dejaremos como ejercicio.
Vamos a calcular el orden de todos los elementos de Z15 , sabiendo que el orden de cada uno de esos elementos
divide a 15, que es el cardinal de Z15 .
Probemos primero con el número 6 ∈ Z15 .
ar
(%i24)setify(makelist(mod(6*i,15),i,0,14));
( %o24) {0, 3, 6, 9, 12}
in
El orden de 6 ∈ Z15 es:
(%i25)length(%);
lim
( %o25) 5
En la siguiente instrucción lo haremos para todos los elementos de Z15 .
(%i26)makelist([j,length(setify(makelist(mod(j*i,15),i,0,14)))],j,0,14);
( %o26) [[0, 1] , [1, 15] , [2, 15] , [3, 5] , [4, 15] , [5, 3] , [6, 5] , [7, 15] , [8, 15] , [9, 5] , [10, 3] , [11, 15] , [12, 5] ,
[13, 15] , [14, 15]]
2.1.8.
Ejercicios
rP
re
La salida no es más que una lista [x, y] con cada elemento x ∈ Z15 y su orden y. Por lo tanto, el conjunto de
órdenes es: {1, 3, 5, 15}, todos divisores de 15, como estipula el teorema de Lagrange.
1. Diga cuales de los siguientes grupos son abelianos: Z, +; Zn , + ∀ , n ∈ N; N, +; Z, · .
ad
o
2. Sea S el conjunto de todos los números reales excluyendo −1 y defina la operación tal que:
a b = a + b + ab .
Donde + es la suma estándar entre números reales. Entonces:
a) Muestre que [S, ] forman grupo.
b) Encuentre la solución en S para la ecuación 2 x 3 = 7.
Bo
rr
3. Considere un triángulo equilátero que se muestra en la figura 2.1. Se pueden identificar operaciones de rotación
alrededor de un eje perpendicular a la figura que pasa por su baricentro ? y, reflexiones respecto a planos,
XA , XB y XC – que dejan invariante la figura del triángulo. Adicionalmente, se puede definir la operación
concatenación de rotaciones y reflexiones que dejan igualmente invariante al triángulo, tal y como mostramos
en la mencionada figura 2.1. Note que lo ilustrado en la figura, puede esquematizarse como:
−−→
−→
(A α, B β, C γ)
R 2π
(A γ, B α, C β)
XA
(A γ, B β, C α) .
3
a) Construya la tabla de multiplicación para G4 , vale decir G4 = I, {Ri } , R̄j , {Xk } y la operación
es concatenación tal y como mostramos en la figura 2.1.Donde I es la operación identidad, {Ri } es un
conjunto de rotaciones en sentido horario, mientras que R̄j es un conjunto de rotaciones en el sentido
antihorario, y {Xk } el conjunto de las reflexiones que dejan invariante el triángulo.
b) Muestre que el conjunto de estas operaciones forman el grupo: G4 .
c) Identifique cada una de las Ri y R̄j , y muestre además, que forman un subgrupo cı́clico de orden 3. De
igual modo identifique las reflexiones y muestre que, cada una de las reflexiones y la identidad, {I, Xi },
forman también un subgrupo cı́clico, pero de orden 2.
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
ar
88
in
Figura 2.1: Transformaciones que dejan invariante un triángulo equilátero. Concatenación de una rotación, R 2π
con
3
una reflexión, XA , respecto a un plano que pasa por A

I=
C=
1
0
0
1
−1
0
,

A=
3
2
− 12
1
2
−
,
3
2
√
−

0
1
√
− 12

D=



,
√
3
2

B=

√
−
3
2
− 12

,
√
− 21
−
√
3
2


E=
rP
re
lim
d ) Considere las siguientes matrices:
3
2
− 12
1
2
√
3
2
√
3
2
− 12


,


.
Muestre que forman grupo bajo la multiplicación de matrices y que ese grupo es isomorfo a G4 .
e) Considere el conjunto de permutaciones de 3 objetos y la operación composición de permutaciones que
discutimos como ejemplo en la sección 2.1.6. ¿ Es ese grupo isomorfo a G4 ? Justifique su respuesta.
4. Considere las siguientes funciones:
f1 (x) = x ,
f2 (x) =
1
,
x
f3 (x) =
1
,
1−x
f4 (x) =
ad
o
Muestre que forman grupo bajo la operación: fi (x)
del ejercicio anterior.
x−1
,
x
f5 (x) = 1 − x ,
f6 (x) =
x
.
x−1
fj (x) = fi (fj (x)), y que ese grupo es isomorfo a G4 ,
5. Definamos una operación binaria como:
x y = x + y + αxy ,
con x, y, α ∈ R y además α 6= 0.
rr
a) Demuestre que es asociativa.
−1
α
. Es decir, ∀ x, y ∈ R ∧ x 6=
−1
α ,y
6=
−1
α ,
entonces: x y
Bo
b) Muestre que genera un grupo en R −
forma un grupo.
6. Muestre que el siguiente conjunto de transformaciones en el plano xy forman un grupo y construya su tabla
de multiplicación.
a) I = {x → x ∧ y → y}.
b) I = {x → −x ∧ y → −y}.
c) Ix = {x → −x ∧ y → y}.
d ) Iy = {x → x ∧ y → −y}.
7. Considere un conjunto S conformado únicamente por números reales positivos. Consideremos las siguientes
reglas sobre S: Por “suma”de dos números entenderemos su producto en el sentido usual, y el “producto”de
un elemento r ∈ S y un número real λ entenderemos r elevado a la potencia de λ, en el sentido usual ¿S es
un espacio vectorial?
2.2. ESPACIOS MÉTRICOS, NORMADOS Y CON PRODUCTO INTERNO
89
8. Considere el conjunto de vectores en el plano conformado por vectores localizados en el origen y cuyos puntos
finales permanecen siempre en el primer cuadrante ¿Este conjunto es un espacio vectorial?
9. Muestre que también serán espacios vectoriales:
a) El conjunto de todas las funciones f = f (x) definidas en x = 1 con f (1) = 0. Si f (1) = c ¿Tendremos
igual un espacio vectorial? ¿Por qué?
b) Los vectores (x, y, z) ∈ V3 tal que sus componentes satisfacen el siguiente sistema de ecuaciones lineales:
ar
a11 x + a12 y + a13 z = 0
a21 x + a22 y + a23 z = 0
in
a31 x + a32 y + a33 z = 0 .
10. Sea Pn el conjunto de todos los polinomios de grado n, en x, con coeficientes reales:
|pn i
2
p(x) = a0 + a1 x + a2 x + · · · + an−1 x
n−1
=
n−1
X
ai xi .
lim
i=0
a) Demostrar que Pn es un espacio vectorial respecto a la suma de polinomios y a la multiplicación de
polinomios por un número (número real).
b) Si los coeficientes ai son enteros ¿Pn será un espacio vectorial? ¿Por qué?
c) ¿Cuál de los siguientes subconjuntos de Pn es un subespacio vectorial?
El polinomio cero y todos los polinomios de grado n − 1.
El polinomio cero y todos los polinomios de grado par.
Todos los polinomios que tienen a x como un factor (grado n > 1).
Todos los polinomios que tienen a x − 1 como un factor.
rP
re
1)
2)
3)
4)
11. Un subespacio P es generado por: |x1 i = x3 + 2x + 1 , |x2 i = x2 − 2 , |x3 i = x3 + x ¿Cuál(es) de los siguientes
polinomios pertenece al subespacio P?
a) x2 − 2x + 1.
b) x4 + 1.
d ) x − 5.
ad
o
c) − 21 x3 + 52 x2 − x − 1.
12. Resuelva los ejercicios anteriores utilizando Maxima.
Espacios métricos, normados y con producto interno
rr
2.2.
Bo
En está sección vamos a introducir una función de distancia, de manera que si tenemos un par de puntos o
elementos de un espacio vectorial podemos hablar de que existe una cierta distancia entre ellos. Se dice que la
función distancia induce una topologı́a sobre el espacio vectorial.
Comenzaremos definiendo el concepto de métrica sobre espacios vectoriales y con esta estructura llegar a la
noción de norma.
2.2.1.
Métricas y espacios métricos
La dotación de propiedades en los espacios vectoriales lineales lo constituye la idea de métrica o distancia entre
sus elementos. El concepto de métrica surge de la generalización de la idea de distancia entre dos puntos de la recta
real.
Un espacio vectorial será métrico si podemos definir una función:
d : V × V → R / ∀ |xi , |yi , |zi ∈ V ,
tal que se cumple lo siguiente:
90
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
1. d (|xi , |yi) ≥ 0 ,
si
d (|xi , |yi) = 0 ⇒ |xi ≡ |yi.
2. d (|xi , |yi) ≡ d (|yi , |xi).
3. d (|xi , |yi) ≤ d (|xi , |zi) + d (|yi , |zi) (La desigualdad triangular).
Ası́, diremos que (V, K, , d) es un espacio vectorial lineal, métrico.
Podemos enumerar algunos ejemplos de espacios métricos:
ar
1. Espacios reales Rn . Aquı́ indicaremos los diferentes puntos del espacio por las coordenadas: (x1 , x2 , . . . , xn ),
(y1 , y2 , . . . , yn ), ...
in
a) Para R, es decir la recta real, la definición de métrica es: d (|xi , |yi) ≡ |x − y| .
q
2
2
b) Para R2 , es decir el plano, una definición de métrica es: d (|xi , |yi) ≡ (x1 − y1 ) + (x2 − y2 ) .
lim
También podemos construir otra definición de métrica como: d (|xi , |yi) ≡ |x1 − y1 | + |x2 − y2 |. La
primera de estas métricas se conoce como métrica euclı́dea y la segunda como métrica Manhattan o
métrica de taxistas. Es claro como el mismo espacio vectorial genera varios espacios métricos, dependiendo
de la definición de métrica. Para estos casos particulares, las métricas “miden” el desplazamiento entre
dos puntos de forma distinta: en aviones (métrica euclı́dea) o vehı́culos terrestre en ciudades.
rP
re
c) En general para espacios reales Rn una posible definición de métrica será:
q
2
2
2
2
d (|xi , |yi) ≡ (x1 − y1 ) + (x2 − y2 ) + (x3 − y3 ) + · · · + (xn − yn ) .
Esta definición de métrica, o distancia, no es más que una generalización del teorema de Pitágoras y se
denomina “distancia euclidiana”.
2. Espacios unitarios n−dimensionales, o espacios complejos, Cn . La definición de distancia puede construirse
como:
q
2
2
2
2
d (|xi , |yi) ≡ |x1 − y1 | + |x2 − y2 | + |x3 − y3 | + · · · + |xn − yn | ,
y es claro que se recobra la idea de distancia en el plano complejo: d (|xi , |yi) ≡ |x − y|.
∞
3. Para los espacios de funciones C[a,b]
una posible definición de distancia serı́a:
ad
o
d (|f i , |gi) ≡ máx |f (t) − g (t)| .
t∈[a,b]
4. La métrica trivial o discreta
d (|xi , |yi) =
1
0
si x 6= y
si x = y
Normas y espacios normados
rr
2.2.2.
Bo
La idea de distancia (o métrica) es el equipamiento más elemental que uno le puede exigir a un espacio vectorial.
Mucho más interesante aún son aquellos espacios vectoriales que están equipados con la idea de norma y, a partir
de allı́, se define la idea de distancia. La norma tiene que ver con el “tamaño” del vector y la métrica tiene que
ver con la distancia entre vectores. Cuando definimos la métrica a partir de la norma, vinculamos las propiedades
algebraicas del espacio con sus propiedades geométricas.
La norma, N (|vi i) ≡ k|vi ik, de un espacio vectorial V = {|v1 i , |v2 i , |v3 i , · · · , |vn i} será una función:
N : V → R / ∀ |vi i ∈ V ,
que cumple con:
1. k|vi ik ≥ 0 ,
si
k|vi ik = 0 ⇒ |vi i ≡ |0i.
2. kα |vi ik = |α| k|vi ik.
3. k|vi i + |vj ik ≤ k|vi ik + k|vj ik (Desigualdad triangular).
2.2. ESPACIOS MÉTRICOS, NORMADOS Y CON PRODUCTO INTERNO
91
La definición de norma induce una métrica de la forma:
d (|vi i , |vj i) ≡ k|vi i − |vj ik .
ar
Se denota en este caso un espacio vectorial normado6 como (V, K, ; k·k), espacio que también es conocido como
un espacio de Banach7 . Esto significa que todo espacio normado es a su vez un espacio métrico, pero es importante
señalar que no todo espacio métrico es normado.
De la definición de distancia (2.2.2) resulta que la métrica ası́ definida es invariante bajo traslaciones de vectores. Esto es, si; |x̃i = |xi + |ai ∧ |ỹi = |yi + |ai, entonces, d (|xi , |yi) ≡ d (|x̃i , |ỹi). Y además es homogénea:
d (λ |xi , λ |yi) = |λ|d (|xi , |yi).
Como ejemplos de espacios normados podemos mostrar los siguientes:
i=1
p
in
1. Los espacios reales, Rn y los espacios complejos Cn . Para estos espacios de Banach, la norma se define como:
! 12
q
n
X
2
2
2
2
2
|xi |
.
k|xik = |x1 | + |x2 | + |x3 | + · · · + |xn | =
lim
Para un espacio en R3 se cumple que k|xik = x21 + x22 + x23 , por lo tanto, la idea de norma generaliza la
noción de “tamaño” del vector |xi. Es claro que la definición de distancia se construye a partir de la norma
de la forma:
q
2
2
2
2
d (|xi , |yi) ≡ k|xi − |yik = |x1 − y1 | + |x2 − y2 | + |x3 − y3 | + · · · + |xn − yn | .
rP
re
Este espacio se llama espacio normado euclidiano de dimensión n.
2. Para el espacio lineal de matrices n × n, reales o complejas, con el campo K real o complejo, una definición
de norma es:
n
m X
X
|Mab | ,
kM k =
a=1 b=1
y la correspondiente definición de distancia:
d (|xi , |yi) ≡ kM − N k =
m X
n
X
|Mab − Nab | .
a=1 b=1
ad
o
∞
3. Para los espacios funcionales C[a,b]
una posible definición de norma serı́a:
k|f ik = máx |f (t)| ,
t∈[a,b]
otra posible definición puede ser:
s
Z
k|f ik =
2
|f (t)| dt .
a
rr
2.2.3.
b
Espacios euclidianos
Bo
El siguiente paso en la construcción de espacios vectoriales más ricos es equiparlo con la definición de producto
interno y a partir de esta definición construir el concepto de norma y con éste el de distancia. La idea de producto
interno generaliza el concepto de producto escalar de vectores en R3 e incorpora a los espacios vectoriales abstractos
el concepto de ortogonalidad y descomposición ortogonal. Históricamente, la teorı́a de espacios vectoriales con
producto interno es anterior a la teorı́a de espacios métricos y espacios de Banach y se le debe a D. Hilbert8 .
Adicionalmente, la semejanza entre la geometrı́a euclidiana y la geométrica de Rn ha hecho que espacios en los
cuales se puedan definir, distancia, ángulos, a partir de una definición de producto interno, se denominen también
espacios euclidianos.
6 El
concepto de espacio normado fue formulado en 1922 de manera independiente por: S. Banach, H. Hahn y N. Wiener.
BANACH (1892 Kracovia, Polonia-1945 Lvov,Ucrania) Matemático polaco, uno de los fundadores del análisis funcional
moderno, con sus mayores contribuciones a la teorı́a de espacios topológicos. Hizo también importantes aportes a la teorı́a de la medida,
integración y teorı́a de conjuntos y series ortogonales.
8 DAVID HILBERT (1862 Kaliningrad, Rusia-1943 Göttingen, Alemania) Matemático alemán defensor de la axiomática como enfoque
primordial de los problemas cientı́ficos. Hizo importantes contribuciones en distintas áreas de la matemática, como: Invariantes, Campos
de Números Algebraicos, Análisis Funcional, Ecuaciones Integrales, Fı́sica-Matemática y Cálculo en Variaciones.
7 STEFAN
92
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
Producto interno
En un espacio vectorial V = {|v1 i , |v2 i , |v3 i , · · · , |vn i}, la definición del producto interno de dos vectores la
denotaremos como hvi | vj i y es una aplicación:
I (|vi i , |vj i) : V × V → K , ∀ |vi i , |vj i ∈ V .
2
1. hvi | vi i ≡ k|vi ik ∈ K ∧ hvi | vi i ≥ 0
2. hvi | vj i = hvj | vi i
∗
∀ |vi i ∈ V ,
hvi | vi i = 0 ⇒ |vi i ≡ |0i.
si
∀ |vi i , |vj i ∈ V.
4. hαvi + βvj | vk i = α∗ hvi | vk i + β ∗ hvj | vk i ∀ |vi i , |vj i , |vk i ∈ V ∧ α, β ∈ K.
5. hvi | 0i = h0| vi i = 0.
in
3. hvi | αvj + βvk i = α hvi | vj i + β hvi | vk i ∀ |vi i , |vj i , |vk i ∈ V ∧ α, β ∈ K.
ar
Es decir, asocia a ese par de vectores con un elemento del campo K.
Las propiedades que definen el producto interno son:
lim
Nota: la segunda y cuarta propiedad resultan del hecho de que si el campo es complejo K = C, entonces:
hαvi | αvi i = α2 hvi | vi i = i2 hvi | vi i = − hvi | vi i ,
rP
re
lo cual contradice el hecho de que la norma tiene que ser positiva. Por eso la necesidad de tomar el complejo
conjugado. Se dice entonces, que el producto escalar es antilineal respecto al primer factor y lineal respecto al
segundo.
A partir de la definición de producto interno se construyen los conceptos de norma y distancia:
q
p
k|vi ik = hvi | vi i y d (|vi i , |vj i) ≡ k|vi i − |vj ik = hvi − vj | vi − vj i .
La desigualdad de Cauchy-Schwarz: los ángulos entre vectores reales y complejos
Todo producto interno hvi | vj i definido en un espacio vectorial normado V = {|v1 i , |v2 i , |v3 i , · · · , |vn i} cumple
con la desigualdad de Cauchy-Schwarz:
2
|hvi | vj i| ≤ hvi | vi i hvj | vj i
⇐⇒
|hvi | vj i| ≤ k|vi ik k|vj ik .
ad
o
Es claro que si |vi i = |0i ∧ |vj i = |0i se cumple la igualdad y es trivial la afirmación.
Para demostrar la desigualdad, tomemos dos vectores |vi i ∧ |vj i cualesquiera, entonces podemos construir un
tercero: |vk i = α |vi i + β |vj i (α y β tendrán valores particulares), por lo tanto:
hvk | vk i ≡ hαvi + βvj | αvi + βvj i ≥ 0 ,
esto significa que:
rr
hαvi + βvj | αvi + βvj i = hαvi | αvi i + hαvi | βvj i + hβvj | αvi i + hβvj | βvj i ≥ 0
2
2
= |α| hvi | vi i + α∗ β hvi | vj i + β ∗ α hvj | vi i + |β| hvj | vj i ≥ 0 .
Bo
Si α = hvj | vj i, se tiene que:
2
hvj | vj i hvi | vi i +
β hvi | vj i + β ∗ hvj | vi i + |β| ≥ 0
hvj | vj i hvi | vi i
−β hvi | vj i − β ∗ hvj | vi i − |β| ,
≥
2
seguidamente seleccionamos: β = − hvj | vi i, y por lo tanto: β ∗ = − hvi | vj i, consecuentemente:
hvj | vj i hvi | vi i
≥
hvj | vi i hvi | vj i + hvi | vj i hvj | vi i − hvj | vi i hvi | vj i
hvj | vj i hvi | vi i
≥
hvi | vj i hvj | vi i = |hvi | vj i| .
2
J
De la desigualdad de Cauchy-Schwarz y la definición de norma se desprende que:
2
|hvi | vj i|
2
k|vi ik k|vj ik
2
≤ 1 ⇒ −1 ≤
|hvi | vj i|
≤ 1,
k|vi ik k|vj ik
2.2. ESPACIOS MÉTRICOS, NORMADOS Y CON PRODUCTO INTERNO
93
por lo tanto podemos definir el “ángulo” entre los vectores abstractos |vi i ∧ |vj i como:
cos(ΘG ) =
|hvi | vj i|
,
k|vi ik k|vj ik
cos(ΘR ) =
|hvi | vj i|
,
k|vi ik k|vj ik
con
ar
donde hemos denotado como ΘG el ángulo genérico que forman los vectores reales o complejos.
Si estamos considerando espacios vectoriales reales -en los cuales el campo corresponde a los números realesentonces el ángulo definido entre vectores abstractos reales corresponde al que intuitivamente siempre hemos considerado para los vectores cartesianos y que discutimos en la sección 1.1.4,
0 ≤ ΘR ≤ π ,
lim
in
donde se toma ΘR = 0 para vectores colineales y ΘR = π para vectores opuestos (antilineales). Si bien es cierto
que esta definición coincide con la de los vectores cartesianos, hay que resaltar que la estamos extendiendo para
cualquier vector abstracto, vale decir: funciones reales, matrices, y todos los objetos matemáticos que cumplan con
las reglas para los espacios vectoriales expuestas en 2.1.3.
Para el caso de espacios vectoriales complejos la situación es más sutil y significa definir un ángulo entre dos
vectores abstractos y complejos, sin embargo podemos abordar el problema suponiendo:
rP
re
1. un espacio complejo n−dimensional de n−uplas de números complejos |zi ↔ (z1 , z2 , · · · zn ) asociado (isomorfo)
a un espacio vectorial real de 2n dimensiones, con vectores representados por 2n−uplas de números reales
|wi ↔ (Re(z1 ), Re(z2 ), · · · Re(zn ), Im(z1 ), Im(z2 ), · · · Im(zn )), donde hemos representado Re(zj ) y Im(zj ) como
las partes reales e imaginarias de zj , respectivamente o,
2. directamente
Pna partir de una definición de producto interno entre vectores complejos implementado por:
hwi | vj i = j=1 wj∗ vj .
Ambas aproximaciones no son del todo independientes pero igualmente justificadas9 .
Consideremos el segundo caso, esto es: directamente a partir de una definición de producto interno entre vectores
complejos. Para este caso consideramos un ángulo complejo, y cos(ΘC ) una función de variable compleja, que puede
ser expresada en su forma polar como:
|hvi | vj i|
⇒ cos(ΘC ) = ρ eφ ,
k|vi ik k|vj ik
con
ρ = | cos(ΘC )| < 1 .
ad
o
cos(ΘC ) =
rr
Entonces podemos asociar ρ = cos(ΘH ) y definir ΘH , en el rango 0 ≤ ΘH ≤ π/2, como el ángulo hermı́tico
entre los vectores complejos |vi i y |vj i. Mientras que φ, definido en −π ≤ φ ≤ π, corresponde al pseudo ángulo de
Kasner, que representa la orientación o rotación del ángulo hermı́tico y no tiene mayor significado al cuantificar el
ángulo entre esos dos vectores. Esta diferencia de significados puede intuirse cuando multiplicamos |vi i y |vj i, por
una constante compleja: |ṽi i → αi |vi i y comprobamos que el ángulo ΘH permanece inalterado y no ası́ el ángulo
de Kasner10 .
Teoremas del coseno y de Pitágoras
Bo
A partir de la definición de norma se obtiene:
∗
2
k|vi i − |vj ik = hvi − vj | vi − vj i = hvi | vi i − hvi | vj i − hvi | vj i + hvj | vj i
= hvi | vi i + hvj | vj i − 2 Re (hvi | vj i) ,
con lo cual hemos generalizado el teorema del coseno para un espacio vectorial abstracto:
2
2
2
k|vi i − |vj ik = k|vi ik + k|vj ik − 2 k|vi ik k|vj ik cos(ΘG ) .
De tal forma que para espacios vectoriales reales tendremos:
2
2
2
k|vi i − |vj ik = k|vi ik + k|vj ik − 2 k|vi ik k|vj ik cos(Θ) ,
9 Scharnhorst,
con
0 ≤ Θ ≤ π,
K. (2001). Angles in complex vector spaces. Acta Applicandae Mathematica, 69(1), 95-103.
consultarse Reju, V. G., Koh, S. N., y Soon, Y. (2009). An algorithm for mixing matrix estimation in instantaneous blind
source separation. Signal Processing, 89(9), 1762-1773.
10 Puede
94
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
y para espacios vectoriales complejos:
2
2
2
k|vi i − |vj ik = k|vi ik + k|vj ik − 2 k|vi ik k|vj ik cos(ΘH ) cos(φ) ,
0 ≤ ΘH ≤ π/2 .
con
Para el caso que los vectores |vi i ∧ |vj i sean ortogonales, esto es hvi | vj i = 0, tendremos el teorema de Pitágoras
generalizado:
2
2
2
2
k|vi i − |vj ik ≡ k|vi i + |vj ik = k|vi ik + k|vj ik .
Veamos algunos ejemplos de espacios vectoriales con producto interno.
ar
1. Espacios euclidianos reales, Rn y espacios euclidianos complejos Cn .
hx| yi = x∗1 y1 + x∗2 y2 + x∗3 y3 , · · · x∗n yn =
n
X
in
Los vectores en estos espacios euclidianos pueden ser representados por |xi = (x1 , x2 , · · · xn ) ∧ |yi =
(y1 , y2 , · · · , yn ) y el producto interno queda definido por:
x∗i yi ,
i=1
lim
es claro que esta definición de producto interno coincide, para R2 (y R3 ) con la idea de producto escalar
convencional que consideramos en las secciones 1.1.4 y 1.2.6, vale decir:

a = ax i + ay j 
⇒ a · b = ax bx + ay by .

b = bx i + by j
rP
re
Ahora bien, el lector puede comprobar que para vectores en R2 también se puede proveer una definición de
producto interno:
a ~ b = 2ax bx + ax by + ay bx + ay by ,
igualmente válida, con lo cual es claro que en un mismo espacio vectorial pueden coexistir diferentes productos
internos.
Por su parte, la norma es:
ad
o
v
u n
q
p
uX
2
2
2
2
x2i .
k|xik = hx| xi = x1 + x2 + x3 , · · · + xn = t
i=1
La distancia también recupera la idea intuitiva de distancia euclidiana:
p
d (|xi , |yi) ≡ k|xi − |yik = hx − y| x − yi
d (|xi , |yi) =
q
2
2
2
2
(x1 − y1 ) + (x2 − y2 ) + (x3 − y3 ) + · · · + (xn − yn ) .
rr
El teorema del coseno queda como:
Bo
n
X
i=1
2
(xi + yi ) =
n
X
i=1
x2i +
n
X
v
u n
uX
2
y + 2t
x2
i
i
i=1
v
u n
uX
t
yi2 cos(Θ) ,
i=1
i=1
mientras que el teorema de Pitágoras es:
n
X
2
(xi + yi ) =
i=1
n
X
x2i +
i=1
n
X
yi2 ,
i=1
es obvio que para R2 tanto el teorema del coseno como el teorema de Pitágoras retoman su forma tradicional.
Finalmente la desigualdad de Cauchy-Schwarz se expresa de la siguiente manera:
|hx| yi| ≤ k|xik k|yik ⇒
n
X
i=1
2
xi yi
≤
n
X
i=1
x2i
n
X
i=1
yi2 .
2.2. ESPACIOS MÉTRICOS, NORMADOS Y CON PRODUCTO INTERNO
95
∞
2. Para los espacios de funciones continuas C[a,b]
una posible definición de producto interno serı́a:
Z
b
dx f ∗ (x) g (x) ,
hf | gi =
a
de la cual se deriva la expresión para la norma:
Z
2
b
2
dx |f (x)| .
k|f ik = hf | f i =
ar
a
La distancia entre funciones quedará definida como:
s
Z
p
hf − g| f − gi =
b
d (|f i , |gi) =
dx |f (x) − g(x)|
q
∗
hf | f i − hf | gi − hf | gi + hg| gi
in
d (|f i , |gi) ≡ k|f i − |gik ≡
2
v
uZ
u
=t
b
Z
2
dx |f (x)| − 2 Re
!
b
dx
a
lim
a
f ∗ (x)
a
g(x)
rP
re
a
2
dx |g (x)| .
b
dx |g(x)|
2
a
Z
! 21
b
dx |f (x)|
+2
a
donde:
b
a
El teorema del coseno puede ser escritos como:
Z b
Z b
Z
2
2
dx |f (x) + g(x)| =
dx |f (x)| +
a
Z
+
2
b
Z
! 21
2
dx |g(x)|
cos(Θ) ,
a
Rb
cos(Θ) = Rb
ad
o
a
dx f ∗ (x) g(x)
1 1 .
2 2 Rb
2 2
dx |f (x)|
dx
|g
(x)|
a
a
Y como era de esperarse el teorema de Pitágoras queda:
Z b
Z b
Z
2
2
dx |f (x) + g(x)| =
dx |f (x)| +
a
a
b
2
dx |g(x)| ,
a
a
a
a
Ejemplos
Bo
2.2.4.
rr
para funciones f (x) y g(x) ortogonales, mientras que para este caso, la desigualdad de Cauchy-Schwarz se
expresa:
2
Z b
Z b
Z b
2
2
∗
dx f (x) g(x) ≤
dx |f (x)|
dx |g(x)| .
1. Comopvimos en la sección anterior, en el campo de los números complejos el valor absoluto de z = z + iy es
|z| = x2 + y 2 . La métrica que podemos asociar a este espacio vectorial viene dada por:
p
p
d (|z1 i , |z2 i) ≡ k|z1 i − |z2 ik = hz1 − z2 | z1 − z2 i = (x1 − x2 )2 + (y1 − y2 )2 ,
con: |z1 i = x1 + iy1 y |z2 i = x2 + iy2 .
2. Consideramos el espacio vectorial de polinomios de grado g ≤ n definidos en el intervalo [0, 1] o en el intervalo
[−1, 1] según el caso. Suponiendo las siguientes definiciones de producto interno en P n :
Z 1
Z 1
hqn |pn i =
p(x)q(x)dx y hqn |pn i =
p(x)q(x)dx .
−1
0
96
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
Vamos a encontrar la distancia y el ángulo entre los vectores: |x1 i = x(x − 1) y |x2 i = x.
En general, la definición de distancia es:
p
d (|x1 i , |x2 i) =
R1
−1
p(x)q(x)dx la distancia será:
sZ
p
hx2 − x1 |x2 − x1 i =
1
2
[x(x − 1) − x] dx =
−1
R1
0
p(x)q(x)dx, será:
s
p
hx2 − x1 |x2 − x1 i =
Z
1
2
(x(x − 1) − x) dx =
0
hx1 |x2 i
p
p
hx1 |x1 i hx2 |x2 i
θ = arc cos
R1
−1
p(x)q(x)dx tenemos:
hx1 |x2 i
p
p
hx1 |x1 i hx2 |x2 i
θ = arc cos
!
.
rP
re
Para hqn |pn i =
2√
30 .
15
lim
Con respecto a los ángulos:
in
y para hqn |pn i =
1√
690 ,
15
ar
por lo tanto para hqn |pn i =
hx2 − x1 |x2 − x1 i ,
!


(x(x
−
1))
x
dx
−1

qR
= arc cos  qR
1
1
2
2
(x(x − 1)) dx −1 x dx
−1
R1
1√ √
15 6 = 2,4825 rad .
= arc cos −
12
R1
0
p(x)q(x)dx
ad
o
Para hqn |pn i =
θ = arc cos
hx1 |x2 i
p
p
hx1 |x1 i hx2 |x2 i
!

(x(x
−
1))
(x)
dx

qR
= arc cos  qR 0
1
1 2
2
(x(x
−
1))
dx
x
dx
0
0
R1
¡El mismo ángulo!
rr
1√ √
15 2 = 2,4825 rad
= arc cos −
12
2.2.5.

Practicando con Maxima
Bo
Espacios y subespacios vectoriales
Sea el espacio vectorial V = Kn , definido en K = R y donde n es un entero positivo. Consideremos el caso
n = 4. El producto de un elemento de K4 , digamos |xi = (x1 , x2 , x3 , x4 ) por un escalar α ∈ K resulta en otro
elemento de K4 .
Primero introducimos los elementos como listas:
(%i1) X:[x1,x2,x3,x4];Y:[y1,y2,y3,y4];Z:[z1,z2,z3,z4];
( %o1) [x1 , x2 , x3 , x4 ]
( %o2) [y1 , y2 , y3 , y4 ]
( %o3) [z1 , z2 , z3 , z4 ]
(%i4) alpha*X=Y;
2.2. ESPACIOS MÉTRICOS, NORMADOS Y CON PRODUCTO INTERNO
97
( %o4) [α x1 , α x2 , α x3 , α x4 ] = [y1 , y2 , y3 , y4 ]
El resultado es un elemento del espacio vectorial K4 .
La suma de |xi = (x1 , x2 , x3 , x4 ) y |yi = (y1 , y2 , y3 , y4 ) será:
(%i5) X+Y=Z;
( %o5) [y1 + x1 , y2 + x2 , y3 + x3 , y4 + x4 ] = [z1 , z2 , z3 , z4 ]
ar
con (z1 , z2 , z3 , z4 ) ∈ K4 .
Podemos ver rápidamente que el conjunto de vectores que tienen la forma (x1 , x2 , x3 , 0) conforman un subespacio
de K4 , ya que:
( %o6) [0, 0, 0]
( %o7) [x1 , x2 , x3 , 0]
( %o8) [y1 , y2 , y3 , 0]
( %o9) [z1 , z2 , z3 , 0]
(%i10)alpha*X+beta*Y=Z;
rP
re
( %o10) [β y1 + α x1 , β y2 + α x2 , β y3 + α x3 , 0] = [z1 , z2 , z3 , 0]
lim
(%i7) X:[x1,x2,x3,x4];Y:[y1,y2,y3,y4];Z:[z1,z2,z3,z4];
in
(%i6) map(":",[x4,y4,z4],[0,0,0]);
Para recobrar las variables x4 , y4 , z4 escribimos:
(%i11)kill(x4,y4,z4)$
(%i12)X:[x1,x2,x3,x4];Y:[y1,y2,y3,y4];Z:[z1,z2,z3,z4];
( %o12) [x1 , x2 , x3 , x4 ]
( %o13) [y1 , y2 , y3 , y4 ]
( %o14) [z1 , z2 , z3 , z4 ]
ad
o
Para calcular el producto interno entre vectores es necesario utilizar la librerı́a eigen.
(%i15)load("eigen")$
(%i16)innerproduct(X,Y);
( %o16) x4 y4 + x3 y3 + x2 y2 + x1 y1
rr
Consideremos ahora V = Kn , definido en K = C, con n = 3. Por lo tanto, los vectores serán ahora de la
siguiente forma: z = (x1 + iy1 , x2 + iy2 , x3 + iy3 ).
(%i17)Z1:[x1+%i*y1,x2+%i*y2,x3+%i*y3]; Z2:[u1+%i*v1,u2+%i*v2,u3+%i*v3];
Bo
( %o17) [i y1 + x1 , i y2 + x2 , i y3 + x3 ]
( %o18) [i v1 + u1 , i v2 + u2 , i v3 + u3 ]
Y los escalares de la forma α = a + ib.
(%i19)alpha:a+%i*b;
( %o19) i b + a
El producto por el escalar α es:
(%i20)Z3:alpha*Z1;
( %o20) [(i b + a) (i y1 + x1 ) , (i b + a) (i y2 + x2 ) , (i b + a) (i y3 + x3 )]
98
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
(%i21)map(rectform,Z3);
( %o21) [i (a y1 + b x1 ) − b y1 + a x1 , i (a y2 + b x2 ) − b y2 + a x2 , i (a y3 + b x3 ) − b y3 + a x3 ]
(%i22)map(realpart,Z3),factor; map(imagpart,Z3),factor;
( %o22) [− (b y1 − a x1 ) , − (b y2 − a x2 ) , − (b y3 − a x3 )]
( %o23) [a y1 + b x1 , a y2 + b x2 , a y3 + b x3 ]
ar
Calculemos ahora el producto interno:
Z1 · Z2 = (x1 + iy1 )∗ (u1 + iv1 ) + (x2 + iy2 )∗ (u2 + iv2 ) + (x3 + iy3 )∗ (u3 + iv3 ) .
in
(%i24)Z4:innerproduct(Z1,Z2);
(%i25)Re:map(realpart,Z4)$ Im:map(imagpart,Z4)$
(%i26)Re+%i*Im;
lim
( %o24) (v3 − i u3 ) y3 + (v2 − i u2 ) y2 + (v1 − i u1 ) y1 + (i v3 + u3 ) x3 + (i v2 + u2 ) x2 + (i v1 + u1 ) x1
( %o26) i (−u3 y3 − u2 y2 − u1 y1 + v3 x3 + v2 x2 + v1 x1 ) + v3 y3 + v2 y2 + v1 y1 + u3 x3 + u2 x2 + u1 x1
Producto de polinomios
rP
re
(%i27)kill(all)$
Consideremos el siguiente producto escalar entre elementos de un espacio vectorial de polinomios:
Z b
hpi |pj i =
pi (x)pj (x)dx ,
a
Vamos a encontrar la distancia y el ángulo entre los vectores |x1 i = x(x − 1) y |x2 i = x en dos intervalos
diferentes: [0, 1] y [−1, 1]
Debemos introducir los objetos a multiplicar:
ad
o
(%i1) P1:x*(x-1); P2:x;
( %o1) (x − 1) x
( %o2) x
Ahora calculamos las distancias entre los vectores para ambos intervalos. Haremos gala de algunas posibilidades
que ofrece el programa para escribir las expresiones.
Bo
rr
(%i3) sqrt(’integrate(((P1-P2)^2),x,-1,1))=sqrt(integrate(((P1-P2)^2),x,-1,1));
sZ
√
1
46
2
((x − 1) x − x) dx = √
( %o3)
15
−1
(%i4) sqrt(’integrate(((P1-P2)^2),x,0,1))=sqrt(integrate(((P1-P2)^2),x,0,1));
s
Z 1
3
22
2
( %o4)
((x − 1) x − x) dx = √
15
0
El ángulo entre los polinomios definidos en el intervalo [−1, 1] es:
(%i5) ’integrate((P1*P2),x,-1,1)/(sqrt(’integrate((P1*P1),x,-1,1))*
sqrt(’integrate((P2*P2),x,-1,1)));
R1
(x − 1) x2 dx
qR
1
2
2 dx
x
(x − 1) x2 dx
−1
−1
( %o5) qR
1
−1
2.2. ESPACIOS MÉTRICOS, NORMADOS Y CON PRODUCTO INTERNO
99
(%i6) ev(%,integrate);
√
15
( %o6) − 3 √
22 3
(%i7) acos(%),numer;
( %o7) 2,482534617763384
ar
Y ahora, el ángulo entre los polinomios definidos en el intervalo [0, 1]:
(%i8) ’integrate((P1*P2),x,0,1)/(sqrt(’integrate((P1*P1),x,0,1))*
sqrt(’integrate((P2*P2),x,0,1)));
R1
in
(x − 1) x2 dx
qR
1
2
2 dx
x
(x − 1) x2 dx
0
0
(%i9) ev(%,integrate);
√
30
( %o9) − √
4 3
(%i10)acos(%),numer;
lim
0
( %o8) qR
1
2.2.6.
rP
re
( %o10) 2,482534617763384
Ejercicios
1. Consideremos el espacio vectorial conformado por los vectores geométricos en R3 ¿Serán espacios euclidianos
para las siguientes definiciones de producto interno?
a) El producto de las longitudes de los vectores.
b) El producto de las longitudes por el cubo del coseno del ángulo entre ellos.
c) El producto como dos veces el producto escalar usual entre vectores.
ad
o
2. Considerando estas definiciones de producto interior en Pn :
Z 1
Z
a) hqn |pn i =
p(x)q(x)dx ,
b) hqn |pn i =
−1
1
p(x)q(x)dx .
0
a) Encuentre los ángulos en el “triángulo” formado por los vectores: |x1 i = 1, |x2 i = t, |x3 i = 1 − t.
b) Encuentre la distancia y el ángulo entre los siguientes pares de vectores en P3 :
rr
1) |x1 i = 1; |x2 i = x.
2) |x1 i = 2x; |x2 i = x2 .
Bo
3. Sea E0 un subespacio euclidiano de dimensión k, E0 ⊂ E, y sea |vi un vector que no necesariamente es un
elemento E0 . Podemos plantearnos el problema de representar |vi de la forma: |vi = |gi + |hi; donde |gi ∈ E0 y
|hi es ortogonal a E0 . La existencia de la expansión anterior nos muestra que el espacio total E, de dimensión
n, es la suma directa de los subespacios E0 y su complemento ortogonal E⊥ de dimensión n − k.
Encuentre el vector |vi, como la suma del vector |gi, expandido por los vectores |gi i, y el vector perpendicular
|hi cuando:
a) |hi = (5, 2, −2, 2) , |g1 i = (2, 1, 1, −α) , |g2 i = (1, β, 3, 0).
b) |hi = (−3, 5, 9, 3) , |g1 i = (1, 1, 1, γ) , |g2 i = (2η, −1, 1, 1) , |g3 i = (2, −7δ, −1, −1).
Pn−1
Pn−1
4. Sean |pn i = p(x) = i=0 ai xi ; |qn i = q(x) = i=0 bi xi ∈ Pn . Considérese la siguiente definición:
hqn |pn i
a0 b0 + a1 b1 + a2 b2 + ... + an−1 bn−1 =
n−1
X
i=0
ai bi
100
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
a) Muestre que ésta es una buena definición de producto interno.
b) Con esta definición de producto interior ¿Se puede considerar Pn un subespacio de C[a,b] ? ¿Por qué?
5. Los vectores en R3 en coordenadas cartesianas los definimos como a = ai |ei i = ax i + ay j + az k y definimos
una “tabla de multiplicación” entre ellos de la forma ei |ej i = δji con i, j = 1, 2, 3, esto es:
i
1
0
0
j
0
1
0
k
0
0
1
ar
ei |ej i
i
j
k
in
Un cuaternión cartesiano puede escribirse de manera análoga a los vectores cartesianos, vale decir:
|ai = aα |qα i = a0 + ai |qi i = a0 + ax i + ay j + az k ,
lim
con α = 0, 1, 2, 3 y donde las ai (con i = 1, 2, 3) son números reales que representan las componentes vectoriales
en coordenadas cartesianas de los cuaterniones, mientras que la a0 , también un número real se le llama
componente escalar11 .
rP
re
Los cuaterniones fueron inventados por el matemático irlandés William Rowan Hamilton a mediados del siglo
XIX, y por decirlo de alguna manera, son hı́bridos o generalizaciones a un plano hipercomplejo. Un vector
cartesiano es un cuaternión con la componente escalar nula. Hoy encontramos aplicaciones del álgebra de cuaterniones en Fı́sica12 y más recientemente ha tenido alguna utilización computación gráfica que discutiremos
en el próximo problema en el contexto del álgebra geométrica y las algebras de Grassman.
Basándonos en este esquema podemos definir la “tabla de multiplicación” para los cuaterniones cartesianos
como:
|qi i |qj i
1
|q1 i
|q2 i
|q3 i
1
1
|q1 i
|q2 i
|q3 i
|q1 i
|q1 i
−1
|q3 i − |q2 i
|q2 i
|q2 i − |q3 i
−1
|q1 i
|q3 i
|q3 i
|q2 i − |q1 i
−1
Nótese que por el hecho de que:
|qj i = −1 ⇒ |q1 i
ad
o
|qj i
|q1 i = |q2 i
|q2 i = |q3 i
|q3 i = −1 ,
se puede pensar que un cuaternión es la generalización de los números complejos a más de una dimensión (un
número hipercomplejo), donde la parte imaginaria tendrı́a tres dimensiones y no una como es costumbre.
Esto es:
|ai = aα |qα i = a0 |q0 i + aj |qj i = a0 + a1 |q1 i + a2 |q2 i + a3 |q3 i .
|{z}
|
{z
}
“parte compleja”
rr
1
Siendo consistente con esa visión de generalización de un número complejo, definiremos el conjugado de un
cuaternión como:
z
|bi = b0 |q0 i − bj |qj i ,
Bo
con j = 1, 2, 3.
Es decir, en analogı́a con los números complejos el conjugado de un cuaternión cambia el signo de su “parte
compleja vectorial”.
P
que estamos utilizando la convención de Einstein en la cual: cα |qα i ≡ c0 + 3j=1 cj |qj i. Es decir, hemos supuesto que:
|q0 i ≡ 1, la unidad en los números reales. Adicionalmente, nótese que los ı́ndices griegos α, β, · · · toman los valores 0, 1, 2, 3, mientras
que los latinos que acompañan a los vectores cartesianos toman los siguiente valores j, k, l = 1, 2, 3.
12 Hace algunas décadas se dio una discusión sobre la importancia de utilizar esta representación en Fı́sica Cuántica. Pueden consultar:
11 Recuerde
Berezin, A. V., Kurochkin, Y. A., & Tolkachev, E. A. (1989). Quaternions in relativistic physics. Nauka i Tekhnika, Minsk.
Girard, P. R. (1984). The quaternion group and modern physics. European Journal of Physics, 5(1), 25.
Horwitz, L. P., & Biedenharn, L. C. (1984). Quaternion quantum mechanics: second quantization and gauge fields. Annals of
Physics, 157(2), 432-488.
2.2. ESPACIOS MÉTRICOS, NORMADOS Y CON PRODUCTO INTERNO
101
Igualmente, definiremos la suma entre cuaterniones de la siguiente manera:

|ai = aα |qα i 
⇒ |ci = cα |qα i = |ai + |bi = (aα + bα ) |qα i ⇒ cα = (aα + bα ) .

α
|bi = b |qα i
Esto quiere decir que los vectores se suman componente a componente. Mientras que la multiplicación por un
escalar queda definida por α |ci = αcα |qα i, es decir se multiplica el escalar por cada componente.
ar
Con la información anterior, responda las siguientes preguntas:
in
a) Compruebe si los cuaterniones, |ai, forman un espacio vectorial respecto a esa operación suma y esa
multiplicación por escalares, análoga a la de los vectores en R3 en coordenada cartesianas.
b) Dados dos cuaterniones cualesquiera |bi ≡ b0 , b y |ri ≡ r0 , r , y su tabla de multiplicación, muestre
que el producto entre esos cuaterniones |di = |bi |ri podrá representarse como:
|di = |bi |ri ←→ d0 , d = b0 r0 − b · r, r0 b + b0 r + b × r ,
lim
donde · y × corresponden con los productos escalares y vectoriales tridimensionales de siempre.
c) Ahora con ı́ndices: dados |bi = bα |qα i y |ri = rα |qα i, compruebe si el producto |di = |bi
siempre escrito de la forma:
|di = |bi
|ri puede ser
|ri = a |q0 i + S (αj) δα0 |qj i + A[jk]i bj rk |qi i .
rP
re
donde a representa un número, S (αj) δα0 (recuerde que los ı́ndices latinos toman los valores j, k, l = 1, 2, 3,
mientras α = 0,1, 2, 3), donde S (ij) indica S ji = S ij , que la cantidad S ij es simétrica, y por lo tanto
S αj δα0 + S jα δα0 |qj i.
Mientras A[jk]i representa un conjunto de objetos antisimétricos en j y k:13
A[jk]i → Ajki = −Akji → Ajki bj rk − Akji bj rk |qi i .
d ) Identifique las cantidades: a, S (ij) y A[jk]i , en términos de las componentes de los cuaterniones.
¿El producto de cuaterniones |di = |ai |ri será un vector, pseudovector o ninguna de las anteriores?
Explique por qué.
ad
o
e) Muestre que los cuaterniones pueden ser representados por matrices complejas 2 × 2 del tipo:
z
w
|bi ←→
,
−w∗ z ∗
donde z, w son números complejos.
Bo
rr
f ) Muestre que una representación posible para la base de cuaterniones es, la matriz unitaria 4x4:






0 1 0 0
0 0 0 −1
0 0 −1 0
 −1 0 0 0 
 0 0 −1 0 

0 1 


 , |q3 i =  0 0
.
|q1 i = 
 0 0 0 1  , |q2 i =  0 1 0
 1 0
0 
0 0 
0 0 −1 0
1 0 0
0
0 −1 0 0
g) Compruebe si la siguiente es una buena definición de producto interno:
z
]
ha
|bi = |ai
|bi .
h) Modifique un poco la definición anterior de tal forma que:
1 h]
]
ha |bi − |q1 i ha
|bi
ha |bi =
2
i
|q1 i ,
y compruebe si esta definición compleja del producto interno cumple con todas las propiedades. Nótese
que un cuaternión de la forma |f i = f 0 + f 1 |q1 i es un número complejo convencional.
13 Para
familiarizarse con las expresiones vectoriales con la notación de ı́ndices puede consultar la sección 1.4.
102
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
i ) Compruebe si la siguiente es una buena definición de norma para los cuaterniones:
q
p
z
n(|bi) = k|aik = ha |ai = |ai
|ai .
j ) Compruebe si un cuaternión definido por:
z
|ai
k|aik
2
,
ar
|ai =
puede ser considerado como el inverso o elemento simétrico de |ai, respecto a la multiplicación
k ) Compruebe si los cuaterniones |ai forman un grupo respecto a una operación multiplicación
3
.
.
in
l ) Los vectores en R en coordenadas cartesianas, |vi, pueden ser representados como cuaterniones, donde
la parte escalar es nula v 0 = 0 → |vi = v j |qj i. Compruebe si el siguiente producto conserva la norma:
lim
|v 0 i = |ai |vi |ai .
0 2 0 2 0 2
2
2
2
2
2
Estos es: k|v 0 ik = v 1
+ v2
+ v3
≡ v 1 + v 2 + v 3 = k|vik .
6. En el mismo espı́ritu de los cuaterniones considerados previamente estudiemos el siguiente problema.
rP
re
Consideremos otra vez el espacio R3 expandido
por la base ortonormal estándar {i, j, k}.
Supongamos en este espacio el producto de dos
vectores a y b (o |ai y |bi en la notación de vectores abstractos de Dirac) definido a la manera
del álgebra geométrica.
Esto es:
K
|ai
|bi ≡ ab = a · b + a ∧ b ,
ad
o
con a · b el producto escalar estándar de R3 , representando la parte conmutativa de ab y a ∧ b
su parte anticonmutativa. Esta última parte se
relaciona con el producto vectorial estándar de la
representación de Gibbs como: a ∧ b = ia × b,
con i = i ∧ j ∧ k un pseudoescalar.
Figura 2.2: Se ilustran los vectores ortonormales
estándares {i, j} y como siempre k = i × j.
Este formalismo ha tenido cierto impacto en computación gráfica14 -15 -16 y lo vamos a utilizar para modelar
transformaciones de objetos en el espacio.
representación para objetos fı́sicos ha tenido cierto éxito en Fı́sica clásica y cuántica; se puede consultar:
rr
14 Esta
Hestenes, D., & Sobczyk, G. (2012). Clifford algebra to geometric calculus: a unified language for mathematics and physics (Vol.
5). Springer Science & Business Media.
Bo
Hestenes, D. (1971). Vectors, spinors, and complex numbers in classical and quantum physics. Am. J. Phys, 39(9), 1013-1027.
Hestenes, D. (2003). Spacetime physics with geometric algebra. American Journal of Physics, 71(7), 691-714.
Dressel, J., Bliokh, K. Y., & Nori, F. (2015). Spacetime algebra as a powerful tool for electromagnetism. Physics Reports, 589,
1-71.
15 Y
equivalentemente, por isomorfismo i =
16 Pueden consultar
√
−1.
Goldman, R. (2002). On the algebraic and geometric foundations of computer graphics. ACM Transactions on Graphics (TOG),
21(1), 52-86.
Hildenbrand (2011). From Grassmann’s vision to geometric algebra computing. Springer Basel.
Hildenbrand, D., Fontijne, D., Perwass, C., & Dorst, L. (2004). Geometric algebra and its application to computer graphics. In
Tutorial notes of the EUROGRAPHICS conference.
Vince, J. (2008). Geometric algebra for computer graphics. Springer Science & Business Media
y las referencias allı́ citadas.
2.2. ESPACIOS MÉTRICOS, NORMADOS Y CON PRODUCTO INTERNO
103
Considere el caso 2D representado en la figura 2.2, en el formalismo de algebra geométrica el objeto triángulo
lo asociamos con vector abstracto |4i, mientras que el objeto cuadrado lo representaremos como |i, y el
tercer objeto por |⇑i.
Entonces:
in
c) Encuentre la norma de cada uno de ellos y la distancia entre |4i y |⇑i.
E
d ) Considere ahora la operación: A |4i = 4̃ .
ar
a) Exprese los vectores: |4i , |i , |⇑i en términos de la base ortonormal estándar {i, j, k} (o |ii , |ji , |ki) en
el formalismo de álgebra geométrica.
J
b) Exprese |4i |⇑i en término de la base geométrica. Vale decir, si |Og i es un objeto geométrico este
podrá representarse en términos de una base: |i , |σi , |Bi , |ii, donde |i es un escalar; |σi es un vector,
|Bi un bivector y, finalmente |ii un pseudoescalar.
rP
re
lim
E
1) Si A|ji es el operador reflexión respecto |ji, exprese en términos geométricos 4̃ = A|ji |4i y
J
A|ii (|4i |⇑i).
J
2) Si Aθ,|Bi es el operador de rotación alrededor de un bivector |Bi un ángulo θ. Encuentre Aπ/4,|Bi (|4i |⇑i)
con |Bi = |ji + |ki.
3) ¿Cómo interpreta Ud. la ecuación de autovalores A |4i = 2 |4i?
E
e) Considere el caso 3D en el cual 4̂ representa un tetraedro regular con la base representada por la
E
ˆ , un cubo, también con su base representada en el plano de la misma figura.
figura 2.2 y E
E
ˆ en términos de la base ortonormal estándar {i, j, k} y el formalismo
1) Exprese los vectores: 4̂ , de álgebra geométrica.
EJ J
|4i en término de la base geométrica.
|⇑i
2) Exprese 4̂
E
E
E
ˆ .
3) Encuentre la norma de 4̂ y la distancia entre 4̂ y Aπ/2,|−ji E
ˆ , con Aπ/2,|−ji , Bπ/4,|ii = Aπ/2,|−ji Bπ/4,|ii − Bπ/4,|ii Aπ/2,|−ji .
4) Exprese Aπ/2,|−ji , Bπ/4,|ii rr
ad
o
7. En Geometrı́a Diferencial podemos considerar a R3 como un conjunto de puntos (una variedad o espacio
topológico), es decir, R3 no es un espacio vectorial como se definió con anterioridad. En un punto q cualquiera
podemos generar un plano R2 , entendido también como un conjunto de puntos, y definir el siguiente conjunto
Tq R2 = {el conjunto de todos los vectores geométricos (flechas) con origen en q que son tangentes al plano
R2 }. Notemos que la idea la podemos extender para cualquier superficie, por ejemplo, una esfera S2 (embebida
en R3 ) y sobre la esfera seleccionar un punto arbitrario q. A partir de este punto q generar un plano y construir
el conjunto Tq S2 = {el conjunto de todos los vectores geométricos con origen en q que son tangentes a la esfera
S2 }.
a) ¿Es Tq R2 un espacio vectorial?
Bo
b) Claramente podemos seleccionar otro punto arbitrario, pero diferente de q, digamos p y construir el
conjunto Tp R2 . ¿Son estos dos espacios isomorfos?
Consideremos ahora el conjunto de todas las funciones diferenciables f : R3 → R. Esto es, que existen todas
las derivadas parciales en q ∈ R3 :
∂x f (xi ) , ∂y f (xi ) , ∂z f (xi ) ∈ R ∀ (xi ) ∈ R3 .
Note que hemos supuesto un sistema de coordenadas cartesiano xi = (x, y, z) en R3 y que las derivadas son
evaluadas en q.
Consideremos
el espacio tangente Tq R3 en un punto q arbitrario y un vector |uq i ∈ Tq R3 con componentes
u1 , u2 , u3 , podemos definir el siguiente operador (operador derivada direccional) en q siguiendo a |uq i:
|Uq i = u1 ∂x + u2 ∂y + u3 ∂z
q
.
104
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
Por lo tanto:
|Uq i f ≡ u1 ∂x + u2 ∂y + u3 ∂z
q
f = u1 (∂x f )q + u2 (∂y f )q + u3 (∂z f )q .
Es posible entonces construir el conjunto de los operadores derivadas direccionales que actúan sobre las
funciones f :
Dq (R3 ) = {|Uq i = u1 ∂x + u2 ∂y + u3 ∂z q ∀ |uq i ∈ Tq R3 } .
c) ¿Es Dq un espacio vectorial?
ar
d) ¿Los espacios Dq y Tq R3 son isomorfos?
8. Resuelva los problemas anteriores utilizando Maxima.
Variedades lineales
in
2.3.
lim
Resulta de gran interés construir subespacios vectoriales a partir de una cantidad de vectores {|wi i}. En
este caso diremos que los vectores generan una variedad lineal. Es decir, si tenemos una cantidad de vectores:
{|w1 i , |w2 i , |w3 i , . . . } ∈ V, entonces una variedad lineal generada por este conjunto se entenderá como el conjunto
de todas las combinaciones lineales finitas:
α |w1 i + β |w2 i + γ |w3 i + · · · ,
2.3.1.
rP
re
donde los coeficientes: α, β, γ, . . . pertenecen al campo K.
Se puede comprobar que esta variedad lineal es un subespacio de V. Claramente, todo subespacio que contenga
los vectores {|w1 i , |w2 i , |w3 i , . . . } también contiene todas sus combinaciones lineales, por lo tanto, la variedad
lineal generada de esta manera es el subespacio más pequeño que contiene al conjunto de estos vectores.
Una variedad lineal sencilla de construir en V = R3 la constituye un par de vectores no colineales. La variedad
lineal generada por estos dos vectores será el conjunto de todos los vectores paralelos al plano determinado por este
par de vectores no colineales. Mientras que la variedad lineal generada por los vectores: {i, j, k} ∈ R3 es el mismo
espacio entero R3 .
Pasemos ahora a considerar el problema de construir una base para una variedad lineal y a partir de allı́
determinar la dimensión de la variedad.
Dependencia/Independencia lineal
ad
o
Siguiendo la misma lı́nea de razonamiento que en las secciones 1.1.3 y 1.2.5, generalizamos el concepto de
dependencia e independencia lineal de R2 y R3 . Ası́:
|0i = C1 |v1 i + C2 |v2 i + C3 |v3 i · · · + Cn |vn i =
n
X
Ci |vi i ,
i=1
rr
Las cantidades Ci son llamados los coeficientes de la combinación lineal.
Podemos afirmar que:
Si esta ecuación se cumple para algún conjunto de {Ci } no nulos, se dirá que el conjunto de vectores correspondiente {|vi i} son linealmente dependientes.
Bo
Por el contrario, si esta ecuación sólo puede ser satisfecha para todos los Ci = 0, entonces se dirá que el
conjunto de vectores correspondiente {|vi i} son linealmente independientes.
Notemos que la suma que aparece aquı́ es necesariamente una suma finita, y cuando un determinado conjunto de
vectores es linealmente dependiente, entonces uno de ellos se puede escribir como combinación lineal de los demás.
2.3.2.
Bases de un espacio vectorial
Ahora bien, dado un espacio vectorial V = {|v1 i , |v2 i , |v3 i · · · , |vn i}, si encontramos que el conjunto de {|vn i}
es linealmente dependiente, entonces siempre es posible despejar uno de los vectores en términos de los demás, vale
decir:
n−1
X
|vn i = C̄1 |v1 i + C̄2 |v2 i + C̄3 |v3 i · · · + C̄n−1 |vn−1 i =
C̄i |vi i .
i=1
2.3. VARIEDADES LINEALES
105
Seguidamente podemos proceder a comprobar si {|v1 i , |v2 i , |v3 i · · · , |vn−1 i} es un conjunto de vectores linealmente independientes, es decir: C̄1 = C̄2 = C̄3 = · · · = C̄n−1 = 0.
En caso de no serlo se procede otra vez a despejar uno de los vectores en términos de los anteriores y aplicar el
criterio de independencia lineal:
|vn−1 i = C̃1 |v1 i + C̃2 |v2 i + C̃3 |v3 i · · · + C̃n−2 |vn−2 i =
n−2
X
C̃i |vi i ,
i=1
|vn−j+1 i = C̆1 |v1 i + C̆2 |v2 i + C̆3 |v3 i · · · + C̆n−j |vn−j i =
in
ar
nuevamente se comprueba si se cumple: C̃1 = C̃2 = C̃3 = · · · = C̃n−2 = 0.
En caso contrario, se repite este procedimiento hasta encontrar un conjunto: {|v1 i , |v2 i , |v3 i · · · , |vn−j i} de
vectores linealmente independientes. Esto es: C̆1 = C̆2 = C̆3 = · · · = C̆n−j = 0.
Por lo tanto:
n−j
X
C̆i |vi i .
i=1
Ci |vi i ∀ |xi ∈ V ,
rP
re
|xi =
n−j
X
lim
Diremos entonces que {|v1 i , |v2 i , |v3 i , · · · , |vn−j i} forman una base para el espacio vectorial V.
Es importante señalar, que la dimensión de V será el número de vectores linealmente independientes, que para
este caso será: dimV = n − j.
Entonces, se puede comprobar que, dado un vector arbitratio |xi ∈ V, se tiene que:
i=1
ad
o
y el conjunto {C1 , C2 , C3 , · · · Cn−j } será único.
Diremos que el número mı́nimo de vectores: |v1 i , |v2 i , |v3 i , · · · , |vn−j i que expanden V conforman una base
de ese espacio vectorial, y que el número finito de cantidades C1 , C2 , C3 , · · · Cn−j , constituyen las componentes de
|xi relativas a la base {|v1 i , |v2 i , · · · , |vn−j i}.
Queda claro que el vector cero, |0i, es linealmente dependiente, y cualquier conjunto de vectores que lo contenga
es un conjunto linealmente dependiente de vectores.
De lo anteriormente expuesto se puede concretar la siguiente definición para una base de un espacio vectorial
V:
Definición: Un conjunto finito de vectores:
B = {|v1 i , |v2 i , |v3 i , · · · , |vn i} ∈ V ,
se les denominará base del espacio vectorial V si los vectores: |v1 i , |v2 i , |v3 i , · · · , |vn i, son linealmente
independientes y (obviamente) expanden V. Diremos entonces que B es un sistema generador de V.
Bo
rr
Es fácil darse cuenta que si V lo expanden n vectores linealmente independientes, cualquier otro vector |xi ∈ V
será linealmente dependiente. Igualmente, y fácilmente demostrable, es que todas las bases de un espacio vectorial
V, de dimensión finita, tendrán el mismo número de elementos y ese número de elemento será la dimensión del
espacio, es decir, la dimV = número n de vectores que forman una base de dicho espacio.
La base más familiar en el espacio tridimensional real es el conjunto de conformado por tres vectores ortogonales
y unitarios: {i, j, k}. Por lo tanto, como ya sabemos, la dimensión del espacio vectorial V = R3 es 3. Al conjunto
de vectores {i, j, k} le podemos asociar tres ejes coordenados: {x, y, z} (decimos que le anclamos un sistema de
coordenadas), de manera que las componentes C1 , C1 , C1 de un vector |vi respecto a esta base son las proyecciones
de |vi a lo largo de los ejes coordenados.
El concepto de base de un espacio vectorial es de fundamental importancia, ya que una vez especificada la base
las operaciones sobre los elementos del espacio vectorial abstracto se pueden realizar ahora sobre los números que
representan las componentes del vector con respecto a la base. Esto significa que cuando sumamos dos vectores de
un espacio vectorial abstracto V, sus componentes (respecto a una base) son sumadas. Cuando multiplicamos un
vector de V por un elemento α del campo K, todas sus componentes son multiplicadas por α.
Adicionalmente, puede ser que dentro de un espacio vectorial V se puedan encontrar subespacios y dentro de
esos subespacios un conjunto de vectores base.
106
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
Vale decir, si ∀ |xi ∈ V:
|xi = C1 |v1 i · · · + Cn−j |vn−j i + Cn−j+1 |vn−j+1 i · · · Cn−k |vn−k i + Cn−k+1 |vn−k+1 i · · · Cn |vn i ,
{z
}
|
{z
} |
{z
} |
S1
S3
S2
2.3.3.
ar
con: |xi = |x1 i + |x2 i + |x3 i y |x1 i ∈ S1 ; |x2 i ∈ S2 ; |x3 i ∈ S3 . Entonces diremos que V es la suma directa
de S1 , S2 y S3 y lo denotaremos como: V = S1 ⊕ S2 ⊕ S3 .
También es bueno señalar que, una vez fijada una base, las componentes de un vector según esa base, son únicas
y que dada una base de un espacio vectorial, se pueden construir otras bases diferentes de ésta, como veremos más
adelante.
El determinante de Gram
= hv1 |xi
= hv2 |xi
..
.
lim
C1 hv1 |v1 i + C2 hv1 |v2 i + C3 hv1 |v3 i + · · · + Cn hv1 |vn i
C1 hv2 |v1 i + C2 hv2 |v2 i + C3 hv2 |v3 i + · · · + Cn hv2 |vn i
..
.
in
Dado un conjunto de vectores: {|v1 i , |v2 i , |v3 i , · · · , |vn i} ∈ V, existe una forma directa de comprobar la independencia lineal del conjunto.
Pn
Dado un vector |xi ∈ V tendremos que |xi = i=1 Ci |vi i, entonces, al multiplicar por hvi |, resulta:
C1 hvn |v1 i + C2 hvn |v2 i + C3 hvn |v3 i + · · · + Cn hvn |vn i = hvn |xi
rP
re
donde las C1 , C2 , C3 , · · · Cn son las incógnitas. Por lo cual, para que este sistema tenga solución se impone que:
hv1 |v1 i
hv2 |v1 i
..
.
hv1 |v2 i
hv2 |v2 i
hvn |v1 i
hvn |v2 i
hv1 |v3 i
hv2 |v3 i
..
.
hvn |v3 i
···
···
hv1 |vn i
hv2 |vn i
..
.
···
hvn |vn i
6= 0 .
Esto es, que el determinante de Gram17 sea distinto de cero implica que el conjunto: {|v1 i , |v2 i , · · · , |vn i} es
linealmente independiente. La inversa también es cierta.
Vamos a considerar un par de ejemplos de bases para algunos de los espacios vectoriales conocidos:
ad
o
1. El espacio vectorial Vn tendrá dimensión n y una de las posibles bases {|v1 i , |v2 i , |v3 i · · · , |vn i} será:
|v1 i = (1, 0, 0, · · · , 0) , |v2 i = (0, 1, 0, · · · , 0) , |v3 i = (0, 0, 1, · · · , 0) , . . . , |vn−j i = (0, 0, 0, · · · , 1) .
Esta base se conoce con el nombre de base canónica.
Ortogonalidad y bases ortogonales
Bo
2.3.4.
rr
2. El espacio de polinomios, P n , de grado g ≤ n tendrá como una de las posibles bases al conjunto: 1, t, t2 , t3 , · · · , tn ,
porque cualquier polinomio de grado ≤ n podrá ser expresado como combinación lineal de estos n + 1
vectores. Más
aún, el espacio de todos los polinomios, P ∞ , tendrá como una posible base al conjunto de
funciones: 1, t, t2 , t3 , · · · , tn · · · . En este caso P ∞ será infinito dimensional.
En un espacio vectorial con producto interno, dos vectores |e1 i ∧ |e2 i serán ortogonales si su producto interno
se anula
|e1 i ⊥ |e2 i ⇔ he2 |e1 i = 0 .
Se denomina un conjunto ortogonal de vectores {|e1 i , |e2 i , |e3 i · · · , |en i} si:
0
2
hei |ej i = δij k|ej ik , i, j = 1, 2, 3, · · · , n y con δij =
1
si i 6= j
si i = j
17 JORGEN PEDERSEN GRAM (1850-1916 Dinamarca) Matemático danés, que alternaba su actividad de gerente de una importante
compañı́a de seguros con las matemáticas (Probabilidad, análisis numérico y teorı́a de números). Es conocido mayormente por el método
de ortogonalización, pero se presume que no fue él quien primero lo utilizó. Aparentemente fue ideado por Laplace y utilizado también
por Cauchy en 1836. Gram murió arrollado por una bicicleta a la edad de 61 años.
2.3. VARIEDADES LINEALES
107
2
ar
y se denominará conjunto ortonormal si: k|ej ik = 1.
Un conjunto ortogonal de vectores {|e1 i , |e2 i , |e3 i , · · · , |en i} ∈ V es linealmente independiente. Más aún, para
el caso particular de un espacio euclidiano este conjunto conforma una base ortogonal para V.
La demostración es sencilla, para un determinado espacio vectorial V una combinación lineal de los vectores:
{|e1 i , |e2 i , |e3 i , · · · , |en i} se anula. Veamos:

Pn
Pn
he1 | [Pi=1 Ci |ei i] = 0
⇒
⇒
C1 = 0


Pni=1 Ci δ1i = 0

n

C
δ
=
0
⇒
C
C
|e
i]
=
0
⇒
he
|
[

2 =0
n
 2 Pni=1 i i
Pni=1 i 2i
X
he
|
[
C
|e
i]
=
0
⇒
C
δ
=
0
⇒
C
3
i
i
3 =0
i=1
i=1 i 3i
Ci |ei i = |0i ⇒

.
.
.
.

..
..
..
..
i=1



Pn
P

n
hen | [ i=1 Ci |ei i] = 0
⇒
⇒
Cn = 0
i=1 Ci δni = 0
lim
in
con lo cual, queda claro que: {|e1 i , |e2 i , |e3 i , · · · , |en i} son un conjunto de vectores linealmente independientes.
Si la dimensión de V es n (dim V = n) y tenemos n vectores linealmente independientes, entonces esos n vectores
{|e1 i , |e2 i , |e3 i , · · · , |en i} forman una base ortogonal para V, y por lo tanto, las componentes de un vector en esa
base se pueden expresar de manera simple:
" n
#
n
X
X
hej |xi
hej |xi
=
∀ |xi ∈ V ⇒ |xi =
Ci |ei i ⇒ hej |xi = hej |
Ci |ei i ⇒ Cj =
2 .
he
|e
i
j
i
k|ej ik
i=1
i=1
2
En el caso de un conjunto ortonormal de vectores {|ê1 i , |ê2 i , |ê3 i · · · , |ên i} ∈ Vn , con k|êj ik = 1, las componentes de cualquier vector quedan determinadas de una forma todavı́a más simple y con consecuencias mucho más
impactantes
2
n
X
Ci |êi i =
n
X
hêi |xi |êi i ≡
rP
re
k|êi ik = 1 ⇒ Ci = hêi |xi ⇒ |xi =
i=1
i=1
n
X
|êi i hêi | |xi .
i=1
|
{z
1
}
Pn
Es bueno recalcar la relación de cierre:18
i=1 |êi i hêi | = 1, con lo cual es trivial demostrar la fórmula de
Parseval:
!
n
n
n
X
X
X
∗
∀ |xi , |yi ∈ V ⇒ hy |xi ≡ hy|
|êi i hêi | |xi =
hy| êi i hêi | xi =
hy |êi i hx |êi i ,
i=1
i=1
i=1
para el caso de |xi ≡ |yi se llega a la generalización del teorema de Pitágoras:
2
ad
o
hx |xi ≡ k|xik =
n
X
2
|hx |êi i| .
i=1
Consideremos un par de ejemplos de bases ortogonales en espacio funcionales:
1. Funciones trigonométricas: Uno de los ejemplos más emblemáticos es el caso de las funciones conti∞
nuas, reales de variable real y definidas en [0, 2π], C[0,2π]
, con el producto interno definido por: hf | gi =
R 2π
dx f (x) g(x). Ésto es, el conjunto de funciones {|ei i} representadas por:
0
rr
|e0 i = 1,
|e2n−1 i = cos(nx)
y
|e2n i = sen(nx),
con n = 1, 2, 3, · · ·
Bo
Es claro que {|e1 i , |e2 i , |e3 i , · · · , |en i , · · · } es un conjunto de funciones ortogonales por cuanto:

 R 2π



 R 0 dx sen(nx)sen(mx) = 0


2π

0
si
n
=
6
m
⇒

dx cos(nx)sen(mx) = 0

R 02π





dx cos(nx) cos(mx) = 0

0




 R 2π
2
hen |em i = δnm k|en ik ⇒

dx = 2π
si n = m = 0

0







 R


2
2π

si n = m ⇒
 k|en ik
dx cos2 (nx) = π si n = m = 2k − 1

0










 R 2π dx sen2 (nx) = π si n = m = 2k

0
18 La
relación de cierre expresa una propiedad importante de los vectores base: si los |êi i se multiplican por la derecha por los hêi |,
el resultado, luego de sumar para todos los vectores, es el operador lineal unitario. Se dice también que el conjunto de vectores {|êi i}
forman un conjunto completo.
108
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
con k = 1, 2, 3, · · · .
Podremos construir una base ortonormal de funciones: {|ê1 i , |ê2 i , |ê3 i , · · · , |ên i , · · · } de la forma:
1
|ê2n−1 i = √ cos(nx)
π
y
1
|ê2n i = √ sen(nx).
π
en términos de la base
i=0
i = 2n − 1
i = 2n
in
Por lo tanto, dada una función definida en el intervalo [0, 2π], podremos expresarla
ortogonal como:
 R 2π

si

 0 dx f (x) = C0


∞
 R
X
2π
|f i =
Ci |ei i ⇒ Ci = hei |f i =
dx f (x) cos(nx) = C2n−1 si
0


i=1



 R 2π dx f (x) sen(nx) = C
si
2n
0
ar
1
|ê0 i = √ ,
2π
donde los Ci son los coeficientes de Fourier.
Pn (x) =
1 dn 2
(x − 1)n ,
n!2n dxn
lim
2. Polinomios de Legendre: Otro de los ejemplos tı́picos son los llamados polinomios de Legendre, Pn (x),
definidos en el intervalo [−1, 1]. Estos polinomios pueden ser generados a partir de la Fórmula de Rodrigues:19
n = 0, 1, 2, .....
con P0 (x) = 1. Algunos de estos polinomios son los siguientes:
x
1
1
(3x2 − 1) , P3 (x) = (5x2 − 3) , P4 (x) = (35x4 − 30x2 + 3) , . . .
2
2
8
rP
re
P1 (x) = x , P2 (x) =
Como veremos más adelante, los polinomios de Legendre son solución de la ecuación diferencial:
(1 − x2 ) y 00 − 2x y 0 + λ(λ + 1)y = 0 .
ad
o
Es fácil comprobar que los polinomios de Legendre |Pα >= Pα (x) son mutuamente ortogonales con un
producto interno definido como:
Z 1
2
hPn |Pm i =
Pn (x)Pm (x)dx =
δnm ,
2n + 1
−1
y con una norma definida por:
Z
2
1
Pn2 (x)dx =
kPn k = hPn |Pn i =
−1
2
.
2n + 1
rr
Por lo tanto, cualquier función en el intervalo [−1, 1] puede ser expresada en esa base.
f (x) = |f i =
∞
X
ak |Pk i =
k=0
∞
X
hPk |F i
|Pk i .
hPk |Pk i
k=0
Bo
Si f (x) es en particular un polinomio, entonces:
f (x) =
m
X
n=0
bn x n =
∞
X
k=0
ak |Pk i =
∞
X
an Pn (x) ,
n=0
y los coeficientes an se determinan fácilmente a través de un sistema de ecuaciones algebraicas. Por ejemplo,
para el caso de f (x) = x2 tendremos:
f (x) = x2 = a0 P0 (x) + a1 P1 (x) + a2 P2 (x)
1
2
1
= a0 + a1 x + a2 (3x2 − 1) = P0 (x) + P2 (x) .
2
3
3
19 BENJAMIN OLINDE RODRIGUES (1794 Burdeos, Francia - 1851, Parı́s Francia) Banquero, matemático y activista polı́tico socialista francés durante la revolución francesa. De origen judı́o, y cuyas contribuciones fundamentales como la fórmula para la generación
de polinomios de Legendre, permanecieron olvidadas por mucho tiempo.
2.3. VARIEDADES LINEALES
109
Quedará como ejercicio demostrar que para el caso de:
r
∞
∞
X
1 − x X hPk |gi
2
Pn (x)
g(x) =
=
|Pk i = P0 (x) − 2
,
2
hPk |Pk i
3
(2n
−
1)(2n + 3)
n=1
k=0
con: hPk |gi =
−1
g(x)Pk (x) dx =
R 1 q 1−x
−1
2
Pk (x) dx.
Ortogonalización
ar
2.3.5.
R1
lim
in
Hemos visto que un conjunto de vectores ortogonales forman una base para un espacio vectorial. Ahora bien,
siempre es posible construir un conjunto de vectores ortogonales a partir de un conjunto de vectores linealmente
independientes. El método de “ortogonalización” se conoce como el método de Gram-Schmidt20 , en honor de estos
dos matemáticos alemanes que NO lo inventaron pero hicieron famoso al método que, al parecer, se le debe al
matemático francés P.S. Laplace.
Consideremos, por ejemplo, un conjunto de vectores linealmente independientes, {|v1 i , |v2 i , |v3 i , · · · , |vn i} que
expanden un espacio euclidiano real de dimensión finita, En . Entonces, siempre se podrá construir un conjunto
ortogonal de vectores, {|e1 i , |e2 i , |e3 i , · · · , |en i}, que también expandan En , de la siguiente forma:
|e1 i ≡ |v1 i
hv2 |e1 i
he1 |e1 i
|e3 i ≡ |v3 i −
hv3 |e2 i
he2 |e2 i
|e4 i ≡ |v4 i −
hv4 |e3 i
he3 |e3 i
..
.
|e2 i −
\
hv3 |e1 i
he1 |e1 i
he2 |e1 i = 0
|e1 i
|e3 i −
hv4 |e2 i
he2 |e2 i
|e2 i −
hv4 |e1 i
he1 |e1 i
|e1 i
\
he3 |e1 i = 0
he3 |e2 i = 0
\

 he4 |e1 i = 0
he4 |e2 i = 0

he4 |e3 i = 0
..
.
hvn |ei i
i=1 hei |ei i
Pn−1
|ei i
ad
o
|en i ≡ |vn i −
|e1 i
rP
re
|e2 i ≡ |v2 i −
\













he4 |e1 i = 0
he4 |e2 i = 0
he4 |e3 i = 0
..
.
he4 |en−1 i = 0
2.3.6.
rr
Ası́, siempre es posible construir una base ortogonal a partir de un conjunto de vectores linealmente independientes
y una definición de producto interno. Esta base será única en En –para cada definición de producto interno– y si
existe otra, sus vectores serán proporcionales. Más aún, cada espacio vectorial Vn de dimensión finita tendrá una
base ortogonal asociada21 .
Ejemplos
Independencia lineal
Bo
Presentamos otros ejemplos sobre dependencia/independencia lineal.
1. Si consideramos el espacio vectorial V = {|v1 i , |v2 i , |v3 i , · · · , |vn i} serán ejemplos de independencia lineal:
|vk i ≡ f (t) = tk , para k = 1, 2, 3, · · · . Es claro que un polinomio de
Pngrado n + 1, no podrá ser expresado
en términos un polinomio de grado n, en otras palabras: tn+1 6= i=0 Ci ti .
|vk i ≡ f (t) = eak t , con a1 , a2 , a3 , · · · coeficientes constantes. También salta a la vista que no podremos
expresar una de esas funciones exponenciales como una combinación lineal.
20 ERHARD SCHMIDT (1876, Estonia - 1959 Alemania). Matemático alemán fundador del primer instituto de matemáticas aplicadas
de Berlı́n. Alumno de Hilbert, Schmidt hizo sus mayores contribuciones en el campo de ecuaciones integrales y teorı́a de funciones en el
espacio de Hilbert.
21 Hemos construido la base ortogonal para un espacio de dimensión finita, pero el procedimiento es válido para espacios de dimensión
infinita
110
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
2. Si consideramos: |v1 i = cos2 (t), |v2 i = sen2 (t) y |v3 i = 1, es claro que |v1 i , |v2 i y |v3 i son linealmente
dependientes por cuanto: |v1 i + |v2 i = |v3 i. Nótese que si:
|v1 i = cos(t), |v2 i = sen(t) y |v3 i = 1,
entonces |v1 i , |v2 i y |v3 i serán vectores linealmente independientes.
3. Consideremos ahora otro ejemplo en P 3 :
|x1 i = 1 ,
|x2 i = x − 1 ,
|x3 i = x2 ,
|x4 i = x2 + 2x + 1 .
ar
Podemos ver que este conjunto es linealmente dependiente ya que siempre podremos expresar:
|x4 i = 3 |x1 i + 2 |x2 i + |x3 i .
in
Ortogonalización
Consideremos un par de ejemplos del método de ortogonalización sencillos, y uno más elaborado:
y si elegimos |e1 i ≡ |v2 i, entonces, |e2 i vendrá dado por:
|e2 i ≡ |v1 i −
hv1 |e1 i
|e1 i ⇒ |e2 i ≡
he1 |e1 i
lim
1. Para el caso de R2 es muy claro. Si tenemos dos vectores |v1 i y |v2 i linealmente independientes:
1
0
|v1 i =
, |v2 i =
,
1
1
1
1
−
0
1
=
1
0
,
rP
re
tal y como se esperaba, el otro vector ortogonal es el canónico.
2. Un subespacio de V4 , expandido por los siguientes vectores

 

2
1
 0 
 3 

 
|v1 i = 
 −1  , |v2 i =  1  ,
3
2
ad
o
tendrá una base ortogonal asociada dada por:



−1
 1 

hv2 |e1 i


|e1 i ≡ |v3 i = 
 0  ; |e2 i ≡ |v2 i − he1 |e1 i |e1 i = 
0

−1
 1 

|v3 i = 
 0 ,
0

 


1
−1
2
 1   1
0 
 
 − (−1) 
 0 = 1
1 
3
0
3





rr


1
 3 

hv1 |e1 i
hv1 |e2 i
− 9 
|e3 i ≡ |v1 i −
|e2 i −
|e1 i = 


−1
he2 |e2 i
he1 |e1 i
12 
2
Bo

5
4


 
 5
1
−1

 1   4
1 
 − (1) 
=
 0   7
1 
 −
 4
3
0

− 14





.




Y la base ortonormal asociada será:



−1
√

|e1 i
2
3
 1  ; |ê2 i = p |e2 i

|ê1 i = p
=
=


0
2
6 
he1 |e1 i
he2 |e2 i
0
√


1
1 
 ; |ê3 i
1 
3
1


 1
|e3 i
1
=
= 
he3 |e3 i
2
 −7
 5

− 15





.




En este ejemplo hemos mostrado que {|e1 i , |e2 i , |e3 i} son linealmente independientes y, por lo tanto, base de
un subespacio de V4 . Cabrı́a preguntarse: ¿Cómo construimos un cuarto vector, linealmente independiente a
los anteriores, que expanda todo V4 ?
2.3. VARIEDADES LINEALES
111
3. Suponga el espacio de polinomios, P n , de grado g ≤ n definidos
en el intervalo [−1, 1]. Este espacio vectorial
tendrá como una de las posibles bases al conjunto {|πi i} = 1, t, t2 , t3 , · · · , tn con el producto interno definido
por:22
Z
1
hπi | πj i =
dt πi (t)πj (t) .
−1
Procederemos a construir una base ortogonal {|Pi i}, y tomaremos como vector de inicio a |π0 i:
El siguiente vector será:
hπ1 |P0 i
|P0 i = t ⇐

hP0 |P0 i
 hP |P i = R 1 dt = 2
0
0
−1
in
|P1 i ≡ |π1 i −

R1

 hπ1 |P0 i = −1 dt t = 0
ar
|P0 i ≡ |π0 i = 1 .
El siguiente:
lim

R1

hπ2 |P0 i = −1 dt t2 = 23





R1
hπ2 |P0 i
1
hπ2 |P1 i
2
|P1 i −
|P0 i = t −
⇐
|P2 i ≡ |π2 i −
hπ2 |P1 i = −1 dt t3 = 0

hP1 |P1 i
hP0 |P0 i
3




R1

hP1 |P1 i = −1 dt t2 = 32
hπ3 |P2 i
hπ3 |P1 i
hπ3 |P0 i
|P2 i −
|P1 i −
|P0 i
hP2 |P2 i
hP1 |P1 i
hP0 |P0 i

R1
3

 hπ3 |P0 i = −1 dt t = 0




R1



hπ3 |P1 i = −1 dt t4 = 52

3
= t3 − t ⇐
R1

5

 hπ3 |P2 i = −1
dt t3 [t2 − 13 ] = 0






R1

8
hP2 |P2 i = −1 dt [t2 − 13 ]2 = 45
≡
|π3 i −
ad
o
|P3 i
rP
re
Para el cuarto:
Queda como ejercicio comprobar la ortogonalidad de los vectores recién calculados:
hP0 |P1 i = hP1 |P2 i = hP2 |P3 i = · · · = 0 .
rr
Esta base ortogonal está formada por los polinomios de Legendre, discutidos en la sección 2.3.4. Es decir, si ortogonalizamos una base de monomios {|πi i} mediante la definición de producto interno: hf | gi =
R1
dx f (x) g(x), obtendremos la base de polinomios ortogonales de Legendre.
−1
Bo
Podemos resumir los cálculos anteriores, construyendo también la base ortonormal a partir de los monomios
{|πi i} como se muestra a continuación:
E
|πn i
|Pn i
P̂n
1
1
t
t
t
2
2
t −
√1
q2
3
2
1
3
t3
t3 − 53 t
t4
..
.
t4 − 76 t2 +
..
.
22 En
q
1
5
2q 2
3
35
3
8
1
q2
1
2
7
2
t
2
3t − 1
5t3 − 3t
35t4 − 30t2 + 3
..
.
este punto es importante señalar la importancia de la definición de producto interno. Si esta definición hubiera sido hf | gi =
√
R1
f (x) g(x)
dx
f
(x) g(x) 1 − x2 o hf | gi = −1
dx √
las bases correspondientes a estas definiciones de producto interno serı́an distintas.
−1
2
R1
1−x
112
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
2.3.7.
Practicando con Maxima
Independencia Lineal
En 2.3.1 vimos que si en la ecuación |0i = C1 |v1 i + C2 |v2 i + C3 |v3 i · · · + Cn |vn i con todos los Ci = 0,
entonces se dirá que el conjunto de vectores son linealmente independientes. Para el primer ejemplo de esa sección
se obtuvo el siguiente sistema de ecuaciones:
+2C2
+C2
+3C2
−C3
+C3
= 0
= 0
= 0
= 0
ar
C1
3C1
−C1
2C1
in
que procedemos a resolver usando el comando linsolve:
(%i1) linsolve([C1+2*C2-C3=0, 3*C1+C3=0, -C1+C2=0, 2*C1+3*C2=0], [C1,C2,C3,C4]);
lim
solve: dependent equations eliminated: (4)
( %o1) [C1 = 0, C2 = 0, C3 = 0, C4 = %r1 ]
Bases para espacios vectoriales
En este ejercicio aprenderemos a calcular una base a partir de un conjunto de vectores perteneciente a un
determinado espacio vectorial. Por ejemplo, si en R5 tenemos el siguiente conjunto de vectores:
rP
re
|v1 i = (1, 2, 3, 4, 5) , |v2 i = (0, −1, 1, 2, 3) , |v3 i = (3, 2, 1, 0, −1) , |v4 i = (−4, −3, −2, −1, 0) .
(%i1) v1:[1,2,3,4,5]; v2:[0,-1,1,2,3]; v3:[3,2,1,0,-1]; v4:[-4,-3,-2,-1,0];
( %o1)
( %o2)
( %o3)
( %o4)
[1, 2, 3, 4, 5]
[0, −1, 1, 2, 3]
[3, 2, 1, 0, −1]
[−4, −3, −2, −1, 0]
Con los vectores dados construimos la siguiente matriz
ad
o
(%i5) M:matrix(v1,v2,v3,v4);


1
2
3
4
5
 0 −1 1
2
3

( %o5) 
3
2
1
0 −1
−4 −3 −2 −1 0
rr
Como veremos más adelante, el Rango de una matriz indica el número máximo de vectores fila o columna
linealmente independientes.
(%i6) rank(M);
Bo
( %o6) 3
Podemos aplicar el método de eliminación gaussiana a la matriz M para obtener una nueva matriz escalonada.
El cálculo además se hace normalizando el primer elemento no nulo de cada fila. Esto se logra con el comando
echelon(M).
(%i7) echelon(M);

1
0
1 23
3
0 1 −1 −2
( %o7) 
5
0 0 1
3
0 0 0
0

− 13
−3 

7 
3
0
Por lo tanto, cada fila de la matriz anterior conformará un conjunto de vectores linealmente independiente. Los
podemos aislar de la matriz con el comando row(M,i), que devolverá la i−ésima fila de la matriz M.
2.3. VARIEDADES LINEALES
113
(%i8) e1:row(%o7,1);
( %o8)
1
1
3
2
3
− 13
0
(%i9) e2:row(%o7,2);
( %o9)
0
−1
1
−2
−3
0
1
5
3
7
3
Es trivial verificar que el conjunto: {e1, e2, e3} es linealmente independientes.
solve: dependent equations eliminated: (3)
( %o11) [[α = 0, β = 0, γ = 0]]
lim
(%i11)solve(alpha*[1,2/3,1/3,0,-1/3]+beta*[0,1,-1,-2,-3]+
gamma*[0,0,0,5/3,7/3],[alpha,beta,gamma]);
in
( %o10) 0
ar
(%i10)e3:row(%o7,3);
Consideremos los vectores a = (1, 3) y b = (−1, 1) ¿Serán linealmente independientes?
( %o12) [[α = 0, β = 0]]
rP
re
(%i12)solve(alpha*[1,3]+beta*[-1,1],[alpha,beta]);
Los vectores a = (1, 2, 3) y b = (4, 8, 12) ¿Serán linealmente independientes?
(%i13)solve(alpha*[1,2,3]+beta*[4,8,12],[alpha,beta]);
solve: dependent equations eliminated: (2 3)
( %o13) [[α = −4 %r4 , β = %r4 ]]
ad
o
Aquı́ α = −4β.
Sea ahora {ei } = {(1, 1, 1), (1, 2, 1), (0, 0, 2)} una base para R3 . Vamos a calcular las componentes del vector
a = (3, 2, 1) respecto de esa base.
Primero verifiquemos si efectivamente es una base:
(%i14)solve(alpha*[1,1,1]+beta*[1,2,1]+gamma*[0,0,2],[alpha,beta,gamma]);
rr
( %o14) [[α = 0, β = 0, γ = 0]]
(%i15)solve([3,2,1]-ax*[1,1,1]-ay*[1,2,1]-az*[0,0,2],[ax,ay,az]);
Bo
( %o15) [[ax = 4, ay = −1, az = −1]]
Por lo tanto, a = 4e1 − e2 − e3 .
En la base canónica las componentes del vector a serán:
(%i16)solve([3,2,1]-ax*[1,0,0]-ay*[0,1,0]-az*[0,0,1],[ax,ay,az]);
( %o16) [[ax = 3, ay = 2, az = 1]]
Es decir, a = 3i + 2j + k.
(%i17)kill(all)$
114
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
Ortogonalización con Maxima
ortogonal a partir del siguiente conjunto de vectores


;



−1
 1 

|v3 i = 
 0 .
0
ar
Anteriormente hicimos los cálculos para hallar una base
linealmente independientes:



2
1
 0
 3 


|v1 i = 
 −1  ; |v2 i =  1
3
2
La función gramschmidt(x) es la que ejecuta el algoritmo de ortogonalización de Gram-Schmidt sobre el objeto
x. Si x es una matriz el algoritmo actúa sobre sus filas. Antes de usar la función es necesario cargar la librerı́a eigen.
([-1, 1, 0, 0], [2, 0, 1,3], [1,3, -1,2]);

0 0
1 3
−1 2
lim
(%i2) v:matrix

−1 1
( %o2)  2 0
1 3
in
(%i1) load("eigen")$
Notemos que el vector |v3 i es el que hemos puesto en la primera fila de la matriz. Ahora procedemos al cálculo:
rP
re
(%i3) e:gramschmidt(v);
5 5
7
1
( %o3) [−1, 1, 0, 0] , [1, 1, 1, 3] , 2 , 2 , − 2 , − 2
2 2
2
2
El resultado viene en forma de una lista: [e[1], e[2], e[3]]. Simplificando resulta:
(%i4) e:expand(%);
5 5 7 1
( %o4) [−1, 1, 0, 0] , [1, 1, 1, 3] , , , − , −
4 4 4 4
Podemos verificar que son ortogonales:
(%i5) map(innerproduct, [e[1], e[2], e[3]], [e[2], e[3], e[1]]);
ad
o
( %o5) [0, 0, 0]
Normalizamos ahora cada uno de los vectores:
Bo
rr
(%i6) e[1]/sqrt(innerproduct(e[1],e[1]));
1
1
( %o6) − √ , √ , 0, 0
2
2
(%i7) e[2]/sqrt(innerproduct(e[2],e[2]));
"
√ #
1
1
1
3
√ , √ , √ ,
( %o7)
2
2 3 2 3 2 3
(%i8) e[3]/sqrt(innerproduct(e[3],e[3]));
1 1
7
1
( %o8)
, ,− ,−
2 2 10 10
La función gramschmidt(x,F) nos permite definir un producto interno diferente a innerproduct. Veamos
como
se hace para el otro ejemplo donde el conjunto de vectores linealmente independientes estaba dado por:
1, t, t2 , t3 , · · · , tn .
(%i9) producto(f,g):=integrate(f*g, t, a, b);
Z
( %o9) producto(f,g) :=
b
f g dt
a
(%i10)e:gramschmidt ([1, t, t^2,t^3,t^4], producto), a= -1, b=1;
2.3. VARIEDADES LINEALES
115
#
3 t2 − 1 t 5 t2 − 3 35 t4 − 30 t2 + 3
,
,
( %o10) 1, t,
3
5
35
(%i11)e:expand(e);
1
3t
6 t2
3
( %o11) 1, t, t2 − , t3 − , t4 −
+
3
5
7
35
"
(%i12)map(producto, [e[1], e[2], e[3]], [e[2], e[3], e[1]]), a= -1, b=1;
( %o12) [0, 0, 0]
in
Para normalizar hacemos lo siguiente:
ar
Verifiquemos si son ortogonales:
(%i13)a: -1$ b:1$
lim
(%i14)e[1]/sqrt(producto(e[1], e[1]));
2.3.8.
ad
o
rP
re
1
( %o14) √
2
(%i15)e[2]/sqrt(producto(e[2], e[2]));
√
3t
( %o15) √
2
(%i16)e[3]/sqrt(producto(e[3], e[3]));
√
3 5 t2 − 13
( %o16)
3
22
(%i17)e[4]/sqrt(producto(e[4], e[4]));
√
5 7 t3 − 35t
( %o17)
3
22
Ejercicios
1. Diga si los siguientes conjuntos de vectores en P 3 son o no linealmente independientes.
a) |x1 i = 2x ,
|x2 i = x2 + 1 ,
b) |x1 i = x(x − 1) ,
|x2 i = x ,
|x3 i = x + 1 ,
|x3 i = x3 ,
|x4 i = x2 − 1.
|x4 i = 2x3 − x2 .
rr
2. Probar que los polinomios: |x1 i = 1 , |x2 i = x , |x3 i = 23 x2 −
Expresar |pi = x2 , |qi = x3 en función de esa base.
1
2
y |x4 i = 52 x3 − 32 x, forman una base en P4 .
Bo
3. Encontrar la proyección perpendicular de los siguientes vectores en C[−1,1] (espacio de funciones continuas en
el intervalo [-1,1]) al subespacio generado por los polinomios: {1, x, x2 − 1}. Calcular la distancia de cada una
de estas funciones al subespacio mencionado.
a) f (x) = xn , n entero.
b) f (x) = sen(x).
c) f (x) = 3x2 .
4. Utilizando el método de Gram-Schmidt encuentre una base ortonormal para los siguientes conjuntos de vectores:
a) |v1 i = (1, 0, 1) , |v2 i = (0, 1, 1) y |v3 i = (1, 0, 0). En R3 .
b) |v1 i = (2, −4, 5, 2) , |v2 i = (−6, 5, −1, −6) y |v3 i = (−10, 13, −4, −3). En R4 .
116
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
5. Utilizando Maxima reproduzca el ejemplo 3 que expusimos en la página 111. Es decir, suponga el espacio de
polinomios, P n , de grado g ≤ n definidos
en el intervalo [−1, 1]. Este espacio vectorial tendrá como una de
las posibles bases al conjunto {|πi i} = 1, t, t2 , t3 , · · · , tn , pero en este caso con el producto interno definido
√
R1
por: hf | gi = −1 dx f (x) g(x) 1 − x2 . Encuentre la base ortogonal correspondiente. A esta nueva base se le
conoce como polinomios de Chebyshev de segunda especie23 .
ar
6. Otra vez,R utilizando Maxima, reproduzca el ejercicio anterior, pero con la definición de producto interno:
1
(x) g(x)
hf | gi = −1 dx f √
. A esta nueva base se le conoce como polinomios de Chebyshev de primera especie.
1−x2
7. Resuelva los problemas 1-4 utilizando Maxima.
Aproximación de funciones
in
2.4.
Complementos ortogonales y descomposición ortogonal
rP
re
2.4.1.
lim
Armados de los conocimientos previos podemos pasar a aplicarlos en un intento de aproximar funciones. La
aproximación de una función tiene varias facetas y seguramente en cursos anteriores hemos hecho este tipo de
aproximaciones una buena cantidad de veces cuando necesitábamos convertir una expresión, que nos resultaba
muy complicada, en otras más sencillas y casi equivalentes. Por ejemplo, cuando aplicamos la aproximación lineal:
f (x) ≈ f (x0 ) + f 0 (x0 )(x − x0 ), con x muy cercano a x0 ¿Cuántas veces no hemos utilizado la aproximación:
sen(x) ≈ x? También aproximamos funciones cuando en el laboratorios nos veı́amos en la necesidad de “ajustar con
la mejor curva” una serie de puntos experimentales.
Consideremos primero algunos conceptos importantes.
Sea un subespacio S ⊂ V. Un elemento |v̄i i ∈ V se dice ortogonal a S si hsk |v̄i i = 0 ∀ |sk i ∈ S, es decir, es
ortogonal a todos los elementos de S. El conjunto {|v̄1 i , |v̄2 i , |v̄3 i , · · · , |v̄m i} de todos los elementos ortogonales a
S, se denomina S−perpendicular y se denota como S⊥ . Es fácil demostrar que S⊥ es un subespacio, aún si S no lo
es.
Dado un espacio euclidiano de dimensión infinita V : {|v1 i , |v2 i , |v3 i , · · · , |vn i , · · · } y un subespacio S ⊂ V
con dimensión finita: dim S = m. Entonces, ∀ |vk i ∈ V puede expresarse como la suma de dos vectores |sk i ∈
⊥
S ∧ |sk i ∈ S⊥ . Esto es:
⊥
⊥
|vk i = |sk i + |sk i , |sk i ∈ S ∧ |sk i ∈ S⊥ .
ad
o
La norma de |vk i se calcula a través del teorema de Pitágoras generalizado:
2
2
k|vk ik = k|sk ik + |sk i
⊥
2
.
⊥
rr
La demostración es sencilla. Primero se prueba que la descomposición ortogonal |vk i = |sk i + |sk i es siempre posible. Para ello recordamos que S ⊂ V es dedimensión finita, por lo tanto existe una base ortonormal
⊥
{|ê1 i , |ê2 i , |ê3 i , · · · , |êm i} para S. Es decir, dado un |vk i definimos los elementos |sk i y |sk i como sigue:
|sk i =
m
X
hvk |êi i |êi i
∧
⊥
|sk i = |vk i − |sk i .
i=1
Bo
Nótese que hvk |êi i |êi i es la proyección de |vk i a lo largo de |êi i y |sk i se expresa como la combinación lineal de
la base de S, por lo tanto, está en S. Por otro lado:


m
X
⊥
⊥
hsk |êi i = hvk −sk |êi i = hvk |êi i − hsk |êi i = hvk |êi i − 
hvk |êj i hêj | |êi i = 0 ⇒ |sk i ⊥ |êj i ,
j=1
⊥
lo cual indica que |sk i ∈ S⊥ .
⊥
Podemos ir un poco más allá y ver que la descomposición |vk i = |sk i + |sk i es única en V. Para ello suponemos
que existen dos posibles descomposiciones, vale decir:
|vk i = |sk i + |sk i
⊥
∧ |vk i = |tk i + |tk i
⊥
23 https://en.wikipedia.org/wiki/Chebyshev_polynomials
,
⊥
con |sk i ∧ |tk i ∈ S ∧ |sk i
⊥
∧ |tk i ∈ S⊥ .
2.4. APROXIMACIÓN DE FUNCIONES
117
Por lo tanto:
⊥
⊥
⊥
⊥
|vk i − |vk i = |sk i + |sk i − |tk i + |tk i
= 0 ⇒ |sk i − |tk i = |tk i − |sk i .
⊥
⊥
2
k|vk ik = |sk i + |sk i
⊥
2
ar
Pero |sk i − |tk i ∈ S, es decir, ortogonal a todos los elementos de S⊥ y |sk i − |tk i = |tk i − |sk i . Con lo
cual |sk i − |tk i ≡ |0i, que es el único elemento que es ortogonal a si mismo y en consecuencia la descomposición
⊥
|vk i = |sk i + |sk i es única.
Finalmente, con la definición de norma:
⊥
⊥
⊥
⊥
2
= hsk | + hsk |
|sk i + |sk i
= hsk |sk i +⊥ hsk |sk i = k|sk ik + |sk i
|sk i ∈ S ⇒ |sk i =
m
X
.
in
Ası́, dado Sm un subespacio de V de dimensión finita y dado un |vk i ∈ V el elemento:
2
hvk |ei i |ei i ,
lim
i=1
será la proyección de |vk i en S.
En general, dado un vector |xi ∈ V y un subespacio de V con dimensión finita, Sm ⊂ V y dim S = m, entonces
la distancia de |xi a Sm es la norma de la componente de |xi, perpendicular a Sm . Más aún, esa distancia será
mı́nima y |xiSm la proyección de |xi, en Sm será el elemento de Sm más próximo a |xi y, por la mejor aproximación.
Condiciones para la aproximación de funciones
rP
re
2.4.2.
Sea V = {|v1 i , |v2 i , |v3 i , · · · , |vn i , · · · } un espacio euclidiano de dimensión infinita, y un subespacio Sm ⊂ V,
con dimensión finita, dim S = m, y sea un elemento |vi i ∈ V. La proyección de |vi i en Sm , |si i , será el elemento de
Sm más próximo a |vk i. En otras palabras:
k|vi i − |si ik ≤ k|vi i − |ti ik ∀ |ti i ∈ S .
La demostración se sigue ası́:
2
2
2
|vi i − |ti i = (|vi i − |si i) + (|si i − |ti i) ⇒ k|vi i − |ti ik = k|vi i − |si ik + k|si i − |ti ik ,
⊥
ad
o
ya que |vi i − |si i = |sk i ∈ S⊥ ∧ |si i − |t i i ∈ S, y vale el teorema de Pitágoras generalizado.
Ahora bien, como:
2
2
2
k|si i − |ti ik ≥ 0 ⇒ k|vi i − |ti ik ≥ k|vi i − |si ik
⇒ k|vi i − |ti ik ≥ k|vi i − |si ik .
J
rr
En la sección 2.3.4 consideramos la expansión de funciones continuas, reales de variable real, definidas en [0, 2π],
∞
C[0,2π]
, mediante funciones trigonométricas y con el producto interno definido por:
Z
hf | gi =
2π
dx f (x) g(x) .
0
Bo
En ese entonces consideramos, para ese espacio vectorial, una base ortogonal definida por:
|e0 i = 1,
|e2n−1 i = cos(nx)
y
|e2n i = sen(nx) ,
con n = 1, 2, 3, · · ·
Por lo tanto, cualquier función definida en el intervalo [0, 2π] puede expresarse en términos de esta base como
mostramos a continuación:
∞
X
|f i =
Ci |ei i .
i=1
Los Ci son los coeficientes de Fourier. Es decir, cualquier función puede ser expresada como una serie de Fourier
de la forma:
∞
X
1
[ak cos(kx) + bk sen(kx)] ,
f (x) = a0 +
2
k=1
118
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
donde:
Z
Z
1 2π
1 2π
dx f (x) cos(kx) ∧ bk =
dx f (x)sen(kx) .
π 0
π 0
Es claro que para la aproximación de funciones por funciones trigonométricas cuyos coeficientes son los coeficien∞
tes de Fourier constituyen la mejor aproximación. Por lo tanto, de todas las funciones F(x) ∈ C[0,2π]
las funciones
trigonométricas, T (x) minimizan la desviación cuadrática media:
Z 2π
Z 2π
2
2
dx (f (x) − P(x)) ≥
dx (f (x) − T (x)) .
ak =
2.4.3.
0
ar
0
El método de mı́nimos cuadrados
|xi = c |1i ⇒ c =
lim
in
Una de las aplicaciones más importantes en la aproximación de funciones es el método de mı́nimos cuadrados.
La idea es determinar el valor más aproximado de una cantidad fı́sica, c, a partir de un conjunto de medidas
experimentales: {x1 , x2 , x3 , · · · , xn }. Para ello asociamos ese conjunto de medidas con las componentes de un vector
|xi ≡ (x1 , x2 , x3 , · · · , xn ) en Rn y supondremos que su mejor aproximación, que llamaremos c |1i ≡ (c, c, c, · · · , c),
será la proyección perpendicular de |xi (las medidas) sobre el subespacio generado por |1i. Esto es:
x1 + x2 + x3 , · · · + xn
hx |1i
=
,
h1 |1i
n
que no es otra cosa que construir -de una manera sofisticada- el promedio aritmético de las medidas. Es claro que
la proyección perpendicular de |xi sobre |1i hace mı́nima la distancia entre el subespacio perpendicular generado
por |1i y el vector |xi, con ello también hará mı́nimo su cuadrado:
n
X
rP
re
2
2
[d (|xi , c |1i)] = k|x − cik = hx − c |x − ci =
2
(xi − c) .
i=1
Esta manera sofisticada, que se deriva del formalismo utilizado, muestra el significado del promedio aritmético
como medida más cercana al valor “real” de una cantidad obtenida a partir de una serie de medidas experimentales.
Obviamente, este problema se puede generalizar para el caso de dos (o n) cantidades si extendemos la dimensión
del espacio y los resultados experimentales se expresarán como un vector de 2n dimensiones
|xi = (x11 , x12 , x13 , · · · x1n , x21 , x22 , x23 , · · · x2n ) ,
ad
o
mientras que los vectores que representan las cantidades más aproximadas serán:


c1 |11 i = c1 ,c1 ,c1 , · · · , c1 , 0, 0, 0, · · · 0
{z
}|
{z
}
|
n
∧
c2 |12 i = (0, 0, 0, · · · , 0, c2 , c2 c2 , · · · c2 ) .
n
Ahora {|11 i , |12 i} expanden un subespacio vectorial sobre el cual |xi tiene como proyección ortogonal a:
c1 |11 i +c2 |12 i y consecuentemente |x−c1 11 − c2 12 i será perpendicular a {|11 i , |12 i}. Por lo tanto:
hx |11 i
x11 + x12 + x13 , · · · + x1n
=
h11 |11 i
n
rr
c1 =
∧
c2 =
hx |12 i
x21 + x22 + x23 , · · · + x2n
=
.
h12 |12 i
n
Bo
Quizá la consecuencia más conocida de esta forma de aproximar funciones es el “ajuste” de un conjunto de
datos experimentales {(x1 , y1 ) , (x2 , y2 ) , (x3 , y3 ) , · · · , (xn , yn )} a la ecuación de una recta y = cx. En este caso, el
planteamiento del problema se reduce a encontrar el vector c|xi, en el subespacio S (|xi), que esté lo más cercano
posible al vector |yi.
Como en el caso anterior, queremos que la distancia entre |yi y su valor más aproximado c |xi sea la menor
2
posible. Por lo tanto, k|cx − yik será la menor posible y |cx − yi será perpendicular a S (|xi), por lo que:
hx |cx − yi = 0 ⇒ c =
hx |yi
x1 y1 + x2 y2 + x3 y3 + · · · + xn yn
=
.
hx |xi
x21 + x22 + x23 + · · · + x2n
Si la recta a “ajustar” es y = cx + b el procedimiento será uno equivalente: proyectar sobre los vectores y obtener
ecuaciones. Si representamos |bi = b |1i, tendremos:

Pn
Pn
Pn
2
 hx |yi = c hx |xi + hx |bi ⇒
i=1 xi yi = c
i=1 xi + b
i=1 xi
|yi = c |xi + |bi ⇒
Pn
Pn

hb |yi = c hb |xi + hb |bi ⇒
i=1 yi = c
i=1 xi + bn
2.4. APROXIMACIÓN DE FUNCIONES
119
Interpolación polinomial de puntos experimentales
in
2.4.4.
ar
Que no es otra cosa que un sistema de dos ecuaciones con dos incógnitas: c y b. Por simplicidad y conveniencia
continuaremos con el análisis del caso b = 0, vale decir, aproximando las medidas experimentales a una recta que
pase por el origen de coordenadas y = cx. El lector podrá extender el procedimiento para caso b 6= 0.
Para tratar de entender (y extender) lo antes expuesto, consideremos tres ejemplos que muestran la versatilidad
del método y la ventaja de disponer de una clara notación. Primeramente, mostraremos el caso más utilizado para
construir el mejor ajuste lineal a un conjunto de datos experimentales. Buscaremos la mejor recta que describe
ese conjunto de puntos. Luego mostraremos la aplicación del método para buscar la mejor función multilineal,
es decir, que ajustaremos la mejor función de n variables con una contribución lineal de sus argumentos: y =
y(x1 , x2 , · · · , xn ) = c1 x1 + c2 x2 + · · · + cn xn . Este caso tendrá una complicación adicional, por cuando realizaremos
varias mediciones de las variables. En los ejemplos de la sección 2.4.5 analizaremos varios casos en los cuales
extendemos el método.
rP
re
lim
Muchas veces nos encontramos con la situación en la cual tenemos un conjunto de (digamos n) medidas o puntos
experimentales {(x1 , y1 ), (x2 , y2 ), · · · , (xn , yn )} y para modelar ese experimento quisiéramos una función que ajuste
estos puntos, de manera que: {(x1 , y1 = f (x1 )), (x2 , y2 = f (x2 )), · · · , (xn , yn = f (xn ))}.
El tener una función nos provee la gran ventaja de poder intuir o aproximar los puntos que no hemos medido.
La función candidata más inmediata es un polinomio y debemos definir el grado del polinomio y la estrategia que
aproxime esos puntos. Puede ser que no sea lineal el polinomio y queramos ajustar esos puntos a un polinomio tal
que éste pase por los puntos experimentales. Queda entonces por decidir la estrategia. Esto es, si construimos la
función como “trozos” de polinomios que ajusten a subconjuntos: {(x1 , y1 = f (x1 )), (x2 , y2 = f (x2 )), · · · , (xm , ym =
f (xm ))} con m < n de los puntos experimentales. En este caso tendremos una función de interpolación para cada
conjunto de puntos. También podemos ajustar la función a todo el conjunto de puntos experimentales y, en ese caso
el máximo grado del polinomio que los interpole será de grado n − 1.
Para encontrar este polinomio lo expresaremos como una combinación lineal de polinomios de Legendre, una
base ortogonal que hemos discutido con anterioridad en la secciones 2.3.4 y 2.3.6. Esto es:

y1 = f (x1 ) = C0 P0 (x1 ) + C1 P1 (x1 ) + · · · + Cn−1 Pn−1 (x1 )



n−1
n−1
 y2 = f (x2 ) = C0 P0 (x2 ) + C1 P1 (x2 ) + · · · + Cn−1 Pn−1 (x2 )
X
X
Ck Pk (x) ⇒
Ck |Pk i =
f (x) =
..

.

k=0
k=0


yn = f (xn ) = C0 P0 (xn ) + C1 P1 (xn ) + · · · + Cn−1 Pn−1 (xn )
2.4.5.
ad
o
que no es otra cosa que un sistema de n ecuaciones con n incógnitas: los coeficientes {C0 , C1 , · · · Cn−1 }.
Al resolver el sistema de ecuaciones y obtener los coeficientes, podremos obtener la función polinómica que
interpola esos puntos. Una expansión equivalente se pudo haber logrado con cualquier otro conjunto de polinomios
ortogonales, ya que ellos son base del espacio de funciones.
Ejemplos
rr
Series de Fourier
Bo
Un ejemplo sencillo para aprender el mecanismo del cálculo de los coeficientes para la aproximación de funciones
en series de Fourier lo podemos hacer para la siguiente función.
Los coeficientes serán:
Z
2π 2
1 π 2
a0 =
x dx =
,
π −π
3
f (x) = x2 ,
an =
1
π
Z
−π ≤ x ≤ π .
π
−π
x2 cos(nx)dx =
4 cos(nπ)
4(−1)n
=
,
2
n
n2
bn = 0 ∀ n.
Se puede verificar que si f (x) es par (f (−x) = f (x)) sólo la parte que contiene cos(nx) contribuirá a la serie.
Si f (x) es impar (f (−x) = −f (x)), lo hará sólo la parte que contiene sen(nx).
Por lo tanto:
f (x) = x2 =
∞
X
π2
(−1)n
π2
4
1
+4
cos(nx) =
− 4 cos (x) + cos (2 x) − cos (3 x) + cos (4 x) − · · · .
2
3
n
3
9
4
n=1
120
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
Mı́nimos cuadrados
Mostraremos como se puede utilizar el método de mı́nimos cuadrados para ajustar un conjunto de datos experimentales a un polinomio de cualquier grado. Veamos estos tres primeros casos:
1. La situación más simple será el conjunto de datos experimentales: (x1 , y1 ), (x2 , y2 ), · · · , (xn , yn ), y nos preguntamos ¿Cuál será la recta, y = cx, que ajusta más acertadamente a estos puntos? Es inmediato darnos
cuenta que la pendiente de esa recta será:
hx |yi
.
hx |xi
ar
|yi = c |xi ⇒ c =
lim
in
Consideremos los puntos experimentales: {(1, 2) , (3, 2) , (4, 5) , (6, 6)}, entonces:
 
 
1
2
 3 
 2 
hx |yi
2 + 6 + 20 + 36
32
 

|yi = c |xi ⇒ 
 5  = c  4  ⇒ c = hx |xi = 1 + 9 + 16 + 36 = 31 = 1,03226 .
6
6
¿Cuál serı́a el ajuste para el caso de una recta y = cx + b? Queda como ejercicio para el lector utilizar el
esquema descrito en las ecuaciones (2.4.3) y encontrar los parámetros c y b para este nuevo ajuste.
rP
re
2. El segundo caso que consideraremos será la generalización a una contribución lineal de varios parámetros, i.e.
un “ajuste” multilineal a la mejor función, y = y(x1 , x2 , · · · , xm ) = c1 x1 +c2 x2 +· · ·+cm xm . El procedimiento
anterior puede generalizarse de forma casi inmediata:

hx1 |yi = c1 hx1 |x1 i + c2 hx1 |x2 i + · · · + cm hx1 |xj i



m
 hx2 |yi = c1 hx2 |x1 i + c2 hx2 |x2 i + · · · + cm hx2 |xj i
X
|yi =
cj |xj i ⇒
..
..

.
.

j=1


hxm |yi = c1 hxm |x1 i + c2 hxm |x2 i + · · · + cm hxm |xj i .
Es decir, un sistema de m ecuaciones con m incógnitas que corresponden a los “pesos”, c1 , c2 , · · · , cm , de las
contribuciones a la función multilineal.
ad
o
Supongamos ahora un paso más en este afán de generalizar y consideremos que ejecutamos n experimentos
con n > m. De esta forma nuestro problema adquiere un grado mayor de riqueza y las medidas experimentales
estarán representadas ahora por:
(y1 , x11 , x12 , · · · x1m ; y2 , x21 , x22 , · · · x2m ; y3 , x31 , x32 , · · · x3m ; · · · yn , xn1 , xn2 , xn3 , · · · xnm ) ,
por lo tanto, podremos construir m vectores:
|x̃1 i = (x11 , · · · , x1n ) ; |x̃2 i = (x21 , · · · , x2n ) ; · · · |x̃m i = (xm1 , · · · , xmn ) ; |yi = (ym1 , · · · , yn ) ,
Bo
rr
y el conjunto {|x̃1 i , |x̃2 i , · · · , |x̃m i} expande el subespacio S (|x̃1 i , |x̃2 i , · · · |x̃m i), que alberga la aproximación
de |yi. Otra vez, la distancia de este subespacio al vector |yi, será mı́nima, y por lo tanto, será la mejor
aproximación:
2
[d (S (c̃i |x̃i i) , |yi)] = hS (c̃i |x̃i i) − y |S (c̃i |x̃i i) − yi ,
y |S (c̃i |x̃i) − yi será ortogonal a los |x̃i i:
hx̃j |S (c̃i |x̃i) − yi ≡ hx̃i
Finalmente, el problema queda de la misma

hx̃1 |yi



m
 hx̃2 |yi
X
|yi =
c̃j |x̃j i ⇒
..

.

j=1


hx̃m |yi
m
X
+
ci |x̃i − y
= 0 ∀ i, j = 1, 2, 3, · · · m .
i=1
manera que en el caso multilineal (2):
= c̃1 hx̃1 |x̃1 i + c̃2 hx̃1 |x̃2 i + · · · + c̃m hx̃1 |x̃j i
= c̃1 hx̃2 |x̃1 i + c̃2 hx̃2 |x̃2 i + · · · + c̃m hx̃2 |x̃j i
..
.
= c̃1 hx̃m |x̃1 i + c̃2 hx̃m |x̃2 i + · · · + c̃m hx̃m |x̃j i .
2.4. APROXIMACIÓN DE FUNCIONES
121
3. Se puede extender el razonamiento anterior y generar un ajuste “lineal no lineal”. Esto es: el ajuste lineal es
en los coeficientes, pero la funcionalidad de la ley a la cual queremos ajustar los datos puede ser un polinomio
de cualquier orden. Ese es el caso de una parábola que ajusta, por ejemplo, al siguiente conjunto de puntos:
{(0, 1) , (1, 3) , (2, 7) , (3, 15)}
y = ax2 + bx + c .
⇔
Las ecuaciones toman la siguiente forma:
+0
+b
+2b
+3b
+c
+c
+c
+c
ar
1=
0
3= a
7 = 4a
15 = 9a
y los vectores construidos a partir de los datos experimentales serán:
|x2 i = (0, 1, 2, 3) ,
|x3 i = (1, 1, 1, 1) ,
|yi = (1, 3, 7, 15) .
in
|x1 i = (0, 1, 4, 9) ,
lim
Una vez más, la ecuación vectorial serı́a: |yi = a |x1 i + b |x2 i + c |x3 i, y las ecuaciones normales (2) para este
sistema se construyen como:





 a = −6 




136 = 98a +36b +14c 


113
32
113
62 = 36a +14b
+6c
b= 5
⇒ y = −6x2 +
x−
.
⇒



5
5


26 = 14a +6b
+4c






c = − 32
5
rP
re
4. Para finalizar analicemos el caso tı́pico de aproximación por mı́nimos cuadrados. Se sospecha que una determinada propiedad de un material cumple con la ecuación y = ax1 +bx2 y realizamos 4 mediciones independientes
obteniendo:



 


 


 

 
y4
0
y3
10
y2
12
y1
15
 x11  =  1  ,  x21  =  2  ,  x31  =  1  ;  x41  =  1  .
−1
1
x42
1
x32
2
x22
x12
Es claro que tenemos un subespacio de m = 2 dimensiones, que hemos hecho n = 4 veces el experimento y
que los vectores considerados arriba serán:
|x2 i = (2, 1, 1, −1) ,
ad
o
|x1 i = (1, 2, 1, 1) ,
|yi = (15, 12, 10, 0) .
Por lo tanto, vectorialmente tendremos: |yi = a |x1 i + b |x2 i, es decir, las ecuaciones normales (2) se escribirán
de la siguiente manera:
7a +4b
4a +7b
= 49
= 52
⇒

 a=
45
11


b=
56
11


⇒ 11y = 45x1 + 56x2 .
rr
Aproximación polinómica
Bo
Consideremos, por ejemplo, los puntos experimentales representados en la figura 2.3. Aquı́ a = 2 y b = 12, por
lo tanto: x = 5t + 7 y dx = 5dt ⇒ t = (x − 7)/5 y dt = dx/5.
Cuando construimos el sistema de ecuaciones obtenemos lo siguiente:
(−1, 8) ⇒
8 = C0 − C1 + C2 − C3 + C4 − C5
− 53 , 10
⇒
10 = C0 −
3
5
C1 +
1
25
C2 +
9
25
C3 −
51
125
C4 +
477
3125
C5
− 15 , 11
⇒
11 = C0 −
1
5
C1 −
11
25
C2 +
7
25
C3 +
29
125
C4 −
961
3125
C5
1
5 , 18
⇒
18 = C0 +
1
5
C1 −
11
25
C2 −
7
25
C3 +
29
125
C4 +
961
3125
C5
3
5 , 20
⇒
20 = C0 +
3
5
C1 +
1
25
C2 −
9
25
C3 −
51
125
C4 −
477
3125
C5
(1, 34) ⇒
34 = C0 + C1 + C2 + C3 + C4 + C5
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
lim
in
ar
122
Figura 2.3: A la izquierda los puntos experimentales: {(2, 8), (4, 10), (6, 11), (8, 18), (10, 20), (12, 34)} y a la derecha
la función polinómica que los interpola.
C0 =
2249
,
144
C1 =
con lo cual:
P(x) = f (x) =
rP
re
Al resolver este sistema obtendremos:
3043
,
336
C2 =
1775
,
504
C3 = −
175
,
216
C4 =
625
,
336
C5 =
14375
,
3024
1775
175
625
14375
2249 3043
+
x+
P (2, x) −
P (3, x) +
P (4, x) +
P (5, x) .
144
336
504
216
336
3024
Bo
rr
ad
o
y la interpolación queda representada en la figura 2.3.
Es importante hacer notar que debido a que los polinomios de Legendre están definido en el intervalo [−1, 1]
los puntos experimentales deberán reescalarse a ese intervalo para poder encontrar el polinomio de interpolación
como combinación lineal de los polinomios de Legendre. Esto se puede hacer con la ayuda del siguiente cambio de
variable:
(b − a)t + b + a
b−a
x=
, dx =
dt ,
2
2
donde a y b son los valores mı́nimos y máximos de los datos, respectivamente.
Nótese que mientras más puntos experimentales se incluyan para la interpolación, el polinomio resultante será
de mayor grado y, por lo tanto incluirá oscilaciones que distorsionarán una aproximación más razonable. Por ello,
la estrategia de hacer la interpolación a trozos, digamos de tres puntos en tres puntos, generará un mejor ajuste,
pero será una función (un polinomio) continua a trozos.
2.4. APROXIMACIÓN DE FUNCIONES
2.4.6.
123
Practicando con Maxima
Series de Fourier
Existe una librerı́a llamada fourie en Maxima que contiene instrucciones para el cálculo simbólico de series
de Fourier de una función f (x) en el intervalo [−l, l]: fourier (f, x, l). También encontraremos un conjunto de
comandos en el paquete para calcular los coeficientes y para manipular las expresiones resultantes.
ar
(%i1) load(fourie)$
En el ejemplo anterior aproximamos la función:
f (x) = x2 .
in
Veamos como se trabaja con el programa para calcular la serie de Fourier. Los resultados aparecerán en la forma
de listas temporales y entre ellas los coeficientes. Las listas temporales serán indicadas con la notación ( %t ).
( %o2) x2
(%i3) fourier(f,x,%pi);
π2
3 2
2 π
( %t4) an =
sin(π n)
n
( %t5) bn = 0
( %o5) [ %t3 , %t4 , %t5 ]
−
2 sin(π n)
n3
π
+
2 π cos(π n)
n2
rP
re
( %t3) a0 =
lim
(%i2) f:x^2;
Lo anterior se puede simplificar con el comando foursimp:
(%i6) foursimp(%);
π2
3
n
4 (−1)
( %t7) an =
n2
( %t8) bn = 0
( %o8) [ %t6 , %t7 , %t8 ]
ad
o
( %t6) a0 =
Podemos evaluar la lista de los coeficiente hasta el término k. Aquı́ lo haremos hasta k = 4 y el resultado lo lo
asignaremos a la variable F . Por otro lado, usaremos ( %o8), la última salida, como entrada para siguiente comando.
rr
(%i9) F:fourexpand(%o8,x,%pi,4);
( %o9)
cos (4 x) 4 cos (3 x)
π2
−
+ cos (2 x) − 4 cos x +
4
9
3
Bo
Construiremos ahora en un mismo gráfico la función original y los primeros 5 términos de la serie, de esta manera
podremos comparar el resultado de la aproximación. Las opciones para realizar los diferentes gráficos en Maxima
se pueden consultar en el manual de programa.
(%i10)wxplot2d([F,f], [x,-%pi,%pi],[legend, "F", "x^2"])$
( %o10)
Veamos que sucede si escribimos:
(%i11)totalfourier(f,x,%pi);
( %t11) a0 =
π2
3
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
2
( %t12) an =
π 2 sin(π n)
n
−
2 sin(π n)
n3
+
2 π cos(π n)
n2
rP
re
π
( %t13) bn = 0
π2
( %t14) a0 =
3
n
4 (−1)
( %t15) an =
2
n
( %t16) bn = 0
∞
n
X
(−1) cos (n x) π 2
( %o16) 4
+
n2
3
n=1
lim
in
ar
124
En este caso fueron aplicados de manera simultánea los comandos fourier y foursimp para finalmente presentar
la serie en forma de una sumatoria.
Bo
rr
ad
o
(%i17)kill(all)$
2.4. APROXIMACIÓN DE FUNCIONES
125
Mı́nimos Cuadrados
Maxima puede estimar los parámetros que mejor se ajusten a una función f = (x, y) para un conjunto de
datos, utilizando el método de mı́nimos cuadrados. El programa buscará primero una solución exacta, si no la
encuentra buscará una aproximada. El resultado lo presentará como una lista de ecuaciones. La función a utilizar
será lsquares.
Vamos a considerar los ejemplos estudiados con anterioridad:
ar
1. En el primer ejemplo los datos eran los siguientes:
(x, y) = (1, 2) , (3, 2) , (4, 5) , (6, 6) .
in
Es necesario hacer uso de la librerı́a lsquares y los los datos deben introducirse en forma de matriz.
(%i1) load(lsquares)$
lim
(%i2) datos: matrix([1,2],[3,2],[4,5],[6,6])$
Por conveniencia, para más adelante hacer un gráfico, convertimos la matrix “datos” en una lista. Esto es
sencillo si utilizamos el comando args:
(%i3) datosL:args(datos);
rP
re
( %o3) [[1, 2] , [3, 2] , [4, 5] , [6, 6]]
Supondremos entonces que los puntos se ajustan a un polinomio lineal del tipo: y = ax. El parámetro a se
calcula con la función lsquares estimates. Es importante prestar bastante atención a la sintaxis del siguiente
comando.
(%i4) param: lsquares_estimates(datos,[x,y],y=a*x,[a]), numer;
( %o4) [[a = 1,032258064516129]]
ad
o
Este será entonces el valor del parámetro a de la ecuación de la recta y = ax que pasa por el origen. Notemos
también que le hemos asignado el valor del parámetro a a la variable param.
Lo que haremos ahora es escribir la ecuación de dicha recta. Podemos hacer uso de la instrucción ev que nos
permite evaluar una expresión.
(%i5) y:ev(a*x,first(param));
rr
( %o5) 1,032258064516129 x
Bo
Procederemos ahora a graficar los datos experimentales vs el ajuste por mı́nimos cuadrados en un mismo
gráfico. Recordemos que el conjunto de puntos lo tenemos en la forma de una lista, que hemos denominada
más arriba como datosL. Mientras que al ajuste que hemos calculado, es decir, la recta: 1,032258064516129 x’
le hemos asignado la variable denominada y.
Es recomendable consultar el manual del programa, en la parte que tiene que ver con gráficos, plot2d, plot3d,
para identificar la sintaxis que aparecerá en la siguiente instrucción.
126
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
(%i6)
wxplot2d([[discrete,datosL], y], [x,0,10],[style, [points,5,2], [lines,2,1]],
[point_type, plus], [legend,"Datos","y=ax"],[xlabel, "x"],[ylabel, "y"])$
lim
in
ar
( %o6)
rP
re
Nota: Se deja como ejercicio repetir éste mismo cálculo pero usando un ajuste para los datos de la forma:
y = ax + b.
2. Consideremos el conjunto de datos: |x1 i = (1, 2, 1, 1) , |x2 i = (2, 1, 1, −1) , |yi = (15, 12, 10, 0). Vamos a
suponer que ajustan de la manera siguiente: |yi = a |x1 i + b |x2 i.
(%i7) datos2: matrix([1,2,15],[2,1,12],[1,1,10],[1,-1,0])$
Cambiemos ligeramente la notación por: z = ax + by y calculemos los parámetros a y b.
ad
o
(%i8) param: lsquares_estimates(datos2,[x,y,z], z=a*x+b*y,[a,b]), numer;
( %o8) [[a = 4,090909090909091, b = 5,090909090909091]]
3. Para el tercer ejemplo se consideraron los siguientes datos:
{(0, 1) , (1, 3) , (2, 7) , (3, 15)}
⇔
y = ax2 + bx + c .
rr
Haremos con Maxima el cálculo directo usando un ajuste cuadrático para los datos suministrados.
(%i9) datos3: matrix([0,1],[1,3],[2,7],[3,15])$
Bo
(%i10)datosL3: args(datos3)$
(%i11)param: lsquares_estimates(datos3,[x,y], y=a*x^2+b*x+c,[a,b,c]), numer;
( %o11) [[a = 1,5, b = 0,1, c = 1,1]]
(%i12)y2:ev(a*x^2+b*x+c,first(param))$
Como hicimos anteriormente, graficamos los datos y el ajuste cuadrático en una misma figura.
(%i13)wxplot2d([[discrete,datosL3], y2], [x,0,4],[style, [points,5,2], [lines,2,1]],
[point_type, plus], [legend,"Datos","y=ax^2+bx+c"],[xlabel, "x"],[ylabel, "y"])$
( %o13)
127
lim
in
ar
2.4. APROXIMACIÓN DE FUNCIONES
(%i14)kill(all)$
Polinomios ortogonales
(%i1) load (orthopoly)$
rP
re
Maxima contiene la librerı́a orthopoly que nos permite acceder a la evaluación simbólica y numérica de los
diferentes tipos de polinomios ortogonales: Chebyshev, Laguerre, Hermite, Jacobi, Legendre...
Por ejemplo, para obtener los primeros 6 polinomios de Legendre escribimos los siguientes comandos:
(%i2) [legendre_p(0,x),legendre_p(1,x),legendre_p(2,x),
legendre_p(3,x),legendre_p(4,x),legendre_p(5,x)]$
ad
o
Simplificamos con ratsimp:
Bo
rr
(%i3) ratsimp (%);
3 x2 − 1 5 x3 − 3 x 35 x4 − 30 x2 + 3 63 x5 − 70 x3 + 15 x
,
,
,
( %o3) 1, x,
2
2
8
8
128
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
Los diferentes polinomios de Legendre se pueden visualizar de la manera siguiente:
(%i4) wxplot2d(%,[x,-1,1],[legend, "P0", "P1","P2", "P3","P4", "P5" ])$
lim
in
ar
( %o4)
rP
re
Ahora bien, con los datos de la figura 2.3 se planteó un sistema de ecuaciones lineales:
(%i5) ecu1:C0-C1+C2-C3+C4-C5=8$
(%i6) ecu2:C0-3/5*C1+1/25*C2+9/25*C3-51/125*C4+477/3125*C5=10$
(%i7) ecu3:C0-1/5*C1-11/25*C2+7/25*C3+29/125*C4-961/3125*C5=11$
(%i8) ecu4:C0+1/5*C1-11/25*C2-7/25*C3+29/125*C4+961/3125*C5=18$
(%i9) ecu5:C0+3/5*C1+1/25*C2-9/25*C3-51/125*C4-477/3125*C5=20$
ad
o
(%i10)ecu6:C0+C1+C2+C3+C4+C5=34$
Resolvemos el sistema anterior:
(%i11)linsolve([ecu1,ecu2,ecu3,ecu4,ecu5,ecu6], [C0,C1,C2,C3,C4,C5]);
2249
3043
1775
175
625
14375
( %o11) C0 =
, C1 =
, C2 =
, C3 = −
, C4 =
, C5 =
144
336
504
216
336
3024
rr
Para asignar cada solución a la variable correspondiente podemos hacer lo siguiente:
Bo
(%i12)[C0,C1,C2,C3,C4,C5]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4]),rhs(%[5]),rhs(%[6])];
2249 3043 1775 175 625 14375
,
,
,−
,
,
( %o12)
144 336 504
216 336 3024
2.4. APROXIMACIÓN DE FUNCIONES
129
Por lo tanto, la función aproximada será:
(%i13)f:C0+C1*legendre_p(1,x)+C2*legendre_p(2,x)+C3*legendre_p(3,x)
+C4*legendre_p(4,x)+legendre_p(5,x)*C5$
(%i14)f:expand(%);
( %o14)
3125 x4
8375 x3
325 x2
7367 x 1863
14375 x5
+
−
−
+
+
384
384
192
192
384
128
Para finalizar, haremos la gráfica con los datos y con la interpolación:
in
(%i15)datos:[[-1,8],[-3/5,10],[-1/5,11],[1/5,18],[3/5,20],[1,34]];
3
1
1
3
( %o15) [−1, 8] , − , 10 , − , 11 , , 18 , , 20 , [1, 34]
5
5
5
5
ar
Procedemos a introducir los datos:
lim
(%i16)wxplot2d([[discrete,datos],f], [x,-1,1],[style, [points,5,2], [lines,2,1]],
[point_type, plus],[legend, false],[xlabel, "x"],[ylabel, "y"])$
Bo
rr
ad
o
rP
re
( %o16)
130
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
2.4.7.
Ejercicios
1. Demuestre que con las identidades siguientes:
cos(kx) =
eikx + e−ikx
,
2
sen(kx) =
eikx − e−ikx
,
2i
f (x) =
∞
∞
X
X
1
a0 +
[ak cos(kx) + bk sen(kx)] ⇒ f (x) =
ck eikx ,
2
k=1
k=−∞
con:
t+2π
Z
f (x)e−ikx dx .
in
1
ck =
2π
t
Y que para funciones definidas en el intervalo (l, l + 2L) como:
ck e
ikπx
L
,
con ck =
k=−∞
1
2L
l+2L
Z
lim
∞
X
f (x) =
ar
la serie de Fourier definida para funciones en el intervalo (t, t + 2π) se escribe en su forma compleja como:
f (x)e−
ikπx
L
dx .
l
Nota: Para los siguientes ejercicios supondremos la utilización del programa Maxima.
rP
re
2. Para las siguientes funciones determine la serie de Fourier calculando los coeficientes como en la sección 2.4 y
compare los resultados con los cálculos hechos en el ambiente de manipulación simbólica.
a) f (x) = x sen(x), si −π < x < π.
b) f (x) = ex , si −π < x < π.
c) f (x) = x, si 0 < x < 2.
d ) f (x) = 2x − 1, si 0 < x < 1.
3. Al medir la temperatura a lo largo de una barra material obtenemos los siguientes valores:
1, 0
14, 6
2, 0
18, 5
3, 0
36, 6
ad
o
xi (cm)
Ti (◦ C)
4, 0
30, 8
5, 0
59, 2
6, 0
60, 1
7, 0
62, 2
8, 0
79, 4
9, 0
99, 9
Encuentre, mediante el método de los mı́nimos cuadrados los coeficientes que mejor ajustan a la recta T =
ax + b.
rr
∞
4. Considere el espacio vectorial, C[−1,1]
, de funciones reales, continuas y continuamente diferenciables definidas
en el intervalo
[−1,
1].
Es
claro
que
una
posible base de este espacio de funciones la constituye el conjunto de
monomios 1, x, x2 , x3 , x4 , · · · por cuanto estas funciones son linealmente independientes.
Bo
a) Si suponemos que este espacio vectorial está equipado con un producto interno definido por hf |gi =
R1
dx f (x)g(x), muestre que esa base de funciones no es ortogonal.
−1
R1
b) Utilizando la definición de producto interno hf |gi = −1 dx f (x)g(x) ortogonalize la base 1, x, x2 , x3 , x4 , · · ·
∞
y encuentre los 10 primeros vectores ortogonales, base para C[−1,1]
. Esta nueva base de polinomios ortogonales se conoce como los polinomios de Legendre.
p
R1
c) Modifique un poco la definición de producto interno hf |gi = −1 dx f (x)g(x) (1 − x2 ) y ortogonalize la
∞
base 1, x, x2 , x3 , x4 , · · · y encuentre otros 10 primeros vectores ortogonales base para el mismo C[−1,1]
.
Esta nueva base de polinomios ortogonales se conoce como los polinomios de Chebyshev.
d ) Suponga la función h(x) = sen(3x)(1 − x2 ):
1) Expanda la función h(x) en términos de la base de monomios y de polinomios de Legendre, grafique,
compare y encuentre el grado de los polinomios en los cuales difieren las expansiones.
2) Expanda la función h(x) en términos de la base de monomios y de polinomios de Chebyshev, grafique,
compare y encuentre el grado de los polinomios en los cuales difieren las expansiones.
2.4. APROXIMACIÓN DE FUNCIONES
131
3) Expanda la función h(x) en términos de la base de polinomios de Legendre y de Chebyshev, grafique,
compare y encuentre el grado de los polinomios en los cuales difieren las expansiones.
4) Estime en cada caso el error que se comete como función del grado del polinomio (o monomio) de la
expansión.
¿Qué puede concluir respecto a la expansión en una u otra base?
Año
Precio
2007
133,5
2008
132,2
2009
138,7
2010
141,5
2011
144,2
2012
144,5
2013
148,6
2014
153,8
Bo
rr
ad
o
rP
re
lim
in
Realice una interpolación polinomial que permita modelar estos datos.
ar
5. Los precios de un determinado producto varı́an como se muestra a continuación:
CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES
Bo
rr
ad
o
rP
re
lim
in
ar
132
ar
Bibliografı́a
in
[1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición (Academic
Press, Nueva York)
[2] Scharnhorst, K. (2009) Angles in complex vector spaces Acta Applicandae Mathematica), 69(1), 95-103
lim
[3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York)
[4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:)
[5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition, London:
Bo
rr
ad
o
rP
re
[6] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Engineering
(Cambridge University Press)
133
ad
o
rr
Bo
lim
rP
re
ar
in
134
BIBLIOGRAFÍA
ar
Capı́tulo 3
Bo
rr
ad
o
rP
re
lim
in
Vectores duales y tensores
135
136
CAPÍTULO 3. VECTORES DUALES Y TENSORES
La ruta de este capı́tulo
Funcionales lineales
lim
3.1.
in
ar
Este capı́tulo completa el esfuerzo de formalización de conceptos que comenzamos en el capı́tulo anterior. Iniciamos con el estudio de los funcionales lineales, extendiendo el concepto de función al de una aplicación entre
elementos de espacios vectoriales, lo cual nos llevará a la definición de los espacios vectoriales duales. Incorporamos
el concepto de 1−forma como ese conjunto de funcionales que forman al espacio vectorial dual. Ahora el producto
interno se definirá entre 1−formas y vectores. En la sección 3.2 definiremos una nueva clase de objetos matemáticos,
los tensores, los cuales pueden verse como arreglos multilineales y constituyen una extensión de objetos ya conocidos: los escalares, los vectores y las 1−formas. Desarrollaremos el álgebra tensorial y sus leyes de transformación.
Ejemplificamos la utilización de este concepto en Fı́sica cuando discutimos, en la sección 8, el tensor de inercia
y el de esfuerzos (strees). En la sección 3.3 incursionaremos en los espacios pseudoeuclidianos para mostrar una
situación en la cual podemos diferenciar 1−formas de vectores, aprovechamos además para introducir algunas nociones básicas de la teorı́a especial de la relatividad. Para finalizar, el la sección 3.4 extenderemos los conceptos de
espacios vectoriales y bases discretas a espacios de funciones y bases continuas y en ese contexto discutimos algunos
rudimentos de teorı́as de distribuciones.
rP
re
En los cursos más elementales de cálculo se estudiaron funciones de una y más variables reales. Estas funciones
pueden considerarse que actúan sobre vectores en R3 y podemos extender esta idea para otras que tengan como
argumento vectores de un espacio vectorial abstracto. Comenzaremos con las más sencillas, las lineales, que también
son conocidas como operadores lineales.
Definiremos funcionales lineales como aquella operación que asocia un número complejo (o real) ∈ K a un vector
|vi ∈ V, es decir:
∀ |vi ∈ V ⇒ F [|vi] ∈ C ,
y cumple con:
F [α |v1 i + β |v2 i] ≡ α F [|v1 i] + β F [|v2 i] , ∀ |v1 i , |v2 i ∈ V y ∀ α, β ∈ K .
ad
o
En otras palabras, un funcional lineal (o forma lineal) es un morfismo1 del espacio lineal V a un espacio
unidimensional K.
Notemos que cuando se escoge una base {|ei i} de un espacio vectorial V de manera que para cualquier vector
|vi ∈ V se especifican sus componentes {ξ 1 } respecto a esa base, es decir, |vi = ξ i |ei i, entonces lo que se tiene
para cada componente es un funcional lineal, como por ejemplo, F [|vi] = ξ 1 . Algo parecido ocurre con el producto
interno, cuando en un espacio vectorial V se define el producto escalar hv |v0 i, del vector |vi con un vector fijo |v0 i,
lo que tenemos es un funcional lineal F [|vi] = hv |v0 i = α ∈ K.
Otro ejemplo sencillo de un funcional lineal es la integral de Riemann que podemos interpretar de la manera
siguiente:
Z b
I [|f i] =
f0 (x)f (x)dx ,
a
3.1.1.
rr
donde f (x), f0 (x) ∈ C[a,b] , es decir, pertenece al espacio vectorial de funciones reales y continuas en el intervalo [a, b]
y f0 (x) es una función que se toma como fija.
Espacio vectorial dual
Bo
El conjunto de funcionales lineales {F1 , F2 , F3 , · · · , Fn , · · · } constituyen a su vez un espacio vectorial, el cual
se denomina espacio vectorial dual de V –que es el espacio directo– y se denotará como V? (aquı́ ? no es complejo
conjugado). Si V es de dimensión finita n, entonces dimV = dimV? = n.
Es fácil convencerse que los funcionales lineales forman un espacio vectorial ya que, dados F1 , F2 ∈ V? se tiene:

(F1 + F2 ) [|vi] = F1 [|vi] + F2 [|vi] 
∀ |vi ∈ V .

(α F) [|vi] = α F [|vi]
A este espacio lineal se le llama espacio de formas lineales y, a los funcionales se les denomina 1−formas o covectores.
1 Entenderemos por morfismo a toda regla o mapa que asigne a todo vector |vi de un espacio vectorial V un vector |wi de un espacio
vectorial W y usualmente se denota por F : V ⇒ W.
3.1. FUNCIONALES LINEALES
137
Como ya lo mencionamos, en aquellos espacios lineales con producto interno definido, el mismo producto interno
constituye la expresión natural del funcional. Ası́ tendremos que:
Fa [|vi] ≡ ha |vi
∀
|vi ∈ V
∧
∀
ha| ∈ V? .
ar
Es claro comprobar que el producto interno garantiza que los {Fa , Fb , · · · } forman un espacio vectorial:

(Fa + Fb ) [|vi] = Fa [|vi] + Fb [|vi] = ha |vi + hb |vi 
∀ |vi ∈ V .

(α Fa ) [|vi] = hαa |vi = α∗ ha |vi = α∗ Fa [|vi]
in
Esta última propiedad se conoce como antilinealidad.
Se establece entonces una correspondencia 1 a 1 entre kets y bras, entre vectores y funcionales lineales (o formas
diferenciales):
λ1 |v1 i + λ2 |v2 i
λ∗1 hv1 | + λ∗2 hv2 | ,
∗
ha |vi = hv |ai ,
lim
que ahora podemos precisar de la siguiente forma:
ha |λ1 v1 + λ2 v2 i = λ1 ha |v1 i + λ2 ha |v2 i ,
hλ1 a1 +λ2 a2 |vi = λ∗1 ha1 |vi + λ∗2 ha2 |vi .
rP
re
Más aún, dada una base {|e1 i , |e2 i , · · · |en i} para V siempre es posible asociar una base para V? de tal manera
que:
|vi = ξ i |ei i hv| = ξi∗ ei , con ξ i = ei |vi ∧ ξi∗ = hv |ei i , para i = 1, 2, · · · , n .
En
un lenguaje arcaico (y muchos textos de mecánica todavı́a lo reproducen) se denota a la base del espacio
dual ei como la base recı́proca de la base {|ei i}, este caso lo ilustraremos más adelante.
Se puede ver también que si |vi = ξ i |ei i, entonces
F [|vi] = F ξ i |ei i = ξ i F [|ei i] = ξ i ωi , con F [|ei i] ≡ ωi .
ad
o
Nótese que estamos utilizando la notación de Einstein en la que ı́ndices repetidos indican suma. Nótese también
que las bases del espacio dual de formas diferenciales
ek llevan los ı́ndices arriba, los llamaremos ı́ndices
contravariantes, mientras que los ı́ndices abajo, serán covariantes. Por lo tanto, las componentes de las formas
diferenciales en una base dada, llevan ı́ndices abajo ha| = ai ei mientras que las componentes de los vectores los
llevan arriba |vi = ξ j |ej i.
Observe también que dada una base en el espacio directo {|ei i} existe una única base canónica en el dual definida
como:
ei |ej i = F i [|ej i] = δji .
rr
Esta 1−forma al actuar sobre un vector arbitrario resulta en:
F i [|vi] = F i ξ j |ej i = ξ j F i [|ej i] = ξ j δji = ξ i
Bo
su componente contravariante. El conjunto de 1−formas {F i } será linealmente independientes.
Si |vi = ξ i |ei i es un vector arbitrario en el espacio directo y ha| = ai ei un vector en el espacio dual, entonces:
ha |vi = ai ei ξ j |ej i = a∗i ξ j ei |ej i = a∗i ξ j δji = a∗i ξ i ,
y para bases arbitrarias, no ortogonales, {|wi i} de V y { wi } de V? se tiene: ha |vi = wi |wj i a∗i ξ j .
3.1.2.
Espacios duales y bases recı́procas
Un ejemplo que ilustra las bases duales es la construcción de las llamadas bases recı́procas que mencionamos
anteriormente en los ejercicios de Aplicaciones del álgebra vectorial en la página 26. Este ejemplo ilustra la pregunta
de siempre: si los vectores se representan geométricamente como un segmento orientado, con módulo, dirección y
sentido, como representamos geométricamente una forma lineal o covector. Los cristalógrafos lograron ejemplificar
las bases duales y luego la aplicación de la difracción de rayos x a la cristalografı́a potenció utilidad de este concepto.
138
CAPÍTULO 3. VECTORES DUALES Y TENSORES
ar
Figura 3.1: Bases directas y recı́procas. Note como los covectores representan planos perpendiculares a dos vectores
de la base directa. Figura tomada de https://commons.wikimedia.org/w/index.php?curid=457850 CC BY-SA
3.0,
in
Bases recı́procas
y en general, es fácil ver que:
w2 × w3
1
⇒ w1 =
,
w1 · (w2 × w3 )
w1 · (w2 × w3 )
rP
re
αw1 · (w2 × w3 ) = 1 ⇒ α =
lim
Consideremos el problema de expandir un vector |ai con respecto a una base oblicua (no es ortogonal), {|wi i},
de tal forma que, |ai = ai |wi i. Por simplicidad, tomemos el caso R3 , de manera que a = ai wi (i = 1, 2, 3).
Al proyectar el vector a sobre los ejes de algún sistema de coordenadas, es posible resolver el sistema de tres
ecuaciones que resulta para las incógnitas ai . Las bases de vectores wi y de formas o covectores wi serán duales, y
por contrucción satisfacen wi · wj = δij . Es decir, cada uno de los vectores bases duales es perpendicular a los otros
dos de la base dual: w1 será perpendicular a w2 y w3 : w1 = α(w2 × w3 ). Como w1 · w1 = 1, entonces:
wi =
wj × wk
,
wi · (wj × wk )
(3.1)
Vectores, formas y leyes de transformación
rr
3.1.3.
ad
o
donde i, j, k son permutaciones cı́clicas de 1, 2, 3. La definición (3.1) nos permite construir la base de 1-formas o
covectores, a partir de su ortogonalidad con los vectores de la base directa. Notemos también que V = wi ·(wj ×wk ) es
el volumen del paralelepı́pedo que soportan los vectores {wi } y que además se puede obtener una expresión análoga
para los {wi } en término de los {wi }.
Al ser {wi } y {wi } duales, a = aj wj ⇒ wi · a = wi · (aj wj ) = aj (wi · wj ) = aj δji = ai , con i = 1, 2, 3 y
equivalentemente, el covector de a: ā = āj wj ⇒ ā · wi = (āj wj ) · wi = āj (wj · wi ) = āj δij = āi , con i = 1, 2, 3.
Hemos querido enfatizar el carácter dual del covector ā al vector a y obviamente ā · a = |a|2 .
De la misma ecuación (3.1) se puede ver que la representación gráfica de una forma será una superficie orientada.
La figura 3.1 muestra como, a partir de una base directa de vectores oblı́cuos se construyen planos perpendiculares a
esos vectores y la orientación (dirección y sentido) representan las direcciones de los vectores duales. En cristalografı́a
esa base dual se le representa como los ı́ndices de Miller.
Claramente si las base directa es ortonormal su dual también lo será y, más importante aún, ambas bases
coinciden ei ≡ ei , y si la base original o directa es dextrógira su dual también lo será.
Bo
Tal y como hemos mencionado anteriormente (tempranamente en la sección 1.4.3 y luego en la sección 2.3.4),
un determinado vector |ai ∈ V puede expresarse en una base ortonormal {|ej i} como: aj |ej i donde las aj son
las componentes contravariantes del vector en esa base. En general, como es muy largo decir
“componentes del
vector contravariante” uno se refiere (y nos referiremos de ahora en adelante) al conjunto aj como un vector
contravariante obviando la precisión de componente, pero realmente las aj son las componentes del vector.
Adicionalmente, en esta etapa pensaremos a las bases como distintos observadores o sistemas de referencias.
Con ello tendremos (algo que ya sabı́amos) que un vector se puede expresar en distintas bases y tendrá distintas
componentes referidas a esa base
|ai = aj |ej i = ãj |ẽj i .
Ası́ una misma cantidad fı́sica vectorial se verá distinta (tendrá distintas componentes) desde diferentes sistemas de
coordenadas. Las distintas “visiones” están conectadas mediante un transformación de sistema de referencia como
veremos más adelante.
Igualmente hemos dicho al comienzo deeste capı́tulo (sección 3.1.1) que una forma diferencial o 1-forma, hb| ∈ V?
es susceptible de expresarse en una base ei del espacio dual V? como bi ei y, como el espacio está equipado
3.1. FUNCIONALES LINEALES
139
con un producto interno, entonces:
ha |bi = hb |ai = bi aj
ei |ej i = bi aj δji = ai bi .
donde claramente:
ẽi |ej i = Ãij
y
Aik Ãkj = δji
⇐⇒
Ãij = Aij
−1
.
in
ei |ẽj i = Aij ;
ar
Con lo cual avanzamos otra vez en la interpretación de este tipo de objetos: una cantidad fı́sica escalar se verá igual
(será invariante) desde distintos sistemas de referencia.
Además sabemos que unas y otras componentes se relacionan como:

 i
ei |ai = aj ei |ej i = aj δji = ãj ei |ẽj i 
 a = Aij ãj
⇒

 i
ẽi |ai = ãj ẽi |ẽj i = ãj δji = aj ẽi |ej i
ã = Ãij aj ,
rP
re
lim
Diremos entonces que aquellos objetos cuyas componentes transforman como: ai = Aij ãj o, equivalentemente
como: ãi = Ãij aj serán vectores, o en un lenguaje un poco más antiguo, vectores contravariantes2 .
Tradicionalmente, e inspirados en la ley de transformación, la representación matricial de las componentes
contravariantes de un vector, ei |ai = aj , para una base determinada {|ej i} se representan como una columna
 1 
a
 a2 


|ai ⇒ ai = ei |ai , con i = 1, 2, 3, · · · , n ⇐⇒  .  .
 .. 
an
ad
o
De la misma manera, en el espacio dual, V? , las formas diferenciales se podrán expresar en término de una base
de ese espacio vectorial como hb| = bi ei = b̃i ẽi . Las {bi } serán las componentes de las formas diferenciales o
las componentes covariantes de un vector |bi, o dicho rápidamente un vector covariante o covector. Al igual que en
el caso de las componentes contravariantes las componentes covariantes transforman de un sistema de referencia a
otro mediante la siguiente ley de transformación:


hb |ej i = bi ei |ej i = bi δji = b̃i ẽi |ej i 
 bj = b̃i Aij
⇒


hb |ẽj i = b̃i ẽi |ẽj i = b̃i δji = bi ei |ẽj i
b̃j = bi Ãij .
Otra vez, objetos cuyas componentes transformen como bj = b̃i Aij los denominaremos formas diferenciales o
vectores covariantes o covectores y serán representados como matrices en un arreglo tipo fila:
b1 b2 · · · bn .
hb| ⇒ bi = hb |ei i , con i = 1, 2, 3, · · · , n ⇐⇒
Ejemplos
Bo
3.1.4.
rr
Quizá hasta este punto la diferencia de formas y vectores, de componentes covariantes y contravariantes, ası́
como sus esquemas de transformación es todavı́a confusa. No disponemos de ejemplos contundentes que ilustren
esa diferencia. Estos serán evidentes cuando nos toque discutir las caracterı́sticas de los espacios pseudoeuclidianos
en la sección 3.3. Luego, en la sección 5.1, consideraremos algunos ejemplos en coordenadas generalizadas.
1. Consideremos V = R3 como el espacio vectorial conformado por todos los vectores columna
 1 
ξ
|vi =  ξ 2  ,
ξ3
el cual al representarse en su base canónica {|ii i} resulta en:
 




1
0
0
|vi = ξ 1  0  + ξ 2  1  + ξ 3  0  = ξ 1 |i1 i + ξ 2 |i2 i + ξ 3 |i3 i = ξ i |ii i .
0
0
1
2 Algunos
0
0
0
autores prefieren utilizar la siguiente notación para las transformaciones: ai = Aij 0 aj y ai = Aij aj , por lo que δji = Aik0 Akj
0
140
CAPÍTULO 3. VECTORES DUALES Y TENSORES
Sea un funcional lineal F ∈ V? , de manera que los vectores duales F[◦] ≡ hF | ↔ (w1 , w2 , w3 ), puedan ser
representados por “vectores” filas.
Notemos que la base de funcionales lineals ζ i [◦] ≡ ii , la definimos como:
ζ i [|ij i] = ii |ij i = δji
⇒ i1 |i1 i = 1 , i1 |i2 i = 0 , i1 |i3 i = 0 , i2 |i1 i = 0 , i2 |i2 i = 1 , · · ·
in
2. Encontremos la base dual para el espacio vectorial V = R3 , con base ortogonal:






1
2
0
|e1 i =  1  , |e2 i =  −1  , |e3 i =  −1  .
−1
1
−1
ar
En este caso: ζ i = hii | entonces ζ 1 = (1, 0, 0), ζ 2 = (0, 1, 0), ζ 3 = (0, 0, 1) y además,
 1 
 1 
 1 
ξ
ξ
ξ
ζ 1 [|vi] = (1, 0, 0)  ξ 2  = ξ 1 , ζ 2 [|vi] = (0, 1, 0)  ξ 2  = ξ 2 , ζ 3 [|vi] = (0, 0, 1)  ξ 2  = ξ 3 .
ξ3
ξ3
ξ3
lim
Todo vector de ese espacio queda representado en esa base por:





 

1
2
0
v 1 + 2v 2
|vi = v i |ei i = v 1  1  + v 2  −1  + v 3  −1  =  v 1 − v 2 − v 3 
−1
1
−1
−v 1 + v 2 − v 3
ad
o
rP
re
Una vez más, sea un funcional lineal F ∈ V? , representa vectores duales F[◦] ≡ hF | ↔ (w1 , w2 , w3 ) y la base
en el dual es: ei = (ai , bi , ci ). Además sabemos que: ei |ej i = δji . Por lo tanto:


1
e1 |e1 i = (a1 , b1 , c1 )  1  = a1 + b1 − c1 = 1
−1



2
 a1 = 31
1


−1
b1 = 31
= 2a1 − b1 + c1 = 0
⇒
e |e2 i = (a1 , b1 , c1 )

1
c1 = − 13


0
e1 |e3 i = (a1 , b1 , c1 )  −1  = −b1 − c1 = 0
−1

1
e2 |e1 i = (a2 , b2 , c2 )  1  = a2 + b2 − c2 = 0
−1


2
e2 |e2 i = (a2 , b2 , c2 )  −1  = 2a2 − b2 + c2 = 1
1


0
e2 |e3 i = (a2 , b2 , c2 )  −1  = −b2 − c2 = 0
−1
Bo
rr


 a2 = 31
b2 = − 61
⇒

c2 = 61
Y finalmente:


1
e3 |e1 i = (a3 , b3 , c3 )  1  = a3 + b3 − c3 = 0
−1


2
e3 |e2 i = (a3 , b3 , c3 )  −1  = 2a3 − b3 + c3 = 0
1


0
e3 |e3 i = (a3 , b3 , c3 )  −1  = −b3 − c3 = 1
−1

 a3 = 0
b3 = − 21
⇒

c3 = − 12
3.1. FUNCIONALES LINEALES
141
La base del dual es: e1 = ( 31 , 13 , − 13 ), e2 = ( 13 , − 16 , 16 ), e3 = (0, − 12 , − 21 ), de manera que:
hF | = w1 e1 + w2 e2 + w3 e3 .
in
ar
Notemos que, como era de esperarse:




v 1 + 2v 2
v 1 + 2v 2
1
1
1
1
1
1
 v1 − v2 − v3  = v1 ,
 v1 − v2 − v3  = v2
e1 |vi =
, ,−
,− ,
e2 |vi =
3 3 3
3 6 6
1
2
3
−v + v − v
−v 1 + v 2 − v 3


v 1 + 2v 2
1 1  1
v − v2 − v3  = v3 .
e3 |vi = 0, − , −
2 2
−v 1 + v 2 − v 3
lim
3. Dados los vectores: u1 = i + j + 2k, u2 = i + 2j + 3k, y u3 = i − 3j + 4k. Revisaremos si estos vectores
son mutuamente ortogonales. Encontraremos la base recı́proca ui , el tensor métrico en ambas bases y para el
vector a = 3u1 + 2u2 + u3 encontraremos sus componentes covariantes.
Para saber si son ortogonales simplemente calculamos el producto escalar entre ellos: u1 · u2 = 9 , u1 · u3 = 6
y u2 · u3 = 7, por lo tanto no son ortogonales y adicionalmente sabemos que:
ui =
uj × uk
ui · (uj × uk )
rP
re
Procederemos a calcular primero el denominador:
V = u1 · (u2 × u3 ) ⇒ (i + j + 2k) · ([i + 2j + 3k] × [i − 3j + 4k]) = 6 .
En general:
ui =
1
2
3
Ṽ = u · (u × u ) ⇒
3.1.5.
u2 ×u3
V
=
u3 ×u1
V
= − 35 i + 13 j + 32 k
u1 ×u2
V
= − 61 i − 16 j + 61 k
17
6 i
− 16 j − 56 k
ad
o
Notemos que:
uj × uk
V
 1
u =





u2 =
⇒




 3
u =
1
5
5
1
2
1
1
1
1
17
i− j− k · − i+ j+ k × − i− j+ k
= .
6
6
6
3
3
3
6
6
6
6
Practicando con Maxima
rr
1. Tenemos para el espacio vectorial V = R3 , la base ortogonal:
|e1 i = (1, 1, −1), |e2 i = (2, −1, 1), |e3 i = (0, −1, −1) .
Con F ∈ V? donde F[◦] ≡ hF | ↔ (w1 , w2 , w3 ) y ei = (ai , bi , ci ), con ei |ej i = δji .
Bo
Comencemos introduciendo los vectores como listas:
(%i1) e1:[1,1,-1];e2:[2,-1,1];e3:[0,-1,-1];
( %o1) [1, 1, −1]
( %o2) [2, −1, 1]
( %o3) [0, −1, −1]
Efectivamente son mutuamente ortogonales:
(%i4) e1.e2;e1.e3;e2.e3;
142
CAPÍTULO 3. VECTORES DUALES Y TENSORES
( %o4) 0
( %o5) 0
( %o6) 0
Para fines prácticos del cálculo que vamos a realizar, construiremos una matriz con los vectores como filas:
1
−1
−1

−1
1
−1
in

1
( %o7) 2
0
ar
(%i7) E:matrix([1,1,-1],[2,-1,1],[0,-1,-1]);
De manera que:
lim
(%i8) M1:E.[a1,b1,c1];


−c1 + b1 + a1
( %o8)  c1 − b1 + 2 a1 
−c1 − b1
rP
re
De esta forma es sencillo calcular todas las combinaciones de ei |ei i, con las condición ei |ej i = δji , y resolver
los sistemas de ecuaciones para los diferentes {ai , bi , ci }. Veamos:
(%i9) ec1:M1[1,1]=1;ec2:M1[2,1]=0;ec3:M1[3,1]=0;
( %o9) − c1 + b1 + a1 = 1
( %o10) c1 − b1 + 2 a1 = 0
( %o11) − c1 − b1 = 0
(%i12)linsolve([ec1,ec2,ec3],[a1,b1,c1]);
ad
o
1
1
1
( %o12) a1 = , b1 = , c1 = −
3
3
3
(%i13)M2:E.[a2,b2,c2];


−c2 + b2 + a2
( %o13)  c2 − b2 + 2 a2 
−c2 − b2
rr
(%i14)ec1:M2[1,1]=0;ec2:M2[2,1]=1;ec3:M2[3,1]=0;
( %o14) − c2 + b2 + a2 = 0
Bo
( %o15) c2 − b2 + 2 a2 = 1
( %o16) − c2 − b2 = 0
(%i17)linsolve([ec1,ec2,ec3],[a2,b2,c2]);
1
1
1
( %o17) a2 = , b2 = − , c2 =
3
6
6
(%i18)M3:E.[a3,b3,c3];


−c3 + b3 + a3
( %o18)  c3 − b3 + 2 a3 
−c3 − b3
3.1. FUNCIONALES LINEALES
143
(%i19)ec1:M3[1,1]=0;ec2:M3[2,1]=0;ec3:M3[3,1]=1;
( %o19) − c3 + b3 + a3 = 0
( %o20) c3 − b3 + 2 a3 = 0
( %o21) − c3 − b3 = 1
ar
(%i22)linsolve([ec1,ec2,ec3],[a3,b3,c3]);
De manera que la base dual ei es:
(%i23)d1:[1/3,1/3,-1/3];d2:[1/3,-1/6,1/6];d3:[0,-1/2,-1/2];
(%i26)d1.d2;d1.d3;d2.d3;
( %o26) 0
( %o27) 0
( %o28) 0
ad
o
Originalmente tenı́amos que:
rP
re
Y son mutuamente ortogonales:
lim
1 1 1
( %o23)
, ,−
3 3 3
1 1 1
,− ,
( %o24)
3 6 6
1 1
( %o25) 0, − , −
2 2
in
1
1
( %o22) a3 = 0, b3 = − , c3 = −
2
2
|vi = v i |ei i = v 1 |e1 i + v 2 |e2 i + v 3 |e3 i
Si construimos la siguiente matriz:
(%i29)V:transpose(matrix(v1*e1,v2*e2,v3*e3));

v1 2 v2
0
( %o29)  v1 −v2 −v3
−v1 v2 −v3
rr

Bo
Podremos comprobar que efectivamente: ei |vi = v i
(%i30)d1.V;d2.V;d3.V;
0
( %o31) 0
v2 0
( %o32) 0
0
( %o30) v1 0
v3
(%i33)kill(all)$
2. En este ejercicio veremos la manera de construir la matriz de transformación entre bases y el cálculo de las
bases recı́procas.
144
CAPÍTULO 3. VECTORES DUALES Y TENSORES
Si tenemos la siguiente transformación entre bases:
|e1 i = |ji + |ki ,
|e2 i = |ii + |ki ,
|e3 i = |ii + |ji .
Para calcular la matriz de transformación:
|ei i = Ãji |ij i ,
ar
podemos trabajar de la manera siguiente. Primero introducimos los vectores como una matriz y luego calculamos la transpuesta:
(%i1) v1:[0,1,1]$v2:[1,0,1]$v3:[1,1,0]$

0
( %o2) 1
1
1
0
1
in
(%i2) Aij:transpose(matrix(v1,v2,v3));

1
1
0
lim
La matriz de transformación inversa |ii i = Aji |ej i, es simplemente la matriz inversa:
(%i3) A_ji:invert(%);
1
2
1
2
1 
2
− 12

Es claro que Ajk Ãki = δij
(%i4) A_ij.A_ji;

1
( %o4) 0
0
0
1
0

0
0
1
ad
o
(%i5) kill(all)$
rP
re
1
2
− 12
1
2
 1
−2
( %o3)  12
3. Con el uso del paquete vect podemos hacer algunos cálculos sencillos con vectores, como por ejemplo, el
cálculo de las bases recı́procas.
(%i1) load(vect)$
Dado el siguiente conjunto de vectores:
rr
b1 = e1 = i + j + 2k , b2 = e2 = −i − j − k , b3 = e3 = 2i − 2j + k
Bo
Calcularemos la base recı́proca a través de:
(%i2) b1:[1,1,2];
( %o2) [1, 1, 2]
(%i3) b2:[-1,-1,-1]
( %o3) [−1, −1, −1]
(%i4) b3:[2,-2,1];
ei =
ej × ek
,
ei · (ej × ek )
3.1. FUNCIONALES LINEALES
145
( %o4) [2, −2, 1]
Podemos comprobar si la base original bi es ortogonal calculando sus productos escalares:
(%i5) b1.b2; b1.b3; b2.b3;
( %o5) − 4
ar
( %o6) 2
( %o7) − 1
Ahora, los vectores recı́procos ei se calculan de la manera siguiente:
( %o8)
3 1
− ,− ,1
4 4
5 3
( %o9) − , − , 1
4 4
rP
re
(%i9) e2:express(b3~b1)/(b3.(express(b1~b2)));
lim
(%i8) e1:express(b2~b3)/(b3.(express(b1~b2)));
in
Por lo tanto, no son ortogonales.
(%i10)e3:express(b1~b2)/(b3.(express(b1~b2)));
1 1
( %o10)
,− ,0
4 4
La base recı́proca es entonces:
ad
o
3
1
5
3
1
1
e1 = − i − j + k , e2 = − i − j + k , e3 = i − j
4
4
4
4
4
4
Que tampoco es ortogonal:
(%i11)e1.e2; e1.e3; e2.e3;
( %o11)
17
8
1
8
1
( %o13) −
8
Bo
rr
( %o12) −
El tensor métrico para la base original gij = ei · ej lo podemos construir de la manera siguiente:
(%i14)gb:matrix([b1.b1,b1.b2,b1.b3],[b2.b1,b2.b2,b2.b3],[b3.b1,b3.b2,b3.b3]);

6
( %o14) −4
2
−4
3
−1

2
−1
9
Para la base recı́proca g ij = ei · ej
(%i15)ge:matrix([e1.e1,e1.e2,e1.e3],[e2.e1,e2.e2,e2.e3],[e3.e1,e3.e2,e3.e3]);
146
CAPÍTULO 3. VECTORES DUALES Y TENSORES
13
8
 17
8
− 18
17
8
25
8
− 18

( %o15)

− 18
− 18 
1
8
De manera que: ei · ej = gji = δji :
(%i16)gb.ge;
3.1.6.

0
0
1
ar
0
1
0
in

1
( %o16) 0
0
Ejercicios
lim
1. Encuentre las bases duales para los siguientes espacios vectoriales:
2
4
a) R2 , donde: |e1 i ↔
y |e2 i ↔
.
1
1






0
2
1
b) R3 , donde: |e1 i ↔  1  , |e2 i ↔  1  y |e3 i ↔  1 .
−1
0
3
rP
re
2. Si V es el espacio vectorial de todos los polinomios reales de grado n ≤ 1, y definimos:
ζ 1 [|pi] =
Z
1
p(x)dx ∧ ζ 2 [|pi] =
0
Z
2
p(x)dx ,
0
donde {ζ 1 , ζ 2 } ∈ V? . Encuentre una base {|e1 i , |e2 i} ∈ V que resulte ortogonal a la dual a {ζ 1 , ζ 2 }.
3. Si V es el espacio vectorial de todos los polinomios reales de grado n ≤ 2. Y si además definimos
ζ 1 [|pi] =
Z
1
p(x)dx = 1 ,
dp(x)
dx
∧
ζ 3 [|pi] = p(1)
x=2
ad
o
0
ζ 2 [|pi] =
donde {ζ 1 , ζ 2 , ζ 3 } ∈ V? . Encuentre una base {|e1 i , |e2 i , |e3 i} ∈ V que resulte ortogonal a la dual a {ζ 1 , ζ 2 , ζ 3 }.
4. Sean |v1 i y |v2 i ∈ V y supongamos que F [|v1 i] = 0 implica que F [|v2 i] = 0 ∀ F ∈ V? . Muestre que
|v2 i = α |v1 i con α ∈ K.
rr
5. Sean F1 y F2 ∈ V? y supongamos que F1 [|vi] = 0 implica que F2 [|vi] = 0 ∀ |vi ∈ V. Muestre que F2 = αF1
con α ∈ K.
6. En el caso 3D tenemos que si {ei } define un sistema de coordenadas (dextrógiro) no necesariamente ortogonal,
entonces, demuestre que:
Bo
a)
ei =
ej × ek
,
ei · (ej × ek )
i, j, k = 1, 2, 3 y sus permutaciones cı́clicas
b) si los volumenes: V = e1 · (e2 × e3 ) y Ṽ = e1 · (e2 × e3 ), entonces V Ṽ = 1.
c) ¿Qué vector satisface a · ei = 1? Demuestre que a es único.
d ) Encuentre el producto vectorial de dos vectores a y b que están representados en un sistema de coordenadas oblicuo: Dada la base: w1 = 4i + 2j + k , w2 = 3i + 3j , w3 = 2k. Entonces encuentre:
1) Las bases recı́procas {ei }.
2) Las componentes covariantes y contravariantes del vector a = i + 2j + 3k.
7. Resuelva los problemas anteriores utilizando Maxima.
3.2. TENSORES Y PRODUCTO TENSORIAL
3.2.
147
Tensores y producto tensorial
3.2.1.
ar
Las funciones más simples que se pueden definir sobre un espacio vectorial son los funcionales lineales y éstos nos
permiten extendernos al concepto de tensor. Para llegar a la noción de tensores ampliaremos la idea de funcionales
lineales, que actúan sobre un único vector, al de funcionales bilineales (o formas bilineales) que tienen dos vectores en
su argumento. Como veremos más adelante este tipo de funcionales nos revelarán un contenido geométrico de gran
riqueza. Es conocido que presentar el concepto de tensores para estudiantes de pregrado o, estudiantes graduados
de ingenierı́a tiene algunas barreras3 y, la principal barrera quizá sea la notación. En esta capı́tulo presentaresmos
la notación que mas nos sedujo desde las épocas de estudiantes, es tomada de dos libros clásicos4 , que han marcado
una huella en nuestra generación y que creemos permite su aplicación a variados campos.
Tensores, una definición funcional
|vi ∈ V
hu| ∈ V? →
∧
T [hu| ; |vi] ∈ C .
lim
∀
Entonces se debe cumplir:
T [hu| ; α |v1 i + β |v2 i] ≡ αT [hu| ; |v1 i] + β T [hu| ; |v2 i]
∀ |v1 i , |v2 i ∈ V
T [µ hu1 | + ν hu2 | ; |vi] ≡ µ∗ T [hu1 | ; |vi] + ν ∗ T [hu2 | ; |vi]
in
Definiremos como un tensor a un funcional lineal (bilineal en este caso) que asocia un elemento del campo K,
complejo o real, a un vector |vi ∈ V, a una forma hu| ∈ V? , o ambas, y cumple con la linealidad. Esto es:
∀ |vi , ∈ V
hu| ∈ V? .
∧
∧
hu1 | , hu2 | ∈ V? .
rP
re
En pocas palabras: un tensor es un funcional generalizado cuyos argumentos son vectores y/o formas5 , lo que
significa que T [◦; •] es una cantidad con dos “puestos” y una vez “cubiertos” se convierte en un escalar (complejo
o real).
Las combinaciones son muy variadas:
Un tensor, con un argumento correspondiente a un vector y un argumento correspondiente a una forma, lo
podremos representar de la siguiente manera:
|vi
↓
hu|
↓

ad
o
T ◦; •∈C
tensor de tipo
⇒
1
1
.
Un tensor con dos argumentos correspondientes a vectores y uno a una forma serı́a:
|v
1i
|v2 i hu|
↓
↓

↓
T [◦, ◦; •] ⇒ T  ◦ , ◦ ; •  ∈ C
⇒
tensor de tipo
1
2
2
1
,
rr
Un tensor con dos argumentos correspondientes a formas y uno a un vector:
|vi
↓
hu1 | hu2 |
↓
↓

Bo
T [◦; •, •] ⇒ T  ◦ ; • , •  ∈ C
⇒
tensor de tipo
.
En general:
|v
1i
|v2 i
↓
|vn i hu1 | hu2 |
↓
↓
↓
hum |
↓

↓
T  ◦ , ◦ ,··· , ◦ ; • , • ··· , •  ∈ C
⇒
tensor de tipo
m
n
.
3 Tal y como lo plantea Battaglia, Franco, y Thomas F. George. ”Tensors: A guide for undergraduate students.”American Journal
of Physics 81 (2013): 498-511
4 Misner, C. W., K. S. Thorne, and J. A. Wheeler. Gravitation. Princeton University Press, 2017; y Cohen-Tannoudji, C., Diu, B.
and Laloë, F., 1977. Quantum Mechanics vol 1 (Paris: Hermann).
5 Una presentación interesante y detallada de la utilización del concepto de tensor para el manejo de datos en computación la pueden
encontrar en: Lu, H., Plataniotis, K. N., & Venetsanopoulos, A. N. (2011). A survey of multilinear subspace learning for tensor data.
Pattern Recognition, 44(7), 1540-1551.
148
CAPÍTULO 3. VECTORES DUALES Y TENSORES
T : V?m × Vn = V? × V? · · · V? × V? × V × V · · · V × V
{z
} |
{z
}
|
⇒ C,
n
in
m
ar
En ésta notación el punto y coma (;) separa las “entradas” formas de las “entradas” vectores. Es importante
recalcar que el orden si importa, no sólo para las cantidades separadas por el punto y coma, sino el orden de
los “puestos” vectores y “puestos” formas separados por coma, y repercutirá en las propiedades de los tensores.
Por ejemplo: si el orden de las “entradas” vectores no importa, podremos permutarlas sin alterar al tensor,
tendremos entonces tensores simétricos respecto a esos “puestos” o “entradas”; del mismo modo, serán
tensores antisimétricos aquellos en los cuales el orden si importa y al permutar esos “puestos” o “entradas” hay
un cambio de signo en el tensor. Todos estos casos serán tratados con detalle más adelante, pero vale la pena recalcar
que en general, para un tensor genérico el orden de la “entradas” o “puestos” si importa pero no necesariamente se
comporta como los casos reseñados anteriormente.
Notemos que en el caso general un tensor es básicamente un aplicación multilineal T sobre V? × V:
lim
con n el orden covariante y m el orden contravariante. Hay que hacer notar que por simplicidad hemos construido el
espacio tensorial a partir de una solo espacio vectorial V y su conjugado V? , pero muy bien cada espacio vectorial
puede ser diferente.
m
Por lo tanto, un tensor
es un funcional multilineal que asocia m 1−formas y n vectores con C.
n
Un ejemplo sencillo de un funcional bilineal sobre un espacio vectorial Vn con una base |ei i es:
T [|v1 i , |v2 i] = aij ξ i ζ j
(i, j = 1, 2, . . . , n) ,
rP
re
donde:
|v1 i = ξ i |ei i ∧ |v2 i = ζ i |ei i .
son vectores arbitrarios ∈ Vn y los aij son números. Notemos que:
T [|v1 i , |v2 i] = T ξ i |ei i , ζ j |ej i = ξ i ζ j T [|ei i , |ej i] = ξ i ζ j aij .
Diremos que ésta será la representación del funcional bilineal para Vn .
Obviamente las formas pueden ser representadas por tensores ya que son funcionales lineales de vectores. Para
finalizar, notemos lo siguiente:
ad
o
Un vector es un tensor del tipo:
1
0
hu|
↓
⇒ T  •  ∈ C.
Los vectores constituyen un caso especial de tensores.
Bo
rr
Una forma es un tensor del tipo:
0
1
|vi
↓
⇒ T  ◦  ∈ C,
porque son funcionales lineales para las formas diferenciales.
Un escalar es un tensor del tipo:
3.2.2.
0
0
∈ C.
Producto tensorial
Como será evidente más adelante, los tensores (simples) pueden provenir del producto tensorial (exterior o
directo) de espacios vectoriales. Esto es, consideraremos E1 y E2 dos espacios vectoriales con dimensiones n1 y
n2 , respectivamente y vectores genéricos, |ϕ(1)i y |χ(2)i pertenecientes a estos espacios vectoriales: |ϕ(1)i ∈ E1 y
|χ(2)i ∈ E2 .
3.2. TENSORES Y PRODUCTO TENSORIAL
149
Definiremos el producto tensorial (exterior o directo)
de espacios vectoriales, E = E1 ⊗ E2 , si a cada par de
2
vectores |ϕ(1)i y |χ(2)i le asociamos un tensor tipo
y si se cumple que:
0
hψ(1)| hυ(2)|
↓
↓
|ϕ(1)χ(2)i ≡ |ϕ(1)i ⊗ |χ(2)i ⇔ T  • , •  = hψ(1) |ϕ(1)i hυ(2) |χ(2)i ∈ C ,
1. La suma entre tensores de E viene definida como:
ar
y si además se cumplen las siguientes propiedades:
|ϕ(1)χ(2)i + |ζ(1)ξ(2)i = |ϕ(1)i ⊗ |χ(2)i + |ζ(1)i ⊗ |ξ(2)i = |ϕ(1) + ζ(1)i ⊗ |χ(2) + ξ(2)i .
in
2. El producto tensorial es lineal respecto a la multiplicación con números reales λ y µ:
[|λϕ(1)i] ⊗ |χ(2)i = [λ |ϕ(1)i] ⊗ |χ(2)i = λ [|ϕ(1)i ⊗ |χ(2)i] = λ |ϕ(1)χ(2)i ,
3. El producto tensorial es distributivo respecto a la suma:
lim
|ϕ(1)i ⊗ [|µχ(2)i] = |ϕ(1)i ⊗ [µ |χ(2)i] = µ [|ϕ(1)i ⊗ |χ(2)i] = µ |ϕ(1)χ(2)i .
|ϕ(1)i ⊗ [|χ1 (2)i + |χ2 (2)i] = |ϕ(1)i ⊗ |χ1 (2)i + |ϕ(1)i ⊗ |χ2 (2)i
[|ϕ1 (1)i + |ϕ2 (1)i] ⊗ |χ(2)i = |ϕ1 (1)i ⊗ |χ(2)i + |ϕ2 (1)i ⊗ |χ(2)i .
3.2.3.
Espacios tensoriales
rP
re
Nótese que las etiquetas (1) y (2) denotan la pertenencia al espacio respectivo.
Es fácil convencerse que los tensores |ϕ(1)χ(2)i ∈ E = E1 ⊗ E2 forman un espacio vectorial y la demostración
se basa en comprobar los axiomas o propiedades de los espacios vectoriales tal y como lo describimos en la sección
2.1.3:
1. La operación suma es cerrada en V : ∀ |vi i , |vj i ∈ V ⇒ |vk i = |vi i |vj i ∈ V.
Esto se traduce en demostrar que sumados dos tensores |ϕ(1)χ(2)i y |ζ(1)ξ(2)i ∈ E el tensor suma también
pertenece a E, con α y β pertenecientes al campo del espacio vectorial
ad
o
α |ϕ(1)χ(2)i + β |ζ(1)ξ(2)i = |αϕ(1) + ζ(1)i ⊗ |χ(2) + βξ(2)i ,
y esto se cumple siempre ya que, el producto tensorial es lineal respecto a la multiplicación con números reales,
y por ser E1 y E2 espacios vectoriales se cumple:

|αϕ(1) + ζ(1)i = α |ϕ(1)i + |ζ(1)i ∈ E1 
⇒ |ϕ(1) + ζ(1)i ⊗ |χ(2) + ξ(2)i ∈ E .

|ϕ(2) + βζ(2)i = |ϕ(2)i + β |ζ(2)i ∈ E2
rr
2. La operación suma es conmutativa y asociativa.
Conmutativa: ∀ |vi i , |vj i ∈ V ⇒ |vi i |vj i = |vj i |vi i.
Bo
Esta primera es clara de la definición de suma:
|ϕ(1)χ(2)i + |ζ(1)ξ(2)i = |ϕ(1) + ζ(1)i ⊗ |χ(2) + ξ(2)i
|ζ(1)ξ(2)i + |ϕ(1)χ(2)i = |ζ(1) + ϕ(1)i ⊗ |ξ(2) + χ(2)i ,
por ser E1 y E2 dos espacios vectoriales.
Asociativa: ∀ |vi i , |vj i , |vk i ∈ V
⇒ (|vi i |vj i) |vk i = |vj i (|vi i |vk i)
Una vez más, esto se traduce en:
(|ϕ(1)χ(2)i + |ζ(1)ξ(2)i) + |κ(1)κ(2)i = |ϕ(1)χ(2)i + (|ζ(1)ξ(2)i + |κ(1)κ(2)i) ,
con lo cual, por la definición de suma, la expresión anterior queda como:
(|ϕ(1) + ζ(1)i ⊗ |ξ(2) + χ(2)i) + |κ(1)κ(2)i = |ϕ(1)χ(2)i + (|ζ(1) + κ(1)i ⊗ |ξ(2) + κ(2)i)
|(ϕ(1) + ζ(1)) + κ(1)i ⊗ |(ξ(2) + χ(2)) + κ(2)i = |ϕ(1) + (ζ(1) + κ(1))i ⊗ |ξ(2) + (χ(2) + κ(2))i .
150
CAPÍTULO 3. VECTORES DUALES Y TENSORES
3. Existe un único elemento neutro: ∃ |0i / |0i |vj i = |vj i |0i = |vj i ∀ |vj i ∈ V.
Es decir:
|ϕ(1)χ(2)i + |0(1)0(2)i = |ϕ(1) + 0(1)i ⊗ |χ(2) + 0(2)i = |ϕ(1)i ⊗ |χ(2)i = |ϕ(1)χ(2)i .
4. Existe un elemento simétrico para cada elemento de V: ∀ |vj i ∈ V ∃ |−vj i / |vj i |−vj i = |0i.
|ϕ(1)χ(2)i − |ϕ(1)χ(2)i = |ϕ(1) − ϕ(1)i ⊗ |χ(2) − χ(2)i = |0(1)i ⊗ |0(2)i = |0(1)0(2)i .
ar
5. α (β |vi i) = (αβ) |vi i:
α (β |ϕ(1)χ(2)i) = α (|βχ(2)i ⊗ |ϕ(1)i) = |αβχ(2)i ⊗ |ϕ(1)i = (αβ) |χ(2)i ⊗ |ϕ(1)i = (αβ) |ϕ(1)χ(2)i .
in
6. (α + β) |vi i = α |vi i + β |vi i:
(α + β) |ϕ(1)χ(2)i = |ϕ(1)i ⊗ |(α + β) χ(2)i = |ϕ(1)i ⊗ |αχ(2) + βχ(2)i
= |ϕ(1)i ⊗ [(α |χ(2)i + β |χ(2)i)]
lim
= α |ϕ(1)i ⊗ |χ(2)i + β |ϕ(1)i ⊗ |χ(2)i .
7. α (|vi i |vj i) = α |vi i α |vj i:
α (|ϕ(1)χ(2)i + |ζ(1)ξ(2)i) = α (|ϕ(1) + ζ(1)i ⊗ |ξ(2) + χ(2)i) = |α (ϕ(1) + ζ(1))i ⊗ |ξ(2) + χ(2)i
= |αϕ(1) + αζ(1)i ⊗ |ξ(2) + χ(2)i = |αϕ(1)χ(2)i + |αζ(1)ξ(2)i
= α |ϕ(1)χ(2)i + α |ζ(1)ξ(2)i .
rP
re
Equivalentemente, podemos construir un producto tensorial entre espacios de formas diferenciales. Si E?1 y E?2
son dos espacios vectoriales duales a E1 y E2 , con dimensiones n1 y n2 , respectivamente. A estos espacios pertenecen
las formas diferenciales genéricas hζ(1)| ∈ E?1 y hξ(2)| ∈ E?2 .
?
?
?
Definiremos el producto tensorial de espacios vectoriales duales,
E = E1 ⊗ E2 , si a cada par de formas diferen0
ciales hζ(1)| ∈ E?1 y hξ(2)| ∈ E?2 le asociamos un tensor tipo
. Esto es: hζ(1)ξ(2)| = hζ(1)| ⊗ hξ(2)| .
2
Es importante aclarar que el número hϕ̃(1)χ̃(2) |ϕ(1)χ(2)i = hϕ̃(1) |ϕ(1)i · hχ̃(2) |χ(2)i , NO representa el producto interno entre los tensores, hϕ̃(1)χ̃(2)| y |ϕ(1)χ(2)i. Tal y como hemos descrito arriba,
T [|ϕ(1)i , |χ(2)i] ≡ T ∗ [hϕ̃(1)| , hχ̃(2)|] = hϕ̃(1) |ϕ(1)i · hχ̃(2) |χ(2)i ,
3.2.4.
ad
o
representa las evaluaciones de los funcionales T [◦] y T ∗ [•], respectivamente.
Bases para un producto tensorial
Si {|ui (1)i} y {|vi (2)i} son, respectivamente, bases discretas para E1 y E2 entonces podremos construir el tensor:
|ui (1)vj (2)i = |ui (1)i ⊗ |vj (2)i ∈ E ,
rr
el cual funcionará como una base para E y, por lo tanto, podremos construir un tensor genérico de E:
|ϕ(1)χ(2)i = |ϕ(1)i ⊗ |χ(2)i = ϕi χj |ui (1)vj (2)i ,
Bo
donde ϕi y χj son las componentes de |ϕ(1)i y |χ(2)i en sus respectivas bases. En otras palabras, las componentes
de un tensor en E corresponden a la multiplicación de las componentes de los vectores en E1 y E2 . Recuerde que
estamos utilizando
la convención de Einstein de suma tácita en ı́ndices covariantes y contravariantes, en la cual
Pn
ck |vk i ≡ k=1 ck |vk i.
Es importante señalar que si bien un tensor genérico |Ψi ∈ E siempre se puede expandir en la base |ui (1)vj (2)i
no es cierto que todo tensor de E provenga del producto tensorial de E1 y E2 . Es decir, E tiene más tensores de
los que provienen el producto tensorial. Esta afirmación puede intuirse del hecho que si |Ψi ∈ E entonces:
|Ψi = cij |ui (1)vj (2)i ,
por ser {|ui (1)vj (2)i} base para E. Es claro que dados dos números α1 y α2 habrá cij que no provienen de la
multiplicación de α1 α2 .
El conjunto de todas funciones bilineales T [hu| ; |vi] forman un espacio vectorial sobre el espacio directo E. Este
espacio vectorial de funciones tendrá una base dada por:
|ui (1)vj (2)i = |ui (1)i ⊗ |vj (2)i .
3.2. TENSORES Y PRODUCTO TENSORIAL
3.2.5.
151
Tensores, sus componentes y sus contracciones
in
ar
Hemos mencionado anteriormente, ubicándonos en R3 , que un escalar es una cantidad que se puede especificar,
independientemente del sistema de coordenadas, por un sólo número. Los vectores geométricos que dibujábamos
con flechas los sustituimos ahora por tres números respecto a una base seleccionada, es decir, a través de sus tres
componentes. Los escalares y los vectores son casos particulares de objetos más generales que denominamos tensores,
tensores de orden o rango k y cuya especificación en cualquier sistema de coordenadas requerirá de 3k números,
llamadas las componentes del tensor. Esto significa que un escalar es un tensor de orden 0 (30 = 1 componente) y
un vector un tensor de orden 1 (31 = 3 componentes). Si el espacio vectorial es de dimensión n, entonces un tensor
de orden k tendrá nk componentes6 .
Como veremos más adelante, los tensores son mucho más que simples números respecto a un sistema de coordenadas y la clave radica en la “ley de transformación” de sus componentes, es decir, en la relación que existe entre
las componentes de un tensor en un sistema de coordenadas y las componentes del mismo tensor en otro sistema
de coordenadas diferente. Lo que hay detrás de todo esto es el hecho de que las leyes matemáticas que describen
los fenómenos fı́sicos deben ser “invariantes” bajo transformaciones de coordenadas, como por ejemplo: traslaciones
(el espacio es homogéneo) y rotaciones (el espacio es isótropo).
lim
Componentes de un tensor
hxm (1)|
S mnijk = S 
↓
•
,
rP
re
Consideremos un espacio tensorial V = E?1 ⊗ E?2 ⊗ E?3 ⊗ E1 ⊗ E2 . Denominaremos componentes de un tensor,
aquellos números que surgen al evaluar los funcionales (formas diferenciales o vectores) con la bases de los espacios
que lo constituyen. Ası́, si {|ui (1)i} y {|xi (1)i} son base para E1 , mientras
{|vj (2)i} y {|yj (2)i} lo son para E2 y
2
finalmente {|tk (3)i} para E3 , entonces las componentes de un tensor
serán:
3
hy n (2)| |ui (1)i |vj (2)i |wk (3)i
↓
↓
↓
↓
•
;
◦ ,
◦ ,
◦


⇒ S = S mnijk xm (1), yn (2); ui (1), v j (2), tk (3) ,
donde hemos denotado xm (1), yn (2); ui (1), v j (2), tk (3) como el tensor base
xm (1), yn (2); ui (1), v j (2), tk (3) = |xm (1)i ⊗ |yn (2)i ⊗ ui (1) ⊗ v j (2) ⊗ tk (3) .
Podemos comentar varias cosas:
ad
o
Por simplicidad hemos considerado un espacio tensorial de la forma V = E?1 ⊗ E?2 ⊗ E?3 ⊗ E1 ⊗ E2 , pero
claramente pudimos haberlo construido mas general, W = E?1 ⊗ E?2 ⊗ E?3 ⊗ E4 ⊗ E5 .
En este ejemplo, en la base del espacio tensorial xm (1), yn (2); ui (1), v j (2), tk (3) , hemos colocado primero su
“parte” vectorial y luego su “parte” forma. Los ı́ndices de las componentes heredan esta convención S mnijk :
primero irán los contravariantes y luego los covariantes. Pero lo importante es que los ı́ndices etiqueten el
espacio al cual corresponde.
rr
Nuestra notación será:
Bo
• |ψ(1), φ(2)i ≡ |ψ(1)i ⊗ |φ(2)i = C ij |ui (1), vj (2)i = C̃ ij |xi (1), vj (2)i = C̄ ij |ui (1), yj (2)i. Es decir un
tensor pertenciente a un espacio tensorial conformado por dos espacios vectoriales y que se pueden
expresar en varias de las bases de esos espacios.
• hψ(1), φ(2)| ≡ hψ(1)| ⊗ hφ(2)| = Kij ui (1), v j (2) = K̃ij xi (1), v j (2) = K̄ij ui (1), y j (2) . Igual que para
el caso anterior pero a partir de 1-formas.
• [ψ(1), φ(2)] ≡ hψ(1)| ⊗ |φ(2)i = Mi j ui (1); vj (2) = M̃i j xi (1); vj (2) = M̄i j ui (1); yj (2) . Un tensor
mixto
Es importante convenir el orden en el cual se presenten los espacios con los cuales se realiza el producto
tensorial
6 Existen
varias presentaciones operativas de estos conceptos para Fı́sica e Ingenierı́a, pueden consultar:
Battaglia, F., & George, T. F. (2013). Tensors: A guide for undergraduate students. American Journal of Physics, 81(7), 498-511.
Comon, P. (2014). Tensors: a brief introduction. IEEE Signal Processing Magazine, 31(3), 44-53.
152
CAPÍTULO 3. VECTORES DUALES Y TENSORES
Es de hacer notar que la selección de las bases no es arbitraria sino que deben corresponderse, entre el espacio
directo, E, y su dual E? , i.e.
{|ui (1)i , |vj (2)i , |wk (3)i} ⊗ {hxm (1)| , hy n (2)|} ⇔ {|xp (1)i , |yq (2)i} ⊗ hua (1)| , v b (2) , hwc (2)| .
ar
Si consideramos un tensor como resultado de un producto tensorial y consideramos las bases: {|ui (1)i , hxm (1)|},
sus componentes se pueden expresar {ϕm (1)χi (1)}, vale decir:
1
⇐⇒ |ϕ(1)i ⊗ h∆(1)| ⇒ hxm (1) |ϕ(1)i ⊗ h∆(1)| ui (1)i ⇒ {ϕm (1)χi (1)} .
1
Combinaciones lineales de tensores
lim
in
Es claro que podremos sumar (componentes) de tensores como lo hemos hecho con la suma de (componentes)
de vectores:
a + b = (ax + bx ) i + (ay + by ) j + (az + bz ) k = a1 + b1 i + a2 + b2 j + a3 + b3 k = ai + bi |ii i ,
esto es:
Rklij = αQklij + βPkl ij .
Producto tensorial de tensores
y el otro tipo:
2
1
el producto directo es:
rP
re
Podemos extender aún más la idea del producto directo y extenderla para tensores. Ası́, para dos tensores, uno
tipo:
hζ(1)| hξ(2)|
↓
↓
2
⇒ |ϕ(1)χ(2)i = |ϕ(1)i ⊗ |χ(2)i = T  • , •  |µ(1)κ(2)Θ(1)i ,
0
|u
i (1)i
hε(1)| hφ(2)|
↓
↓

↓
⇒ |µ(1)i ⊗ |κ(2)i ⊗ hΘ (1)| = P  ◦ ; • , •  ,
rr
ad
o
|ϕ(1)χ(2)i ⊗ |µ(1)κ(2)Θ(1)i = |ϕ(1)i ⊗ |χ(2)i ⊗ |µ(1)i ⊗ |κ(2)i ⊗ hΘ (1)|
hζ(1)| hξ(2)|
|u (1)i hε(1)| hφ(2)|
i
↓
↓
↓
↓
↓
= T  • , • ⊗P ◦ ; • , • 
|u
i (1)i
↓
hε(1)| hφ(2)| hζ(1)| hξ(2)|
↓
↓
↓
↓

= R ◦ ; • , • , • , •  .
Bo
En componentes será como se muestra a continuación:
Rij k lm = T ij Pk lm .
Un vez más, note que los puestos de los ı́ndices en las componentes de los tensores heredan las posiciones de los
vectores y formas que construyeron el espacio tensorial a partir del producto directo o tensorial.
Contracción de un tensor
Denominaremos una contracción cuando sumamos las componentes covariantes y contravariantes, esto es, si
tenemos ϕi (1)χi (1), entonces se genera un escalar independiente de la base. Esta situación será más evidente
cuando definamos métricas y contracción de tensores.
Por analogı́a y considerando un casomás general, dada las
2
1
mn
componentes Sijk
correspondiente a un tensor
podremos construir un nuevo tensor
a partir de una
3
2
in
n
mn
contracción. Las componentes de este nuevo tensor serán: Sijk
⇒ Sijk ≡ Sjk .
3.2. TENSORES Y PRODUCTO TENSORIAL
153
Del mismo modo, dadas las componentes de dos tensores, P lm y Qzkij generarán componentes de nuevos tensores
Rk = P lm Qmkij . Ası́:

2


⇒ P lm 
0
3
⇒
⇒ Rk lij = P lm Qmkij .
1
2
ij 

⇒ Qzk 
2
lij
P ij
ar
Es claro que si dos tensores derivan de productos tensoriales y si {|ui (1)i} , {hum (1)|} y {|vi (2)i} son bases
ortonormales para E1 , E?1 y E2 , entonces sus productos tensoriales podrán ser expresados como:
[α(1); β(1)] = αl (1)βm (1) |ul (1)i ⊗ hum (1)| ,
|γ(1); δ(2)i = γ i (1)δ j (2) |ui (1)i ⊗ |vj (2)i ,
{z
}
|
{z
}
|
l
Qm
in
entonces:
δim
lim
αl (1)βm (1) |ul (1)i ⊗ hum (1)|
γ i (1)δ j (2) |ui (1)i ⊗ |vj (2)i
= αl (1)βm (1) γ i (1)δ j (2) {hum (1) |ui (1)i} |vj (2)i ⊗ |ul (1)i
|
{z
}
= αl (1)βk (1) γ k (1)δ j (2) |vj (2)i ⊗ |ul (1)i
= P ij Qil |ul (1); vj (2)i
= Rjl |ul (1); vj (2)i .
Simetrización de tensores
rP
re
Pero más aún, si |ui (1)vj (2)i = |ui (1)i ⊗ |vj (2)i ∈ E es base de E entonces se puede demostrar lo anterior
sin circunscribirnos a tensores cuyas componentes provengan de multiplicación de las componentes en cada espacio
vectorial.
Un tensor (las componentes) será simétrico respecto a dos de sus ı́ndices si su permutación no cambia su valor:
S ij = S ji ,
Sij = Sji ,
y será antisimétrico si:
Aij = −Aji ,
Aij···kl···mn = −Aij···lk···mn ,
ad
o
Aij = −Aji ,
Sij···kl···mn = Sij···lk···mn ,
S ij···kl···mn = S ij···lk···mn ,
Aij···kl···mn = −Aij···lk···mn .
Un tensor de rango 2, viene representado por una matriz que tendrá
simétrica tendrá como máximo 6 componentes distintas.
 1
  1
S1 S21 S31
S1 S12
Sji = Sij =  S12 S22 S32  =  S21 S22
S13 S23 S33
S31 S32
32 = 9 componentes. Si la matriz es

S13
S23  .
S33
Bo
rr
Mientras que un tensor antisimétrico de segundo orden tendrá, cuando máximo, tres componentes con valor absoluto
distintos de cero,


0
A12 A13
0
A23  .
Aj i = −Ai j =  −A21
3
3
−A1 −A2 0
Siempre es posible construir tensores simétricos y antisimétricos a partir de un tensor genérico. Esto es:
Sij =
1
(Tij + Tji ) ≡ T(ij)
2
⇐⇒
Sij···kl···mn =
1
(Tij···kl···mn + Tij···lk···mn ) = Tij···(kl)···mn
2
Aij =
1
(Tij − Tji ) ≡ T[ij]
2
⇐⇒
Aij···kl···mn =
1
(Tij···kl···mn − Tij···lk···mn ) = Tij···[kl]···mn .
2
Es evidente que las componentes de un tensor genérico, Tij , pueden expresarse como una combinación de su parte
simétrica y antisimétrica:
Tij = Sij + Aij .
Obviamente que algo equivalente se puede realizar para componentes contravariantes de tensores.
154
CAPÍTULO 3. VECTORES DUALES Y TENSORES
3.2.6.
Tensor métrico, ı́ndices y componentes
con g ij = (gij )
−1
ar
Para una base genérica, {|uj i}, no necesariamente
de un espacio vectorial con producto interno,
ortogonal,
0
podemos definir la expresión de un tensor simétrico,
que denominaremos “tensor métrico”, de la siguiente
2
manera:
 i

|u i |u i
hu | huj |
j
i
↓
↓
↓ 
 ↓
g  ◦ , ◦,  = g [|ui i , |uj i] = gij ≡ gji , g  • , •  = g ui , uj = g ij ≡ g ji ,
h i
. Nótese que las gij ≡ gji son las componentes del tensor g ◦, ◦ una vez que la base {|uj i} ha
1. g [|ui i , |uj i] = gij ≡ gji ≥ 0
∀ |uj i , y si
2. g [|ui i , |uj i] = g [|uj i , |ui i]
⇒
lim
in
i
actuado. Esto hace que podamos
j definir
una forma a partir del tensor métrico como g [|ui i , ◦] = u y equivalentemente un vector como g u , • = |uj i. Ambas definiciones
nos llevan a pensar que el tensor métrico está
asociado a una función del producto interno, vale decir g ui , uj = g ij ≡ g ji = F[ ui |uj i], que preserve la idea
de métrica: F ∈ R, que sea simétrico respecto a los ı́ndices i, j y que cumpla con la desigualdad triangular. Es decir,
la denominación de tensor métrico, no es gratuita, g cumple con todas las propiedades de la métrica definida para
un espacio vectorial euclidiano expuestas en la sección 2.2.1, vale decir:
g [|ui i , |uj i] = 0 ⇒ i = j .
gij ≡ gji .
3. g [|ui i , |uj i] ≤ g [|ui i , |uk i] + g [|uk i , |uj i]: La desigualdad Triangular.
rP
re
Si la base genérica es ortonormal, {|ui i} → {|ei i}, entonces tendremos, de manera natural:
g [◦, ◦] ≡ gij ei ⊗ ej ≡ gji ej ⊗ ei
y
g [•, •] ≡ g ij |ei i ⊗ |ej i ≡ g ji |ej i ⊗ |ei i ,
(3.2)
con lo cual sus componentes serán matrices simétricas gij = gji , e igualmente g ij = g ji .
En general impondremos que:
km
j
gij ui ⊗ uj
g |uk i ⊗ |um i = gij g km ui |uk i uj |um i = gij g km δki δm
= gij g ji = δii = n ,
ad
o
ya que i, j = 1, 2, 3, · · · , n. Con lo cual gij es la matriz inversa de g ij , es decir, hemos definido las componentes
contravariantes del tensor de modo que cumplan con gik g kj = δij .
También es claro que si |ai = ak |uk i, entonces:
gij ui ⊗ uj |ai = ak gij ui ⊗ uj |uk i = ak gij uj |uk i ui = ak gij δkj ui = ak gik ui ≡ ai ui ,
con lo cual ai = ak gik .
De la misma forma:
ha| g ij |ui i ⊗ |uj i = ha| g ij |ui i ⊗ |uj i = g ij ha |ui i ⊗ |uj i = ak g ij uk |ui i |uj i = ak g kj |uj i ≡ aj |uj i ,
rr
otra vez aj = ak g kj , ahora subimos el ı́ndice correspondiente.
De esta manera, el tensor métrico nos permite asociar formas con vectores, componentes covariantes (formas)
a componentes contravariantes (vectores) y dicho rápido y mal, pero de uso muy frecuente: el tensor métrico nos
“permite subir y bajar ı́ndices”. Otra forma de verlo es combinando las propiedades del producto directo de tensores
y contracción de ı́ndices:
Bo
g ij |ui i ⊗ |uj i ⊗ Pk lmn |ul i ⊗ |um i ⊗ |un i ⊗ uk
⇒ g ij Pk lmn |uj i ⊗ Pk lmn |ul i ⊗ |um i ⊗ |un i ⊗ uk ui i
g ij Pk lmn |uj i ⊗ |ul i ⊗ |um i ⊗ |un i · uk ui i = P jlmn |uj i ⊗ |ul i ⊗ |um i ⊗ |un i
| {z }
⇒ g ij Pi
lmn
≡ P jlmn .
δik
Adicionalmente, el tensor métrico permite la contracción de ı́ndices. Ası́, dado un producto tensorial de dos
vectores que se pueden expresar en una base ortonormal {|ei i}:
|a, bi = |ai ⊗ |bi = ak bm |ek i ⊗ |em i
⇓
i
gij e ⊗ e
j
k
m
j
a |ek i ⊗ b |em i = a b gij δki δm
= ak bm gkm = ak bk = hb |ai = ha |bi .
k m
3.2. TENSORES Y PRODUCTO TENSORIAL
155
Es decir, el producto interno de dos vectores involucra, de manera natural, la métrica del espacio,
hb |ai = ha |bi = ak bk = ak bk = ak bm gkm = ak bm g km .
Obviamente la norma de un vector, también incluirá al tensor métrico:
2
k|aik = ha |ai = ai aj ei |ej i = ai ai = ai aj g ij = ai aj gij .
ar
Finalmente, será útil especificar la forma de construir el tensor métrico para para los espacios euclideanos (y
pseudo-euclideanos que nos ocuparán en la sección 3.3) definir la métrica a través del producto escalar entre vectores
de la forma
g [|ui i , |uj i] = gij ≡ gji = ui · uj
⇔
g [hui | , huj |] = g ij ≡ g ji = ui · uj
Métrica, elemento de lı́nea y factores de escala
lim
3.2.7.
in
Donde · representa el producto escalar estándar de Rn . Claramente gij ≡ gji = ui · uj = δji . En los ejemplos
expuestos en la sección 3.2.10, haremos uso de estas definciones.
El caso más emblemático lo constituye la norma de un desplazamiento infinitesimal. Para una base genérica,
{|ui i}, no necesariamente ortogonal de un espacio vectorial con producto interno, el desplazamiento infinitesimal
puede expresarse como:
ds2 ≡ hdr |dri = dxk uk (dxm |um i) = uk |um i dxk dxm = dxm dxm = gkm dxk dxm .
(3.3)
ad
o
rP
re
Si las bases de formas y vectores son ortogonales, {|ei i}, (cosa más o menos común pero no necesariamente cierta
siempre) la métrica será diagonal y como en general: k|ei ik 6= 1, entonces surgen los llamados factores de escala
√
hi = gii :
2
2
2
1
2
gii = ii ⇒ (ds) = h1 dx1 + h2 dx2 + h3 dx3 ,
(3.4)
g
√
donde hi = gii , con i, j = 1, 2, 3 (aquı́ no hay suma).
En la sección 5.1 discutiremos con detalle la construcción y el significado de los factores de escala para sistemas
de coordenadas tridimensionales, por ahora los mencionamos destacando sus consecuencias en la transformación de
las componentes covariantes y contravariantes entre distintas bases de vectores.
De esta manera, las componentes covariantes y contravariantes estarán relacionadas, a través de los factores de
escala como:
aj = gjk ak ⇒ ai = h[i] a[i] . (Aquı́ h[i] a[i] NO indica suma).
En otras palabras, en aquellos sistemas de coordenadas en los cuales la métrica es diagonal pero no viene representada
por la matriz unidad, subir y bajar indices puede incluir los cambios de escala. Obviamente, si la base {|ii i} es la
canónica, es fácil ver que:
2
k
(ds) ≡ hdr |dri = δm
dxk dxm = dxm dxm .
Teorema del cociente
Bo
3.2.8.
rr
es decir: g11 = g22 = g33 = 1 , gij = 0 si i 6= j , esto significa que en coordenadas cartesianas el desplazamiento
infinitesimal es la ya conocida expresión: ds2 = dx2 + dy 2 + dz 2 .
Al igual que existe el producto directo entre tensores, cabe preguntarse si es posible multiplicar un tensor
arbitrario (de cualquier rango) por un “objeto” desconocido ¿Ese producto será un tensor?
Existe importantes situaciones fı́sicas en las cuales es aplicable esta pregunta. Si Tij son las componentes de un
tensor de rango 2 y el producto Tij V i = Bj es un objeto representado por un sólo ı́ndice ¿Este objeto V i será un
vector? La respuesta es siempre afirmativa, y puede ser utilizada como un criterio para identificar componente de
tensores. Este criterio se denomina el Teorema del Cociente.
La respuesta a ésta pregunta surge de la respuesta a una pregunta distinta pero equivalente. Supongamos que nos
dan n2 números aij y un (una componente de un) vector genérico V i , si la cantidadaij Vi V j es un escalar entonces la
0
parte simétrica a(ij) = 21 (aij + aji ) será un (una componente de) tensor del tipo:
. La demostración involucra
2
algunas de las ideas antes expuestas y la haremos para fijar conceptos.
156
CAPÍTULO 3. VECTORES DUALES Y TENSORES
Dados dos sistemas de coordenadas xi = xi (x̃m ) y x̃j = x̃j (xm ) (con i, j = 1, 2, 3, · · · , n) se cumple que:
aij xi xj = ψ = ψ̃ = ãij x̃i x̃j ,
donde ψ = ψ̃ constituye un escalar ,
y por lo tanto, derivando y utilizando la regla de la cadena:
∂xi ∂ x̃j
∂xi
i
=
= δm
,
xi = xi x̃j (xm ) ⇒
m
∂x
∂ x̃j ∂xm
aij − ãkl
∂ x̃k ∂ x̃l
∂xi ∂xj
xi xj = 0 ,
in
aij xi xj − ãij x̃i x̃j ≡
ar
por lo que:
como hay una suma en ij no se puede afirmar que la cantidad del paréntesis se anula. Como esta afirmación vale
para cualquier sistema de coordenadas, seleccionaremos las componentes coordenadas en la base canónica.
x2 = (0, 1, 0, · · · , 0) , · · · · · · xn = (0, 0, 0, · · · , 1) ,
con lo cual:
a11 − ãkl
lim
x1 = (1, 0, 0, · · · , 0) ,
∂ x̃k ∂ x̃l
∂ x̃k ∂ x̃l
∂ x̃k ∂ x̃l
=
0
,
a
−
ã
=
0
,
·
·
·
,
·
·
·
a
−
ã
= 0,
22
kl
nn
kl
∂x1 ∂x1
∂x2 ∂x2
∂xn ∂xn
1
2
(ãkl + ãlk ) y ã[kl] =
1
2
(ãkl − ãlk ) y separar el tensor:
rP
re
Como siempre podemos hacer: ã(kl) =
ãkl = ã(kl) + ã[kl] ⇒ a(mm) − ã(kl) + ã[kl]
∂ x̃k ∂ x̃l
∂ x̃k ∂ x̃l
=
0
⇒
a
=
ã
.
(mm)
(kl)
∂xm ∂xm
∂xm ∂xm
La parte simétrica del tensor transforma siguiendo la regla: amn = Λkm Λln ãkl y es lo que de ahora en adelante
denominaremos un tensor de segundo orden. En este caso, la parte simétrica de un tensor transforma como un
verdadero tensor una vez que se contrae con un par de vectores.
3.2.9.
Vectores, formas, tensores y leyes de transformación
Bo
rr
ad
o
En esta sección discutiremos la importancia de caracterizar objetos identificando las leyes de transformación.
La invariancia bajo determinadas leyes de transformación es clave en Fı́sica y nos permite identificar propiedades
fundamentales. Ya hemos visto, en la sección 1.4.4, como los esquemas de transformación de coordenadas nos han
permitido diferenciar escalares y pseudoescalares y vectores de pseudovectores. En esta sección puntualizaremos
como transforman vectores y formas y como esos esquemas de transformaciones los heredan los tensores.
En general las afirmaciones anteriores se pueden generalizar considerando que las coordenadas
que definen un
determinado punto, P, expresado en un sistema de coordenadas particular, son x1 , x2 , · · · , xn y las coordenadas
de ese mismo punto P, expresado en otro sistema de coordenadas son x̃1 , x̃2 , · · · , x̃n . Ambas coordenadas estarán
relacionadas por:

 1
x = x1 x̃1 , x̃2 , · · · , x̃n x̃1 = x̃1 x1 , x2 , · · · , xn 





 x2 = x2 x̃1 , x̃2 , · · · , x̃n
x̃2 = x̃2 x1 , x2 , · · · , xn 
⇐⇒
..
..


.
.





 n
x = xn x̃1 , x̃2 , · · · , x̃n
x̃n = x̃n x1 , x2 , · · · , xn
En una notación más compacta lo que tenemos es:
x̃i = x̃i xj
⇐⇒ xi = xi x̃j ,
con i, j = 1, 2, 3, · · · , n .
(3.5)
Retomemos lo que discutimos en la sección 3.1.3, pero ahora en el lenguaje de coordenadas. En esa oportunidad
mostramos como transformaban las bases y las componentes de formas y vectores. Ahora lo generalizaremos a los
tensores. Otra vez, sólo exigiremos (y es bastante) que:
1. Las funciones xi = xi (x̃m ) y x̃j = x̃j (xm ) sean al menos C 2 (función y derivada continua)
3.2. TENSORES Y PRODUCTO TENSORIAL
157
2. Que el determinante de la matriz jacobiana sean finito y distinto de cero, esto es
∂xi (x̃m )
6= 0 ⇒
∂ x̃j
det
∂x1
∂ x̃1
∂x1
∂ x̃2
···
∂x1
∂ x̃n
∂x2
∂ x̃1
∂x2
∂ x̃2
···
∂x2
∂ x̃n
∂xn
∂ x̃1
∂xn
∂ x̃2
···
..
.
..
.
..
.
6= 0 ⇒ xi = xi (x̃m ) ⇐⇒ x̃j = x̃j (xm ) .
∂xn
∂ x̃n
ar
Ahora bien, una vez más, derivando y utilizando la regla de la cadena:
lim
in
∂xi
∂xi ∂ x̃j
∂xi j
i
i
xi = xi x̃j (xm ) ⇒
=
=
δ
dx̃ ,
⇒
dx
=
m
∂xm
∂ x̃j ∂xm
∂ x̃j
como hemos comprobado para los dos casos particulares estudiados con anterioridad.
De ahora en adelante tendremos las siguientes ReDefiniciones:
Un conjunto de cantidades a1 , a2 , · · · , an se denominarán
componentes contravariantes de un vector |ai ∈ V
en un punto P de coordenadas x1 , x2 , · · · , xn , si:
rP
re
1. dada dos bases ortonormales de vectores coordenados: {|e1 i , |e2 i , · · · , |en i} y {|ẽ1 i , |ẽ2 i , · · · , |ẽn i}, se
cumple que:
i
e ai = ai
⇒ ãi = aj ẽi |ej i .
|ai = ai |ei i = ãi |ẽi i ⇒
ẽi ai = ãi
2. o equivalentemente, bajo una transformación de coordenadas: xi = xi x̃j , con i, j = 1, 2, 3, · · · , n, estas
cantidades transforman como:
ãi =
y donde las cantidades
∂ x̃i
∂xk
∂ x̃i k
∂xi k
a ⇐⇒ ai =
ã ,
k
∂x
∂ x̃k
y
∂xi
∂ x̃k
con:
∂xi ∂ x̃k
= δli ,
∂ x̃k ∂xl
(3.6)
deberán ser evaluadas en el punto P .
ad
o
Un conjunto de cantidades {b1 , b2 , · · · , bn } se denominarán componentes covariantes de un vector hb| ∈ V?
en un punto P de coordenadas x1 , x2 , · · · , xn , si:
1. dada dos bases de formas: e1 , e2 , · · · , hen | y ẽ1 , ẽ2 , · · · , hẽn | se cumple que:
hb| ei = bi
hb| = bi ei = b̃i ẽi ⇒
⇒ b̃i = bj hej ẽi .
hb| ẽi = b̃i
2. o equivalentemente, bajo una transformación de coordenadas xi = xi x̃j (con i, j = 1, 2, 3, · · · , n) estas
cantidades transforman como:
b̃k =
rr
y donde las cantidades:
∂ x̃i
∂xk
y
∂xi
∂ x̃i
∂xi ∂ x̃k
bi ⇐⇒ bk =
b̃i , con:
= δli ,
k
k
∂ x̃
∂x
∂ x̃k ∂xl
∂xi
∂ x̃k
(3.7)
deberán ser evaluadas en el punto P .
Bo
Generalizamos los conceptos anteriores de la siguiente manera. Dado un conjunto bases para las formas
diferenciales {hxm (1)| , hy n (2)|}, hemos definido las componentes contravariantes de un tensor:
 i

hx (1)| hyj (2)|
↓ 
 ↓
T ij = T  • , •  ⇐⇒ T ij ≡ T 11 , T 12 , · · · , T 1n , T 21 , T 22 , · · · , T 2n , · · · , T nn ,
en esta visión, las componentes contravariantes en un punto P de coordenadas x1 , x2 , · · · , xn ⇔ xi = xi x̃j
(con i, j = 1, 2, 3, · · · , n) transforman como:
T̃ ij =
donde
∂ x̃i
∂xk
y
∂xi
∂ x̃k
∂ x̃i ∂ x̃j km
∂xi ∂xj km
∂xi ∂ x̃k
T
⇐⇒ T ij =
T̃
, con:
= δli ,
k
m
k
m
∂x ∂x
∂ x̃ ∂ x̃
∂ x̃k ∂xl
deberán ser evaluadas en el punto P .
Esto nos permite construir el caso más general.
158
CAPÍTULO 3. VECTORES DUALES Y TENSORES
Si {|ti (1)i , |uj (2)i , · · · , |vk (m)i} y hxe (1)| , y f (2) , · · · , hz g (n)| son bases para los vectores y las formas,
respectivamente, las componentes de un tensor:


f
|vk (m)i hxe (1)| hy (2)|
hz g (n)|
|ti (1)i |uj (2)i
↓
↓
↓
↓
↓ 
 ↓
Tijk mn = T  ◦ , ◦, , · · · , ◦ ; • , • , · · · , •  ,
∂ x̃i
∂ x̃k ∂xa
∂xd
∂xi
∂xk ∂ x̃a
∂ x̃d
p···q
i···k
·
·
·
·
·
·
T
⇐⇒
T
=
·
·
·
·
·
·
T p···q ,
e···g
∂xp
∂xq ∂ x̃e
∂ x̃g a···d
∂ x̃p
∂ x̃q ∂xe
∂xg a···d
nuevamente con:
3.2.10.
∂xi ∂ x̃k
∂ x̃k ∂xl
= δli y donde las cantidades
Ejemplos
∂ x̃i
∂xk
y
∂xi
∂ x̃k
(3.8)
deberán ser evaluadas en el punto P .
lim
T̃e···gi···k =
in
ar
ñ···ñ
serán un conjunto de cantidades: T1···11···1 , T1···12···1 , · · · , T1···1···1 , T1···1ñ···1 , T2···1ñ···1 , · · · , Tm̃···11···1 , · · · , Tm̃···
m̃
que se denominarán las componentes contravariantes
y covariantes respectivamente, de un tensor mixto en
un punto P de coordenadas x1 , x2 , · · · , xn .
Bajo una transformación de coordenadas xi = xi x̃j (con i, j = 1, 2, 3, · · · , n) estas cantidades transforman
como:
rP
re
1. Productos tensoriales, vectores y matrices: Para fijar los conceptos que hemos desarrollado en las
secciones 3.2.2, y 3.2.5 consideremos dos espacios vectoriales V1 , V2 y sus duales V1? y V2? cuyos vectores y
formas pueden ser representados como
 1 
 1 
u
v

u2 
?

|vi =  v 2  ∈ V1 , hv| = (v1 v2 v3 ) ∈ V1? y |ui = 
 u3  ∈ V2 , hu| = (u1 u2 u3 u4 ) ∈ V2
3
v
u4
ad
o
Para ejemplificar las componentes y bases de los espacios tensoriales a partir de los espacios vectoriales y sus
duales previamente identificados, podemos entonces definir la siguiente operación, como el producto tensorial:
 1 
 1

v
v u1 v 1 u2 v 1 u3 v 1 u4
|v(1)i ⊗ hu(2)| ≡ [v(1)u? (2)] =  v 2  ⊗ (u1 u2 u3 u4 ) =  v 2 u1 v 2 u2 v 2 u3 v 2 u4  ∈ V3 = V1 ⊗ V2? .
v3
v 3 u1 v 3 u2 v 3 u3 v 3 u4
y del mismo modo el dual del producto anterior
  1
z1
z w1
 z 2   z 2 w1
∗
 
hw(1)| ⊗ |z(2)i ≡ [w (1)z(2)] = (w1 w2 w3 ) ⊗ 
 z 3  =  z 3 w1
z4
z 4 w1
rr

z 1 w2
z 2 w2
z 3 w2
z 4 w2

z 1 w3
z 2 w3 
 ∈ V3? = V1? ⊗ V2 .
z 3 w3 
z 4 w3
Notemos que tanto [v(1)u? (2)] como [v? (1)u(2)] son funcionales bilineales tal y como lo definimos en 3.2.2. Es
fácil convencerse que [v(1)u∗ (2)] y [v∗ (1)u(2)] son tensores duales uno del otro.
Bo
Consideremos que si {|e1 (1)i , |e2 (1)i , |e3 (1)i} es una base para V1 con { e1 (1) , e2 (1) , e3 (1) } y su dual
en V?1 , entonces, éstas pueden ser definidas como:
 
 


1
0
0
|e1 (1)i =  0  , |e2 (1)i =  1  , |e3 (1)i =  0  , e1 (1) = (1 0 0) , e2 (1) = (0 1 0) , e3 (1) = (0 0 1) .
0
0
1
De igual forma las bases para V2 y V2? pueden ser definidas como


 

1
0
 0 
 1 


 

|e1 (2)i = 
 0  , |e2 (2)i =  0  , |e3 (2)i = 
0
0


0

0 
 , |e4 (2)i = 


1
0

0
0 
,
0 
1
3.2. TENSORES Y PRODUCTO TENSORIAL
159
y repectivamente:
e1 (2) = (1 0 0 0) , e2 (2) = (0 1 0 0) , e3 (2) = (0 0 1 0) , e4 (2) = (0 0 0 1) ,
definido, podemos construir la siguiente base para el espacio


0
0
0  , e1 (1) ; e2 (2) = |e1 (1)i ⊗ e2 (2) =  0
0
0
1
0
0
0
0
0

0
0 ,
0

0
e1 (1) ; e3 (2) = |e1 (1)i ⊗ e3 (2) =  0
0

0
e2 (1) ; e1 (2) = |e2 (1)i ⊗ e1 (2) =  1
0

0
e2 (1) ; e3 (2) = |e2 (1)i ⊗ e3 (2) =  0
0

0
e3 (1) ; e1 (2) = |e3 (1)i ⊗ e1 (2) =  0
1

0
e3 (1) ; e3 (2) = |e3 (1)i⊗ e3 (2) =  0
0

0
0 ,
0

0
0 ,
0

0
0 ,
0

0
0 ,
0

0
0 ,
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0

1
0 ,
0

0
0 ,
0

0
1 ,
0

0
0 ,
0

0
0 .
1
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
0
0
1
in
0
0
0

0
e1 (1) ; e4 (2) = |e1 (1)i ⊗ e4 (2) =  0
0

0
e2 (1) ; e2 (2) = |e2 (1)i ⊗ e2 (2) =  0
0

0
e2 (1) ; e4 (2) = |e2 (1)i ⊗ e4 (2) =  0
0

0
e3 (1) ; e2 (2) = |e3 (1)i ⊗ e2 (2) =  0
0

0
e3 (1) ; e4 (2) = |e3 (1)i⊗ e4 (2) =  0
0
lim
1
0
0
rP
re
0
0
0
ar
Entonces con el producto tensorial previamente
tensorial V3 = V1 ⊗ V2? :

1 0 0
e1 (1) ; e1 (2) = |e1 (1)i ⊗ e1 (2) =  0 0 0
0 0 0
Invocando
la correspondencia entre kets y bras que expresamos en 3.1.1 construimos la base tensorial dual
i
e (1) ; ej (2) = ei (1) ⊗ |ej (2)i ∈ V3? y tendremos

0
0
0
0


0

0 
 , e1 (1) ; e2 (2) = 


0
0
0
1
0
0
0
0
0
0


0

0 
 , e1 (1) ; e3 (2) = 


0
0
0
0
1
0
0
0
0
0

0
0 
,
0 
0


0

0 
 , e2 (1) ; e1 (2) = 


0
0


0

0 
 , e2 (1) ; e4 (2) = 

0 
0


0

1 
 , e3 (1) ; e3 (2) = 

0 
0
0
0
0
0
1
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0


0

0 
 , e2 (1) ; e2 (2) = 


0
0


0

0 
 , e3 (1) ; e1 (2) = 

0 
0


0

0 
 , e3 (1) ; e4 (2) = 

1 
0
0
0
0
0
0
0
0
0

0
0 
,
0 
0

1
0 
,
0 
0

0
0 
.
0 
1
ad
o
1
1
 0
e (1) ; e1 (2) = 
 0
0

Bo
rr
0
1
 0

e (1) ; e4 (2) = 
0
1

0
2
 0
e (1) ; e3 (2) = 
 0
0

0
3
 0
e (1) ; e2 (2) = 
 0
0
0
0
0
0
0
0
1
0
0
0
0
0
Como no tenemos definido un producto interno entre tensores y sus duales no podemos afirmar
que esta
base
sea ortogonal, pero es claro que ambos conjuntos de vectores {[ek (1) ; em (2)]} y sus duales ei (1) ; ej (2) son
linealmente independientes en V3 y V3? , respectivamente. Por lo tanto, cualquier tensor, [v(1) ; u∗ (2)] ∈ V3
se puede expresar como combinación lineal de esta base
|v(1)i ⊗ hu(2)| ≡ [v(1) ; u∗ (2)] = v i uj ei (1) ; ej (2) ≡ Uji ei (1) ; ej (2) ,
160
CAPÍTULO 3. VECTORES DUALES Y TENSORES
donde los Uji = v i uj son las componentes del tensor en esta base.
Equivalentemente, el tensor [w∗ (1) ; z(2)] ∈ V3? , también podrá expresarse en la base dual
hw(1)| ⊗ |z(2)i ≡ [w∗ (1) ; z(2)] = ei (1) ; ej (2) z j wi ≡ ei (1) ; ej (2) Wij .
Otra vez, los Wij = z j wi son las componente del tensor [w∗ (1) ; z(2)] en la base ei (1) ; ej (2) .
ar
2. Bases recı́procas y tensores métricos.En este punto analizaremos dos ejemplos en los cuales construiremos
los tensores métricos a partir de dos bases para el R3 .
uj × uk
,
ui · (uj × uk )
lim
ui =
in
a) Bases oblicuas, bases recı́procas y tensores métricos. Consideremos una base genérica oblicua
para R3 , formada por los vectores: u1 = i + j + 2k, u2 = i + 2j + 3k, y u3 = i − 3j + 4k. Revisaremos
si estos vectores son mutuamente ortogonales. Encontraremos la base recı́proca ui , el tensor métrico en
ambas bases y para el vector a = 3u1 + 2u2 + u3 encontraremos sus componentes covariantes.
Para saber si son ortogonales simplemente calculamos el producto escalar entre ellos: u1 · u2 = 9 ,
u1 · u3 = 6 y u2 · u3 = 7, por lo tanto no son ortogonales y adicionalmente sabemos que:
rP
re
que no es otra cosa que la receta para construir la base recı́proca, que en el lenguaje de formas y vectores
coincide con la base dual, es decir la base del espacio de 1-formas.
En general la base dual será:
 1
1
5
u = u2 V×u3 = 17

6 i − 6j − 6k




uj × uk
u2 = u3 V×u1 = − 53 i + 13 j + 32 k
ui =
⇒

V



 3
u = u1 V×u2 = − 16 i − 16 j + 61 k ,
donde V = u1 · (u2 × u3 ) ⇒ (i + j + 2k) · ([i + 2j + 3k] × [i − 3j + 4k]) = 6 . Notemos que el volumen
unitario del espacio dual se construye:
17
1
5
5
1
2
1
1
1
1
Ṽ = u1 · (u2 × u3 ) ⇒
i− j− k · − i+ j+ k × − i− j+ k
= .
6
6
6
3
3
3
6
6
6
6
ad
o
Construimos entonces el tensor métrico para
 1 1
u ·u
g̃ ij = g̃ ji = ui ⊗ uj =  u2 · u1
u3 · u1
la base recı́proca como:
  35
u1 · u2 u1 · u3
4
u2 · u2 u2 · u3  =  − 16
3
7
u3 · u2 u3 · u3
− 12
− 16
3
10
3
1
3
7
− 12
1
3
1
12

,
mientras que para la base original:

rr
u1 · u1
gij = gji = ui ⊗ uj =  u2 · u1
u3 · u1
u1 · u2
u2 · u2
u3 · u2
 
u1 · u3
6
u2 · u3  =  9
u3 · u3
6

6
7 .
26
9
14
7
Bo
Y, como debe ser,

6
ui ⊗ uj = gij =  9
6
9
14
7
  35
6
4
7   − 16
3
7
26
− 12
− 16
3
10
3
1
3
7
− 12
1
3
1
12


1
= 0
0
0
1
0

0
0 .
1
Entonces, para un vector dado por: a = 3u1 + 2u2 + u3 , podemos calcular sus componentes covariantes
de la manera siguiente:

 a1 = g11 a1 + g12 a2 + g13 a3 = (6)(3) + (9)(2) + (6)(1) = 42
j
a2 = g21 a1 + g22 a2 + g23 a3 = (9)(3) + (14)(2) + (7)(1) = 62
ai = gij a =

a3 = g31 a1 + g32 a2 + g33 a3 = (6)(3) + (7)(2) + (26)(1) = 58
Esto es: a = a1 i + a2 j + a3 k = 42u1 + 62u2 + 58u3 .
3.2. TENSORES Y PRODUCTO TENSORIAL
161
b) Bases ortogonales, bases recı́procas y tensores métricos. El segundo ejemplos será construir una
base dual a una base de vectores mutuamente ortogonales, para ello consideraremos los siguientes vectores
w1 = i + j + 2k ,
w2 = −i − j + k ,
w3 = 3i − 3j .
Ortogonalidad: w1 · w2 = 0 , w1 · w3 = 0 y w2 · w3 = 0 . Son ortogonales.
La base recı́proca se construye a partir de:
wj × wk
,
wi · (wj × wk )
ar
wi =
donde el denominador es:
in
V = w1 · (w2 × w3 ) ⇒ (i + j + 2k) · ([−i − j + k] × [3i − 3j]) = 18 ,
y por lo tanto:
wj × wk
V
w2 ×w3
V
= 16 i + 61 j + 13 k
w3 ×w1
V
= − 13 i − 31 j + 13 k
w1 ×w2
V
= 16 i − 61 j
lim
wi =
 1
w =





w2 =
⇒




 3
w =
rP
re
El volumen recı́proco, como era de esperarse:
1
1
1
1
1
1
1
1
1
i+ j+ k · − i− j+ k × i− j
=
,
Ṽ = w1 · (w2 × w3 ) ⇒
6
6
3
3
3
3
6
6
18
mientras que el tensor métrico para la base recı́proca es:
 1
w · w1 w1 · w2
ij
ji
i
j

w2 · w1 w2 · w2
ḡ = ḡ = w ⊗ w =
w3 · w1 w3 · w2
y para la base original

ad
o
w1 · w1
gij = gji = wi ⊗ wj =  w2 · w1
w3 · w1
w1 · w2
w2 · w2
w3 · w2
  1
w1 · w3
6
w2 · w3  =  0
w3 · w3
0
 
w1 · w3
6
w2 · w3  =  0
0
w3 · w3
0
1
3
0
0
3
0

0
0 
1
18

0
0 .
18
Entonces el vector a = 3w1 + 2w2 + w3 = a1 w1 + a2 w2 + a3 w3 , tendrá como componentes covariantes

 a1 = g11 a1 = (6)(3) = 18
j
a2 = g22 a2 = (3)(2) = 6
ai = gij a =

a3 = g33 a3 = (18)(1) = 18
Bo
rr
Esto es: a = a1 i + a2 j + a3 k = 18w1 + 6w2 + 18w3 .
Notemos que si la base original hubiese sido ortonormal:
√
√
w1 = (i + j + 2k)/ 6 , w2 = (−i − j + k)/ 3 ,
entonces:

gij = ḡ ij
1
= 0
0
0
1
0
√
w3 = (3i − 3j)/ 18 ,


0
 a1 = a1

0
a2 = a2
⇒

1
a3 = a3
3. Un ejemplo detallado de transformación de tensores Ilustremos ahora las transformaciones de tensores
bajo cambios de la base del espacio tensorial. Esta vez, consideraremos
que un tensor tendrá componentes
Tj i cuando se expresa como combinación lineal de la base ei (1); ej (2) = |ei (1)i ⊗ ej (2) donde la base
{|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} son los vectores unitarios cartesianos para el espacio vectorial R3 . Esto es
 
 
 
1
0
0
|e1 i = |ii =  0  ; |e2 i = |ji =  1  , |e3 i = |ki =  0 
0
0
1
162
CAPÍTULO 3. VECTORES DUALES Y TENSORES
y su base dual
he1 | = hi| = (1 0 0), he2 | = hj| = (0 1 0), he3 | = hk| = (0 0 1),
Consideremos un tensor en la base tensorial ei (1); ej (2) se expresa como:

2
Tji =  2
1
1
3
2

3
4 .
2
ar
Este ejercicio consiste en ver cómo calcular las expresiones de los siguientes tensores: T̃ij , T̃ij y T̃ ij , si consideramos una nueva base:
in
|w̃1 i = |ii , |w̃2 i = |ii + |ji y |w̃3 i = |ii + |ji + |ki ⇔ hw̃1 | = hi| , hw̃2 | = hi| + hj| y hw̃3 | = hi| + hj| + hk| ,
lim
Nótese que la nueva base no es ortogonal , w̃k |w̃i i =
6 δik , con lo cual no se cumplen muchas cosas, entre
k
ellas: |w̃k i w̃ 6= 1. Pero sin duda se cumple que para transformar componentes de un tensor tendremos
siempre la relación
∂ x̃k ∂xj i
k
T .
T̃m
=
∂xi ∂ x̃m j
k
j
rP
re
x̃
∂x
Tenemos que identificar las matrices de transformación ∂∂x
i y ∂ x̃m . Estas matrices de transformación son
las mismas que transforman componentes (contravariantes) de vectores y las componentes (covariantes) de
covectores o formas, i.e.
∂ x̃i k
∂xm
ãi =
a
⇔
ã
=
am
k
∂xk
∂ x̃k
y además son las mismas matrices que devuelven el cambio de un sistema de coordenadas a otro:
ai =
∂xi k
ã
∂ x̃k
⇔
ak =
Adicionalmente, estas matrices son una la inversa de la otra
∂ x̃m
ãm .
∂xk
∂xi ∂ x̃k
∂ x̃k ∂xj
= δji .
Para identificar esas matrices recordamos que un vector genérico transforma de la siguiente manera: |ai =
aj |ej i = ãj |w̃j i , por lo tanto:
ad
o
|ai = aj |ej i = ã1 |w̃1 i + ã2 |w̃2 i + ã3 |w̃3 i = ã1 |e1 i + ã2 (|e1 i + |e2 i) + ã3 (|e1 i + |e2 i + |e3 i) ,
donde hemos sustituido la expresión de la base
˜i
w̃
en términos de la base {|ej i} con lo cual:
|ai = a1 |e1 i + a2 |e2 i + a3 |e3 i = ã1 + ã2 + ã3 |e1 i + ã2 + ã3 |e2 i + ã3 |e3 i .
Bo
rr
Lo que nos lleva al siguiente sistema de ecuaciones:








a1 = ã1 + ã2 + ã3 
∂xi k
a2 = ã2 + ã3
⇒ ai =
ã ⇒


∂ x̃k

a3 = ã3




∂x1
∂ x̃1
= 1;
∂x1
∂ x̃2
= 1;
∂x1
∂ x̃3
=1
∂x2
∂ x̃1
= 0;
∂x2
∂ x̃2
= 1;
∂x2
∂ x̃3
=1
∂x3
∂ x̃1
= 0;
∂x3
∂ x̃2
= 0;
∂x3
∂ x̃3
=1
Es de hacer notar que dado que la base: {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} es ortonormal, se tiene que:
|ai = aj |ej i = ãi |w̃i i ⇒
ei ai = aj ei |ej i = aj δji = ai = ãk ei |w̃k i ⇒
∂xi
= ei |w̃k i .
∂ x̃k
Este mismo procedimiento se puede aplicar para expresar el vector |ai como una combinación lineal de los
vectores |w̃j i:
|ai = ãj |ẽj i = aj |ej i = a1 |e1 i + a2 |e2 i + a3 |e3 i = a1 |w̃1 i + a2 (|w̃2 i − |w̃1 i) + a3 (|w̃3 i − |w̃2 i) ,
3.2. TENSORES Y PRODUCTO TENSORIAL
163
esto es:








ã1 = a1 − a2 
∂ x̃k i
ã2 = a2 − a3
a ⇒
⇒ ãk =


∂xi

ã3 = a3




∂ x̃1
∂x2
∂ x̃1
∂x1
= 1;
∂ x̃2
∂x1
= 0;
∂ x̃2
∂x2
= 1;
∂ x̃3
∂x1
= 0;
∂ x̃3
∂x2
= 0;
∂ x̃1
∂x3
= −1;
∂ x̃2
∂x3
∂ x̃3
∂x3
=0
= −1
=1
Nótese que, como era de esperarse:

∂x ∂ x̃
= δji
∂ x̃k ∂xj
1
⇒  0
0
1
1
0

1
1
1  0
1
0
 
−1
0
1
1 −1  =  0
0
1
0
0
1
0

0
0 .
1
ar
k
in
i
Con las expresiones matriciales para las transformaciones, estamos en capacidad de calcular, componente a
componente, las representación del tensor dado en la nueva base:
Veamos:
=
=
+
∂ x̃1 ∂xj i
T
∂xi ∂x̃1 j
∂ x̃1 ∂x1 1
T +
∂x1 ∂ x̃1 1
∂ x̃1 ∂x1 3
T +
∂x3 ∂ x̃1 1
es decir:
T̃11
=
∂x2 1 ∂x3 1
∂ x̃1 ∂x1 2 ∂x2 2 ∂x3 2
T
+
T
T
+
T
+
T
+
∂ x̃1 2
∂ x̃1 3
∂x2 ∂ x̃1 1
∂ x̃1 2
∂ x̃1 3
∂x2 3 ∂x3 3
T +
T
,
∂ x̃1 2
∂ x̃1 3
rP
re
T̃11
∂ x̃k ∂xj i
T .
∂xi ∂ x̃m j
lim
k
T̃m
=
1 · 1 T11 + 0 T21 + 0 T31 − 1 · 1 T12 + 0 T22 + 0 T32 + 0 1 T13 + 0 T23 + 0 T33
= T11 − T12 = 2 − 2 = 0 .
ad
o
Del mismo modo para T̃21 :
T̃21
=
=
∂x2 1 ∂x3 1
∂ x̃1 ∂x1 2 ∂x2 2 ∂x3 2
T
+
T
T
+
T
+
T
+
∂ x̃2 2
∂ x̃2 3
∂x2 ∂ x̃2 1
∂ x̃2 2
∂ x̃2 3
∂x2 3 ∂x3 3
T +
T
,
∂ x̃2 2
∂ x̃2 3
rr
+
∂ x̃1 ∂xj i
T
∂xi ∂x̃2 j
∂ x̃1 ∂x1 1
T +
∂x1 ∂ x̃2 1
∂ x̃1 ∂x1 3
T +
∂x3 ∂ x̃2 1
T̃21
=
Bo
resultando:
=
1 · 1 T11 + 1 T21 + 0 T31 − 1 · 1 T12 + 1 T22 + 0 T32 + 0 1 T13 + 1 T23 + 0 T31
T11 + T21 − T12 + T22 = (2 + 1) − (2 + 3) = −2 .
Se puede continuar término a término (el lector debe terminar los cálculos) o realizar la multiplicación de las
matrices provenientes de la transformación de componentes de tensores. Vale decir:



 

k
j
1 −1
0
2 1 3
1 1 1
0 −2 −3
∂
x̃
∂x
k
1 −1   2 3 4   0 1 1  =  1
2
4 .
T̃m
=
Tji
⇔  0
∂xi
∂ x̃m
0
0
1
1 2 2
0 0 1
1
3
5
Hay que resaltar el especial cuidado que se tuvo en la ubicación de las matrices para su multiplicación. Si
x̃k ∂xj
∂ x̃k
k
i
bien en la expresión T̃m
= ∂∂x
i ∂ x̃m Tj las cantidades ∂xi son números y no importa el orden con el cual se
multipliquen, cuando se escriben como matrices debe respetarse la “concatenación interna de ı́ndices”. Esto
164
CAPÍTULO 3. VECTORES DUALES Y TENSORES
k
es, cuando queremos expresar T̃m
como una matriz, donde el ı́ndice contravariante k indica filas y el ı́ndice
covariante m las columnas, fijamos primero estos ı́ndices y luego respetamos la “concatenación de ı́ndices”
covariantes con los contravariantes. Esta es la convención para expresar la multiplicación de matrices en la
notación de ı́ndices7 . Esto es:
∂ x̃k ∂xj
∂ x̃k ∂xj i
k
i
k
T
T
.
⇒
T̃
=
T̃m
=
m
j
∂xi ∂ x̃m j
∂xi
∂ x̃m
k
j
in
ar
x̃
∂x
i
Los objetos ∂∂x
i , Tj y ∂ x̃m fueron sustituidos (en sus puestos correspondientes) por su representación matricial.
Con lo cual hemos encontrado la representación matricial T̃ij de las componentes del tensor T en la base
{|w̃1 i , |w̃2 i , |w̃3 i}
 1
 

T̃1 T̃21 T̃21
0 −2 −3
2
4 .
T̃ij =  T̃12 T̃22 T̃32  =  1
3
3
3
1
3
5
T̃1 T̃2 T̃3
lim
Para encontrar la expresión de T̃ij (T̃ij = g̃ik T̃jk ), requeriremos las componentes covariantes y contravariantes
del tensor métrico g̃ik que genera esta base. Para ello recordamos que para una base genérica, {|w̃j i}, no
necesariamente ortogonal, de un espacio vectorial con producto interno, podemos definir la expresión de un
tensor que denominaremos tensor métrico como:
∂xm ∂xn
0
gmn ≡ hem |w̃i i hen |w̃j i gmn .
un tensor del tipo
⇒ g̃ij =
2
∂ x̃i ∂ x̃j
rP
re
Recordemos que la métrica covariante gij generada por una base ortonormal {|ei i} ≡ {|ii i} es:
g11 = 1 , g22 = 1 , g33 = 1 , g12 = g21 = g13 = g31 = g23 = g32 = 0 .
Es decir:

gij = g ij = gji
1
⇐⇒  0
0
0
1
0

0
0 .
1
Con lo cual, para el caso de la base genérica no ortonormal {|w̃j i} tenemos dos formas de calcular las
componentes covariantes y contravariantes del tensor métrico.
ad
o
La primera es la forma directa: g̃ij = hem |w̃i i hen |w̃j i gmn . Esto es:
g̃11 = hen |w̃1 i hem |w̃1 i gnm = e1 |w̃1 i e1 |w̃1 i + e2 |w̃1 i e2 |w̃1 i + e3 |w̃1 i e3 |w̃1 i
2
= e1 |w̃1 i = 1
g̃12 = hen |w̃1 i hem |w̃2 i gnm = e1 |w̃1 i e1 |w̃2 i + e2 |w̃1 i e2 |w̃2 i + e3 |w̃1 i e3 |w̃2 i
= e1 |w̃1 i e1 |w̃2 i = 1
g̃13 = hen |w̃1 i hem |w̃3 i gnm = e1 |w̃1 i e1 |w̃3 i + e2 |w̃1 i e2 |w̃3 i + e3 |w̃1 i e3 |w̃3 i
= e1 |w̃1 i e1 |w̃3 i = 1
Bo
rr
g̃21 = hen |w̃2 i hem |w̃1 i gnm = e1 |w̃2 i e1 |w̃1 i + e2 |w̃2 i e2 |w̃1 i + e3 |w̃2 i e3 |w̃1 i
= e1 |w̃2 i e1 |w̃1 i = 1
g̃22 = hen |w̃2 i hem |w̃2 i gnm = e1 |w̃2 i e1 |w̃2 i + e2 |w̃2 i e2 |w̃2 i + e3 |w̃2 i e3 |w̃2 i
= e1 |w̃2 i e1 |w̃2 i e2 |w̃2 i e2 |w̃2 i = 2
g̃23 = hen |w̃2 i hem |w̃3 i gnm = e1 |w̃2 i e1 |w̃3 i + e2 |w̃2 i e2 |w̃3 i + e3 |w̃2 i e3 |w̃3 i
= e1 |w̃2 i e1 |w̃3 i + e2 |w̃2 i e2 |w̃3 i = 2
g̃31 = hen |w̃3 i hem |w̃1 i gnm = e1
= e1 |w̃3 i e1 |w̃1 i = 1
g̃32 = hen |w̃3 i hem |w̃2 i gnm = e1
= e1 |w̃3 i e1 |w̃2 i + e2 |w̃3 i
g̃33 = hen |w̃3 i hem |w̃3 i gnm = e1
= e1 |w̃3 i e1 |w̃3 i + e2 |w̃3 i
|w̃3 i e1 |w̃1 i + e2 |w̃3 i e2 |w̃1 i + e3 |w̃3 i e3 |w̃1 i
|w̃3 i e1 |w̃2 i + e2 |w̃3 i e2 |w̃2 i + e3 |w̃3 i e3 |w̃2 i
e2 |w̃2 i = 2
|w̃3 i e1 |w̃3 i + e2 |w̃3 i e2 |w̃3 i + e3 |w̃3 i e3 |w̃3 i
e2 |w̃3 i + e3 |w̃3 i e3 |w̃3 i = 3
7 Quizá una forma de comprobar si los ı́ndices están bien concatenados se observa si se “bajan” los ı́ndices contravariantes pero
se colocan antes que los covariantes. Esto es, Tji → Tij . Ası́, la multiplicación de matrices queda representada de la siguiente forma:
Cji = Aik Bjk → Cij = Aik Bkj y aquı́ es claro que ı́ndices consecutivos están “concatenados” e indican multiplicación.
3.2. TENSORES Y PRODUCTO TENSORIAL
165
De manera que:
g̃ij ⇒ g̃11 = 1 , g̃12 = 1 , g̃13 = 1 , g̃21 = 1 , g̃22 = 2 , g̃23 = 2 , g̃31 = 1 , g̃32 = 2 , g̃33 = 3 .
ar
Consecuentemente podemos “arreglarlo como una matriz”8 de la siguiente forma:




1 1 1
2 −1
0
−1
2 −1  .
g̃ij ≡ g̃ji ⇐⇒  1 2 2  ⇒ g̃ ij ≡ g̃ ji = (g̃ij )
⇐⇒  −1
1 2 3
0 −1
1
in
Nótese que también podrı́amos haber procedido, y en términos “matriciales”, de la siguiente forma:



 

1 0 0
1 0 0
1 1 1
1 1 1
j
i
∂x
∂x
gij
⇒  1 1 0  0 1 0  0 1 1  =  1 2 2  .
g̃km =
∂ x̃k
∂ x̃m
1 1 1
0 0 1
0 0 1
1 2 3
g̃km =
∂xj
∂xi
g
ij
∂ x̃k
∂ x̃m
−→
lim
Nuevamente es bueno aclarar que para conservar la convención de ı́ndices y poder representar la multiplicación
de matrices, los ı́ndices deben estar consecutivos, por lo tanto, hay que trasponer la representación matricial
para multiplicarlas. Es por eso que en el cálculo anterior aparece como primera matriz la transpuesta de la
última. El cálculo se debe hacer como se muestra a continuación:
g̃km = Πik gij Πjm
−→
g̃km = Π̄ki gij Πjm .
rP
re
Finalmente, estamos en capacidad de obtener las representaciones matriciales para los tensores: T̃ij , T̃ij , T̃ ij .
T 

−2 −3
0 1 1
2
4  =  −2 2 3  .
3
5
−3 4 5

 

0 −2 −3
2 3 6
1 1 1
2
4  =  4 8 15  .
⇐⇒ T̃km =  1 2 2   1
1
3
5
5 11 20
1 2 3

 


2 −1
0
2 −1 −1
0 −2 −3
2 −1  =  0 −1
2 .
2
4   −1
⇐⇒ T̃ kn =  1
0 −1
1
−1
0
2
1
3
5

T̃ij = (T̃ji )T
n
T̃km = g̃kn T̃m
ad
o
n mk
T̃ kn = T̃m
g̃
0
⇐⇒ T̃ij =  1
1

Bo
rr
Quisiéramos ejemplificar una forma “rápida y furiosa” (pero sucia) de calcular la métrica generada por una
determinada base genérica. La idea es que, violentando toda nuestra notación e idea de tensores, construimos
la métrica a partir de los vectores base definiéndola como g̃ij = hw̃i |w̃i i, de esta manera:


hw̃1 |w̃1 i hw̃1 |w̃2 i hw̃1 |w̃3 i
g̃ij =  hw̃2 |w̃1 i hw̃2 |w̃2 i hw̃2 |w̃3 i 
hw̃3 |w̃1 i hw̃3 |w̃2 i hw̃3 |w̃3 i

 

hi |ii
hi| [|ii + |ji]
hi| [|ii + |ji + |ki]
1 1 1
= 1 2 2 .
[hi| + hj|] |ii
[hi| + hj|] [|ii + |ji]
[hi| + hj|] [|ii + |ji + |ki]
= 
[hi| + hj| + hk|] |ii [hi| + hj| + hk|] [|ii + |ji] [hi| + hj| + hk|] [|ii + |ji + |ki]
1 2 3
Dejamos al lector, la reflexión si esta forma “rápida de calcular la métrica” a partir de unos vectores base es
general o, si en su defecto, es una coincidencia únicamente válida para este caso.
4. Otros ejemplos con tensores cartesianos
a) Dado los tensores:

1
Tij =  3
1
8 Recordemos
0
4
3

2
1 ,
4

1
Ei =  4  .
3
que hemos insistido que las matrices representan tensores mixtos

166
CAPÍTULO 3. VECTORES DUALES Y TENSORES
La parte simétrica de Tij es:
Para la parte antisimétrica de Tij :

1
1
1 
3
Aij = [Tij − Tji ] =
2
2
1
0
4
3
 
2
1
1 + 0
4
2
0
4
3
 
2
1
1 − 0
4
2
3
8
4
 
3
0
4 + 3
8
−1


2
1
1
3  =  3
2
3
4
3
4
1


0
1
1
3  =  3
2
−1
4
3
4
1
−3
0
2
Por lo tanto:
−3
0
2
 
1
1
−2  =  3
0
1
0
4
3

1
−2  .
0

2
1 .
4
in

2
1 
3
Tij = Sij + Aij =
2
3

3
4 .
8
3
8
4
ar

1
1
1 
3
Sij = [Tij + Tji ] =
2
2
1
b) Dados Tji , ai y bi ∈ R3 con:


3
1 ,
4
0
4
1


5
a= 2 
−5

y

−2
b= 5 .
4
rP
re
1
Tji =  3
3
lim
Para calcular Tij E j hacemos lo siguiente:

 C1 = T11 E 1 + T12 E 2 + T13 E 3 = (1)(1) + (0)(4) + (2)(3) = 7
1
2
3
C2 = T21 E 1 + T22 E 2 + T23 E 3 = (3)(1) + (4)(4) + (1)(3) = 22
Ci = Ti1 E + Ti2 E + Ti3 E =

C3 = T31 E 1 + T32 E 2 + T33 E 3 = (1)(1) + (3)(4) + (4)(3) = 25
ad
o
Supongamos que Tji , a y b están expresados en coordenadas cartesianas.
Vamos a calcular: Aij ai bj , Sij ai aj y Aij bi bj , donde Sij y Akl son, respectivamente, las partes simétrica
y antisimétrica del tensor Tji .
La métrica en coordenadas cartesianas viene dada por:


1 0 0
gij =  0 1 0  .
0 0 1
Tendremos que:

1
1
1
Sij = (Tij + Tji ) =  3
2
2
3
0
4
1
Bo
rr
Nótese que la expresión matricial para Tij ≡
métrica en este espacio. Del mismo modo:

1 0
1
1 
3 4
Aij = (Tij − Tji ) =
2
2
3 1
 
1
3
1 + 0
3
4
3
4
1


3
2
1
1  =  3
2
4
6
3
8
2
gik Tjk es la misma que para Tji debido a la forma de la
 
3
1
1 − 0
4
3
3
4
1


3
0
1
1  =  3
2
4
0
−3
0
0
por lo tanto:
ai Aij bj =
1
2
ai Sij aj =
1
2
bi Aij bj = 0 .
5
5
2
2

6
2 .
8
−5
−5

0
 3
0
−3
0
0

3
8
2
2
 3
6


0
−2
87
0  5  = − ,
2
0
4


6
5
2  2  = 1,
8
−5

0
0 ,
0
3.2. TENSORES Y PRODUCTO TENSORIAL
167
5. Sistema genérico de coordenadas. Dado un sistema genérico de coordenadas oblicuas:
|e1 i = a |ii + b |ji ,
|e2 i = c |ii + d |ji .
a) Para una base arbitraria, {|ei i}, la métrica viene definida por:
ar
gij ≡ gji = g [|ei i , |ej i] ≡ ei |ej i
1
2
e |e1 i e1 |e2 i
a + b2 ac + bd
gij =
=
.
ac + bd c2 + d2
e2 |e1 i e2 |e2 i
b) Un vector genérico: |vi = vx |ii + vy |ji, en estas coordenadas se escribe como:
|e2 i = c |ii + d |ji

 |ii =
⇔


|vi = vx |ii + vy |ji =
1
∆
(d |e1 i − b |e2 i)
(−c |e1 i + a |e2 i)
lim
con ∆ = ad − bc, por lo cual:
|ji =
1
∆
in

|e1 i = a |ii + b |ji 
vx
vy
(d |e1 i − b |e2 i) +
(−c |e1 i + a |e2 i)
∆
∆
rP
re
v
v
vy vy x
x
|e1 i − b − a
|e2 i .
= d −c
∆
∆
∆
∆
c) Consideremos ahora una base y un tensor de manera concreta.
√
√
2
2
|e2 i =
|ii +
|ji ,
2
2
|e1 i = |ii ,
Tji
4
1
=
2
4
.
ad
o
Encontremos primero la expresión matricial para el tensor T̃ij 9 .
En general:
∂ x̃k
∂xn
T̃ij = gik T̃jk = gik m Tnm j ,
∂x
∂ x̃
rr
Identificando:
donde:
∂ x̃1
∂x1
=
d ∂ x̃1
∆ , ∂x2
Bo
∂ x̃1 j
∂ x̃1 1 ∂ x̃1 2
d
c
v
=
v +
v = vx − vy ,
∂xj
∂x1
∂x2
∆
∆
ṽy = ṽ 2 =
∂ x̃2 j
∂ x̃2 1 ∂ x̃2 2
b
a
v =
v +
v = − vx + vy ,
j
1
2
∂x
∂x
∂x
∆
∆
√
2
2 ,d
√
1
√
2
2
∂ x̃2
∂x1 =
√
= 22 ,
c
= −∆
,
Como a = 1, b = 0, c =
gik ⇒
ṽx = ṽ 1 =
!
2
2
∂ x̃2
∂x2
=
a
∆.
entonces:
∂ x̃k
⇒
∂xm
,
1
b
−∆
y
1
0
−1
√
2
,
∂xn
=
∂ x̃j
1
0
√1
2
√1
2
∂ x̃n
∂xj
−1
!
⇒
1
0
√1
2
√1
2
Finalmente:
√
T̃ij =
9 Ayuda:
2
2
1
√
2
2
dada una matriz genérica Aij =
!
1
A
C
B
D
1
0
−1
√
2
4
1
, su inversa será
2
4
D
AD−BC
C
− AD−BC
=
B
− AD−BC
A
AD−BC
4
√5
2
!
.
√ 3 2
11
2
.
!
.
168
CAPÍTULO 3. VECTORES DUALES Y TENSORES
6. Cartesianas y polares, otra vez
El ejemplo más simple, y por ello clásico y emblemático de cambio de coordenadas, lo constituye las expresiones
de un mismo vector en dos sistemas de coordenadas en el plano: Cartesianas {|ii , |ji} y polares {|ur i , |uθ i}.
Esto es, para un vector |ai:
|ai = ax |ii + ax |ji = a1 |e1 i + a2 |e2 i
|ai = ar |ur i + aθ |uθ i = ã1 |ẽ1 i + ã2 |ẽ2 i .
y
|ur i = cos(θ) |ii + sen(θ) |ji
|uθ i = −sen(θ) |ii + cos(θ) |ji ,
y
con lo cual:
sen(θ)
cos(θ)
hur |ii
huθ |ii
hur |ji
huθ |ji
hi |ur i
hj |ur i
hi |uθ i
hj |uθ i
≡
cos(θ)
−sen(θ)
Para la transformación inversa se tiene:
ei |ẽj i = Aij ⇐⇒ Aij =
y por lo tanto:
|ii = cos(θ) |ur i − sen(θ) |uθ i
Por otro lado, si:
≡
cos(θ) −sen(θ)
sen(θ) cos(θ)
.
|ji = sen(θ) |ur i + cos(θ) |uθ i .
y
rP
re
Cumpliendo además con:
cos(θ) −sen(θ)
cos(θ)
sen(θ) cos(θ)
−sen(θ)
.
in
lim
ẽi |ej i = Ãij ⇐⇒ Ãij =
ar
Al expresar una base en términos de la otra obtenemos:
sen(θ)
cos(θ)
1
0
=
0
1
⇐⇒ Aik Ãkj = δji .
|ai = ar |ur i + aθ |uθ i ≡ ã1 |ẽ1 i + ã2 |ẽ2 i = ax |ii + ax |ji ≡ a1 |e1 i + a2 |e2 i ,
tendremos que:
i
con lo cual:
⇐⇒
ar
aθ
=
cos(θ)
−sen(θ)
ad
o
ã =
Ãij aj
ar = ax cos(θ) + ay sen(θ)
sen(θ)
cos(θ)
y
ax
ay
=
ax cos(θ) + ay sen(θ)
−ax sen(θ) + ay cos(θ)
,
aθ = −ax sen(θ) + ay cos(θ) .
Del mismo modo:
i
y
⇐⇒
rr
a =
Aij ãj
ax
ay
=
cos(θ) −sen(θ)
sen(θ) cos(θ)
y
ar
aθ
=
ar cos(θ) − aθ sen(θ)
ar sen(θ) + aθ cos(θ)
ay = ar sen(θ) + aθ cos(θ) .
Bo
ax = ar cos(θ) − aθ sen(θ)
7. Pensando en componentes
Arriba consideramos los cambios de base entre cartesianas y polares. A partir de cambios de la base construimos
la matriz de transformación entre sus componentes. Ahora pondremos la atención en las componentes. En
general, podemos pensar que las componentes de los vectores pueden ser funciones de las otras. Consideremos
el ejemplo anterior con esta visión para estudiarlo con más detalle en dos y tres dimensiones.
Caso bidimensional
Tendremos que un punto en el plano viene representado en coordenadas cartesianas por dos números
(x, y) y en coordenadas polares por otros dos números (r, θ). Siguiendo el ejemplo anterior un punto P ,
en el plano lo describimos como:
|P i = rP |ur i = xP |ii + yP |ji .
3.2. TENSORES Y PRODUCTO TENSORIAL
169
Veamos como están relacionadas estas dos descripciones, para este caso en el cual las ecuaciones de
transformación son:
rP = rP (x, y) = x̃1 = x̃1 x1 , x2
xP = xP (r, θ) = x1 = x1 x̃1 , x̃2
⇐⇒
θ = θP (x, y) = x̃2 = x̃2 x1 , x2
yP = yP (r, θ) = x2 = x2 x̃1 , x̃2
y explı́citamente:
1
2
xP = rP cos(θ) ⇒ x = x̃ cos(x̃ )
yP = rP sen(θ) ⇒ x2 = x̃1 sen(x̃2 )

 r = px2 + y 2
P
P
P
y
 θ = arctan yP
xP
q
2
2
(x1 ) + (x2 )
2
⇒ x̃2 = arctan xx1
⇒ x̃1 =
ar
1
in
Es claro que ambas coordenadas están relacionadas y que se puede invertir la relación.
1
x̃1 = x̃1 x1 , x2 x = x1 x̃1 , x̃2 ⇐⇒
.
x̃2 = x̃2 x1 , x2
x2 = x2 x̃1 , x̃2
lim
Se debe pedir, eso si, dos cosas razonables:
a) que las funciones xi = xi (x̃m ) y x̃j = x̃j (xm ) sean al menos C 2 (función y derivada continua)
b) que el determinante de la matriz Jacobiana sea finito,
6= 0 .
rP
re
∂xi x̃k
det
∂ x̃j
Más aún, si:
xi = xi x̃j xk
⇒
∂xi
∂xi ∂ x̃j
∂xi j
i
i
=
=
δ
⇒
dx
=
dx̃ ,
k
∂xk
∂ x̃j ∂xk
∂ x̃j
con lo cual intuimos dos cosas:
a) que las componentes de un vector, |P i, deben transformar bajo un cambio de coordenadas como:
∂xi x̃k j
i
p̃ .
p =
∂ x̃j
∂xi
∂ x̃k
∂ x̃i
∂xk
ad
o
b) Las matrices jacobianas
y
son una la inversa de la otra.
Veamos si es cierto para el caso de vectores en el plano. Para ello calculamos la matriz jacobiana:

i
1

⇒ 
∂x1 (x̃1 ,x̃2 )
∂ x̃1
∂x2 (x̃1 ,x̃2 )
∂ x̃1
∂x1 (x̃1 ,x̃2 )
∂ x̃2
∂x2 (x̃1 ,x̃2 )
∂ x̃2


=
cos(x̃2 ) −x̃1 sen(x̃2 )
sen(x̃2 ) x̃1 cos(x̃2 )
,
rr
∂x x̃ , x̃
∂ x̃j
2
Bo
y seguidamente, identificando |P i = xP |ii + yP |ji = rP |ur i
1 1 ∂xi x̃1 , x̃2 j
p
cos(x̃2 ) −x̃1 sen(x̃2 )
p̃
i
p =
p̃
⇒
=
.
p2
sen(x̃2 ) x̃1 cos(x̃2 )
0
∂ x̃j
Igualmente, si calculamos la inversa de la matriz jacobiana:
! 
1
!−1
√ x2
cos(x̃2 ) sen(x̃2 )
∂xi x̃1 , x̃2
1 ) +(x2 )2
(x
=
=
−sen(x̃2 )
cos(x̃2 )
−x2
∂ x̃j
x̃1
x̃1
1 2
2 2
(x ) +(x )
x2
(x1 )2 +(x2 )2
x1
(x1 )2 +(x2 )2
√

,
tendremos:
p̃1
0

=
√
x1
(x1 )2 +(x2 )2
−x2
(x1 )2 +(x2 )2
√
x2
(x1 )2 +(x2 )2
x1
(x1 )2 +(x2 )2


p1
p2
∂ x̃i x1 , x2 j
⇒ p̃ =
p .
∂xj
i
170
CAPÍTULO 3. VECTORES DUALES Y TENSORES
Caso tridimensional
Consideremos nuevamente dos sistemas
de coordenadas: uno cartesiano x1 = x, x2 = y, x3 = z y otro
esférico x̃1 = r, x̃2 = θ, x̃3 = φ .
Tal y como hemos supuesto anteriormente el punto P vendrá descrito por:
|P i = rP |ur i = xP |ii + yP |ji + zP |ki ,
de nuevo
ar


x = x (r, θ, φ) = x1 = x1 x̃1 , x̃2 , x̃3 
 r = r (x, y, z) = x̃1 = x̃1 x1 , x2 , x3 θ = θ (x, y, z) = x̃2 = x̃2 x1 , x2 , x3 y = y (r, θ, φ) = x2 = x2 x̃1 , x̃2 , x̃3 ⇐⇒


3
3
1
2
3
φ = φ (x, y, z) = x̃3 = x̃3 x1 , x2 , x3
z = z (r, θ, φ) = x = x x̃ , x̃ , x̃
lim
in
Las ecuaciones de transformación serán:

 xP = rP sen(θ) cos(φ) ⇒ x1 = x̃1 sen(x̃2 ) cos(x̃3 )
yP = rP sen(θ)sen(φ) ⇒ x2 = x̃1 sen(x̃2 )sen(x̃3 )

zP = rP cos(θ)
⇒ x3 = x̃1 cos(x̃2 )
rP
re
y las transformaciones inversas:

q
p
2
2
2

1
2
2
2

rP = xP + yP + zP
⇒ x̃ = (x1 ) + (x2 ) + (x3 )


2

φ = arctan xyPP
⇒ x̃2 = arctan xx1
√
√


2
x2P +yP

(x1 )2 +(x2 )2
3

⇒ x̃ = arctan
 θ = arctan
zP
x3
ad
o
Con lo cual la matriz de las derivadas para esta transformación en particular será:


sen (θ) cos (φ) −rsen (θ) sen (φ) r cos (θ) cos (φ)
∂xi x̃1 , x̃2 , x̃3
=  sen (θ) sen (φ) rsen (θ) cos (φ) r cos (θ) sen (φ) 
∂ x̃j
cos (θ)
0
−rsen (θ)


2
3
1
2
3
sen x̃ cos x̃ −x̃ sen x̃ sen x̃ x̃1 cos x̃2 cos x̃3 x̃1 sen x̃2 cos x̃3
x̃1 cos x̃2 sen x̃3  .
=  sen x̃2 sen x̃3
2
cos x̃
0
−x̃1 sen x̃2
Mientras que la inversa es:

i
1
2
3
∂ x̃ x , x , x
∂xj
=
sen (θ) cos (φ)
sen(φ)

− rsen(θ)

Bo
rr

=



sen (θ) sen (φ)
cos(θ) cos(φ)
r
√ 2 x2 2
x +y +z
−y
x2 +y 2
xz √
(x2 +y 2 +z 2 )
x2 +y 2
Dejaremos al lector comprobar que, efectivamente,
∂xi x̃1 , x̃2 , x̃3 j
i
p =
p̃
⇐⇒
∂ x̃j
cos(φ)
rsen(θ)
cos(θ)sen(φ)
r

cos (θ)

0

− sen(θ)
r
y
x2 +y 2 +z 2
x
x2 +y 2
yz √
(x2 +y 2 +z 2 ) x2 +y 2
√
√
z
x2 +y 2 +z 2
√
0
− x2 +y 2
(x2 +y 2 +z 2 )


.

∂ x̃i x1 , x2 , x3 j
p̃ =
p .
∂xj
i
8. Algunos tensores en Fı́sica: Esfuerzos, Inercia y Energı́a libre de un medio elástico En este
punto vamos a ejemplificar la utilización de los tensores en varios ámbitos de la Fı́sica, en particular de la
Mecánica. Para comenzar consideraremos el tensor de esfuerzos para describir las tensiones internas de cuerpos
sometidos a fuerzas externas10 . Haremos el análisis tanto para el caso de dos como de tres dimensiones. Luego
a continuación consideraremos el tensor de inercia y su impacto en la dinámica de cuerpos en movimiento.
10 Una presentación más contemporánea del tensor de esfuerzos la pueden encontrar en De Prunelé, E. (2007). Linear strain tensor
and differential geometry. American Journal of Physics, 75(10), 881-887.
3.2. TENSORES Y PRODUCTO TENSORIAL
171
rP
re
lim
in
ar
a) El tensor de esfuerzos (stress) caso 2D Supongamos un cuerpo que se encuentra en equilibrio y
está sometido a un conjunto de fuerzas externas. Para facilitar las cosas consideremos el efecto de esas
fuerzas sobre un plano que contiene a un determinado punto P (ver figura 3.2 cuadrante Ia). Es decir,
vamos a considerar los efectos de las componentes de todas las fuerzas sobre ese plano y obviaremos el
efecto del resto de las componentes.
Como observamos en la figura 3.2 Ib y Ic, si cortamos la superficie en dos lı́neas (AB y A0 B 0 ), podemos
ver que el efecto del conjunto de fuerzas externas es distinto sobre P , en la dirección perpendicular a cada
una de esas lı́neas. De hecho, al “cortar” la superficie las fuerzas que aparecen sobre las lı́neas AB (y
A0 B 0 ) eran fuerzas internas y ahora son externas al nuevo cuerpo “cortado”. Ası́, estas fuerzas por unidad
de longitud11 sobre el punto P existen como un conjunto de fuerzas que generan esfuerzos (stress). Por
lo tanto, es claro que los esfuerzos sobre un punto dependen del punto, de las fuerzas externas y de la
dirección del efecto.
Para irnos aclarando consideremos un elemento de área infinitesimal ds sobre la cual actúa un conjunto
de fuerzas externas, las cuales podemos descomponer como normales y tangenciales a la lı́nea sobre la cual
están aplicadas (ver figura 3.2 cuadrante II). Es costumbre denotar los esfuerzos normales y tangenciales
por σ y τ respectivamente.

↑ Y2 = σ2 dx −→ X2 = τ2 dx




dx

↑ Y1 = τ1 dy
Y3 = τ3 dy ↑
dy ds dy
dA = dxdy ⇒
→
X1 = σ1 dy
X
=
σ
dy
→

3
3

dx



↑ Y4 = σ4 dx → X4 = τ4 dx
Consideramos la segunda ley de Newton aplicada a cada diferencial de masa dm y obtendremos:

 τ1 dy + σ2 dx + τ3 dy + σ4 dx = 0 = (σ2 + σ4 ) dx + (τ1 + τ3 ) dy
X
Fext
= dm a = 0 ⇒
i

σ1 dy + τ2 dx + σ3 dy + τ4 dx = 0 = (τ2 + τ4 ) dx + (σ1 + σ3 ) dy
con lo cual:
σ2 = −σ4 , τ1 = −τ3 , τ2 = −τ4 , σ1 = −σ3 .
ad
o
Como se trata de una situación en equilibrio, también la sumatoria de torques se tendrá que anular. Esto
significa que:

dy
(τ1 dy) dx
2 − (τ2 dx) 2 = 0 
⇒ τ1 = τ2 = τ3 = τ4 ,

dy
(τ3 dy) dx
−
(τ
dx)
=
0
4
2
2
Bo
rr
entonces, nos damos cuenta que existen sólo tres cantidades independientes: dos esfuerzos normales σ1 y
σ2 ; y un esfuerzo tangencial τ1 . Adicionalmente notamos que los esfuerzos tienen que ver con la dirección
de la fuerza y la superficie sobre la cual va aplicada. Con ello podemos diseñar la siguiente notación para
los esfuerzos: σij . El primer ı́ndice indica la dirección de la fuerza y el segundo la dirección de la normal
de la superficie donde está aplicada. Ası́, tal y como muestra la figura (ver figura 3.2 cuadrante II)
σ1 ≡ σxx ,
−σ4 ≡ σyy ,
τ2 ≡ σxy ≡ σyx .
El cambio de signo se debe a lo incómodo de la notación: σ4 ≡ σy−y ya que la normal de lado 4 apunta
en la dirección −y. Es importante también señalar que los esfuerzos en cualquier punto contenido en el
diferencial de área dA = dxdy deben ser considerado constantes, o lo que es lo mismo, que podemos
hacer tender a cero el área del diferencial y con ello asociar los esfuerzos σij a un punto P contenido en
dA sobre la cual hemos calculado los esfuerzos.
En esta misma lı́nea de razonamiento, nos podemos preguntar cuál es la expresión de los esfuerzos cuando
se miden respecto a una superficie genérica, definida por un vector normal n (ver figura 3.2 cuadrante
III). Es decir, queremos conocer los esfuerzos medidos en el punto P y en la dirección n, es decir, σnn .
11 En el caso tridimensional, las fuerzas que generan los esfuerzos serán definidas como fuerzas por unidad de área. Ese caso lo veremos
en la próxima sección.
CAPÍTULO 3. VECTORES DUALES Y TENSORES
rP
re
lim
in
ar
172
Figura 3.2: Tensor de Esfuerzos (stress) en 2 dimensiones
Por lo tanto, tendremos que:
→ σxx dy + σxy dx = σnn ds cos(φ) + σsn ds sen(φ)
ad
o
x
y
→ σyy dx + σyx dy = σnn ds sen(φ) − σsn ds cos(φ)
Ahora bien, dado que dy = ds cos(φ) y dx = ds sen(φ), entonces podemos expresar:
=
σxx cos2 (φ) + σxy sen(φ) cos(φ) + σyx sen(φ) cos(φ) + σyy sen2 (φ)
σsn
=
σxx sen(φ) cos(φ) + σxy sen2 (φ) − σyx cos2 (φ) − σyy sen(φ) cos(φ)
rr
σnn
Bo
y si ahora nos damos cuenta que si construimos una matriz:
x
cos(φ) sen(φ)
An Axs
i
=
Aj =
,
Ayn Ays
sen(φ) − cos(φ)
entonces:
σnn = Axn Axn σxx + Axn Ayn σxy + Ayn Axn σyx + Ayn Ayn σyy
⇒
σnn = Ain Ajn σij
σsn = Axs Axn σxx + Axs Ayn σxy + Ays Axn σyx + Ays Ayn σyy
⇒
σsn = Ais Ajn σij
coni, j = x, y
coni, j = x, y
es decir:
σkl = Aik Ajl σij ,
con
i, j, k, l = n, s .
Como ya hemos mencionado, y veremos más adelante con más detalle, cualquier objeto que transforme
como σkl = Aik Ajl σij lo llamaremos tensor de segundo orden.
173
lim
Figura 3.3: Tensor de Esfuerzos en 3 dimensiones
in
ar
3.2. TENSORES Y PRODUCTO TENSORIAL
b) El tensor de esfuerzos (caso 3D) Podemos proceder como en el caso anterior estableciendo las siguientes
condiciones de equilibrio:
X
X
Fext
=0 y
τ ext
= 0,
i
i
σxx dydz ,
rP
re
con ello construimos un volumen (cúbico) diferencial y construimos los esfuerzos normales y tangenciales,
los cuales serán:
σyy dxdz ,
σzz dxdy ,
σxz dxdy ,
σyz dxdy ,
σxy dxdz .
Siguiendo el mismo proceso que involucra imponer el equilibrio, es fácil demostrar que al igual que el
caso anterior, el tensor de esfuerzos σij cumple con:
σxz = σzx ,
σyz = σzy ,
σxy = σyx .
Bo
rr
ad
o
Tendremos 6 componentes (tres normales y tres tangenciales) independientes. Es decir, si bien el tensor
de esfuerzos σij viene representado por una matriz 3 × 3 y por lo tanto tiene 9 elementos, sólo 6 son
independientes.
Vayamos ahora el caso general para un tensor de esfuerzos en un medio elástico. Para ello construimos un
tetraedro regular tal y como muestra la figura 3.3, y sobre su cara genérica asociada a un vector normal
n una fuerza F:


Fx = σxn dSn 









i
Fy = σyn dSn
F = F ii = Fx i + Fy j + Fz k ⇒
⇒ F i = σji nj dS ⇒ F = σ · dS .










Fz = σzn dSn
De ésta manera se especifica como la fuerza actúa sobre un determinado elemento de superficie. Es claro
que la condición de equilibrio se traduce en:
X
1
1
1
Fxi = 0 ⇒ σxn dSn − σxx dy dz − σxy dx dz − σxz dx dy = 0 ,
2
2
2
X
1
1
1
Fyi = 0 ⇒ σyn dSn − σyx dy dz − σyy dx dz − σyz dx dy = 0 ,
2
2
2
X
1
1
1
Fzi = 0 ⇒ σzn dSn − σzx dy dz − σzy dx dz − σzz dx dy = 0 .
2
2
2
174
CAPÍTULO 3. VECTORES DUALES Y TENSORES
Si consideramos la proyección de dSn sobre cada uno de los planos del sistema cartesiano tendremos:

dS n cos (i; n) = 12 dy dz = dS n Axn 




1
n
n
y
dS cos (j; n) = 2 dx dz = dS An
⇒ σxn = σxx Axn + σxy Ayn + σxz Azn ,





dS n cos (k; n) = 12 dx dy = dS n Azn
y equivalentemente:
y
σzn = σzx Axn + σzy Ayn + σzz Azn ,
ar
σyn = σyx Axn + σyy Ayn + σyz Azn
in
las cuales se conocen como las relaciones de Cauchy. Estas relaciones representan los esfuerzos sobre la
superficie con normal n.
Ahora bien, dado que: F = σdS es una relación vectorial podemos proyectar en la dirección ûm :
ûm · F = ûm · (σdS) ⇒ F m = σnm dS n = σim Ain dS n = σim Ain dS n ,
lim
por lo tanto:
σmn dS n = σmi Ain dS n ⇒ σmn dS n = σki Akm Ain dS n ,
con i, j = x, y, z .
rP
re
Una vez más, podemos ver que transforma como un tensor.
c) El Tensor de inercia Consideremos el caso de un sistema de n partı́culas. La cantidad de movimiento
angular para este sistema vendrá dada por:
X
L=
m(i) r(i) × v(i) ,
i
donde hemos indicado que la i−ésima partı́cula que está en la posición r(i) tiene una velocidad v(i) .
Si las distancias entre las partı́culas, y entre las partı́culas con el origen de coordenadas, es constante,
podremos expresar la velocidad de cada una de ellas como:
v(i) = ω × r(i) ,
¿Por qué?
Donde ω es la velocidad angular instantánea del sistema. Entonces tendremos que:
X
X
m(i) ω r(i) · r(i) − r(i) ω · r(i) ,
L=
m(i) r(i) × ω × r(i) =
i
ad
o
i
y para cada partı́cula se cumple que las componentes de la cantidad de movimiento angular serán:
h X
i
k
m
r(i)m − r(i)
ω m r(i)m .
Lk =
m(i) ω k r(i)
i
k
l
Si vemos que ω(i)
= δlk ω(i)
entonces:
k
h
m(i) δlk ω l
rr
L =
X
m
r(i)
r(i)m
−
k
r(i)
m
ω r(i)m
i
"
=
X
l
ω(i)
i
Bo
δlk
m
r(i)
r(i)m
−
k
r(i)
r(i)l
#
i
|
es decir:
l
Lk = ω(i)
Ilk ,
m(i)
donde:
Ilk =
X
{z
Ilk
}
m
k
m(i) δlk r(i)
r(i)m − r(i)
r(i)l .
i
Ilk
El objeto
se conoce como el tensor de inercia y corresponde a 9 cantidades (sólo 6 son independientes
porque es un tensor simétrico). En coordenadas cartesianas se verá de la siguiente forma:
 P
P
P
2
2


m
y
+
z
− i m(i) x(i) y(i)
− i m(i) x(i) z(i)
(i)
i
(i)
(i)
Ixx
Ixy
Ixz


 
 P


P
P

2
2
Iyy
Iyz 
Ilk = 
− i m(i) x(i) y(i)
− i m(i) y(i) z(i)
i m(i) x(i) + z(i)
 Iyx
=

 

 P
P
P
Izx
Izy
Izz
2
2
− i m(i) x(i) z(i)
+
y
− i m(i) y(i) z(i)
m
x
(i)
i
(i)
(i)









3.2. TENSORES Y PRODUCTO TENSORIAL
175
Por ahora, nos contentaremos con esta construcción y en los ejercicios le propondremos que muestre que
es un tensor.
d ) Energı́a libre para un medio elástico
Consideremos el siguiente par de tensores provenientes de la teorı́a de elasticidad:
0
∂uk
1
1
1 ∂ui
+
,
uik = uik − um
uik = (∂k ui + ∂i uk ) ≡
δi ,
k
i
2
2 ∂x
∂x
3 m k
0
+ Kull δji .
ar
y construyamos el tensor de esfuerzos como: pij = 2λ uij
1
2
(∂ m um + ∂m um ) = ∂ m um , con lo cual:
lim
donde: um
m =
in
Calculemos la energı́a libre para el medio elástico, definida como: F = 12 pij uji .
Tenemos que:
1 m i
2λ
l i
i
i
i 0
l i
i
l i
pj = 2λ uj + Kul δj = 2λ uj − um δj + Kul δj = 2λuj + ul δj K −
,
3
3
2λ
1
λ
2λuij + ull δji K −
uji = λuij uji + ull δji uji
K−
3
2
3
1
λ
2
ull
= λ ui1 u1i + ui2 u2i + ui3 u3i +
K−
2
3
2
1
λ
= λ u11 u11 + u21 u12 + u31 u13 + u12 u21 + u22 u22 + u32 u23 + u13 u31 + u23 u32 + u33 u33 +
K−
ull
2
3
2
λ
1
2
2
2
K−
ull
= λ u11 + u22 + u33 + 2 u12 u21 + u23 u32 + u31 u13 +
2
3
2
2λ
1
ull + 2λ u12 u21 + u23 u32 + u31 u13
K+
=
2
3
1
2λ
2
=
K+
(∂x ux + ∂y uy + ∂z uz ) + 2λ (∂x uy ∂y ux + ∂y uz ∂z uy + ∂z ux ∂x uz ) .
2
3
Practicando con Maxima
ad
o
3.2.11.
1 i j
1
p u =
2 j i
2
rP
re
F =
Tensores y Maxima
Bo
rr
Maxima presenta dos paquetes para la manipulación de tensores, paquetes en constante desarrollo todavı́a.
Estos paquetes son ctensor, manipulación de componentes y el paquete itensor, manipulación indexada. En la
manipulación por componentes los tensores se representan por arreglos o matrices. En la manipulación indexada
los tensores se representan por funciones de sus ı́ndices covariantes, contravariantes y de derivadas.
Los ı́ndices covariantes se especifican mediante una lista que será el primer argumento del objeto indexado,
siendo los ı́ndices contravariantes otra lista que será el segundo argumento del mismo objeto indexado. Si al objeto
indexado le falta cualquiera de estos grupos de ı́ndices, entonces se le asignará al argumento correspondiente la lista
vacı́a [ ]. Ası́, g([a, b], [c]) representa un objeto indexado llamado g, el cual tiene dos ı́ndices covariantes (a, b), un
c
ı́ndice contravariante (c) y no tiene ı́ndices de derivadas, es decir, gab
(%i1) load(itensor)$
(%i2) imetric(g);
(%i3) ishow(g([j,k],[])*g([i,l],[])*a([],[i,j]))$
( %t3) ai j gj k gi l
(%i4) ishow(contract(%))$
( %t4) ak l
(%i5) ishow(kdelta([i],[k])*a([k,l],[]))$
176
CAPÍTULO 3. VECTORES DUALES Y TENSORES
( %t5) δik ak l
(%i6) ishow(contract(%))$
( %t6) ai l
La identidad δij δji = 3
(%i7) ishow(contract(kdelta([i], [j])*kdelta([j], [i])))$
ar
( %t7) kdelta
(%i8) ishow(ev(%,kdelta))$
in
( %t8) 3
El sı́mbolo de Levi-Civita:
lim
(%i9) levi_civita([1, 2, 3]);levi_civita([1, 3, 2]);levi_civita([3, 3, 2]);
( %o9) 1
( %o10) − 1
( %o11) 0
( %t12) εi j k εi j k
rP
re
(%i12)expr:ishow(’levi_civita([],[i,j,k])*’levi_civita([i,j,k],[]))$
Aquı́ es necesario utilizar la función lc2kdt( ) que simplifica expresiones que contengan el sı́mbolo de Levi-Civita,
para convertirlas en expresiones con la delta de Kronecker siempre que esto sea posible.12
(%i13)ishow(lc2kdt(expr))$
( %t13) δik δji − 3 δjk δkj + δij δjk − 3 δik δki − 3 δij δji + 27
(%i14)ishow(contract(expand(%)))$
ad
o
( %t14) 27 − 7 δ
(%i15)ishow(ev(%,kdelta))$
( %t15) 6
(%i16)kill(all)$
rr
Transformación de tensores y Maxima
Bo
Como ya mencionamos, Maxima contiene un paquete para manipular componentes de tensores: ctensor. La
manipulación en componentes se realiza en términos de matrices. La métrica se almacena en la matriz lg y la métrica
inversa se obtiene y almacena en la matriz ug.
En un ejemplo visto con anterioridad se especificaba las componentes de un tensor en coordenadas cartesianas,
esto es:


2 1 3
To = Tji =  2 3 4  , en la base: {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} .
1 2 2
Para luego representarlo en la nueva base: |w̃1 i = |ii, |w̃2 i = |ii + |ji y |w̃3 i = |ii + |ji + |ki. Entonces necesitamos
calcular:
∂ x̃k ∂xj i
k
T ⇒ Tn = αβTo =
T̃m
=
∂xi ∂ x̃m j
12 En ocaciones, la función lc2kdt( ) hace uso del tensor métrico. Si el tensor métrico no fue previamente definido con imetric, se
obtiene un mensaje de error.
3.2. TENSORES Y PRODUCTO TENSORIAL
Como vimos cuando hacı́amos los cálculos:


1 −1
0
k
∂ x̃
1 −1  ,
= 0
α=
∂xi
0
0
1
177

1
∂x
 0
=
β=
∂ x̃k
0
i
1
1
0

1
1 .
1
in
lim
rP
re
(%i1) To:matrix([2,1,3],[2,3,4],[1,2,2]);


2 1 3
( %o1) 2 3 4
1 2 2
(%i2) alpha:matrix([1,-1,0],[0,1,-1],[0,0,1]);


1 −1 0
( %o2) 0 1 −1
0 0
1
(%i3) beta:matrix([1,1,1],[0,1,1],[0,0,1]);


1 1 1
( %o3) 0 1 1
0 0 1
(%i4) Tn:alpha.To.beta;


0 −2 −3
4
( %o4) 1 2
1 3
5
ar
Respetando “la concatenación interna de ı́ndices” podemos realizar la multiplicación de matrices.
Una vez que hemos calculado el nuevo tensor Tn = T̃ij en la nueva base, podemos calcular: T̃ ij , T̃ij . Pero podemos
utilizar la métrica para las coordenadas nuevas y con el paquete ctensor hacer las respectivas contracciones.
(%i5) load(ctensor)$
(%i6) ct_coordsys(cartesian3d)$
ad
o
Introducimos la métrica g̃ik :
(%i7) lg:matrix([1,1,1],[1,2,2],[1,2,3]);


1 1 1
( %o7) 1 2 2
1 2 3
Para tener la métrica inversa g̃ ik escribimos:
rr
(%i8) cmetric()$
Bo
(%i9) ug;

2
( %o9) −1
0
−1
2
−1

0
−1
1
Para calcular T̃ij = g̃ik T̃jk hacemos lo siguiente:
(%i10)lg.Tn;

2 3
( %o10) 4 8
5 11

6
15
20
Y para calcular T̃ ij = T̃ki g̃ kj procedemos ası́:
(%i11)Tn.ug;
178
CAPÍTULO 3. VECTORES DUALES Y TENSORES


2 −1 −1
( %o11)  0 −1 2 
−1 0
2
(%i12)kill(all)$
Es posible, y a manera de completar esta primer acercamiento con la librerı́a de tensores, calcular la métrica
a partir de una transformación de coordenadas, como vimos en la sección anterior, ejemplo 7. Escribimos las
coordenadas que queremos utilizar, en este caso esféricas, utilizando la función ct coordsys.
ar
(%i1) load(ctensor)$
in
(%i2) ct_coordsys([r*sin(theta)*cos(phi),r*sin(theta)*sin(phi),r*cos(theta),[r,theta,phi]])$
Y le pedimos al programa que calcule el tensor métrico, al que le asigna el nombre lg.
(%i3) cmetric()$
lim
El tensor métrico gij es entonces
rP
re
(%i4) lg:trigsimp(lg);


1 0
0

0
( %o4) 0 r2
0 0 r2 sin2 θ
Y la métrica inversa g ij , el programa la identifica con la etiqueta ug
(%i5) trigsimp(ug);


1 0
0
0 
( %o5) 0 r12
1
0 0 r2 sin
2θ
3.2.12.
Ejercicios
ad
o
1. Si Aijk es un tensor covariante de orden 3 y B lmno un tensor contravariante de orden 4, pruebe que Aijk B jkno
es un tensor mixto de orden 3.
2. Dados los tensores:


1
3/2
5/2
3 ,
4
9/2

1/3
T i =  2/3  ,
1


gji = g ij
1
= gij =  0
0
0
1
0

0
0 .
1
rr
1/2
Rji =  2
7/2
Encuentre:
a) La parte simétrica Sji y antisimétrica Aij de Rji .
Bo
b) Rkj = gik Rji , Rki = g jk Rji , Tj = gij T i ¿Qué se concluye de estos cálculos?
c) Rji Ti , Rji T j , Rji Ti T j .
d ) Rji Sij , Rji Aji , Aji T i , Aji T i Tj .
e) Rji − 2δji Rll , (Rji − 2δji Rll )Ti , (Rji − 2δji Rll )Ti T j .
3. Demuestre que si Sji representa un tensor simétrico y Aij uno antisimétrico, entonces, Sji Aji = 0.
4. Dado Fijk un tensor totalmente antisimétrico respecto a sus ı́ndices ijk, demuestre que el rotor de Fijk definido
como sigue, también será un tensor.
rot [Fijk ] = ∂m Fijk − ∂i Fjkm + ∂j Fkmi − ∂k Fmij ≡
∂Fijk
∂Fjkm
∂j Fkmi
∂k Fmij
−
+
−
.
m
i
j
∂x
∂x
∂x
∂xk
3.2. TENSORES Y PRODUCTO TENSORIAL
179
5. Consideremos un tensor B con componentes Bij , un tensor A con componentes Ai y el producto:
Bij Aj = Ci .
Esta última expresión se puede interpretar como la acción de B sobre A que consiste en producir un nuevo
tensor C que tendrá una magnitud y una dirección diferente a A. Podremos estar interesados en encontrar
todos los vectores que NO son rotados por B, es decir, que estarı́amos interesados en resolver la ecuación:
ar
Bij Aj = λAi , donde λ es un escalar.
in
Si estos vectores existen se denominan vectores caracterı́sticos o “autovectores” de B y sus direcciones: direcciones principales o caracterı́sticos. Más aún, los ejes determinados por las direcciones principales se denominan
ejes principales de B. Los valores de las componentes Bij en el sistema de coordenadas determinado por los
ejes principales se denominan valores caracterı́sticos o “autovalores” de B.
lim
Ahora, como lo ilustramos en los ejemplos, consideremos un sistema conformado por n partı́culas de masas
iguales: m1 , m2 , . . . mn = m, distribuidas en el plano xy, y sea Iij el tensor de inercia con respecto a un sistema
rectangular de coordenadas. Por ser un caso en 2D, el tensor de inercia tendrá solamente cuatro componentes.
a) Encuentre: I11 = Ixx , I22 = Iyy y I12 = Ixy = I21 = Iyx .
rP
re
b) Si un vector A coincide con el eje principal de Iij entonces debe satisfacer la ecuación:
(I11 − λ)A1 + I12 A2 = 0
j
j
j
Ii Aj = λAi ⇒ (Ii − λδi )Aj = 0 ⇒
I12 A1 + (I22 − λ)A2 = 0
Encuentre la solución (no trivial) para λ, es decir, resuelva: λ2 − λ(I11 + I22 ) + I11 I22 − (I12 )2 = 0.
c) ¿Cómo se interpreta el hecho de que I12 = 0?
d ) Si I12 6= 0 y λ1 6= λ2 , entonces, para cada valor de λ se puede encontrar un vector (autovector) A(λ1 )
y A(λ2 ) resolviendo el sistema de dos ecuaciones. Demuestre que las direcciones de estos vectores tienen
pendientes, respecto al sistema de coordenada, dadas por:
tan(θ1 ) =
ad
o
e) Demuestre que:
λ1 − I11
,
I12
tan(2θ1 ) = tan(2θ2 ) =
tan(θ2 ) =
λ2 − I11
.
I12
2I12
π
, donde θ2 = θ1 + ,
I11 − I22
2
es decir: A(λ1 ) ⊥ A(λ2 ) .
rr
f ) ¿Cuáles son las componentes del tensor de inercia en el sistema de coordenadas determinado por los ejes
principales?
Bo
6. En este ejercicio generalizamos la definición del momento de inercia para cuerpos continuos, el cual se define
como:
Z
i
Ij =
dvρ (r) δji xk xk − xi xj , con xi = {x, y, z} y dv = dx dy dz .
V
a) Muestre que Iji es un tensor.
b) Considere un cubo de lado l y masa total M tal que tres de sus aristas coinciden con un sistema de
coordenadas cartesiano. Encuentre el tensor momento de inercia, Iji .
7. Dados dos sistemas de coordenadas ortogonales O
(x, y, z) y Õ
(x̃, ỹ, z̃), donde el sistema de coordenadas
Õ se obtiene rotando a O, π/6 alrededor del eje z y π/2 alrededor del eje x̃, con lo cual los ejes ỹ y z coinciden.
a) Si tenemos los vectores:
A = i + 2j + 3k ,
Expréselos en el sistema de coordenadas Õ
B = 2i + j + 3k .
(x̃, ỹ, z̃).
180
CAPÍTULO 3. VECTORES DUALES Y TENSORES
b) El tensor de esfuerzos (tensiones normales y tangenciales a una determinada superficie) se expresa en el
sistema O
(x, y, z) como:


P1 0 P4
Pji =  0 P2 0  .
0
0 P3
(x̃, ỹ, z̃)?
8. Suponga un sistema de coordenadas ortogonales generalizadas q 1 , q 2 , q 3 las cuales tienen las siguiente relación
funcional con las coordenadas cartesianas:
ar
¿Cuál será su expresión en el sistema de coordenadas Õ
b) Encuentre los vectores base para este sistema de coordenadas.
in
q 1 = x + y;
q 2 = x − y;
q 3 = 2z .
a) Compruebe que el sistema q 1 , q 2 , q 3 conforma un sistema de coordenadas ortogonales
lim
c) Encuentre el tensor métrico y el elemento de volumen en estas coordenadas.
d ) Encuentre las expresiones en el sistema q 1 , q 2 , q 3 para los vectores:
A = 2j , B = i + 2j , C = i + 7j + 3k .
e) Encuentre en el sistema q 1 , q 2 , q 3 las expresiones para las siguientes relaciones vectoriales :
A × B,
A · C,
(A × B) · C .
rP
re
¿Qué puede decir si compara esas expresiones en ambos sistemas de coordenadas?
f ) Considere los siguientes tensores y vectores en coordenadas cartesianas :





1/3
1
1/2
1
3/2
5/2
3  , T i =  2/3  , gji = g ij = gij =  0
Rji =  2
1
0
7/2
4
9/2
y encuentre sus expresiones para el nuevo sistema de coordenadas q 1 , q 2 , q 3 .
3.3.
0
1
0

0
0 .
1
Vectores, tensores y espacios pseudoeuclidianos
Bo
rr
ad
o
Hasta este punto la descripción de formas representadas por un bra: ha| ≡ ak ek ha sido casi estética. Hemos
insistido que las componentes de las formas tienen subı́ndices, mientras que sus vectores bases, ek , deben tener
superı́ndices, pero no hemos visto clara la necesidad de esa definición. Un ejemplo, un tanto tı́mido lo desarrollamos
en en la sección 3.1.2, 137, donde mencionamos que las bases recı́procas de vectores podrı́an jugar el papel de bases
para el espacio dual. Quizá el ejemplo más emblemático y simple, donde se observa la diferencia entre formas (bras)
y vectores (kets) es el caso de los espacios minkowskianos. Estos espacios, también llamados pseudoeuclidianos,
presentan una variante en la definición de producto interno, de tal forma que: hx| xi no es necesariamente positivo,
y si hx| xi = 0 no necesariamente implica que |xi ≡ |0i.
La consecuencia inmediata es que la definición de norma N (|vi i) ≡ k|vi ik, que vimos anteriormente, no es
necesariamente positiva. Vale decir que tendremos vectores con norma positiva, k|vi ik > 0, pero también vectores
con norma negativa o cero: k|vi ik ≤ 0. Con lo cual la definición de distancia, entendida como la norma de la resta de
vectores, d (|xi , |yi) ≡ k|xi − |yik, tampoco será necesariamente positiva. Esto es, que las distancias serán negativas,
positivas o nulas: d (|xi , |yi) < 0, d (|xi , |yi) = 0 y d (|xi , |yi) > 0.
Si extendemos la noción de distancia para que albergue las posibilidades de distancias nula y negativas, entonces
la definición del tensor métrico para espacios pseudoeuclidianos también debe cambiar.

 <0
=0
g [|xi i , |xj i] = gij ≡ gji

>0
En resumen





 <0 
 <0 
 <0
=0
=0
=0
hx| xi =
⇒ d (|xi , |yi) =
⇒ g [|xi i , |xj i] =





>0
>0
>0
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS
181
Este tipo de espacios luce como un excentricidad más de los matemáticos y una curiosidad de estudio es ver como
organizar los conceptos que aprendimos de los espacios euclidianos y extenderlos a otros espacios. Quizá se hubiera
quedado ası́, como una curiosidad matemática si los fı́sicos no hubieran sacado partido de estas particularidades para
describir el comportamiento de la naturaleza. En la próxima sección analizaremos el caso de espacios minkowskianos
de dimensión 4, que denominaremos M4 .
3.3.1.
Espacios minkowskianos
y
η αβ |eα i ⊗ |eβ i ≡ η βα |eβ i ⊗ |eα i ,
in
ηαβ heα | ⊗ eβ ≡ ηβα eβ ⊗ heα |
ar
Consideremos un espacio tetradimensional expandido por una base ortonormal: {|e0 i , |e1 i , |e2 i , |e3 i}. Los vectores {|e1 i , |e2 i , |e3 i} corresponden con la base canónica de R3 .
Este espacio vectorial M4 tendrá asociado un espacio dual: e0 , e1 , e2 , e3 a través de una métrica:
Lo interesante del caso es que:
a1 = −a1 ,
a2 = −a2 ,
rP
re
aα = aσ ησα ⇒ a0 = a0 ,
lim
con α, β = 0, 1, 2, 3, y donde: η00 = η 00 = 1, η11 = η 11 = −1, η22 = η 22 = −1, η33 = η 33 = −1 (con ηαβ = 0 para
α 6= β). Se dice que η tiene signo −2.13
Tal y lo como presentamos en la sección 3.2, podemos asociar componentes covariantes y contravariantes a través
de la métricas. Si |ai = aσ |eσ i, entonces:
ηαβ heα | ⊗ eβ |ai = aσ ηαβ heα | ⊗ eβ |eσ i = aσ ηαβ eβ |eσ i heα | = aσ ηαβ δσβ heα | = aσ ηασ heα | ≡ aα heα | .
a3 = −a3 .
Es decir, en este caso, porque la métrica tiene signo −2, bajar los ı́ndices espaciales (µ = i = 1, 2, 3) es cambiar
el signo a las componentes14 . Dicho con más propiedad, las componentes espaciales contravariantes (µ = i = 1, 2, 3)
tienen signos contrarios a las componentes covariantes.
De la misma manera que se expuso anteriormente en la sección 3.2:
ha| η αβ |eα i ⊗ |eβ i = aσ heσ | η αβ |eα i ⊗ |eβ i = aσ η αβ heσ |eα i |eβ i = aσ η αβ δασ |eβ i = aσ η σβ |eβ i ≡ aβ |eβ i .
ad
o
y otra vez, aσ = η σα aα , y habrı́a cambio de signo cuando se bajan los ı́ndices 1, 2, 3 para la métrica con signo −2
que hemos considerado anteriormente.
Del mismo modo se “suben” y se “bajan” ı́ndices para componentes de tensores:
η αβ Pαγσ ≡ P βγσ .
Por su parte, el producto interno de dos vectores en un espacio de Minkowski involucra, de manera natural, la
métrica del espacio. Esto es:
rr
ha |bi = hb |ai = aα bα = bα aα = aα bβ ηαβ = aα bβ η αβ = a0 b0 − a1 b1 − a2 b2 − a3 b3 = a0 b0 − a1 b1 − a2 b2 − a3 b3 .
Una vez más, la norma de un vector, también incluirá al tensor métrico:
2
Bo
k|aik = ha |ai = aα aβ heα |eβ i = aα aα = aα aβ η αβ = aα aβ ηαβ = a0 a0 − a1 a1 − a2 a2 − a3 a3 .
El caso más conocido lo constituye la norma de un desplazamiento infinitesimal, en un espacio tetradimensional,
el cual puede expresarse como:
ds2 ≡ hdr |dri = (dxα hwα |) dxβ |wβ i = dxβ dxβ = ηαβ dxα dxβ = dt2 − dx2 ,
con: dx2 = dx1
2
+ dx2
2
2
+ dx3 .
13 Realmente el signo −2 es una convención, se puede también considerar η
µν de signo +2, con η00 = −1, η11 = +1, η22 = +1,
η33 = +1.
14 Otra vez, para la métrica con signo −2, el cambio de signo entre componentes covariantes y contravariantes se da para la componente,
µ=0
182
CAPÍTULO 3. VECTORES DUALES Y TENSORES
3.3.2.
Un toque de Relatividad Especial
La genialidad de Albert Einstein fue haber entendido que tenı́a que incorporar el tiempo como otra coordenada
más, vale decir, que los eventos que ocurren en la naturaleza están etiquetados por cuatro números: (t, x, y, z) ≡
(x0 , x1 , x2 , x3 )15 . El rápido desarrollo de la comprensión de las ideas relativistas muestra que estaban en el ambiente
de la época de comienzos de 1900, y una vez más la simplicidad como prejuicio se impuso.
Sólo dos suposiciones están en el corazón de la Relatividad Especial:
ar
1. El principio de la Relatividad: Las leyes de la Fı́sica son idénticas en todos los sistemas de referencia inerciales.
2. La universalidad de la velocidad de la luz en el vacı́o: La velocidad de la luz en el vacı́o es siempre la misma,
y es independiente de la velocidad de la fuente de luz respecto a un observador en particular.
rP
re
lim
in
En términos matemáticos estas dos audaces suposiciones se concretan en una simple suposición matemática:
el producto interno entre dos elementos de este espacio tetradimensional, debe conservarse para una familia de
vectores base. Luego vendrá la asociación de observadores fı́sicos -o sistemas de coordenadas- con los miembros
de la familia de vectores base, pero la idea es la misma que planteamos para los espacios euclidianos en 2.2.3: el
producto interno -y consecuentemente, la norma de los elementos del espacio vectorial y la distancia entre éstos- es
el mismo independientemente de la base en la cual expanda el espacio vectorial.
La primera de las interpretaciones es el cómo representamos los eventos en el espacio-tiempo. Supongamos el
caso unidimensional en el espacio, vale decir los eventos ocurren en un punto de la recta real x = x1 , y en un tiempo
determinado, por lo tanto podremos asociar al evento un vector evento: → (x0 , x1 ).
A continuación nos preguntamos que representan las distancias (espacio-temporales) entre estos dos eventos. Tal
y como vimos, las distancias entre dos elementos de un espacio vectorial puede ser construida a partir de la norma
(de la resta de coordenadas) y la norma a partir del producto interno:

< 0 conexión tipo espacio: eventos desconectados causalmente.





= 0 conexión tipo luz: posible conexión causal a través de rayos de luz.
|| |y − xi ||2 ≡ hy − x |y − xi





> 0 conexión tipo tiempo: posible conexión causal.
ad
o
Con esta primera interpretación de los valores de la norma y la visión tetradimensional, el espacio-tiempo,
dividido en pasado, presente y futuro, se puebla de eventos que pueden estar o no relacionados causalmente tal y
como muestra la figura 3.4.
rr
La preservación del producto interno para todos
los observadores era intuitiva en los espacios euclidianos y, al mantenerla para los pseudoeuclidianos nos traerá consecuencias nada intuitivas
en nuestra idea intuitiva de “realidad”.
Para el caso de la formulación de la Relatividad
Especial, añadimos un supuesto más: las componentes del tensor métrico son invariantes bajo
transformaciones de coordenadas, esto es:
Bo
g [|eµ i , |eν i] ≡ g̃ [|ẽµ i , |ẽν i]
⇔
ηαβ = η̃αβ ,
con: {|eµ i} y {|ẽµ i} dos bases que se conectan a
través de una transformación de coordenadas:
xµ = xµ (x̃α ) ⇔ x̃µ = x̃µ (xα ) .
Figura 3.4: Cono de luz, espacio-tiempo y eventos.
Construyamos ahora el tipo de transformación de coordenadas que mantiene estos dos supuestos16 :
15 Una discusión sobre la necesidad de incorporar los conceptos de relatividad especial en los programas de estudio de Fı́sica mediante
la utilización del álgebra geométrica la pueden encontrar en Baylis, W. E. (2004). Relativity in introductory physics. Canadian journal
of physics, 82(11), 853-873.
16 Estamos suponiendo que observadores, sistemas de coordenadas y sistemas de referencia son conceptos equivalentes.
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS
183
1. El producto interno de dos vectores es independiente de la base que expande el espacio vectorial.
2. Las componentes del tensor métricos son invariantes bajo transformaciones de coordenadas.
Si el producto interno de dos vectores es independiente de la base que expanda el espacio vectorial, tendremos:
hx |yi = hx̃ |ỹi
xα yα = x̃α ỹα
⇔
⇔
xα y β ηαβ = x̃α ỹ β η̃αβ ,
y como lo vimos en 3.2.9 las componentes de vectores, bajo cambio de coordenadas, transforman como:
∂ x̃ν α ∂ x̃µ β
∂ x̃ν ∂ x̃µ
∂ x̃i k
a ⇒ xα yα = x̃α ỹα ⇔ xα y β ηαβ =
x
y η̃νµ = xα y β α β η̃νµ ,
k
α
β
∂x
∂x
∂x
∂x ∂x
ar
ãi =
∂ x̃ν ∂ x̃µ
∂ x̃ν ∂ x̃µ
η̃νµ ≡
ηνµ .
α
β
∂x ∂x
∂xα ∂xβ
Ahora bien, si derivamos (3.9) respecto a xγ tendremos que:
2 ν
∂ x̃ ∂ x̃µ
∂ x̃ν ∂ 2 x̃µ
0 = ηνµ
+
.
∂xα ∂xγ ∂xβ
∂xα ∂xβ ∂xγ
(3.9)
lim
ηαβ =
in
con lo cual concluimos que:
rP
re
Como la cantidad dentro del paréntesis se anula podemos jugar con ésta para descubrir algunas consecuencias
ocultas. Es de hacer notar que esa cantidad tiene tres ı́ndices libres y por lo tanto son 64 ecuaciones que se anulan.
Eso significa que le podemos añadir y sustraer cualesquiera otras con los ı́ndices intercambiados.
Supongamos que al paréntesis anulado le añadimos una con los ı́ndices α y γ intercambiados y, adicionalmente,
le sustraemos una con los ı́ndices γ y β intercambiados. Claramente, estamos añadiendo y sustrayendo ceros.
2 ν
∂ x̃ ∂ x̃µ
∂ x̃ν ∂ 2 x̃µ
∂ 2 x̃ν ∂ x̃µ
∂ x̃ν ∂ 2 x̃µ
∂ 2 x̃ν ∂ x̃µ
∂ x̃ν ∂ 2 x̃µ
0 = ηνµ
+
+
+
−
−
.
∂xα ∂xγ ∂xβ
∂xα ∂xβ ∂xγ
∂xγ ∂xα ∂xβ
∂xγ ∂xβ ∂xα
∂xα ∂xβ ∂xγ
∂xα ∂xγ ∂xβ
ad
o
Con este truco, vemos que el último término anula el segundo y el penúltimo el cuarto, de forma y manera que nos
queda:
∂ 2 x̃ν ∂ x̃µ
0 = 2ηνµ α γ β ,
∂x ∂x ∂x
Con lo cual la única posibilidad que resulta es la siguiente:
0=
∂ 2 x̃ν
⇒ x̃ν = Λνµ xµ + aν ,
∂xα ∂xγ
(3.10)
rr
con: Λνµ y aν constantes.
Las transformaciones lineales (3.10) se conocen como las transformaciones, inhomogéneas, de Lorentz o también
las transformaciones de Poincaré. Estas transformaciones forman un grupo y, uno de los posibles subgrupos lo
constituye el conjunto de transformaciones propias de Lorentz de la forma:
Λ00 = 1,
Λi0 = Λ0j = 0,
y
Λij = Rji ,
Bo
con: i, j = 1, 2, 3, y donde Rji es una matriz de rotación.
Supongamos el caso más sencillo de este grupo de transformaciones: aν = 0, en la ecuación (3.10). Explı́citamente
hemos identificado una transformación de la forma:
0
α 1
α 2
α 3
x̃α = Λα
0 x + Λ 1 x + Λ2 x + Λ3 x ,
la cual, por construcción, deja invariante el intervalo tetradimensional:
ds2 = c2 dt2 − dx1 − dx2 − dx3 = ηµν dxµ dxν ,
con ηµν el tensor métrico. Aquı́ c es la constante que representa la velocidad de la luz en el vacı́o. Por razones de
conveniencia se escoge un sistema de unidades donde c = 117 .
17 Un sistema de unidades denominado sistema de unidades geometrizado en el cual la velocidad de la luz y la constante de gravitación
universal se toman como la unidad: c = G = 1.
184
CAPÍTULO 3. VECTORES DUALES Y TENSORES
Es inmediato demostrar que este tipo de transformaciones deja invariante el intervalo. Primero, notemos que:
µ
η̃ µν = Λµα Λνβ η αβ ⇒ η µν ηνγ = δγµ = Λµα Λνβ η αβ ηνγ ⇒ Λµα Λα
γ = δγ
y como dx̃µ = Λµα dxα , entonces:
ds̃2 = η̃µν dx̃µ dx̃ν ≡ ηµν Λµα dxα Λνβ dxβ = ηαβ dxα dxβ = ds2 .
in
ar
Para construir una de las expresiones más utilizadas del grupo de Lorentz consideramos la siguiente situación: un
observador, x̃µ , ve moverse una partı́cula con una velocidad v, mientras que un segundo observador, xµ , la percibe
en reposo. Entonces, para el observador que registra la partı́cula en reposo resulta que dxi = 0, y:

= Λ00 dt
 dt̃
µ
µ
α
dx̃ = Λα dx ⇒

dx̃i = Λiα dxα = Λi0 dt
con i = 1, 2, 3.
Ahora bien, las ecuaciones anteriores nos imponen:
dx̃
dx̃i
⇒ vi =
dt̃
dt̃
⇒ Λi0 = v i Λ00 .
Además, tenemos que:
con una solución de la forma:
Λ00 = γ ,
donde:
2
− Λ10
2
− Λ20
2
− Λ30
2
,
rP
re
η̃αβ = Λµα Λνβ ηµν ⇒ 1 = Λµ0 Λν0 ηµν = Λ00
lim
v=
Λi0 = γ v i ,
1
1
1
≡√
≡r
γ=p
h
i,
i
2
1 − v vi
1 − (v)
2
2
2
1 − (v 1 ) + (v 2 ) + (v 3 )
los otros términos Λij no quedan unı́vocamente determinados porque está de por medio la arbitrariedad de una
rotación Rji . Por ello, una selección arbitraria pero razonable de todos los términos Λij es:
ad
o
Λij = δji + v i vj
γ−1
γ−1
≡ δji + v i vj k .
(v)2
v vk
rr
De esta forma quedan determinados todos los elementos de las transformaciones de Lorentz.
Los observadores lorentzianos son los equivalentes a los observadores galileanos en las teorı́as newtonianas: son
observadores que se mueven uno respecto al otro con una velocidad constante y, desempeñan el mismo papel que los
observadores inerciales. Quizá la consecuencia más impactante de la necesidad de vincular mediciones de distintos
observadores lorentzianos a través de transformaciones de Lorentz, lo ilustra la evolución distinta del tiempo medido
por los diferentes observadores. Un observador en reposo respecto a un reloj, ve avanzar el tiempo con tic separados
por dt = ∆t, ya que su reposo respecto al reloj implica: dxi = 0, por lo tanto la separación espacio temporal será:
ds2 = dt2 − (dxi )2 = (∆t)
2
⇒ dt = ∆t ,
Bo
mientras que un segundo observador, en movimiento, tendrá el mismo elemento de lı́nea pero expresado como:
∆t
ds̃2 = dt̃2 − (dx̃i )2 = 1 − v2 dt̃ ⇒ dt̃ = √
,
1 − v2
y ésta última ecuación claramente indica que el tiempo evoluciona más lento para relojes en movimiento.
3.3.3.
Ejemplos
1. En este ejemplo vamos a repetir, para el caso bidimensional, lo expuesto de manera general en la sección
anterior. Como vimos, las transformaciones de Lorentz relacionan las coordenadas del espacio-tiempo medidas
por un observador O de un evento, con las coordenadas medidas por otro observador Õ del mismo evento. El
observador O lo representaremos por las coordenadas {t, x, y, z} = {x0 , x1 , x2 , x3 }, mientras que el observador
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS
185
Õ por {t̃, x̃, ỹ, z̃} = {x̃0 , x̃1 , x̃2 , x̃3 }. Para lo que sigue, supondremos que cuando los observadores coincidan los
relojes de ambos marcarán t = t0 = 0.
La ecuación (3.10),
x̃ν = Λνµ xµ ,
t̃ = x̃0
=
Λ00 x0 + Λ01 x1 + Λ02 x2 + Λ03 x3
x̃ = x̃1
=
Λ10 x0 + Λ11 x1 + Λ12 x2 + Λ13 x3
ỹ = x̃2
=
Λ20 x0 + Λ21 x1 + Λ22 x2 + Λ23 x3
3
=
Λ30 x0 + Λ31 x1 + Λ32 x2 + Λ33 x3
z̃ = x̃
ar
la podemos expandir en lo que realmente es:
=
Λ00 x0 + Λ01 x1 = Λ00 t + Λ01 x
x̃ = x̃1
=
Λ11 (x1 − vt) = Λ11 (x − vt)
ỹ = x̃2
=
x2 = y
z̃ = x̃3
=
x3 = z
lim
t̃ = x̃0
in
Vamos a suponer que Õ se mueve respecto a O, con velocidad v, únicamente en la dirección x, es decir, ỹ = y
y z̃ = z. Se supone entonces que t̃ no dependerá ni de y ni de z y que cuando x̃ = 0 entonces x = vt. Todo
esto hace que el sistema de ecuaciones anterior se simplifique de manera significativa:
rP
re
Debemos determinar los coeficiente Λ00 , Λ01 y Λ11 . Para tal fin vamos a suponer que cuando t̃ = t = 0 un
pulso de luz es emitido desde el origen de coordenadas. Recordemos que en ese instante ambos observadores
coinciden. Como suponemos además que la velocidad de la luz es constante, la onda de luz se propagará en
todas las direcciones de manera que cada observador podrá describirla mediante la ecuación de una esfera
cuyo radio aumenta con el tiempo a velocidad c. Esto es:
x̃2 + ỹ 2 + z̃ 2 = c2 t̃2
Por lo tanto:
y
x2 + y 2 + z 2 = c2 t2 .
(Λ11 (x − vt))2 + y 2 + z 2 = c2 (Λ00 t + Λ01 x)2 .
ad
o
Al desarrollar esta última ecuación obtenemos:
2 2
Λ11
x − 2xvt + v 2 t2 + y 2 + z 2 =
2
2 2
2
Λ11 − c2 Λ01
x + y 2 + z 2 − 2xt Λ11 v + c2 Λ00 Λ01
=
2
2 c2 Λ00 t2 + 2Λ00 Λ01 xt + Λ01 x2
2
2 2
c2 Λ00 − v 2 Λ11
t .
rr
Como ambos observadores registran la misma onda de luz, entonces:
2
2
Λ11 − c2 Λ01
= 1
2
Λ11 v + c2 Λ00 Λ01 = 0
2
2
c2 Λ00 − v 2 Λ11
= c2 .
Bo
Al resolver este sistema de tres ecuaciones con tres incógnitas resulta:
Si definimos γ =
1
Λ11 = Λ00 = q
1−
q 1
2
1− vc2
,
v2
c2
Λ01 =
v
q
c2 1 −
.
v2
c2
, las transformaciones de Lorentz quedan entonces de la forma:
v t̃ = t − 2 x γ ,
c
x̃ = (x − vt) γ ,
ỹ = y ,
z̃ = z .
Existen las transformaciones inversas que se pueden obtener de la misma manera que las anteriores.
v t = t̃ + 2 x̃ γ , x = x̃ + v t̃ γ , y = ỹ , z = z̃ .
c
186
CAPÍTULO 3. VECTORES DUALES Y TENSORES
Notemos que cuando el observador Õ se mueve a velocidades muy pequeñas en comparación a c, entonces el
factor γ tiende a la unidad:
v c ⇒ γ → 1,
por lo tanto:
t̃ = t ,
x̃ = x − vt ,
ỹ = y ,
z̃ = z .
que no son más que la transformación de Galileo.
ar
2. Si un observador Õ determina que dos eventos ocurren en el mismo lugar, pero separados en el tiempo;
entonces, un observador O ¿cómo los apreciarı́a? Veamos dos situaciones diferentes.
in
Consideremos a una persona sentada en un tren en movimiento, observador Õ, esta persona enciende
y apaga rápidamente una linterna dos veces, con una diferencia de 15 minutos entre un evento y el
otro. Entonces para Õ será dos eventos que ocurren en el mismo lugar. Pero para el observador O que
se encuentra en tierra los eventos habrán ocurrido en lugares diferentes, y esto no parece tener ningún
conflicto con nuestra experiencia e intuición.
lim
Si Õ sigue en su asiento del tren y observa que dos personas, uno a cada extremo del vagón (a unos 30
mts), encienden las linternas al mismo tiempo, entonces para Õ será un evento simultáneo, pero para el
observador en tierra O que ve al tren alejarse determinará que la persona de la parte trasera encendió
la linterna un poco antes que la persona apostada en la parte delantera. Esto tal vez si nos resulte algo
extraño.
rP
re
Consideremos que el tren viaja a 36 m/s (≈ 130 Km/h) entonces, esta pequeña velocidad se refleja en el factor
γ de la manera siguiente:
v
v2
1
= 1,2 × 10−7 → 2 = 1,44 × 10−14 → γ = p
≈ 1,000000000000007 .
c
c
1 − 1,44 × 10−14
Cuando consideramos la primera situación, la diferencia entre un evento y el otro era de 15 minutos (900 seg),
y para el observador en tierra ambos eventos ocurren en dos lugares diferentes: x1 y x2 ,
x1 = x̃1 + v t̃1 γ , x2 = x̃2 + v t̃2 γ ,
de manera que:
ad
o
x2 − x1 = x̃2 + v t̃2 γ − x̃1 + v t̃1 γ = (x̃2 − x̃1 ) γ + t̃2 − t̃1 vγ .
Pero: x̃2 = x̃1 y t̃2 − t̃1 = 15 min. Por lo tanto:
x2 − x1 = (900 s)(36 m.s−1 )γ = 32400m = 32,4Km .
Bo
rr
Para la segunda situación, el observador en tierra puede dar fe que los dos eventos ocurren en tiempos
diferentes: t1 y t2 ,
v v t1 = t̃1 + 2 x̃1 γ , t2 = t̃2 + 2 x̃2 γ ,
c
c
de manera que:
v v v
t2 − t1 = t̃2 + 2 x̃2 γ − t̃1 + 2 x̃1 γ = t̃2 − t̃1 γ + (x̃2 − x̃1 ) 2 γ ,
c
c
c
con: t̃2 = t̃1 y x̃2 − x̃1 = 30 metros, resulta:
t2 − t1 = (30 m)
36 m.s−1
γ = 1,2 × 10−14 s .
(3 × 108 m.s−1 )2
Intervalo de tiempo muy pequeño pero diferente de cero: el observador en tierra no aprecia que los eventos fueron
simultáneos.
Este valor tan pequeño, obviamente, es debido a que el factor γ es casi la unidad. Notemos que si el tren viajara
a una velocidad cercana a c, digamos v = 0,99999999 c, entonces:
v
v2
1
= 0,99999999 → 2 = 0,99999998 → γ = √
≈ 7071,06780 .
c
c
1 − 0,99999998
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS
187
por lo que:
36 m.s−1
γ = 8,49 × 10−11 s .
t2 − t1 = (30 m)
(3 × 108 m.s−1 )2
En vista de lo anterior, se podrı́a esperar que ocurran cosas curiosas con las longitud de los objetos. Supongamos
que el observador que viaja en el tren coloca su laptop en el piso y mide su longitud. Esto significa que la computadora
está en reposo para Õ y, en la dirección del eje x, la laptop mide x̃2 − x̃1 según Õ. Para el observador que está en
tierra la laptop viaja a una velocidad vt, de manera que:
ar
x̃2 − x̃1 = [(x2 − x1 ) − v(t2 − t1 )] γ ,
Practicando con Maxima
lim
3.3.4.
in
Para el observador que se encuentra en reposo la laptop mide x2 − x1 , medida en el instante t2 = t1 . Por lo
tanto:
x̃2 − x̃1
x2 − x1 =
.
γ
¡La laptop se contrae por el factor γ!
1. En los grandes aceleradores de partı́culas se puede producir piones cargados cuando se hace colisionar protones
de gran energı́a con algún blanco preparado para este fin. Se conoce que los piones tienen una vida media
muy corta: 1,77 × 10−8 seg. Lo que esto significa es, que una vez que se producen los piones, la mitad de ellos
se habrá desintegrado en un tiempo de 1,77 × 10−8 seg.
rP
re
Los experimentos en el acelerador reflejan el hecho de que la intensidad del haz de piones que emerge del
blanco, y que viaja a 0,99 c, se reduce a la mitad una vez que recorren 37,2 mts. Pero sucede que si los piones
viajan a 0,99 c = 2,968 × 108 m/s cuando estos hayan decaı́do a la mitad la distancia que habrán recorrido es
d = vt:
(%i1) d:(2.968*10^8*(m/s))*(1.77*10^(-8)*s);
( %o1) 5,25336 m
¿Y entonces por qué el experimento mide que viajaron 37,2 mts? Bueno, no estamos considerando los efectos
relativistas que están contenidas en las transformaciones de Lorentz:
ad
o
t2 − t1 = (t̃2 − t̃1 )γ ⇒ ∆t = ∆t̃γ ,
donde ∆t̃ es el tiempo propio, el tiempo medido por un reloj respecto a la partı́cula en movimiento, es decir,
el sistema de referencia donde el pion se encuentra en reposo.
Calculemos, primeramente el factor γ:
rr
(%i2) gamma:1/sqrt(1-(0.99)^2);
( %o2) 7,088812050083354
Bo
Por lo tanto, la vida media de los piones medida desde el laboratorio es:
(%i3) Delta_t:(1.77*10^(-8)*s)*gamma;
( %o3) 1,254719732864754 × 10−7 s
Según las personas que miden el experimento, y que están en el sistema en reposo, los piones viven ≈ 1,255 ×
10−7 s, y por lo tanto viajan una distancia: x = (0,99c)∆t
(%i4) (2.968*10^8*(m/s))*Delta_t;
( %o4) 37,24008167142589 m
188
CAPÍTULO 3. VECTORES DUALES Y TENSORES
2. Procederemos ahora a resolver con Maxima el sistema que nos condujo a las transformaciones impropias de
Lorentz.
Primero, escribamos una lista que contiene el sistema de ecuaciones:
(%i5) sis:[L11^2-c^2*L01^2=1,L11^2*v+c^2*L01*L00=0,c^2*L00^2-v^2*L11^2=c^2];
2
L11 − c2 L01 2 = 1, v L11 2 + c2 L00 L01 = 0, c2 L00 2 − v 2 L11 2 = c2
ar
( %o5)
Es importante agregar la información de que v > 0, y que además v < c, para evitar soluciones complejas. El
comando assume nos permite restringir el valor de los parámetros.
in
(%i6) assume(v>0,c>v);
( %o6) [v > 0, c > v]
lim
Procedemos a resolver el sistema de ecuaciones, lo podemos hacer con ayuda del comando solve:
(%i7) S:solve(sis,[L11,L00,L01]);
√
√
c
c−vv v+c
c
, L00 = √
, L01 =
,
( %o7)
L11 = √
c√v 2 − c3
c2 − v 2
c2 − v 2 √
c
c−vv v+c
c
, L00 = − √
, L01 = −
,
L11 = √
2 − v2
2 − v2
c v 2√
− c3 c
c
√
c
c
c−vv v+c
L11 = − √
, L00 = √
, L01 =
,
2
2
2
2
c√v 2 − c3 √
c −v
c −v
c
c
c−vv v+c
L11 = − √
, L00 = − √
, L01 = −
c v 2 − c3
c2 − v 2
c2 − v 2
rP
re
Seleccionamos la primera de las listas anteriores y factorizamos con la rutina factor:
(%i8) map(factor,S[1]);
3.3.5.
√
c
c
c−vv
√
L11 = √
, L00 = √
, L01 =
c (v − c) v + c
c2 − v 2
c2 − v 2
ad
o
( %o8)
Ejercicios
rr
1. En el espacio euclidiano 3D, y en coordenadas cartesianas, no distinguimos entre vectores y 1−formas debido
a que sus componentes transforman de la misma manera. Demuestre que:
Bo
a) ãi = Λij aj ∧ b̃j = Λij bi , son la misma transformación si la matriz Λij es igual a la transpuesta de su
inversa, es decir, si es ortogonal.
b) Considere dos observadores O : x, y ↔ x1 , x2 y Õ : x̃, ỹ ↔ x̃1 , x̃2 y sus sistemas de coordenadas asociados.
1) Considere la siguiente transformación de coordenadas de Galileo:
√
x̃1 = V 1 t +
√
2 1
2 2
x −
x
2
2
√
y
x̃2 =
√
2 1
2 2
x +
x ,
2
2
con V 1 una constante que representa la velocidad relativa entre O − Õ, y t al tiempo (parámetro de
esta transformación).
A continuación suponga una partı́cula que describe un movimiento respecto a O siguiendo una
trayectoria recta, esto es x2 = αx1 , donde α es una constante. Encuentre cómo lo describirı́a el
observador Õ respecto a sus coordenadas (x̃1 , x̃2 ).
3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS
189
2) Considere ahora la generalización de la transformación de coordenadas anterior:
√
√
√
√
2 1
2 2
2 1
2 2
1
1
2
2
x̃ = V t +
x −
x
y
x̃ = V t +
x +
x ,
2
2
2
2
con V 1 y V 2 las componentes de una velocidad relativa entre O − Õ, y t al tiempo. Muestre que la
norma de cualquier vector queda invariante respecto a una transformación de coordenadas como la
anterior y encuentre la matriz de transformación.
ar
2. Un acelerador produce partı́culas que tienen una vida promedio de 5µs. Estas logran alcanzar una velocidad
de 0,6c.
in
a) Un observador que se encuentra en reposo en el laboratorio ¿qué tiempo de vida media le atribuirá a las
partı́culas?
b) ¿Qué distancia promedio viajan las partı́culas en el acelerador?
lim
c) Si suponemos que existe un observador en reposo con respecto a la partı́cula ¿Qué distancia se desplazará
éste observador antes de que la partı́cula se desintegre?
3. Un elemento de área cuadrada se encuentra en reposo para un observador O. Encuentre el área medida por
un observador en movimiento Õ si éste lleva una velocidad de 0,85c a lo largo de la diagonal del cuadrado.
rP
re
4. Consideremos un vehı́culo se mueve con una velocidad V con respecto a un observador fijo en tierra O, y un
pasajero dentro del vehı́culo que se mueve con una velocidad ṽ con respecto al vehı́culo. Sabemos de los cursos
básicos que la velocidad del pasajero respecto al observador fijo en tierra es simplemente la suma: v = ṽ + V .
Nos podemos preguntar sobre la forma en que se suman las velocidades en la teorı́a especial de la relatividad,
es decir, ¿Cómo se suman las velocidades si consideramos las transformaciones de Lorentz? Demuestre que se
suman como:
ṽ + V
.
v=
1 + ṽ cV2
5. Dado un espacio minkowskiano y un observador O que describe los eventos en el espacio-tiempo respecto a
un sistema de coordenadas {xα }, donde α = 0, 1, 2, y η = diag[−1, 1, 1] el tensor métrico. Considere entonces
la siguiente transformación de coordenadas:
x̃1 = γ(x1 − βx0 )
y x̃2 = x2 ,
ad
o
x̃0 = γ(x0 − βx1 ) ,
con γ = p
1
1 − β2
.
Donde β = v/c es la velocidad relativa entre O y Õ.
a) Otra vez, suponga que una partı́cula describe una linea recta respecto a O: x2 = αx1 , con α igual a una
constante. Encuentre cómo lo describirı́a el otro observador Õ respecto a sus coordenadas (x̃0 , x̃1 , x̃2 ).
α
rr
b) Encuentre la expresión para la transformación de coordenadas, ∂∂xx̃β = Λα̃
β (transformación de Lorentz)
entre estos sistemas relativistas y muestre como la norma: xα xα = xα xβ ηαβ , de cualquier vector se
conserva.
Bo
6. Considere el tensor de Maxwell definido como:

0
Ex
Ey
Ez
x
z
 −E
0
−cB
cB y
Fµα = 
y
z
 −E
cB
0
−cB x
z
y
x
−E
cB
cB
0


,


otra vez con:
ηµν
−1
 0
=
 0
0

0 0 0
1 0 0 
.
0 1 0 
0 0 1
donde E = (E x , E y , E z ) y B = (B x , B y , B z ) son los campos eléctricos y magnéticos (respectivamente),
medidos por un observador O.
a) Si un observador mide un campo eléctrico E = E x i y ningún campo magnético ¿Cuáles campos, Fµα ,
medirá otro observador que viaja con una velocidad respecto al primero de β = vi?
b) Muestre que las ecuaciones de Maxwell: ∇ × B −
∂ µν
F ≡ F µν ,ν = 4πJ µ ,
∂xν
∂
∂t E
= 4πJ , y ∇ · E = 4πρ se pueden expresar como:
donde J µ = (cρ, J 1 , J 2 , J 3 )
y J = (J 1 , J 2 , J 3 ) ,
190
CAPÍTULO 3. VECTORES DUALES Y TENSORES
c) Considere la identidad de Bianchi de la forma:
∂Fνγ
∂Fγµ
∂Fµν
+
+
≡ ∂γ Fµν + ∂µ Fνγ + ∂ν Fγµ ≡ Fµν ,γ + Fνγ ,µ + Fγµ ,ν = 0 ,
γ
µ
∂x
∂x
∂xν
y demuestre que las otras dos ecuaciones ∇ · B = 0 y ∇ × E −
expresiones F µν ,ν = 4πJ µ
∂
∂t B
= 0, también están contenidas en las
in
ar
7. El dual de un tensor B de rango 2, cuadridimensional, puede ser definido de manera que sus componentes
vienen dadas por:
1
B ij = ijkl Bkl .
2!
Muestre que B transforma como:
a) Un tensor de rango 2 bajo rotaciones.
b) Un pseudotensor bajo inversiones.
9. Demuestre que c2 B2 − E2 es un escalar de Lorentz.
Bo
rr
ad
o
rP
re
10. Resuelva los ejercicios anteriores utilizando Maxima.
lim
8. Construya F µα , el dual del tensor de Maxwell F µα .
3.4. ESPACIOS DE FUNCIONES
3.4.
191
Espacios de funciones
3.4.1.
ar
Los conceptos de espacios vectoriales discretos que hemos estudiado hasta ahora, finitos o infinitos, se pueden
extender a espacios de funciones, en donde los vectores del espacio vectorial y las bases son funciones {|Fn (x)i}. La
generalización de bases discretas a continuas se hace transformando el ı́ndice de las sumatorias en la variable de una
integral, de manera que los ı́ndices se convierten en variables continuas definidas en intervalos finitos o infinitos.
Como primer paso para el estudio de estos espacios introduciremos un nuevo objeto matemático, que como
veremos más adelante, es de gran importancia y utilidad.
La función delta de Dirac
in
Recordemos que la delta de Kronecker δij que definimos con anterioridad es una cantidad que toma valores
discretos: δij = 1 si i = j y δij = 0 si i 6= j. Es posible construir una extensión de este objeto matemático para que
los ı́ndices puedan tomar cualquier valor real.
lim
Veamos la siguiente sucesión de funciones gaussianas:
r
n −nx2
e
,
δn (x) =
π
tal que:
Z
∞
δn (x)dx = 1 , n > 0 .
rP
re
−∞
A medida que el parámetro n aumenta su valor,
la curva gaussiana δn (x) será cada vez más alta
y más angosta, y si n → ∞ la curva será entonces infinitamente más alta e infinitamente más
angosta, pero siempre conservando que el área
bajo la curva será igual a la unidad.
Figura 3.5: δn (x) para tres valores diferentes de n.
Esto nos permite definir la “función”:

 δ(x) → ∞ si
n −nx2
e
⇒

π
ad
o
r
δ(x) = lı́m
n→∞
δ(x) = 0
x→0
si x 6= 0
rr
Por tener este comportamiento tan particular no se le suele llamar función, sino una distribución, y si el punto
del máximo es un punto diferente de x = 0, podemos escribir:
r
n −n(x−x0 )2
δ(x − x0 ) = lı́m
e
,
n→∞
π
Bo
donde x0 es el punto donde la gaussiana alcanza su valor máximo.
En general, este proceso de limite puede aplicarse a funciones cuya área bajo la curva sea la unidad:
Z ∞
G(x)dx = 1 ,
−∞
de manera que:
Z
∞
0
nG(n(x − x ))f (x )dx
lı́m
n→∞
0
0
Z
=
−∞
=
∞
lı́m
n→∞
lı́m
n→∞
G(n(x − x0 ))f (x0 ) d(nx0 )
−∞
Z ∞
τ
G(τ )f x −
dτ = f (x) .
n
−∞
Si se intercambian los procesos de lı́mite e integración:
Z ∞h
i
f (x) =
lı́m nG(n(x − x0 )) f (x0 )dx0 ⇒ δ(x − x0 ) = lı́m nG(n(x − x0 )) ≡ δ(x, x0 ) ,
−∞ n→∞
n→∞
192
CAPÍTULO 3. VECTORES DUALES Y TENSORES
por lo tanto:
∞
Z
δ(x − x0 )f (x0 )dx0 ⇒
f (x) =
−∞

 δ(x, x0 ) → ∞ si x → x0

δ(x, x0 ) = 0
si x 6= x0
La principal propiedad de la delta de Dirac, δ(x − x0 ), es que:
Z ∞
f (x)δ(x − x0 )dx = f (x0 ) ,
ar
−∞
es decir, actúa parecido a como lo hace la delta de Kronecker cuando se contrae uno de sus ı́ndices con las componentes de un vector: aj = δji ai , en el sentido que de todos lo valores selecciona sólo uno. Además, si f (x) = 1
entonces:
Z ∞
in
δ(x − x0 )dx = 1 .
−∞
rP
re
lim
Existen algunas representaciones integrales basadas en el hecho de que δ(x − x0 ) únicamente existe en x = x0 ,
por ejemplo:
Z ∞
Z x=x0 +ε
f (x)δ(x − x0 )dx =
f (x)δ(x − x0 )dx ,
−∞
x=x0 −ε
Z b
 f (x0 ) si a ≤ x0 ≤ b
f (x)δ(x − x0 )dx =

a
0
si x0 < a ó x0 > b
Y la función escalón de Heaviside:
Z
x
H(x − x0 ) =
δ(x − x0 )dx =
−∞

 1
si
0
si

x ≥ x0
⇒ δ(x − x0 ) =
x ≤ x0
dH(x − x0 )
.
dx
Algunas de las tantas propiedades de la delta de Dirac son las siguientes:
• xδ(x) = 0
• f (x)δ(x − x0 ) = f (x0 )δ(x − x0 )
ad
o
• δ(ax) =
• δ(x2 − a2 ) =
1
2|a|
n
• xn+1 d dxδ(x)
=0
n
[δ(x − a) + δ(x + a)]
• δ(r − r0 ) = δ(x − x0 )δ(y − y0 )δ(z − z0 )
3.4.2.
δ(x)
|a|
• δ(x − x0 ) = δ(x0 − x)
•
R
f (r)δ(r − r0 )dV = f (r0 )
Bases continuas
Bo
rr
Tal y como vimos anteriormente, la representación de un vector |ai en un espacio vectorial abstracto V puede
darse en término de una base ortonormal de vectores (discreta y finita BDF = {|e1 i , |e2 i , |e3 i , · · · |en i} o discreta
e infinita BDI = {|e1 i , |e2 i , |e3 i · · · |en i · · · }) de la forma:
 i
 c |ei i = ei ai |ei i ⇐ BDF = {|e1 i , |e2 i , |e3 i · · · |en i}
|ai =
 i
c |ei i = ei ai |ei i ⇐ BDI = {|e1 i , |e2 i , |e3 i · · · |en i · · · }
donde en ambos casos:
ci = ei ai = cj
ei |ej i = cj δji .
Recapitulemos ahora algunos puntos que hemos tratado con anterioridad, y con el fin de aclarar conceptos, para
el caso de bases discretas de funciones {|ei (x)i}.
La relación de ortogonalidad viene dada, como hemos mencionado, por:
hen (x)|em (x)i =
Z
a
b
n
e∗n (x)em (x)dx = Θn δm
,
3.4. ESPACIOS DE FUNCIONES
193
y con una norma definida como:
b
Z
2
k|ei (x)ik = hen (x)|en (x)i =
2
|en (x)| dx = Θn .
a
ar
La base será ortonormal si Θn = 1.
Con una base {|ei (x)i} definida, es posible representar cualquier función |f (x)i cuadrado integrable, es decir
que cumpla con:
Z b
2
|f (x)| dx 6= ∞ ,
a
en una combinación lineal de la base dada:
|f (x)i = C i |ei (x)i
i
e (x) f (x)i = C
j
i
e (x) ej (x)i =
C j δji
i
Z
=C =
in
Las cantidades C i , las componentes de |f (x)i, se obtienen de la siguiente manera:
b
f (x)e∗i (x)dx ,
lim
a
Resulta conveniente para los cálculos que vienen a continuación cambiar i → n y x → x0 , de manera que:
b
Z
n
f (x0 )e∗n (x0 )dx0 .
C =
a
rP
re
Por lo tanto:
n
"
X Z
|f (x)i = C |en (x)i ⇒ |f (x)i =
=
f (x
b
f (x0 )
X
a
Utilizando la delta de Dirac:
Z b
Z
|f (x)i =
f (x0 )δ(x − x0 )dx0 =
a
0
)e∗n (x0 )dx0
|en (x)i =
a
n
Z
#
b
XZ
n
b
f (x0 )e∗n (x0 )en (x)dx0
a
e∗n (x0 )en (x)dx0 .
n
"
b
0
f (x )
a
#
X
e∗n (x0 )en (x)
dx0 ⇒ δ(x − x0 ) =
ad
o
n
X
e∗n (x0 )en (x) .
n
Esta última relación viene a ser una generalización de la relación de cierre mencionada en la sección 2.3.4, y se
conoce como condición de completitud para la base {|ei (x)i}, además, también resulta ser una representación en
serie para la delta de Dirac.
De todo esto surgen algunas propiedades fundamentales:
Z
b
2
|f (x)| =
a
X
2
|C n | .
n
Bo
rr
Se dice que el conjunto {|ei (x)i} es completo si para |f (x)i = C i |ei (x)i, entonces se tiene que:
Si |f (x)i = C i |ei (x)i y |g(x)i = E i |ei (x)i, entonces hf (x)|g(x)i = Cn∗ E n .
Es posible pasar de estos espacios vectoriales discretos, donde las bases son un conjunto numerable de elementos
{en (x)}, a espacios vectoriales de funciones con las bases dadas por funciones y donde el ı́ndice n pasa a ser una
variable continua.
Recordemos que en la sección 2.3.4 hablábamos de un conjunto de funciones {|e1 i , |e2 i , |e3 i , · · · , |en i · · · } definidas por:
|e0 i = 1, |e2n−1 i = cos(nx) y |e2n i = sen(nx), con n = 1, 2, 3, · · · ,
la base discreta de Fourier. Base que también podemos escribir de la forma compleja, como se muestra a continuación:
nπ
1
1
|en (x)i = √ ei L x = √ eikx ,
2L
2L
con n = −∞ . . . ∞ y − L ≤ x ≤ L .
194
CAPÍTULO 3. VECTORES DUALES Y TENSORES
Cuando n aumenta indefinidamente, también lo hará la cantidad k = nπ
L , convirtiéndose entonces en una variable
→
0.
Notemos
que
los
ı́ndices
de
la
delta
de
Kronecker δnm = δnn0 pueden tomar los
continua, es decir, ∆k = ∆nπ
L
Lk
Lk0
0
valores: n = π , n = π , y en el proceso de L → ∞ se convertirán en:
L
π
Lk Lk 0
δnn0 → δ
−
=δ
(k − k 0 ) = δ (k − k 0 ) .
π
π
π
L
ar
De esta manera, la base ortonormal quedará escrita en función de las variables continuas k y x, como se muestra
a continuación:
1
|e(k, x)i = √ eikx .
2π
in
El hecho de que sean ortonormales se refleja en la siguiente condición (que es una extensión de la expresión para
el producto interno de bases discretas)
b
Z
e(k, x)∗ e(k 0 , x) dx = δ(k − k 0 ) ,
he(k, x)|e(k, x)i =
con
α≤k ≤β, a≤x≤b
a
lim
Al ser el conjunto de funciones {|e(k, x)i} una base, toda función del mismo espacio vectorial se puede expandir
en esa base como:
Z β
|f (x)i =
C(k)e(k, x)dk .
α
rP
re
En correspondencia con el caso de las bases discretas, el coeficiente C(k) viene a ser algo parecido a las componentes de |f (x)i. Y para calcularlas se procede como se muestra a continuación:
"Z
#
Z
Z
Z
b
he(k 0 , x) |f (x)i =
β
e(k 0 , x)∗ f (x) dx =
a
b
β
e(k 0 , x)∗ e(k, x) dx dk =
C(k)
α
C(k)δ(k − k 0 )dk = C(k 0 ) .
a
α
Volvamos a cambiar la notación para los ı́ndices: k 0 → k, x → x0 en la última ecuación:
Z b
C(k) =
e(k, x0 )∗ f (x0 )dx0 ,
a
por lo tanto:
β
|f (x)i =
C(k) |e(k, x)i dk =
0
a
Z
#
β
f (x )
α
y la relación:
"Z
b
Z
ad
o
Z
0 ∗
e(k, x ) e(k, x)dk dx0 =
Z
α
b
f (x0 )δ(x − x0 )dx0 ,
a
β
e(k, x0 )∗ e(k, x)dk = δ(x − x0 ) ,
α
rr
será la relación de cierre para el conjunto no numerable de funciones ortonormales.
Una integral como la que nos permitió definir C(k), digamos, del tipo:
Z
Bo
F (k) =
b
f (x0 )e(k, x0 )∗ dx0
Z
β
⇒ |f (x)i =
a
F (k)e(k, x)dk ,
α
√
es lo que se denomina una transformada de f (x). Más adelante veremos que si la base, es por ejemplo eikx / 2π, la
transformada será la de Fourier.
En el espacio vectorial de funciones de cuadrado integrable L2 , definidas en R3 , tendremos que:
∞ Z ∞
X
i
i
3 0 ∗
0
0
|F i = c |ei i ≡ e F i |ei i =
d r ξi (r ) f (r ) |ei i ,
i=0
que se reescribe en términos de funciones como:
∞ Z
X
f (r) =
i=0
∞
−∞
−∞
d3 r0 ξi∗ (r0 ) f (r0 ) ξi (r) .
3.4. ESPACIOS DE FUNCIONES
195
R
P
y , por lo cual:
"∞
#
X
3 0
0
∗
0
d r f (r )
ξi (r ) ξi (r) ,
Es claro que se pueden intercambiar los sı́mbolos de
Z
∞
f (r) =
−∞
i=0
|
{z
G(r0 ,r)
}
ar
la función G(r0 , r), que depende de los argumentos r0 y r, vive dentro de las integrales y convierte:
Z ∞
d3 r0 f (r0 ) G(r0 , r) .
f (r) =
−∞
Z
∞
d3 r0 f (r0 ) δ(r0 − r) .
f (r) =
−∞
in
Podemos ver entonces que:
lim
En resumen, la generalización de bases discretas a continuas se hace transformando el ı́ndice de la sumatoria en
la variable de una integral:
Z
Z
Z
|Ψi = dα c (α) |wα i ⇒ c (β) = hwβ |Ψi = dα c (α) hwβ |wα i = dα c (α) δ (α − β) .
Ası́, para los conceptos expresados hasta ahora se tiene el siguiente tabla resumen:
3.4.3.
Discreta
ui |uj i = δji
P∞
1 = j=0 |uj i uj
P∞
|F i = i=0 ci |ui i
ci = P
ui F i
∞
hG| F i = i=0 g i∗ fi
P∞
2
hF | F i = i=0 |fi |
Continua
hwβ |w
R α i = δ (α − β)
1 = dα |wα i hwα |
R
|Ψi = dα c (α) |wα i
c (β)R = hwβ |Ψi
hG| F i = dα g ∗ (α) f (α)
R
2
hF | F i = dα |f (α)|
rP
re
Propiedad\Base
Ortogonalidad
Cierre
Expansión
Componentes
Producto Interno
Norma
Bases de ondas planas y la transformada de Fourier
ad
o
En las teorı́as de oscilaciones es de gran importancia considerar el problema de la transformada de Fourier.
Recientemente vimos que una función f (x) puede representarse de la forma:
Z
β
|f (x)i =
C(k)e(k, x)dk ,
α
Bo
rr
si la función f (x) está definida en (−∞, ∞) y √
si tomamos al conjunto de vectores base al conjunto de funciones
continuas y ortonormales {e(k, x)} como {eikx / 2π}, entonces la integral anterior la podemos escribir de la forma:
Z ∞
1
|f (x)i = √
F(k)eikx dk ,
(3.11)
2π −∞
R
Si utilizamos la relación de ortogonalidad: he(k, x)|e(k, x)i = e(k, x)e(k 0 , x)∗ dx = δ(k − k 0 ), resulta:
Z ∞
0
ei(k−k )x dx = 2πδ(k − k 0 ) .
Donde:
−∞
1
|F(k)i = √
2π
Z
∞
f (x)e−ikx dx .
−∞
A las variables x y k se les denominan variables conjugadas de Fourier (no conjugadas como en variable compleja)
y a F(k) la transformada de Fourier de f (x) (y viceversa).
Notemos que si sustituimos F(k) en la otra integral, ecuación (3.11), entonces:
Z ∞Z ∞
Z ∞
0
1
f (x)eik(x−x ) dk dx0 ⇒ |f (x0 )i =
f (x)δ(x − x0 ) dx0 .
2π −∞ −∞
−∞
196
CAPÍTULO 3. VECTORES DUALES Y TENSORES
Por otra parte, podemos ver que la integral para F(k) se puede hacer en dos partes:
Z ∞
Z 0
Z ∞
1
1
1
f (x)e−ikx dx ⇒ √
f (x)e−ikx dx + √
f (x)e−ikx dx .
|F(k)i = √
2π −∞
2π −∞
2π 0
ar
Si sustituimos x → −x, en la primera integral de la ecuación anterior resulta:
Z ∞
Z ∞
1
1
ikx
|F(k)i = √
f (−x)e
f (x)e−ikx dx .
dx + √
2π 0
2π 0
Dos casos podemos considerar:
Si la función es par, f (x) = f (−x):
Z
∞
f (x)e
ikx
∞
Z
f (x)e
dx +
−ikx
0
0
r Z ∞
2
dx =
f (x) cos(kx) dx ,
π 0
in
1
|F(k)i = √
2π
lim
entonces, de la transformada al hacer F(k) = F(−k) se tiene:
r Z ∞
2
|f (x)i =
F(k) cos(kx) dk .
π 0
Estas dos funciones se conocen como las transformadas coseno de Fourier.
1
|F(k)i = √
2π
∞
Z
rP
re
Si la función es impar, f (x) = −f (−x):
f (−x)e
0
ikx
∞
Z
dx −
f (−x)e
−ikx
r
dx = i
0
2
π
Z
∞
f (x)sen(kx) dx .
0
Ahora al hacer F(k) = −F(−k) se tiene:
r
|f (x)i =
2
π
Z
∞
F̃(k)sen(kx) dk ,
0
donde F̃ (k) = iF (k). Tenemos ahora las transformadas seno de Fourier.
ad
o
La generalización a Rn es obvia. Si f = f (r), entonces:
1
|f (r)i = √
2π
n1 Z
∞
Z
∞
F(k)ei(k·r) dk ,
···
−∞
−∞
donde dk = dk1 dk2 dk3 . . . dkn . Para la transformada:
rr
1
|F(k)i = √
2π
n1 Z
∞
Z
∞
···
−∞
f (r)e−i(k·r) dr ,
−∞
Bo
donde dr = dx1 dx2 dx3 . . . dxn , representa el elemento de volumen en Rn .
Ondas planas
Como un ejemplo de lo anterior, consideraremos la base de las ondas planas. Si a k la llamaremos s y a la
variable x el tiempo t, vale decir:
Z ∞
Z ∞
1
1
F (s) = √
dt eist f (t) f (t) = √
ds e−ist F (s) .
2π −∞
2π −∞
De esta manera, a la función F (s) se le denomina la distribución espectral de f (t) y a |F (s)|2 la densidad
espectral, es decir, la intensidad de la onda en el intervalo [s, s + ∆s]. Esto significa que la energı́a total es:
Z ∞
E=
|F (s)|2 ds .
−∞
3.4. ESPACIOS DE FUNCIONES
197
También podemos reescribir las transformadas en términos de la posición y el momento:
Z ∞
Z ∞
1
1
dp ei(px/~) ψ̄ (p) ψ̄ (p) = √
dx e−i(px/~) ψ (x) .
ψ (x) = √
2π~ −∞
2π~ −∞
vp∗ (x)
por lo cual:
Z
∞
ψ (x) =
Z
dp vp (x) ψ̄ (p)
∞
dx vp∗ (x) ψ (x) .
ψ̄ (p) =
−∞
in
vp (x)
ar
Hemos tenido cuidado de incluir los factores de normalización adecuados para el caso de las descripciones en
Mecánica Cuántica. Estas fórmulas pueden ser reinterpretadas en función de los conceptos anteriormente expuestos
y podemos definir una base continua de la forma:
Z ∞
Z ∞
1
1
1
1
i(px/~)
−i(px/~)
ψ (x) = √
dp √
dx √
e
ψ̄ (p) ψ̄ (p) = √
e
ψ (x) ,
2π~ −∞
2π~
2π~ −∞
2π~
{z
}
{z
}
|
|
−∞
√ 1 ei(px/~) .
2π~
lim
Diremos que la función ψ (x) está expresada en la base de ondas planas vp (x) =
Nótese lo siguiente:
El ı́ndice p de vp (x) varı́a de forma continua entre −∞ a ∞.
rP
re
1
ei(px/~) ∈
/ L2 , es decir, no pertenece al espacio vectorial de funciones de cuadrado integrable
Que vp (x) = √2π~
ya que su norma diverge:
Z ∞
Z ∞
1
2
hvp | vp i =
→ ∞.
dx |vp (x)| =
dx
2π~
−∞
−∞
Que las proyecciones de ψ (x) sobre la base de ondas planas es: ψ̄ (p) = hvp | ψi.
La relación de cierre para esta base se expresa como:
Z
Z ∞
Z
1= dα |vα i hvα | dp vp∗ (x0 ) vp (x) =
−∞
∞
−∞
dp
1 i[p(x0 −x)/~]
e
= δ (x0 − x) ,
2π~
ad
o
mientras que de la definición de producto interno se obtiene:
Z ∞
Z ∞
1 i[x(p0 −p)/~]
hvp0 | vp i =
e
= δ (p0 − p) .
dx vp∗0 (x) vp (x) =
dx
2π~
−∞
−∞
rr
En este mismo orden de ideas, podemos construir otra base continuaξr0 (r) a partir de la utilización de las
propiedades de la delta de Dirac. Esto es:
Z ∞
Z ∞
ψ (r) =
d3 r0 ψ (r0 ) δ(r0 − r) ψ (r0 ) =
d3 r ψ (r) δ (r − r0 ) ,
| {z }
−∞
−∞
ξr0 (r)
Bo
por lo cual la reinterpretación es inmediata:
Z ∞
ψ (r) =
d3 r0 ψ (r0 ) ξr0 (r) ,
Z
∞
ψ (r0 ) = hξr0 | ψi =
con:
−∞
−∞
d3 r ξr∗0 (r) ψ (r) ,
más aún, la ortogonalidad queda garantizada por la relación de cierre:
Z ∞
Z ∞
hξr0 | ξr0 i =
d3 r0 ξr∗0 (r) ξr0 (r0 ) =
d3 r0 δ (r − r0 ) δ (r0 − r0 ) = δ (r0 − r) ,
−∞
−∞
al igual que:
Z
hξr0 | ξr00 =
∞
−∞
d3 r ξr∗0 (r) ξr00 (r) =
Z
∞
−∞
d3 r δ (r − r0 ) δ (r − r00 ) = δ (r00 − r0 ) .
198
CAPÍTULO 3. VECTORES DUALES Y TENSORES
3.4.4.
Las representaciones |ri y |pi
A partir de las bases de ondas planas vp0 (x), y de distribuciones, ξr0 (r), construimos las llamadas representaciones |ri y |pi de la forma siguiente.
Primero asociamos:
ξr0 (r) |r0 i ∧ vp0 (x) |p0 i .
in
ar
De esta forma, dada las bases {ξr0 (r)} y {vp0 (x)} para el espacio vectorial V definiremos dos “representaciones”:
la representación de coordenadas, |r0 i , y la representación de momentos |p0 i de V, respectivamente. De tal modo
que:
Z ∞
Z
hr0 | r00 i =
d3 r ξr∗0 (r) ξr00 (r) = δ (r00 − r0 ) ⇒ 1 = d3 r0 |r0 i hr0 | ,
−∞
Z
Z ∞
Z ∞
1 −i(r0 ·p0 /~)
e
= δ (p00 − p0 ) ⇒ 1
= d3 p0 |p0 i hp0 | .
d3 r
d3 r vp∗00 (r) vp0 (r) =
hp0 | p00 i =
2π~
−∞
−∞
lim
Podemos entonces expresar el producto interno para la representación de coordenadas como:
Z
Z
3
d r0 |r0 i hr0 | |Ψi = d3 r0 φ∗ (r0 )ψ(r0 ) ,
hΦ |Ψi = hΦ|
{z
}
|
1
rP
re
y equivalentemente para la representación de momentos:
Z
Z
3
hΦ |Ψi = hΦ|
d p0 |p0 i hp0 | |Ψi = d3 p0 φ∗ (p0 )ψ(p0 ) ,
{z
}
|
1
por lo cual hemos encontrado que:
Z
|Ψi =
d3 r0 |r0 i hr0 | Ψi =
ψ(r0 ) = hr0 |Ψi
Z
d3 p0 |p0 i hp0 | Ψi ,
ψ(p0 ) = hp0 |Ψi ,
y
ad
o
que es la representación de |Ψi en coordenadas, ψ(r0 ), y en momentos, ψ(p0 ).
Adicionalmente cuando |Ψi = |pi tendremos que:
Z
Z
i
i
1
1
3 0
0
0
d3 r00 δ (r00 − r0 ) e ~ (p0 ·r0 ) =
e ~ (p0 ·r0 ) ,
hr0 |p0 i = hr0 |
d r0 |r0 i hr0 | |p0 i =
3/2
3/2
(2π~)
(2π~)
{z
}
|
1
Bo
rr
con lo cual ψ(p0 ) puede considerarse la transformada de Fourier de ψ(r0 ), y denotaremos de ahora en adelante las
bases |r0 i ≡ |ri y |p0 i ≡ |pi.
Estos ı́ndices continuos, r0 y p0 , representan tres ı́ndices continuos r (x, y, z) y p (px , py , pz ). La proyección
de un vector abstracto |Ψi en la representación |ri será considerada como su expresión en el espacio de coordenadas, igualmente su proyección hp |Ψi será su expresión en el espacio de los momentos. Eso nos permitirá hacer
corresponder los elementos de espacios vectoriales abstractos con elementos de un espacio vectorial de funciones.
Por lo tanto todas las fórmulas de proyección quedan como:
hr |Ψi = ψ(r)
y
hp |Ψi = ψ(p) .
mientras que las relaciones de cierre y ortonormalización son:
hr| r0 i = δ (r0 − r)
hp| pi = δ (p0 − p)
Z
y
1=
Z
y
1=
d3 r |ri hr| ,
d3 p |pi hp| .
Por su parte, la relación de cierre hará corresponder a la expresión del producto interno de dos vectores, tanto
en la representación de las coordenadas como en la representación de momentos, en una de la forma:
Z
Z
Z
Z
hΦ|
d3 r |ri hr| |Ψi = d3 r φ∗ (r) ψ(r) ∧ hΦ|
d3 p |pi hp| |Ψi = d3 p φ̄∗ (p) ψ̄(p) ,
3.4. ESPACIOS DE FUNCIONES
199
donde φ̄∗ (p) y ψ̄(p) son las transformadas de Fourier de φ∗ (r) y ψ(r), respectivamente. La afirmación anterior
queda evidentemente demostrada del cambio entre las bases |ri y |pi. Esto es:
1
∗
hr |pi = hp |ri =
(2π~)
i
3/2
e ~ (p·r) ,
por lo cual:
Z
d3 p |pi hp| |Ψi = d3 p hr |pi hp| Ψi =
Z
1
(2π~)
3/2
i
d3 p e ~ (p·r) ψ̄(p) ,
e inversamente:
ψ(p) = hp |Ψi = hp|
3
d r |ri hr| |Ψi =
Z
Z
1
3
d r hp |ri hr| Ψi =
3/2
Bo
rr
ad
o
rP
re
lim
(2π~)
i
d3 r e− ~ (p·r) ψ(r) .
in
Z
ar
Z
ψ(r) = hr |Ψi = hr|
200
CAPÍTULO 3. VECTORES DUALES Y TENSORES
3.4.5.
Ejemplos
1. Una distribución de carga eléctrica puede escribirse de manera sencilla utilizando la delta de Dirac a través
de la siguiente integral:
Z
q=
ρ(r)dV ,
V
ar
de manera que para una carga puntual localizada en r = r0 se tiene que:
Z
Z
ρ(r)dV ⇒ ρ(r) = qδ(r − r0 ) .
q = q δ(r − r0 )dV =
V
{z
}
|
=1
δ(αx) =
δ(x)
,
α
in
2. Demostremos que:
α > 0.
Z
∞
Z
∞
f (x)δ(αx)dx =
−∞
f
y
1
1
δ(y) dy =
α
α
α
−∞
por lo tanto: δ(αx) =
Z
∞
f
−∞
δ(x)
α .
lim
Entonces, haremos el siguiente cambio de variable: y = αx.
y
α
f (0)
=
α
δ(y)dy =
Z
∞
f (x)δ(x)dx ,
−∞
rP
re
La condición α > 0 es porque se debe tener en cuenta que la función delta de Dirac es par, es decir, δ(αx) =
δ(−αx). De manera que resulta más apropiado escribir:
δ(αx) =
3. Demostremos ahora que:
δ(g(x)) =
X δ(x − α)
|g 0 (α)|
α
,
δ(x)
.
|α|
g(α) = 0 ∧ g 0 (α) 6= 0 .
Podemos ver que para la función g(x), en los intervalos donde se hace cero, se tiene:
ad
o
g(x) ≈ g(α) + (x − α)g 0 (α) ,
−ε < α < ε .
De manera que si sumamos para todos esos intervalos:
Z ∞
Z
X Z α+ε
f (x)δ(g(x))dx =
f (x)δ ((x − α)g 0 (α)) dx =
−∞
α
∞
−∞
α−ε
f (x)
X δ (x − α)
α
|g 0 (α)|
Bo
rr
donde hemos utilizado el resultado del ejemplo anterior. Por lo tanto:
δ(g(x)) =
X δ (x − α)
α
|g 0 (α)|
.
4. Podemos ver la transformada de Fourier de la derivada de una función. Si
Z ∞
Z
(ik)n ∞
1
d
√
|f (x)i = √
F(k)eikx dk ⇒
|f
(x)i
=
F(k)eikx dk .
dxn
2π −∞
2π −∞
dx ,
3.4. ESPACIOS DE FUNCIONES
201
5. Encontremos la transformada de Fourier de la siguiente función:
nπ
ω0
nπ
ω0
La función f (t) representa un tren de ondas finito
con n ciclos en el intervalo dado, como se aprecia
en la figura 3.6.
Por el hecho de ser f (t) una función impar, podemos utilizar la transformada seno de Fourier:
Z nπ
ω0
2
√
f (t)sen(ωt) dt
|F(ω)i =
2π 0
Z nπ
ω0
2
= √
sen(ω0 t)sen(ωt) dt .
2π 0
Resolviendo la integral obtenemos la distribución espectral:
ar
t < − nπ
ω0 ∧ t >
in
0

− nπ
ω0 < t <
lim
f (t) =

 sen(ω0 t)
Figura 3.6: f (t) con: n = 6 y ω0 = π.
donde τ =
nπ
ω0 .
Se puede demostrar que los lı́mites:
rP
re
2 [ω0 sen (τ ω) cos (nπ) − ω cos (τ ω) sen (nπ)]
1
sin [τ (ω0 − ω)] sin [τ (ω0 + ω)]
√
|F(ω)i =
=√
−
,
2(ω0 − ω)
2(ω0 + ω)
2π (ω 2 − ω0 2 )
2π
lı́m |F(ω)i = lı́m |F(ω)i = 0 .
ω0 →∞
ω→∞
ad
o
Se puede apreciar también que el primer término, de la
expresión entre corchetes, es el de mayor relevancia debido
a que en el denominador aparece la diferencia: ω0 − ω.
En la Figura 3.7 se muestra la función de distribución y
en ella podemos notar que a medida que n crece la función
|F(ω)i es una delta de Dirac en ω = ω0 = π.
Por otro lado, es fácil ver que los ceros ocurren cuando:
Bo
rr
ω0 − ω
1
2
3
= ± ,± ,± ...
ω0
n n n
Figura 3.7: F(ω) con: n = 6 y ω0 = π.
202
CAPÍTULO 3. VECTORES DUALES Y TENSORES
3.4.6.
Practicando con Maxima
ar
Estudiaremos en este módulo como calcular transformadas integrales de Fourier con Maxima. Disponemos de
las siguientes funciones: fourint(f,x) que calcula y devuelve la lista de los coeficientes integrales de Fourier de f (x)
definida en el intervalo (−∞, ∞). La función fourintcos (f,x) que devuelve los coeficientes integrales de los cosenos
f (x) en (0, ∞) y la función fourintsin(f,x) que retorna los coeficientes integrales de los senos f (x) en (0, ∞)
Vamos a aclarar a que se refieren cuando se habla de los coeficientes integrales.
Para Maxima si f (x) es una función definida en (−∞, ∞) la transformada de Fourier exponencial es:
Z ∞
Z ∞
1
izx
f (x) e dx ⇔ f (x) =
f (x) e−izx dz .
F (f, z) =
2π −∞
−∞
in
Como vimos anteriormente podemos tener los siguientes casos:
lim
La función es par: f (−x) = f (x), entonces: F (f, −z) = F (f, z) y podemos utilizar la representación en
transformadas coseno de Fourier:
1
F (f, z) = Fcos (f, z) .
2
La función es impar: f (−x) = −f (x), entonces: F (f, −z) = −F (f, z) y podemos utilizar la representación en
transformadas seno de Fourier:
i
F (f, z) = Fsen (f, z) .
2
rP
re
La función no es par ni impar. Pero f (x) siempre se puede escribir como la suma de una función par f+ (x) y
una impar f− (x):
1
1
f (x) = f+ (x) + f− (x) = [f (x) + f (−x)] + [f (x) − f (−x)] ,
2
2
de manera equivalente:
1
i
Fcos (f+ , z) + Fsen (f− , z) .
2
2
F (f, z) = F (f+ + f− , z) =
Entonces, la librerı́a fourie lo que genera es la transformada de Fourier de la forma:
ad
o
F (f, z) =
i
1
a z + bz .
2
2
Veamos algunos ejemplos:
1. Consideremos la siguiente función par:
f = x2 e−|x| ,
con x ∈ (−∞, ∞) .
−∞
Bo
rr
Podemos intentar resolver la integral que define la transformada de Fourier de manera “manual” o directa:
Z ∞
x2 e−|x| e−ikx dx .
(%i1) f:x^2*exp(-abs(x));
( %o1) x2 e−|x|
(%i2) integrate(exp(-%i*k*x)*f,x,minf,inf);
Z
∞
( %o2)
x2 e−|x|−i k x dx
−∞
Lo que significa que el programa no supo resolverla. Intentemos ahora utilizar las funciones propias del
programa.
3.4. ESPACIOS DE FUNCIONES
203
(%i3) load(fourie)$
(%i4) fourint(f,x);
2
2
z 6 +3 z 4 +3 z 2 +1
( %t4) az =
−
6 z2
z 6 +3 z 4 +3 z 2 +1
π
ar
( %t5) bz = 0
( %o5) [ %t4, %t5]
(%i6) ratsimp(%t4),factor;
π (z 2 + 1)
in
( %o6) az = −
4 3 z2 − 1
3
lim
Esta es la notación que el programa utiliza para decirnos que la transformada es
"
#
4 3 k2 − 1
2 3 k2 − 1
1
−
F (k) =
=−
3
3 .
2
π (k 2 + 1)
π (k 2 + 1)
(%i17)fourintcos(f,x);
2
( %t7) az =
2
z 6 +3 z 4 +3 z 2 +1
−
π
( %o7) [ %t7]
rP
re
Notemos que el cálculo anterior se corresponde a la transformada coseno de Fourier:
6 z2
z 6 +3 z 4 +3 z 2 +1
(%i8) ratsimp(%t7),factor;
π (z 2 + 1)
3
ad
o
( %o8) az = −
4 3 z2 − 1
Podemos intentar resolver directamente la integral para la transformada coseno de Fourier. Para tal fin escribimos toda la expresión a resolver.
(%i9) Fz:ratsimp(1/%pi*integrate(cos(x*z)*f,x,0,inf)),factor;
rr
( %o9) −
2 3 z2 − 1
π (z 2 + 1)
3
Bo
Incluso podemos probar calculando la transformada inversa y verificar que los cálculos son correctos.
(%i10)integrate(exp(-%i*z*x)*Fz,z,minf,inf);
Is x positive, negative or zero? p;
( %o10) x2 e−x
(%i11)integrate(exp(-%i*z*x)*Fz,z,minf,inf);
Is x positive, negative or zero? n;
( %o11) x2 ex
2. Consideremos la siguiente función impar:
f = xe−|x| .
204
CAPÍTULO 3. VECTORES DUALES Y TENSORES
(%i12)f:x*exp(-abs(x));
( %o12) x e−|x|
(%i13)fourint(f,x);
( %t13) az = 0
π
(z 4
4z
+ 2 z 2 + 1)
ar
( %t14) bz =
( %o14) [ %t13, %t14]
4z
π (z 2 + 1)
2
lim
( %o15) bz =
in
(%i15)ratsimp(%t14),factor;
(%i16)fourintsin(f,x);
( %t16) bz =
π
(z 4
4z
+ 2 z 2 + 1)
rP
re
( %o16) [ %t16]
(%i17)ratsimp(%t16),factor;
( %o17) bz =
4z
π (z 2 + 1)
2
ad
o
Esto significa que la transformada seno de Fourier es:
"
#
i
4k
2i k
F (k) =
=
2 .
2 π (k 2 + 1)2
π (k 2 + 1)
Realicemos nuevamente el cálculo pero integrando para comparar.
(%i18)Fz:%i*ratsimp(1/%pi*integrate(sin(x*z)*f,x,0,inf)),factor;
2iz
π (z 2 + 1)
2
rr
( %o18)
Vamos a calcular la transformada inversa:
Bo
(%i19)integrate(exp(-%i*z*x)*Fz,z,minf,inf);
Is x positive, negative or zero? p;
( %o19) x e−x
(%i20)integrate(exp(-%i*z*x)*Fz,z,minf,inf);
Is x positive, negative or zero? n;
( %o20) x ex
3. Dada la siguiente función que no es par ni impar:
f (x) = (x − 1)e(−|x|) .
3.4. ESPACIOS DE FUNCIONES
205
(%i21)f:(x-1)*exp(-abs(x));
( %o21) (x − 1) e−|x|
(%i22)fourint(f,x);
( %t22) az = −
2
+ 1)
4z
( %t23) bz =
π (z 4 + 2 z 2 + 1)
ar
π
(z 2
(%i24)az:ratsimp(%t22),factor; bz:ratsimp(%t23),factor;
2
π
(z 2
+ 1)
4z
( %o25) bz =
2
π (z 2 + 1)
(%i26)Fz:1/2*rhs(az)+%i/2*rhs(bz),factor;
z2 − 2 i z + 1
π (z 2 + 1)
2
rP
re
( %o26) −
lim
( %o24) az = −
De nuevo, la transformada inversa para verificar:
(%i27)integrate(exp(-%i*z*x)*Fz,z,minf,inf);
Is x positive, negative or zero? p;
( %o27) (x − 1) e−x
ad
o
(%i28)integrate(exp(-%i*z*x)*Fz,z,minf,inf);
Is x positive, negative or zero? n;
( %o28) (x − 1) ex
(%i29)kill(all)$
rr
4. Resolvamos ahora el ejemplo 5 donde la función era:
f (t) = sen(ω0 t) .
Bo
(%i1) load(fourie)$
(%i2) f:sin(w0*t);
( %o2) sin (w0 t)
Como la función es impar, podemos intentar:
(%i3) fourintsin(f,t);
( %t3) bz =
z+w0 t)
−
2 lı́mt→∞ − sin(t
2 z+2 w0
π
sin(t z−w0 t)
2 w0−2 z
in
( %o23) [ %t22, %t23]
206
CAPÍTULO 3. VECTORES DUALES Y TENSORES
( %o3) [ %t3]
¡Intento fallido! Podemos probar resolviendo la integral.
(%i4) tau:n*%pi/w0;
Is nw0 positive, negative or zero? p;
√
nω
2 (w0 − ω) sin π n w0+π
+ (−w0 − ω) sin
w0
( %o5) −
√
2
π 2 w0 − 2 ω 2
π n w0−π n ω
w0
ar
(%i5) Fw:sqrt(2/%pi)*ratsimp(integrate(sin(t*omega)*f,t,0,tau));
in
Asignemos los valores numéricos a los parámetros:
(%i6) n:6$ w0:%pi$
lim
(%i7) Fw:ev(Fw);
2
√ πω
π2
+ (−ω − π) sin 6 π −6
2 (π − ω) sin 6 π ω+6
π
π
√
( %o7) −
π (2 π 2 − 2 ω 2 )
Grafiquemos ahora la transformada F (w):
rP
re
(%i8) wxplot2d([Fw], [omega,0,3*%pi])$
Bo
rr
ad
o
( %o8)
3.4.7.
Ejercicios
1. Si:

1
 0 x < − 2n
1
n − 2n < x <
δn (x) =

1
0 x < 2n
demuestre que:
Z
∞
f (0) = lı́m
n→∞
para f (x) continua en x = 0.
1
2n
f (x)δn (x)dx ,
−∞
3.4. ESPACIOS DE FUNCIONES
207
2. Para:
n
1
.
π 1 + n2 x2
δn (x) =
Demuestre lo siguiente:
∞
Z
δn (x)dx = 1 .
−∞
3. Si:
ar
2 2
n
δn (x) = √ e−n x .
π
Demuestre que:
4. Demuestre la siguiente relación:
Z
dδ(x)
= −δ(x) .
dx
in
x
∞
δ 0 (x)f (x)dx = −f (0) .
−∞
rP
re
a) Escriba las condiciones de ortogonalidad y cierre.
b) Demuestre:
R∞
1) −∞ sen(kx)sen(k 0 x)dx = πδ(k − k 0 ).
R∞
2) −∞ cos(kx) cos(k 0 x)dx = πδ(k − k 0 ).
R∞
3) −∞ sen(kx) cos(k 0 x)dx = 0.
lim
5. Dadas las siguientes funciones ortonormales:
1
1
√ sen(kx) , √ cos(kx) , con: 0 ≤ k < ∞ , −∞ ≤ x < ∞ .
a) |e(k, x)i =
π
π
1
√ eikx , con: − ∞ ≤ k < ∞ , −∞ ≤ x < ∞ .
b) |e(k, x)i =
2π
6. Demuestre que si:
n
,
π(1 + n2 x2 )
δn (x) =
entonces:
Z
∞
ad
o
δn dx = 1 .
−∞
7. Dada la siguiente sucesión de funciones:
δn (x) =
1
2nπ
sen(nx/2)
sen(x/2)
2
.
Bo
rr
Demuestre que δn (x) es una distribución delta de Dirac al calcular
"
2 #
Z ∞
1
sen(nx/2)
f (x)
dx = f (0) .
lı́m
n→∞ 2nπ −∞
sen(x/2)
8. Encuentre las transformadas de Fourier de las siguientes funciones:
a) f (x) =
 −x
 e ,

0,
x>0
b) f (x) =
x<0

 h(1 − a|x|) , |x| <
1
a
|x| >
1
a

0,
9. Dad F (k) como la transformada de Fourier, en tres dimensiones, de f (r) y Fd (k) la transformada de Fourier,
tridimensional, de ∇f (r). Demuestre que:
Fd (k) = −ik(k) .
10. Resuelva los ejercicios anteriores con Maxima.
CAPÍTULO 3. VECTORES DUALES Y TENSORES
Bo
rr
ad
o
rP
re
lim
in
ar
208
ar
Bibliografı́a
in
[1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición (Academic
Press, Nueva York)
[2] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva York)
lim
[3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York)
[4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:)
[5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition, London:
[6] Hauser, W (1971) Introduction to Principles of Electromagnetism (Addison-Wesley Pub Co Reading)
rP
re
[7] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Engineering
(Cambridge University Press)
[8] Santaló, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires)
[9] Schutz, B. (1980) Geometrical Methods in Mathematical Physics (Cambridge University Press, Londres)
Bo
rr
ad
o
[10] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York )
209
ad
o
rr
Bo
lim
rP
re
ar
in
210
BIBLIOGRAFÍA
ar
Capı́tulo 4
Bo
rr
ad
o
rP
re
lim
in
Matrices, determinantes y autovectores
211
212
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
La ruta de este capı́tulo
Operadores lineales
in
4.1.
ar
En el capı́tulo anterior definimos los funcionales lineales como un morfismo de un espacio vectorial lineal V a
un espacio unidimensional K. Esta misma idea se puede extender a morfismos de un espacio vectorial V1 a un
espacio vectorial V2 , sobre el mismo campo K. Desarrollaremos estos conceptos a través de los operadores lineales
en la sección 4.1, y en la sección 4.2 señalaremos algunos de los operadores lineales de mayor relevancia. En la
sección 4.3 estableceremos una correspondencia uno-a-uno entre operadores lineales y matrices y la dependencia
de ésta correspondencia con las bases del espacio vectorial. Luego, en la sección 4.4 presentaremos un conjunto de
matrices fundamentales junto con sus operaciones. En la sección 4.5, veremos algunos de los métodos más comunes
para la resolución de sistemas de ecuaciones lineales. Y para finalizar, las secciones 4.6 y 4.7 estarán dedicadas al
importante tema de la representación espectral de un operador: el problema de autovalores y autovectores.
|v 0 i = T |vi
lim
Definiremos como operador lineal (o transformación lineal) a una operación que asocia un vector |vi ∈ V1 un
vector |v 0 i ∈ V2 y que respeta la linealidad, es decir esta función de V1 → V2 cumple con:
T [α |v1 i + β |v2 i] = α T |v1 i + β T |v2 i ∀
/
|v1 i y |v2 i ∈ V1 .
(4.1)
Sencillamente, algo que actúe sobre una suma de vectores en V1 y que es equivalente a la suma de sus actuaciones
sobre los vectores suma, es decir, a la suma en V2 .
Podemos ilustrar este tipo de transformación con varios ejemplos:
T [(x, y, z)] = (x, 2y, 3z)
rP
re
1. Las siguientes transformaciones: |x0 i = T |xi → (x0 , y 0 , z 0 ) = T {(x, y, z)}, claramente son lineales
T [α (x1 , y1 , z1 ) + β (x2 , y2 , z2 )] = αT [(x1 , y1 , z1 )] + βT [(x2 , y2 , z2 )] ,
entonces:
T [(αx1 + βx2 , αy1 + βy2 , αz1 + βz2 )]
(αx1 + βx2 , 2 [αy1 + βy2 ] , 3 [αz1 + βz2 ])
ad
o
T {(x, y, z)} = (z, y, x)
= α (x1 , 2y1 , 3z1 ) + β (x2 , 2y2 , 3z2 )
=
(αx1 + βx2 , 2 [αy1 + βy2 ] , 3 [αz1 + βz2 ]) .
T [α (x1 , y1 , z1 ) + β (x2 , y2 , z2 )] = αT [(x1 , y1 , z1 )] + βT [(x2 , y2 , z2 )] ,
igual que en el caso anterior:
T {(αx1 + βx2 , αy1 + βy2 , αz1 + βz2 )}
=
α (z1 , y1 , x1 ) + β (z2 , y2 , x2 )
(αz1 + βz2 , αy1 + βy2 , αx1 + βx2 )
=
(αz1 + βz2 , αy1 + βy2 , αx1 + βx2 ) .
rr
2. Cosas tan sencillas como la multiplicación por un número es una transformación (u operador) lineal, esto es,
una transformación T : V → V tal que
Bo
T |vi = |v 0 i = λ |vi ⇒ T [α |vi + β |wi] = αT |vi + βT |wi = αλ |vi + βλ |wi .
Obviamente, si λ = 1 tenemos la transformación identidad que transforma todo vector en sı́ mismo; si λ = 0
tendremos la transformación cero, vale decir que lleva a todo |vi ∈ V a al elemento cero |0i.
3. La definición de producto interno también puede ser vista como una transformación (operador) lineal T : V →
R
T |vi = λ
hu |vi ≡ λ .
Otra vez:
T [α |vi + β |wi] = hu| [α |vi + β |wi] = α hu |vi + β hu |wi ,
por lo tanto es lineal. Esto implica que también la proyección de un determinado |vi ∈ V sobre un subespacio
S es un operador lineal, y lo denotaremos como:
[|si hs|] |vi = hs |vi |si = |vs i ,
con |si y |vs i ∈ S .
4.1. OPERADORES LINEALES
213
Esta idea se extiende fácilmente para un proyector T : Vm → Sn con m > n, de tal modo que para un vector
|vi ∈ Vm
Pm |vi ≡ |ui i ui m |vi = ui |vim |ui i = |vm i ,
con {hui |} una base de Sn . Es claro que estamos utilizando la convención de Einstein para la suma de ı́ndices.
una vez más,
in
a través de n × m números, aij , organizados de la siguiente forma:
i = 1, 2, · · · , m
i
i j
y = aj x
con
j = 1, 2, · · · , n
ar
4. Las ecuaciones lineales también pueden verse como transformaciones lineales. Esto es, considere una transformación lineal T : Vn → Vm . Por lo tanto asociaremos
|yi = T |xi ⇒ y 1 , y 2 , y 3 , · · · , y m = T x1 , x2 , x3 , · · · , xn ,
lim
T [α |vi + β |wi] = T α v 1 , v 2 , v 3 , · · · , v n + β w1 , w2 , w3 , · · · , wn = αaij v j + βaij wj
= T αv 1 + βw1 , αv 2 + βw2 , αv 3 + βw3 , · · · , αv n + βwn
j
= aij (αv + βw) = αaij v j + βaij wj = aij αv j + βwj .
5. La derivada es un operador lineal
→
|y 0 i = D |yi
→
D [y(x)] ≡
dy(x)
d
[y(x)] ≡
≡ y 0 (x) ,
dx
dx
rP
re
|v 0 i = T |vi
es claro que
D [αf (x) + βg(x)] = αD[f (x)] + βD[g(x)] ≡ αf 0 (x) + βg 0 (x) .
Igualmente podemos asociar un operador diferencial de cualquier orden a una derivada del mismo orden, esto
es
d2 y(x)
≡ y 00 (x) ,
dx2
d3 y(x)
|y 000 i = D3 |yi → D3 [y(x)] ≡
≡ y 000 (x) ,
dx3
..
.
E
dn y(x)
y (n)
= Dn |yi → Dn [y(x)] ≡
≡ y (n) (x) .
dxn
D2 |yi → D2 [y(x)] ≡
ad
o
|y 00 i =
rr
6. Del mismo modo, cualquier ecuación diferencial lineal es un ejemplo de operador lineal, digamos
y 00 − 3 y 0 + 2 y = D2 − 3D + 2 y(x) ,
es claro que si y(x) = αf (x) + g(x) la linealidad es evidente:
00
0
Bo
(αf (x) + g(x)) − 3 (αf (x) + g(x)) + 2 (αf (x) + g(x)) = α (f 00 − 3 f 0 + 2 f ) + g 00 − 3 g 0 + 2 g
↑↓
2
2
D − 3D + 2 (αf (x) + g(x)) = D − 3D + 2 αf (x) + D2 − 3D + 2 g(x) ;
7. La integral también es un operador lineal: g(x) =
Rx
a
f (t)dt T [f (t)].
8. Otros ejemplos tı́picos son los operadores de transformaciones integrales
Z b
F (s) =
K (s, t) f (t)dt T [f (t)] ,
a
donde K (s, t) es una función conocida de s y t, denominada el núcleo de la transformación. Si a y b son finitos
la transformación se dirá finita, de lo contrario infinita.
214
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
∞
Ası́, si f (t) = αf1 (t) + f2 (t) con f1 (t) y f2 (t) ∈ C[a,b]
es obvio que:
Z b
Z b
Z
K (s, t) [αf1 (t) + βf2 (t)] = α
K (s, t) f1 (t)dt + β
F (s) =
a
F (s)
a
= αF (s1 ) + βF (s2 )
b
K (s, t) f2 (t)dt ,
a
T [αf1 (t) + βf2 (t)] = αT [f1 (t)] + βT [f2 (t)] .
f (t) = T−1 {F (s)}
R∞
F (s) =
∞
Z
Fourier de senos y cosenos
0
F (s) =
Z
∞
−∞
Z
Hankel
∞
F (s) =
f (t) =
γ−i∞
est F (s)ds
∞
sen(st)
F (s)ds
cos(st)
0
Z
∞
e−ist F (s)ds
−∞
∞
Z
f (t) =
sJn (ts)F (s)ds
0
Z
∞
ts−1 f (t)dt
f (t) =
rP
re
F (s) =
0
4.1.1.
R γ+i∞
f (t) =
tJn (st)f (t)dt
0
Mellin
Z
eist f (t)dt
F (s) =
1
2πi
f (t) =
sen(st)
f (t)dt
cos(st)
0
Fourier compleja
e−st f (t)dt
lim
Laplace
in
F (s) = T {f (t)}
Nombre
ar
Dependiendo de la selección del núcleo y los limites tendremos distintas transformaciones integrales, en Fı́sica
las más comunes son:
1
2πi
R γ+i∞
γ−i∞
s−t F (s)ds
Espacio vectorial de operadores lineales
ad
o
Es posible construir un conjunto de operadores lineales {A, B, C · · · } : V1 →V2 y constituir un espacio vectorial
lineal si se dispone entre ellos de la operación suma y la multiplicación por un número. Ası́, claramente, dado
{A, B, C · · · }, y definida

 A [α |v1 i + β |v2 i] = α A |v1 i + β A |v2 i
(λA + B) |vi ≡ λA |vi + B |vi /

B [α |v1 i + β |v2 i] = α B |v1 i + β B |v2 i
es directo comprobar que:
(λA + B) [α |v1 i + β |v2 i] = λA [α |v1 i + β |v2 i] + B [α |v1 i + β |v2 i]
= λ (α A |v1 i + β A |v2 i) +α B |v1 i + β B |v2 i
rr
= λ (α A |v1 i +α B |v1 i) + β A |v2 i + β B |v2 i
= λα (A |v1 i + B |v1 i) + β (A |v2 i + B |v2 i) .
Igualmente, se cumple que (A + B) + C = A+ (B + C), con A, B y C lineales en V,
Bo
[(A + B) + C] |vi = (A + B) |vi + C |vi
∀
|vi ∈ V1
= A |vi + B |vi + C |vi
= A |vi + (B + C) |vi
= [A+ (B + C)] |vi ,
del mismo modo se puede comprobar fácilmente A + B = B + A.
Ahora bien, si definimos la transformación cero de V1 → V2 tal que O |vi = |0i ∀ |vi ∈ V1 , que asigna el vector
|0i ∈ V2 ∀ |vi ∈ V1 , entonces el operador lineal O será el elemento neutro respecto a la suma de operadores.
Finalmente, el elemento simétrico queda definido por
(−A) |vi = −A |vi ⇒ (A − A) |vi = O |vi = |0i .
Con ello queda demostrado que los operadores lineales forman un espacio vectorial el cual de ahora en adelante
denominaremos L (V1 , V2 ).
4.1. OPERADORES LINEALES
4.1.2.
215
Composición de operadores lineales
El producto o composición de dos operadores lineales, A y B se denotará AB y significará que primero se aplica
B y al resultado se aplica A. Esto es:
AB |vi = A (B |vi) = A |ṽi = |ṽ 0 i .
(AB) C = A (BC) ;
α (AB) = (αA) B = A (αB) ;
(A1 + A2 ) B = A1 B + A2 B ;
A (B1 + B2 ) = AB1 + AB2 .
ar
La composición de funciones cumple con las siguientes propiedades:
[A, B] = AB − BA /
lim
in
Es decir, que la composición de operadores es asociativa y distributiva a la suma y que conmuta respecto a la
multiplicación por números.
Por otro lado si I es el operador identidad: I |vi = |vi ⇒ AI = IA = A.
En general AB 6= BA, por lo tanto podemos construir el conmutador de estos operadores como:
[AB − BA] |vi = AB |vi − BA |vi .
Es inmediato comprobar algunas de las propiedades más útiles de los conmutadores:
[A, B] = − [B, A]
rP
re
[A, (B + C)] = [A, B] + [A, C]
[A, BC] = [A, B] C + B [A, C]
[A, [B, C]] = − [B, [C, A]] − [C, [A, B]] .
Un par de ejemplos inmediatos se derivan de la composición de operadores:
1. Potencias de operadores. Uno de los ejemplos más útiles en la composición de operadores lo constituyen
las potencias de los operadores, las cuales provienen de la aplicación consecutiva de un mismo operador,
A1 = A ;
A2 = AA ;
ad
o
A0 = I ;
A3 = A2 A = AAA · · ·
es claro que las potencias de operadores cumplen las propiedades estándares de las potencias de números
m
An+m = An Am ;
(An )
= Anm .
Dn P n−1 = |0i
dn
dn i Pn−1 (x) =
ai x = 0 ,
n
dx
dxn
Bo
rr
Llamaremos operadores nilpotentes de grado n a los operadores An 6= 0, del tipo An |vi = |0i ∀ |vi ∈ V1
y |0i ∈ V2 . Es decir, un operador que lleva cualquier vector |vi al elemento neutro de V2 . El ejemplo más
notorio es el operador diferencial
con P n−1 perteneciente al espacio de polinomios de grado n − 1.
∞
2. Operador ecuaciones diferenciales. Si consideramos el espacio de funciones f (x) ∈ C[a,b]
podemos construir
un operador diferencial
a0 + a1 D + a2 D2 + · · · + an Dn |f i ⇒
a0 + a1
d
d2
dn
+ a2 2 + · · · + an n
dx
dx
dx
f (x) ,
con {a0 , a1 , a2 , · · · an } coeficientes constantes. De este modo, por ejemplo:
D2 − 3D + 2 y = (D − 1) (D − 2) y ⇒
d2
d
−
3
+
2
y(x) = y 00 − 3 y 0 + 2 y .
dx2
dx
216
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
4.1.3.
Proyectores
ar
La notación de Dirac se hace particularmente conveniente para representar proyectores. Hasta ahora, hemos
relacionado un funcional lineal, un bra hw| del espacio dual V∗ , con un vector ket |vi del espacio vectorial directo V
a través de su producto interno hw| vi, el cual es, en general, un número complejo. Ahora escribiremos esta relación
entre vectores y formas diferenciales de una manera diferente: la relación entre hw| y |vi un ket |Ψi o un bra hΦ|
arbitrarios puede ser:

 |vi hw| Ψi
|vi hw| ⇒

hΦ |vi hw|
λ hw| = hλw| = hw| λ
hw| λ |vi = λ hw| vi = hw| vi λ
A |λvi = Aλ |vi = λA |vi .
y
lim
λ |vi = |λvi = |vi λ,
in
La primera será la multiplicación del vector |vi por el número complejo hw| Ψi, mientras que la segunda relación
será la multiplicación de la forma hw| por el complejo hΦ |vi. Es imperioso señalar que el orden en la escritura de
los vectores y formas es crı́tico, sólo los números complejos λ se pueden mover con impunidad a través de estas
relaciones.
Por lo tanto, dado un vector |vi, podemos construir un proyector P|vi a lo largo del vector |vi,
P|vi ≡ |vi hv| ,
con hv| vi = 1 ,
P|vi [α |z1 i + β |z2 i]
|vi hv| [α |z1 i + β |z2 i]
además:
P2|vi
rP
re
siempre y cuando este operador lineal cumpla:
= α P|vi |z1 i + β P|vi |z2 i ,
= |vi hv| α |z1 i + |vi hv| β |z2 i = α |vi hv |z1 i + β |vi hv |z2 i ,
= P|vi
P|vi P|vi |zi =
⇐⇒
(|vi hv|) (|vi hv|) = |vi hv|
(|vi hv|) (|vi hv|) |zi = |vi hv |vi hv |zi = |vi hv |zi = P|vi |zi .
| {z }
1
ad
o
Ası́, el operador P|vi actuando sobre el vector |Ψi representará la proyección de |Ψi a lo largo de |vi
P|vi |Ψi = |vi hv| Ψi ≡ hv| Ψi |vi .
Es inmediato construir un proyector de un vector sobre un subespacio Sq .
Sea: {|e1 i , |e2 i , |e3 i , · · · , |eq i} un conjunto ortonormal de vectores que expande Sq , por lo tanto, definiremos el
proyector Pq al proyector sobre el subespacio Sq de la forma:
q
,
rr
Pq = |ei i ei
es claro que ∀ |vi ∈ V se tiene:
Bo
δji
z }| {
P2q |vi = Pq Pq |vi ⇒ P2q |vi = |ei i ei q |ej i ej q |vi = |ei i ei |ej i ej |vi = |ej i ej |vi ≡ Pq |vi ,
es decir, P2q = Pq .
4.1.4.
Ejemplos
1. Dados dos operadores lineales tales que: AB = −BA,
A2 = I,
B2 = I y [A, B] = 2iC .
a) Mostraremos que: C2 = I y que [B, C] = 2iA.
[A, B]
= AB − BA = 2iC ⇒ 2AB = 2iC ⇒ ABAB = −C2 ⇒ −AABB = −C2 ⇒ I = C2
[B, C]
= −i (BAB − ABB) = 2iA ⇒ −i (BAB − A) = 2iA ⇒ −i (−BBA − A) = 2iA
4.1. OPERADORES LINEALES
217
b) Seguidamente, evaluamos [[[A, B] , [B, C]] , [A, B]].
[[[A, B] , [B, C]] , [A, B]]
=
[[2iC, 2iA] , 2iC] = 8 [[AB, iA] , AB] = 8i [(ABA − AAB) , AB]
=
8i [−2B, AB] = 16i (BAB − ABB) = 32iA .
2. Dados dos operadores vectoriales A y B que conmutan entre ellos y con L, tales que:
[A, B] = [A, L] = [L, B] = 0 .
ar
Demostramos entonces la relación:
[A · L, B · L] = i~ (A × B) · L .
Veamos:
in
[A · L, B · L] = i~εklm Al B m Lk = Al B m i~εklm Lk = Al B m [Ll , Lm ] = Al B m Ll Lm − Al B m Lm bm Ll
= Al Ll B m Lm − B m Lm Al Ll .
lim
3. En Mecánica Clásica la cantidad de momento angular viene definida como L = r × p. Para pasar a Mecánica
Cuántica se asocia r y p con los operadores posición y cantidad de movimiento los cuales, al operar sobre la
función de onda nos proveen:
∂
∂
hr |ψi = −i~
ψ(r)
hr| X |ψi = x hr |ψi = x ψ(r)
hr| Px |ψi = −i~
∂x
∂x
hr| Z |ψi = z hr |ψi = z ψ (r)
hr| Pz |ψi =
rP
re
hr| Y |ψi = y hr |ψi = y ψ (r)
∂
∂
hr| Py |ψi = −i~
hr |ψi = −i~
ψ(r)
∂y
∂y
−i~
∂
∂z
hr |ψi = −i~
∂
ψ(r) .
∂z
En coordenadas cartesianas, en la representación de coordenadas {|ri} tendremos que:
hr| R |ψi = r ψ(r)
y
hr| Px |ψi = −i~ ∇ ψ(r) .
ad
o
De forma que en Mecánica Cuántica las componentes cartesianas del operador cantidad de movimiento angular
son
hr| L |ψi = −i~ (r×∇) ψ(r) ,
hr| L |ψi = −i~
∂
∂
y
−z
∂z
∂y
∂
∂
∂
∂
ψ(r)i − i~ z
−x
ψ(r)j − i~ x
−y
ψ(r)k .
∂x
∂z
∂y
∂x
Bo
rr
Utilizando las definiciones anteriores mostraremos que el conmutador de las componentes cartesianas de la
cantidad de movimiento angular cumple con:
[Lx , Ly ] |ψi = i~Lz |ψi ,
donde: L1 = L1 = Lx ; L2 = L2 = Ly ; L3 = L3 = Lz . En general: [Ll , Lm ] = i~εlmn Ln .
Dado que:
[L1 , L2 ] |ψi = [Lx , Ly ] |ψi = (Lx Ly − Ly Lx ) |ψi ,
entonces:
∂
∂
∂
∂
∂
∂
∂
∂
−z
z
−x
− z
−x
y
−z
ψ(r]
∂z
∂y
∂x
∂z
∂x
∂z
∂z
∂y
∂
∂
∂
∂
∂
∂
=
y
z
−x
−z
z
−x
∂z
∂x
∂z
∂y
∂x
∂z
∂
∂
∂
∂
∂
∂
− z
−z
−z
y
+x
y
ψ (r) .
∂x
∂z
∂y
∂z
∂z
∂y
[Lx , Ly ] |ψi =
y
218
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
Con lo cual:
∂
∂
∂2
∂
2 ∂
[Lx , Ly ] |ψi =
yz
+y
− xy 2 − z
− zx
∂z∂x
∂x
∂z
∂y∂x
∂y∂z
∂
∂
∂
∂
∂
∂
2 ∂
−
zy
−z
− yx 2 − zx
−x
ψ(r) = y
−x
ψ(r) .
∂x∂z
∂y∂x
∂z
∂z∂y
∂y
∂x
∂y
Practicando con Maxima
1. Si tenemos la siguiente transformación, |x0 i = T |xi:
entonces, para que sea una transformación lineal debe satisfacer lo siguiente:
T [α |vi] = αT [|vi].
(%i1) f(x,y,z):=[2*x+y,x-z,x+y+z,y+z];
( %o1) f (x, y, z) := [2x + y, x − z, x + y + z, y + z]
rP
re
El lado derecho de la igualdad es:
lim
T [|v1 i + |v2 i] = T [|v1 i] + T [|v2 i].
in
T : R3 → R4 , T [(x, y, z)] = (2x + y, x − z, x + y + z, y + z) ,
ar
4.1.5.
(%i2) ld:f(x1+x2,y1+y2,z1+z2),factor;
( %o2) [y2 + y1 + 2 x2 + 2 x1 , − (z2 + z1 − x2 − x1 ) , z2 + z1 + y2 + y1 + x2 + x1 , z2 + z1 + y2 + y1 ]
El lado izquierdo,
(%i3) li:f(x1,y1,z1)+f(x2,y2,z2),factor;
ad
o
( %o3) [y2 + y1 + 2 x2 + 2 x1 , − (z2 + z1 − x2 − x1 ) , z2 + z1 + y2 + y1 + x2 + x1 , z2 + z1 + y2 + y1 ]
Por lo tanto:
(%i4) ld-li,ratsimp;
rr
( %o4) [0, 0, 0, 0]
Para la segunda condición
Bo
(%i5) f(alpha*x,alpha*y,alpha*z)-alpha*f(x,y,z);
( %o5) [−α (y + 2 x) + α y + 2 α x, −α z − α (x − z) + α x, −α (z + y + x) + α z + α y + α x,
−α (z + y) + α z + α y]
(%i6) factor(%);
( %o6) [0, 0, 0, 0]
2. Consideremos ahora la siguiente transformación, |x0 i = T |xi:
T : R3 → R3 , T [(x, y, z)] = x2 , y + z, z 2 .
4.1. OPERADORES LINEALES
219
(%i7) f(x,y,z):=[x^2,y+z,z^2];
( %o7) f (x, y, z) := [x2 , y + z, z 2 ];
El lado derecho:
( %o8)
ar
(%i8) ld:f(x1+x2,y1+y2,z1+z2),factor;
h
i
2
2
(x2 + x1 ) , z2 + z1 + y2 + y1 , (z2 + z1 )
in
El lado izquierdo:
( %o9)
2
x2 + x1 2 , z2 + z1 + y2 + y1 , z2 2 + z1 2
Por lo tanto:
(%i10)ld-li,ratsimp;
rP
re
( %o10) [2 x1 x2 , 0, 2 z1 z2 ]
lim
(%i9) li:f(x1,y1,z1)+f(x2,y2,z2),factor;
No es una transformación lineal.
3. Dadas las siguientes transformaciones de R3 → R3 :
A [(x, y, z)] = (2x − z, x + z, x) , B [(x, y, z)] = (z, x, y) .
Veamos si conmutan, es decir, [A, B] = AB − BA = 0. Podemos ver que AB = A[B |xi] = (2z − y, z + y, z) y
BA = B[A |xi] = (x, 2x − z, x + z).
ad
o
(%i11)A(x,y,z):=[2x-z,x+z,x];
( %o11) A(x, y, z) := [2x − z, x + z, x]
(%i12)B(x,y,z):=[z,x,y];
rr
( %o12) B(x, y, z) := [z, x, y]
(%i13)[x,y,z]: [z, x, y];
Bo
( %o13) [x, y, z] : [z, x, y]
(%i14)AB:A(x,y,z);
( %o14) [2z − y, z + y, z]
(%i15)kill(x,y,z);
( %o15) done
(%i16)[x,y,z]:[2*x-z, x+z,x];
( %o16) [2x − z, z + x, x]
220
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
(%i17)BA:B(x,y,z);
( %o17) [x, 2x − z, z + x]
(%i18)AB-BA;
ar
( %o18) [2 z − y − x, 2 z + y − 2 x, −x]
4.1.6.
in
Por lo tanto no conmutan.
Ejercicios
lim
1. Diga si las siguientes transformaciones, |x0 i = T |xi son lineales
a) T : R3 → R2 , T [(x, y, z)] = (x + y, x + z).
b) T : R3 → R3 , T [(x, y, z)] = (x, y, y + z).
c) T : R3 → R3 , T [(x, y, z)] = (x, x + y, x − y).
d ) T : R3 → R4 , T [(x, y, z)] = (x + y, x + z, 2x + y + z, y − z).
rP
re
e) T : R3 → R3 , T [(x, y, z)] = (sen(x), cos(y), 0).
2. Cuál de las siguientes transformaciones definidas sobre V3 son lineales
a) T |xi = |xi + |ai donde |ai es un vector constante diferente de cero.
b) T |xi = |ai.
c) T |xi = ha |xi |ai.
d ) T |xi = ha |xi |xi.
ad
o
3. Considere las siguientes operaciones en el espacio de los polinomios en x y diga si corresponden a transformaciones lineales:
a) La multiplicación por x.
b) La multiplicación por x2 .
b) La diferenciación.
4. Suponga que AB = BA. Demuestre que:
2
a) (A + B) = A2 + 2AB + B2 .
3
rr
b) (A + B) = A3 + 3A2 B + 3AB2 + B3 .
¿Cómo cambian las fórmulas anteriores si AB 6= BA?
Bo
5. Suponga que un operador L puede ser escrito como la composición de otros dos operadores L = L− L+ con
[L− , L+ ] = I. Demostrar que:
Si L |xi = λ |xi
y
|yi = L+ |xi
entonces
L |yi = (λ + 1) |yi
y
|zi = L− |xi
entonces
L |zi = (λ − 1) |zi .
y, del mismo modo, demuestre que:
Si L |xi = λ |xi
Por ello es costumbre denominar a L+ y L− los operadores de “subidas” y de “bajada” respectivamente, ya
que ellos construyen otros vectores con autovalores mayores (menores) en una unidad al vector operado.
6. Resuelva los problemas anteriores utilizando Maxima.
4.2. TIPOS DE OPERADORES
4.2.
221
Tipos de operadores
A : V1 → V2 ⇒ A |vi = |v 0 i , con
|vi ∈ V1 y |v 0 i ∈ V2 .
ar
Discutiremos en esta sección algunas de las propiedades más resaltantes que caracterizan a los operadores lineales.
Además, tal y como están definidas las transformaciones lineales tiene sentido estudiar si ellas poseen la caracterı́stica
de ser: inyectivas, sobreyectivas y biyectivas. Las transformaciones lineales tendrán nombres particulares para cada
uno de estos casos.
Como ya fue señalado, una transformación lineal es una función, aplicación, operador o mapeo cuyos dominios
y rangos son subconjuntos de espacios vectoriales y que hemos simbolizado como:
Espacio nulo e imagen de un operador
lim
4.2.1.
in
En en lenguaje de la teorı́a de conjuntos a los elementos |v 0 i ∈ V2 se les denomina la imagen de |vi debido
a A. Si S es un subconjunto de V1 , entonces al conjunto de todas la imágenes, que denotaremos por A(S), se le
denomina la imagen de S debido a la aplicación de A en V1 . A la imagen del dominio de V1 , A{V1 }, se le llama
el rango de A y es un subespacio de V2 .
El conjunto de todos los |vi ∈ V1 / A |vi = |0i, se denomina espacio nulo, núcleo o kernel (núcleo en alemán)
de la transformación A y lo denotaremos como ℵ (A). En sı́mbolos diremos que:
ℵ (A) = {|vi ∈ V1 ∧ A |vi = |0i} .
rP
re
Adicionalmente, ℵ (A) ⊂ V1 , es decir, será un subespacio de V1 . La prueba de esta afirmación es inmediata.
Dados |v1 i , |v2 i ∈ ℵ (A), con A un operador lineal, es claro que:

A |v1 i = |0i 
⇒ α1 A |v1 i + α2 A |v2 i = |0i = A (α1 |v1 i + α2 |v2 i) ,

A |v2 i = |0i
por la misma razón se tiene que el elemento neutro está contenido en ℵ (A), esto es:
A |α vi = |0i ∀ |vi ∈ V1 ∧ ∀ α ∴ A |0i = |0i
si
α = 0,
ad
o
por lo tanto, queda demostrado que ℵ (A) es un subespacio de V1 .
Por otra parte, definiremos la imagen (rango o recorrido) de A, y la denotaremos como:
A {V} = {|v 0 i ∈ V2
∧
A |vi = |v 0 i} ,
rr
igualmente = (A) ⊂ V2 también será un subespacio de V2 ya que si |vi = α1 |v1 i + α2 |v2 i y dado que A es un
operador lineal, se cumple que:


Bo


A α1 |v1 i + α2 |v2 i = α1 A |v1 i + α2 A |v2 i = α1 |v10 i + α2 |v20 i .
{z
}
| {z }
| {z } |
{z
}
|
|vi
|v 0 i
|v10 i
|v20 i
Es claro que si V es de dimensión finita n, el rango A {V} también será de dimensión finita n y tendremos:
dim [ℵ (A)] + dim [A {V}] = dim [V] ,
vale decir, que la dimensión del núcleo más la dimensión del recorrido o imagen de una transformación lineal es
igual a la dimensión del dominio.
Para demostrar esta afirmación supongamos que dim [V] = n y que {|e1 i , |e2 i , |e3 i · · · |ek i} ∈ V es una base de
ℵ (A), donde k = dim [ℵ (A)] ≤ n.
Como el conjunto: {|e1 i , |e2 i , |e3 i · · · |ek i} ∈ V, entonces estos elementos forman una base y por lo tanto, son
linealmente independientes. Ademas, necesariamente estos vectores formarán parte de una base mayor de V, esto
es: {|e1 i , |e2 i , |e3 i , · · · , |ek i , |ek+1 i , · · · , |ek+r−1 i , |ek+r i} ∈ V será una base de V, donde k + r = n.
El esquema de la demostración será el siguiente:
222
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
primero probaremos que los r elementos {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} forman una
base para A {V}. Esto significa que estarı́amos probando que: dim{A {V}} = r, k + r = n, y por lo tanto
(4.2.1).
luego hay que demostrar que los elementos {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} son linealmente independientes.
ar
Si los r elementos {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} expanden A {V} entonces cualquier
elemento
|wi ∈ A {V} / |wi = A |vi = C i |Aei i , con |Aei i = A |ei i .
Ahora bien, analicemos con cuidado los lı́mites de la suma implı́cita del ı́ndice i = 1, 2, · · · , k + r
|wi = C i |Aei i = C 1 |Ae1 i + C 2 |Ae2 i + · · · + C k |Aek i + C k+1 |Aek+1 i + · · · + C k+r |Aek+r i .
|
{z
}
ya que A|e1 i=A|e2 i=A|e3 i···=A|ek i=|0i
in
=|0i
lim
Por lo tanto {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} expanden A {V}.
Ahora bien, para demostrar que son base, demostraremos que son linealmente independientes. Para ello supondremos que:
k+1 k+2
∃
C
,C
, · · · , C k+r / C i |Aei i = 0 , con i = k + 1, k + 2, · · · , k + r ,
y tenemos que demostrar que C k+1 = C k+2 = · · · = C k+r = 0.
Entonces
C i |Aei i = C i A |ei i = A C i |ei i = 0 , con i = k + 1, k + 2, · · · , k + r ,
rP
re
esto significa que el elemento |vi = C i |ei i ∈ ℵ (A), con i = k + 1, k + 2, · · · , k + r.
Con lo cual, dado que:
∀ |vi ∈ ℵ (A) , |vi = C i |ei i , con i = 1, 2, · · · , r ,
entonces se puede hacer la siguiente resta:
|vi − |vi =
k
X
i=1
C i |ei i −
k+r
X
C i |ei i = |0i ,
i=k+1
ad
o
y como los {|e1 i , |e2 i , |e3 i , · · · , |ek i , |ek+1 i , · · · , |ek+r−1 i , |ek+r i} son una base de V entonces resulta que los coeficientes: C k+1 = C k+2 = · · · = C k+r = 0.
Si el espacio vectorial V es de dimensión infinita, entonces al menos uno de los dos subespacios ℵ (A) o A {V}
será de dimensión infinita.
A continuación ejemplificaremos algunos casos que ilustran lo que representa un espacio nulo.
1. Transformación identidad: Sea I : V1 →V2 , la transformación identidad, entonces
∀
|vi ∈ V1 / I |vi = |vi ⇒ ℵ (I) = {|0i} ⊂ V1 ∧ A {V} ≡ V1 .
Bo
rr
2. Sistemas de ecuaciones lineales: En Vn las soluciones a los sistemas de ecuaciones lineales representan el
espacio nulo, ℵ (A), para vectores de Vn


  
A11 A12 · · · A1n
x1
0
 A21 A22
  x2   0 
·
·
·


  
A |xi = |0i  .
  ..  =  ..  Aij xi = 0 ,
..
 ..


.
.   . 
An1 An2
Ann
xn
0
con j ecuaciones (j = 1, 2, · · · , n). Recordemos que estamos utilizando la convención de Einstein para suma
de ı́ndices.
2
3. Ecuaciones diferenciales ordinarias: Sea C[−∞,∞]
el espacio vectorial de todas las funciones continuas
2
doblemente diferenciables. Definimos A : C[−∞,∞] → C[−∞,∞] como la transformación lineal D2 − 1 tal que
2
para todas las y(x) ∈ C[−∞,∞]
se cumple:
2
d
−
1
y(x) = y 00 − y = 0 .
A |xi = |0i D2 − 1 y(x) = 0 dx2
El núcleo o espacio nulo de A, ℵ (A), lo constituye el conjunto de soluciones para la mencionada ecuación
diferencial. Por lo tanto, el problema de encontrar las soluciones de la ecuación diferencial es equivalente a
encontrar los elementos del núcleo de A.
4.2. TIPOS DE OPERADORES
4.2.2.
223
Operadores biyectivos e inversos
Se dice que A : V1 →V2 es biyectiva (uno a uno o biunı́voco) si dados |v1 i , |v2 i ∈ V1 , ∧ |v 0 i ∈ V2 , se tiene que:
A |v1 i = |v 0 i ∧ A |v2 i = |v 0 i ⇒ |v1 i = |v2 i ,
in
ar
es decir, será biyectiva si A transforma vectores distintos de V1 en vectores distintos de V2 .
Más aún, se puede afirmar que una transformación lineal A, será biyectiva si y sólo si ℵ (A) = {|0i}. Vale decir,
si el subespacio nulo está constituido, únicamente por el elemento neutro del espacio vectorial.
La demostración es sencilla. Supongamos que A es biyectiva y que A |vi = |0i, entonces |vi = |0i, es decir,
A |0i = |0i, por consiguiente ℵ (A) = {|0i}. Recı́procamente, si



ℵ (A) = {|0i} 


∧
⇒ A |v1 i − A |v2 i = |0i = A |v1 i − |v2 i ⇒ |v1 i = |v2 i .

| {z }
A |v1 i = A |v2 i
|v1 i−|v2 i=0
rP
re
lim
La importancia de las transformaciones lineales biyectivas reside en la posibilidad de definir inversa, debido a
que siempre existe en V2 un vector |v 0 i asociado a través de A con un vector |vi ∈ V1 . Diremos que A−1 : V2 →V1
es el inverso de A, si A−1 A = I = AA−1 .
Habrı́a que hacer un par de comentarios al respecto. El primero es que, tal y como hemos enfatizado arriba,
en general, los operadores no conmutan entre si, y los inversos no son una excepción. Es decir, deberı́a existir (y
de hecho existen) inversas por la izquierda A−1 A e inversas por la derecha AA−1 . Por simplicidad e importancia
en Fı́sica obviaremos esta dicotomı́a y supondremos que A−1 A = I = AA−1 . El segundo comentario tiene que ver
con la existencia y unicidad del inverso de un operador lineal. Algunos operadores tienen inverso, otros no, pero
aquellos que tienen inverso, ese inverso será único.
Supongamos:

A−1
1 A |vi = |vi 
−1
−1
−1
−1
∧
⇒ A−1
A |vi ⇒ A−1
1 A |vi − A2 A |vi = |0i = A1 − A2
1 = A2 .

|
{z
}
−1
A2 A |vi = |vi
−1
−1
A1 =A2
ad
o
Ahora bien, un operador lineal A tendrá inverso si y sólo si para cada vector |v 0 i ∈ V2 ∃ |vi ∈ V1 / A |vi = |v 0 i.
Es decir, cada vector |v 0 i está asociado con uno y sólo un vector |vi a través de la transformación lineal A. Dejaremos
sin demostración esta afirmación pero lo importante es recalcar que para que exista inverso la transformación lineal
A, tiene que ser biyectiva y esto implica que se asocia uno y sólo un vector de V1 con otro de V2 .
Diremos que dos espacios vectoriales V1 , V2 son isomorfos si existe una transformación
A : V1 → V2
⇒
|v 0 i = A |vi ,
denominada isomorfismo1 , tal que:
1. A es biyectiva.
rr
2. A es lineal: A [α |v1 i + β |v2 i] = α A |v1 i + β A |v2 i
∀
|v1 i y |v2 i ∈ V1 .
Bo
El que A sea biyectiva nos garantiza que existe la transformación inversa A−1 , que también será biyectiva. Es
decir, podrı́amos hablar de manera equivalente de una transformación F : V2 → V1 . Volveremos a este tema más
adelante.
Todavı́a podemos añadir algunas demostraciones que resultan ser consecuencias de las afirmaciones anteriores.
Sea la transformación lineal A : V1 → V2 y supongamos además que A ∈ L (V1 , V2 ). Entonces las siguientes
afirmaciones son válidas y equivalentes:
1. A es biyectiva en V1 .
2. A es invertible y su inversa A−1 : A {V1 } → V1 es lineal.
3. ∀ |vi ∈ V1 , A {|vi} = |0i ⇒ |vi = |0i. Esto es, el espacio nulo ℵ (A) únicamente contiene al elemento neutro
de V1 .
1 Se dice que una transformación lineal es un monomorfismo si A es inyectiva, un epimorfismo si A es sobreyectiva y un isomorfismo
si es biyectiva.
224
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
Si ahora suponemos que V1 tiene dimensión finita, digamos dim [V1 ] = n, las siguientes afirmaciones serán
válidas y equivalentes:
1. A es biyectiva en V1 .
2. Si {|u1 i , |u2 i , |u3 i , · · · , |un i} ∈ V1 son linealmente independientes, entonces, el conjunto de transformaciones
lineales: {A {|u1 i} , A {|u2 i} , A {|u3 i} , · · · , A {|un i}} ∈ A {V1 } también será linealmente independiente.
3. dim [A {V1 }] = n.
Operadores adjuntos
in
4.2.3.
ar
4. Si {|e1 i , |e2 i , |e3 i , · · · , |en i} ∈ V1 es una base de V1 , entonces {A {|e1 i} , A {|e2 i} , A {|e3 i} , · · · , A {|en i}} ∈
A {V1 } es una base de A {V1 }.
|vi ⇐⇒ hv|
⇒
lim
En la sección 4.1, definimos la acción de un operador lineal A : V → W de tal forma que A |vi = |v 0 i. En esta
sección definiremos los operadores A† : V∗ → W∗ , de tal forma que hv 0 | = hv| A† , donde V∗ y W∗ son los duales
de V y W, respectivamente. Diremos que el operador A† es el adjunto de A2 .
Entonces, discutimos en la sección 3.1.1, a cada vector (ket) |vi le está asociado una forma lineal (bra) hv|, a
cada ket transformado A |vi = |v 0 i le corresponderá un bra transformado hv 0 | = hv| A† . En pocas palabras:
|v 0 i = A |vi ⇐⇒ hv 0 | = hv| A† .
Si A es lineal, A† también lo será, dado que a un vector |wi = λ1 |z1 i + λ2 |z2 i le corresponde un bra hw| =
λ∗1 hz1 | + λ∗2 hz2 |.3 Por lo tanto, |w0 i = A |wi = λ1 A |z1 i + λ2 A |z2 i , por ser A lineal, entonces
rP
re
|w0 i ⇐⇒ hw0 | ≡ hw| A† = (λ∗1 hz1 | + λ∗2 hz2 |) A† ≡ λ∗1 hz10 | + λ∗2 hz20 | = λ∗1 hz1 | A† + λ∗2 hz2 | A† .
Es claro que a partir de la definición de producto interno tendremos:
∗
hx̃| yi = hy| x̃i
Esta última relación
∀
hx| A† |yi = hy| A |xi
†
∗
|x̃i = A |xi , |yi ∈ V ⇒ hx| A† |yi = hy| A |xi ∀ |xi , |yi ∈ V .
∗
∀ |xi , |yi ∈ V ,
(4.2)
†
nos permite asociar A con A. Esto es, conociendo las propiedades de A las extendemos a A y es a partir de esta
relación que podemos deducir las propiedades de los operadores adjuntos:
†
†
†
†
A† = A , (λA) = λ∗ A† , (A + B) = A† + B† , (AB) = B† A† .
ad
o
Esta última propiedad es fácilmente demostrable y es educativa su demostración. Dado que |v 0 i = AB |vi, y
además se tiene que:

|v̄i = B |vi 
†
⇒ hv 0 | = hv̄| A† = hv| B† A† = hv| (AB) .

0
|v i = A |v̄i
rr
A partir de las propiedades anteriores se deriva una más útil relacionada con el conmutador,
†
[A, B] = − A† , B† = B† , A† .
Las conclusiones a las que llegamos resultan ser que, para obtener el adjunto de una expresión, se debe proceder
de la siguiente manera:
Bo
Cambiar constantes por sus complejas conjugadas λ λ∗ .
Cambiar los kets por sus bras asociados y viceversa (bras por kets): |vi hv|.
Cambiar operadores lineales por sus adjuntos A† A.
Inviertir el orden de los factores.
†
De este modo (|vi hw|) = |wi hv| , que se deduce fácilmente de la consecuencia de la definición de producto
interno
†
∗
∗
∗
hx| |vi hw| |yi = hy| (|vi hw|) |xi = hy| |vi hw| |xi = hx| |wi hv| |yi .
2 En la literatura también encontrarán que A† es el hermı́tico conjugado de A, pero hemos creı́do conveniente llamarlo únicamente el
adjunto de A para evitar confusiones con operadores hermı́ticos.
3 La correspondencia es antilineal, note la conjugación de los números λ y λ .
1
2
4.2. TIPOS DE OPERADORES
4.2.4.
225
Operadores hermı́ticos
Existe un conjunto de operadores que se denominan hermı́ticos o autoadjuntos. Un operador hermı́tico (o
autoadjunto) será aquel para el cual su adjunto es el mismo operador: A† = A4 . Entonces, a partir de (4.2)
tendremos:
∗
hx| A† |yi ≡ hx| A |yi = hy| A |xi .
4.2.5.
ar
Estos operadores juegan el rol de los números reales en el sentido de que son “iguales a su propio complejo conjugado”
y se utilizan como los observables en la Mecánica Cuántica. Claramente los proyectores son operadores autoadjuntos
†
por construcción: P†|vi ≡ (|vi hv|) = |vi hv| .
Operadores unitarios
in
Por definición, un operador será unitario si su inversa es igual a su adjunto: U−1 = U† ⇒ U† U = UU† = I.
De estos operadores podemos decir varias cosas:
lim
Las transformaciones unitarias dejan invariante al producto interno y consecuentemente la norma de vectores
y esto se demuestra fácilmente. Dados dos vectores |xi , |yi sobre los cuales actúa un operador unitario

|x̃i = U |xi 
⇒ hỹ |x̃i = hy| U† U |xi = hy |xi .

|ỹi = U |yi
Es claro que si A es hermı́tico, A† = A, el operador U = eiA es unitario.
†
rP
re
U = eiA ⇒ U† = e−iA = e−iA ⇒ UU† = eiA e−iA = I = U† U = e−iA eiA .
El producto de dos operadores unitarios también es unitario. Esto es, si U y V son unitarios entonces:
†
†
(UV) (UV) = V† U
U V = V† V = I
|{z}
I
⇔
†
†
(UV) (UV) = U† V
V U = U† U = I
|{z}
I
La invariancia del producto interno implica que los operadores unitarios aplican una base ortogonal en otra:
U
{|ei i} −
→ {|ẽi i}. Veamos, si {|ei i} es una base para V entonces:
4.2.6.
⇒ ẽi |ẽj i = ẽi U |ej i = ei U† U |ej i = ei |ej i = δji .
ad
o
|ẽj i = U |ej i
Funciones de operadores
Para construir funciones de operadores lineales, procedemos por analogı́a, basándonos en el primero de los
ejemplos de la sección 4.1.2. Vale decir que se puede construir un “polinomio” en potencias de los operadores a
partir de la idea:
Pn (x) = a0 + a1 x + · · · + an xn = ai xi Pn (A) |vi = [a0 + a1 A + · · · + an An ] |vi = ai Ai |vi , ∀ |vi ∈ V1 .
Bo
rr
Si nos saltamos todos los detalles de convergencia de la serie anterior –los cuales dependerán de los autovalores de
A y de su radio de convergencia– y nos inspiramos en el desarrollo de una función F (z) como una serie de potencias
de z en un cierto dominio, es posible expresar la función de un operador, F (A), como una serie de potencias del
operador A, esto es:
F (z) = ai z i F (A) |vi = ai Ai |vi .
Tal y como se hace en el caso de funciones, “desarrollamos por Taylor” la función como una serie de potencias del
operador:
"∞
#
∞
X
X
zn
An
(n)
(n)
F (z) =
f (0)
F (A) |vi =
f (0)
|vi ,
(4.3)
n!
n!
n=0
n=0
de esta manera podemos expresar la exponencial de un operador A, como
"∞
#
X An
A2
An
A
e |vi =
|vi = I + A +
+ ··· +
· · · |vi .
n!
2!
n!
n=0
4 Si
A† = −A el operador lineal se denomina antihermı́tico.
226
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
En este caso hay que hacer una acotación, dado que, en general, [A, B] 6= 0 ⇒ eA eB 6= eB eA 6= eA+B . Esta afirmación
se corrobora de manera inmediata al desarrollar las exponenciales:
#" ∞
#
"∞ ∞
#
"∞
X Bm
X X An Bm
X An
|vi =
|vi ,
eA eB |vi =
n!
m!
n! m!
m=0
n=0 m=0
n=0
"∞ ∞
#
#
∞
X X Bn Am
X
Am
|vi =
|vi ,
m!
n! m!
n=0 m=0
m=0
#"
y sólo en el caso en que [A, B] = 0
in
se tiene
"∞
#
X (A + B)n
eA+B |vi =
|vi ,
n!
n=0
ar
∞
X
Bn
e e |vi =
n!
n=0
"
B A
4.2.7.
Diferenciación de operadores
lim
es decir, si [A, B] = 0 ⇒ eA eB = eB eA = eA+B . La demostración no es inmediata y la haremos al final de la próxima
sección en la cual desarrollaremos el concepto de derivada de operadores.
rP
re
Distinguiremos dos casos en la diferenciación de operadores: uno cuando el operador depende de una variable y
A(t)
diferenciamos respecto esa variable, dedt |vi y otro cuando diferenciamos respecto al operador mismo: dFdB(B) .
Empecemos por considerar operadores A(t), es decir que pueden depender de una variable arbitraria t. Podremos
entonces definir la derivada como:
dA(t)
A (t + ∆t) − A(t)
= lı́m
.
∆t→0
dt
∆t
Como era de esperarse, con esta definición se cumplirán todas las propiedades de las derivadas de funciones5 .
Empecemos por considerar el caso más simple: A(t) = At, el operador dependen linealmente de la variable t. Si
At
queremos conocer la expresión para dedt , para este caso elemental recordemos que
"∞
#
"
#
2
n
X (At)n
(At)
(At)
eAt |vi =
|vi = I + At +
+ ··· +
· · · |vi ,
(4.4)
n!
2!
n!
n=0
ad
o
por lo tanto, tendremos:
"∞
#
"∞
#
"∞
#
"∞
#
n
X d (At)n X ntn−1 An
X tn−1 An−1
d X (At)
deAt
|vi =
|vi =
|vi =
|vi =
A |vi .
dt
dt n=0 n!
dt
n!
n!
(n − 1)!
n=0
n=0
n=0
|
{z
}
eAt
deAt
|vi = eAt A |vi ≡ AeAt |vi
dt
⇒ eAt , A = 0 .
Bo
rr
Nótese que la suma es hasta infinito, por lo tanto, al cambiar de ı́ndice p = n − 1, p sigue variando hasta infinito y
la serie es la misma que la anterior. Finalmente, obtendremos6 :
En general también es fácil demostrar que [F (A), A] = 0 ya que a partir del desarrollo (4.3) se hace evidente
!
!
∞
∞
X
X
An
An
(n)
(n)
f (0)
A≡A
f (0)
,
n!
n!
n=0
n=0
Ahora bien, cuando se presenta la siguiente situación:
d eAt eBt
deAt Bt
deBt
|vi =
e |vi + eAt
|vi = AeAt eBt |vi + eAt BeBt |vi = eAt AeBt |vi + eAt eBt B |vi ,
dt
dt
dt
5 Más adelante, en la sección 4.3.6 consideraremos la expresión matricial de los operadores y serán evidentes estas propiedades que
aquı́ presentamos sin mayores justificaciones.
6 Es inmediato comprobarlo si consideramos la expansión 4.4
4.2. TIPOS DE OPERADORES
227
hay que cuidar el orden en
el cual
se presentan lo operadores. En particular en la expresión anterior hemos utilizado
que siempre se cumple eBt , B = 0, pero no hemos supuesto (ni conocemos) nada de [A, B]. Si, adicionalmente,
[A, B] = 0 podremos factorizar eAt eBt y tendremos
d eAt eBt
|vi = (A + B) eAt eBt |vi ,
dt
ar
pero si [A, B] 6= 0, el orden de aparición de los operadores es MUY importante.
Para construir la expresión de la derivada de una función de operador respecto a su argumento, probaremos la
siguiente afirmación:
dF (B)
.
(4.5)
Si [A, [A, B]] = [B, [A, B]] = 0 ⇒ [A, F (B)] = [A, B]
dB
in
Esta relación es fácilmente demostrable si suponemos [A, B] = I, el operador identidad. Obviamente aquı́ se
cumple que: [A, B] = I ⇒ [A, [A, B]] = [B, [A, B]] = 0 .
En ese caso es facil demostrar que ABn − Bn A = nBn−1 :
n
lim
· · · B}A
· · · B}A = (I + BA) BB
· · · B} − BB
ABn − Bn A = ABB
· · · B}−BB
| {z
| {z
| {z
| {z
n
n−1
n
· · · B} − BB
· · · B}A
= I Bn−1 + B (I + BA)BB
| {z
| {z
n
n−2
= 2Bn−1 + B2 (I + BA)BB
· · · B} − BB
· · · B}A = · · · = nBn−1 .
| {z
| {z
n
n−3
rP
re
Para demostrar la relación (4.5) “desarrollamos en serie de Taylor” la función F (B) en el conmutador
"
#
∞
∞
∞
∞
X
X
X
X
Bn
[A, Bn ]
nBn−1
Bn−1
fn
fn
fn
fn
[A, F (B)] = A,
=
= [A, B]
= [A, B]
n!
n!
n!
(n − 1)!
n=0
n=0
n=0
n=0
dF (B)
.
dB
= [A, B]
?
Para el caso más general: si [A, C] = [B, C] = 0 con C = [A, B] ⇒ [A, F (B)] = [A, B] dFdB(B) , se procede del
mismo modo. Probamos primero que:
con C = [A, B] ⇒ [A, Bn ] = ABn − Bn A = n [A, B] Bn−1 .
Tendremos:
ad
o
si [A, C] = [B, C] = 0 ,
ABn − Bn A = ABB
· · · B}−BB
· · · B}A = (C + BA) BB
· · · B} − BB
· · · B}A
| {z
| {z
| {z
| {z
n
n−1
rr
= CB
n−1
n
+ B (C + BA)BB
· · · B} − BB
· · · B}A
| {z
| {z
n−1
= 2CB
Bo
n
n−2
n
n−1
+ B (C + BA)BB
· · · B} − BB
· · · B}A = · · · = nCBn−1 = n[A, B] B
| {z
| {z
2
n
n−3
con lo cual es inmediato demostrar que:
"
#
∞
∞
∞
∞
X
X
X
X
Bn
[A, Bn ]
nBn−1
Bn−1
[A, F (B)] = A,
fn
=
fn
= [A, B]
fn
= [A, B]
fn
n!
n!
n!
(n − 1)!
n=0
n=0
n=0
n=0
= [A, B]
dF (B)
.
dB
La fórmula de Glauber
Ahora estamos en capacidad de demostrar limpiamente la fórmula de Glauber:
1
eA eB = eA+B e 2 [A,B] .
,
228
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
Para demostrarla, procedemos a considerar un operador F(t) = eAt eBt , por lo tanto:
dF(t)
deAt eBt
|vi =
|vi = AeAt eBt |vi + eAt BeBt |vi = A + eAt Be−At eAt eBt |vi
dt
dt
= A + eAt Be−At F(t) |vi .
Ahora bien, dado que: [A, [A, B]] = [B, [A, B]] = 0 ⇒ [A, F (B)] = [A, B] dFdB(B) ,
es decir:
dF(t)
dt
ar
entonces: eAt , B = t [A, B] eAt ⇒ eAt B = BeAt + t [A, B] eAt ,
|vi = A + eAt Be−At F(t) |vi = (A + B + t [A, B]) F (t) |vi ,
n
o
2
(A+B)t+ t2 [A,B]
,
in
por tanteo uno puede darse cuenta que: F(t) = e
4.2.8.
Ejemplos
lim
cumple con la ecuación anterior, por lo tanto absorbiendo t en los operadores correspondientes llegamos a la fórmula
1
de Glauber: eA eB = eA+B e 2 [A,B] .
1. Sean A y B dos operadores hermı́ticos y un operador unitario definido como: U = A + iB.
Mostraremos que [A, B] = 0 y A2 + B2 = I.
Comenzamos con [A, B] = 0:
†
†
rP
re
UU† = U† U = (A + iB) (A + iB) = (A + iB) (A + iB) ⇒ (A + iB) (A − iB) = (A − iB) (A + iB)
BA − AB = −BA + AB ⇒ [B, A] = −[B, A] ⇒ [B, A] = 0 .
Continuamos con la segunda de las afirmaciones, que se puede demostrar, a partir de:
†
UU† = I ⇒ (A + iB) (A + iB) = (A + iB) (A − iB) = A2 + B2 + i (BA − AB) ⇒ I = A2 + B2 .
2. Un operador cantidad de movimiento generalizado se define como aquel conjunto de operadores hermı́ticos
que cumplen con:
[Jy , Jz ] = i~Jx
ad
o
[Jx , Jy ] = i~Jz
[Jz , Jx ] = i~Jy ,
es decir
[Ji , Jj ] = i~ijk Jk ,
con ijk el sı́mbolo de Levy-Civita (Aquı́ los ı́ndices repetidos NO indican suma).
Adicionalmente, definimos los siguientes operadores:
J2 = J2x + J2y + J2z ;
J+ = Jx + iJy
J− = Jx − iJy .
Demostremos que: J2 , J+ = J2 , J− = J2 , Jz = 0 .
Bo
rr
Para probar esta propiedad se puede demostrar de forma genérica que J2k , Jm = 0, donde los ı́ndices k, m =
1, 2, 3 ≡ x, y, z, esto es
2
Jk , Jm = [Jk Jk , Jm ] = Jk Jk Jm − Jm Jk Jk = Jk Jk Jm − (i~mkl Jl + Jk Jm ) Jk .
Notemos que [Ji , Jj ] = i~ijk Jk ⇒ Jm Jk = i~mkl Jl + Jk Jm , y que hemos realizado esa sustitución en el
segundo de los términos de arriba. Desarrollando y realizando una sustitución equivalente obtenemos:
2
Jk , Jm = Jk Jk Jm − i~mkl Jl Jk − Jk (i~mkn Jn + Jk Jm ) ,
y claramente J2k , Jm = 0, por cuanto los ı́ndices no suman pero si son mudos, y mkl = −mlk .
2
Jk , Jm = Jk Jk Jm − i~mkl Jl Jk − i~mkn Jk Jn − Jk Jk Jm ,
al conmutar los cuadrados de las componentes con cualquiera de las componentes, y dado que los conmutadores
son lineales, entonces queda demostrado que:
2
J , J± = J2x + J2y + J2z , Jx ± iJy = J2y , Jx + J2z , Jx ± i J2x , Jy ± i J2z , Jy = 0 .
4.2. TIPOS DE OPERADORES
4.2.9.
229
Practicando con Maxima
Consideremos la siguiente transformación lineal:
T : R3 → R4 , T [(x, y, z)] = (2x + y, x − z, x + y + z, y + z) .
Podemos preguntarnos si es una transformación biyectiva, para averiguarlo calculemos el núcleo de la transformación. Hagamos entonces lo siguiente:
ar
(%i1) solve([2*x+y=0,x-z=0,x+y+z=0,y+z=0],[x,y,z]);
( %o1) [[x = 0, y = 0, z = 0]]
( %o2) [[x = − %r1 , y = %r1 , z = %r1 ]]
.
lim
(%i2) solve([x+y=0,x+z=0,2*x+y+z=0,y-z=0],[x,y,z]);
in
De manera que ℵ (T) = (0, 0, 0) ∈ R3 y la transformación es biyectiva. Consideremos ahora la transformación
lineal:
T : R3 → R4 , T [(x, y, z)] = (x + y, x + z, 2x + y + z, y − z)
rP
re
Por lo tanto ℵ (T) = {(−λ, λ, λ) , λ ∈ R}. En este caso, la transformación no es biyectiva. Notemos que el vector
|ei = (−1, 1, 1) resulta ser el vector base para subespacio vectorial núcleo, por lo tanto, la dimensión de este espacio
vectorial es: dim [ℵ (T)] = 1. Como veremos más adelante una base en el espacio imagen o rango es el conjunto:
{T [(1, 0, 0)] , T [(0, 1, 0)] , T [(0, 0, 1)]}.
Por lo tanto, podemos hacer los siguientes cálculos:
(%i3) T(x,y,z):=[x+y,x+z,2*x+y+z,y-z];
( %o3) T (x, y, z) := [x + y, x + z, 2x + y + z, y − z]
ad
o
(%i4) M:matrix(T(1,0,0),T(0,1,0),T(0,0,1))$


1 1 2 0
( %o4) 1 0 1 1 
0 1 1 −1
La función triangularize devolverá una matriz equivalente, pero en la forma triangular superior de la matriz
M, obtenida por eliminación gaussiana.
rr
(%i5) triangularize(M);


1 1
2 0
( %o5) 0 −1 −1 1
0 0
0 0
Bo
4
Eso significa que una base
para
el rango T{R } será: {(1, 1, 2, 0) , (0, −1, −1, 1)}, es decir, la dimensión se éste
4
= 2.
subespacio vectorial es dim T R
Por lo tanto:
dim [ℵ (T)] + dim T R4 = dim R3 ⇒ 1 + 2 = 3 .
Consideremos ahora el siguiente espacio vectorial V3 = {(x, y, z) : x + y + z = 0} en R3 , y la siguiente
transformación lineal de V3 → V3
F (x, y, z) = (x + y + z, x + y − z, 2z) ,
(%i6) F(x,y,z):=[x+y+z,x+y-z,2*z];
( %o6) F (x, y, z) := [x + y + z, x + y − z, 2z]
Ahora bien, para obtener el núcleo de la transformación resolvemos
230
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
(%i7) linsolve([x+y+z=0,x+y-z=0,2*z=0],[x,y,z]);
solve: dependent equations eliminated: (1)
( %o7) [x = %r1 , y = − %r1 , z = 0]
La solución es: x = C, y = −C y z = 0, por lo tanto, una base para el espacio ℵ [F ] es: {(1, −1, 0)}.
Si ahora evaluamos la transformación F para la base canónica resulta lo siguiente:
in
ar
(%i8) Img:matrix(F(1,0,0),F(0,1,0),F(0,0,1));


1 1 0
( %o8) 1 1 0
1 −1 2
lim
Reduciremos la matriz anterior pero esta vez con la función echelon, que al igual que triangularize devuelve
la forma escalonada de la matriz M , obtenida por eliminación gaussiana, pero normalizando el primer elemento no
nulo de cada fila.
(%i9) echelon(Img);


1 1 0
( %o9) 0 1 −1
0 0 0
rP
re
Es decir, una base para el espacio imagen o rango es el conjunto: {(1, 1, 0), (0, 1, −1)}.
Podemos también calcular una base para V3 = {(x, y, z) : x + y + z = 0}
(%i10)linsolve(x+y+z=0,[x,y,z]);
( %o10) [x = − %r3 − %r2 , y = %r3 , z = %r2 ]
Es una solución del tipo: x = −C3 − C2 , y = C3 y z = C2 . Una base vendrá dada por: {(−1, 1, 0), (−1, 0, 1)}. Si
evaluamos la transformación dada en esta base, resulta:
ad
o
(%i11)matrix(F(-1,1,0),F(-1,0,1));
0 0 0
( %o11)
0 −2 2
El espacio vectorial tiene como base {(0, −2, 2)}.
4.2.10.
Ejercicios
rr
1. Considere los siguientes operadores: A = A† hermı́tico, K = −K† antihermı́tico; U−1 = U† unitario, P y Q
dos operadores genéricos. Pruebe las siguientes afirmaciones:
Bo
a) En general:
−1
†
1) P†
= P−1 .
−1
2) (PQ) = Q−1 P−1
3) Si [P, Q] = 0, entonces P(Q)−1 = (Q)−1 P
b) Si A es hermı́tico entonces à = U−1 AU también será un operador hermı́tico.
c) Si K es antihermı́tico entonces K̃ = U−1 KU es también lo será. En particular eso se cumple para K̃ = iA.
Es decir, podemos construir un operador antihermı́tico a partir de uno hermı́tico.
d ) Dados dos operadores A y B, hermı́ticos, su composición AB, será hermı́tica si y sólo si A y B conmuntan.
e) Si S es un operador real y antisimétrico7 y I el operador unidad, pruebe:
1) Los operadores (I − S) y (I + S) conmutan.
7 Esto
es S† ≡ ST = −S con ST el traspuesto de S.
4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES
231
−1
1
1
C + C† +
C − C† .
2
2
donde C + C† representa su parte hermı́tica y C − C† su parte antihermı́tica.
4.3.
Representación matricial de operadores
in
C=
ar
2) El operador (I − S) (I + S) es simétrico, mientras que (I − S) (I + S) es ortogonal.8
cos(θ) sen(θ)
f ) Considere una matriz ortogonal de la forma R =
, encuentre la expresión para S
−sen(θ) cos(θ)
−1
que reproduce R = (I − S) (I + S) .
√
2. Si un operador lineal C genérico, entonces pruebe que C + C† y i C − C† , con i = −1, serán hermı́ticos.
Esto, obviamente implica que siempre podremos separar un operador lineal como:
lim
Dados dos vectores |v1 i y |v2 i definiremos como el elemento de matriz del operador A al producto interno de
dos vectores
hv2 | (A |v1 i) ≡ A(|v1 i,|v2 i) ,
(4.6)
rP
re
es claro que A(|v1 i,|v2 i) será en general un número complejo, pero además el valor de ese número dependerá de los
vectores |v1 i y |v2 i con los cuales se haga la operación (4.6).
El paso más importante para asociar un conjunto de números a un operador lo constituye realizar la operación
(4.6) con los elementos de una base del espacio vectorial donde opera A.
Supongamos un operador lineal A en el espacio vectorial de transformaciones lineales L (V,W) donde dim (V) =
n y dim (W) = m, y sean {|e1 i , |e2 i , |e3 i , · · · , |en i} y {|ẽ1 i , |ẽ2 i , |ẽ3 i , · · · , |ẽm i} bases ortonormales9 para V y W
respectivamente.
Entonces en la ecuación (4.6) cada uno de los vectores A |ei i ∈ W nos conduce a:
β
β
ẽβ A |ei i = Aα
i ẽ |ẽα i = Ai
con i = 1, 2, .., n y α , β = 1, 2, .., m .
(4.7)
ad
o
Las cantidades Aβj son la representación del operador A respecto a las bases {|en i} y {|ẽm i} de V y W respectivamente. Es decir, definiremos una matriz Aβj como un arreglo de números donde el superı́ndice, β, indica fila y
el subı́ndice, j, columna:
 1 

 1
A1
A1 A12 · · · A1n
2 
 A21 
 A21 A22
A
n




A11 A12 · · · A1n .
Aβj =  .
 ,  ..  ,
.
.
.
 . 
 .

.
An1
An2
Ann
An1
Bo
rr
Es importante señalar que cambiando el orden de los vectores dentro de la base cambia la representación matricial
del operador. Esto significa que la organización de los número Aβj dependerá del orden que le demos a los vectores
en las bases {|ei i} y {|ẽi i}.
Definitivamente, las matrices son uno de los objetos más útiles de las matemáticas que permiten “aterrizar”
conceptos y calcular cantidades. La palabra matriz fue introducida en 1850 por James Joseph Sylvester10 y su teorı́a
desarrollada por Hamilton11 y Cayley12 . Si bien los fı́sicos las consideramos indispensables, no fueron utilizadas de
manera intensiva hasta el aparición de la Mecánica Cuántica alrededor de 1925.
es AT = A−1 con AT el traspuesto de A.
hemos mencionado con anterioridad, las bases no necesariamente deben ser ortogonales (o mejor ortonormales), pero uno
siempre puede ortogonalizarlas (y ortonormalizarlas)
10 James Joseph Sylvester (1814-1897 Londres, Inglaterra) Además de sus aportes con Cayley a la teorı́a de las matrices, descubrió la
solución a la ecuación cúbica y fue el primero en utilizar el término discriminante para categorizar cada una de las raı́ces de la ecuación.
Para vivir tuvo que ejercer de abogado durante una década. Por fortuna, otro matemático de la época (Arthur Cayley) frecuentaba los
mismos juzgados y tribunales y pudieron interactuar. Por ser judı́o tuvo cantidad de dificultades para conseguir trabajo en la Academia.
11 Sir William Rowan Hamilton (1805 - 1865, Dublin, Irlanda) Sus contribuciones en el campo de la óptica, dinámica del cuerpo rı́gido,
teorı́a de ecuaciones algebraicas y teorı́a de operadores lineales.
12 Arthur Cayley (1821, Richmond, 1895, Cambridge, Inglaterra) En sus cerca de 900 trabajos cubrió casi la totalidad de las áreas
de las matemáticas de aquel entonces. Sus mayores contribuciones se centran el la teorı́a de matrices y la geometrı́a no euclidiana. No
consiguió empleo como matemático y tuvo que graduarse de abogado para ejercer durante más de 15 años, durante los cuales publicó
más de 250 trabajos en matemáticas.
8 Esto
9 Como
232
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
4.3.1.
Álgebra elemental de matrices
El álgebra de operadores que definimos en la sección 4.1.1, puede ser traducida al lenguaje de matrices. Por
comodidad supondremos un único espacio vectorial, V ≡ W y, por lo tanto nos basta una base ortogonal {|en i}.
De este modo, es claro que se obtienen nuevamente las conocidas relaciones para matrices cuadradas

A1n + Bn1
A2n + Bn2 

.

n
n
An + B n
in
Con lo cual tenemos la suma de matrices que todos hemos visto en los cursos básicos
  1
  1
 1
A1 + B11 A12 + B21 · · ·
B1 B21 · · · Bn1
A1 A12 · · · A1n
2
2
2
2
2
2
2
2
2
 2

 A1 A2
Bn 
An 
  A1 + B 1 A2 + B 2
  B1 B2

=
 +  ..
 ..
..
..
..
..
..
 
  .
 .
.
.
.
.
.
An1 + B1n
B1n B2n
Ann
An1 An2
Ann
ar
ei A + B |ej i = ei A |ej i + ei B |ej i = Aij + Bji .
An1
An2
Ann


 
 
=
 
A1k B1k
A2k B1k
..
.
rP
re
que se traduce en la tradicional multiplicación de matrices:
 1
  1
B1 B21 · · · Bn1
A1 A12 · · · A1n
2 
 A21 A22

Bn2
An   B12 B22

×

 ..

.
.
..
..
 .
  ..
.
lim
De igual modo, para la representación de composición de operadores que consideramos en la sección 4.1.2
tendremos:
ei AB |ej i = ei A I B |ej i = ei A |ek i ek B |ej i = ei A |ek i ek B |ej i = Aik Bjk ,
B1n
B2n
Ann
Ank B1k
A1k B2k
A2k B2k
..
.
···
..
.

A1k Bnk
A2k Bnk 

,

Ank Bnk
como ya sabı́amos AB 6= BA → Aik Bjk 6=Bki Akj .
Finalmente, es claro que la multiplicación de un número por una matriz es la multiplicación de todos sus
elementos por ese número
ei αA |ej i = α ei A |ej i = αAij .
4.3.2.
Bases y la representación matricial de operadores
ad
o
Como es claro de la ecuación (4.7) la representación matricial de un operador depende de las bases de V y W,
respectivamente. A continuación discutiremos algunos ejemplos particulares.
Representación diagonal
rr
Dado un operador lineal A ∈ L (V,W), donde dim (V) = dim (W) = n, y sea {|ei i} una base ortonormal para
V y W. Entonces, si adicionalmente se da el caso que A |ei i = λi |ei i , la representación matricial será diagonal
ej A |ei i = Aji = ej |ei i = λi δij .
Bo
Es importante señalar que λi δij , en la ecuación anterior, no se puede interpretar como suma, sino sencillamente
que se repite para cada ı́ndice i. Adicionalmente, que esta afirmación también es válida para dim (V) 6= dim (W)
pero por simplicidad seguimos trabajando con matrices cuadradas.
Representación matricial de operadores adjuntos y hermı́ticos
Consideremos la representación matricial de un operador adjunto, tal y como lo desarrollamos en la sección
4.2.3,
∗
i
∗
A† j = ei A† |ej i = ej A |ei i = Aji
,
vale decir: la matriz que representa el operador adjunto A† , es la traspuesta conjugada de la matriz que representa
al operador A.
i
Si el operador es hermı́tico: A† = A ⇒ A† j = Aij . Por lo tanto, las matrices hermı́ticas son simétricas
respecto a la diagonal y los elementos de la diagonal son números reales.
4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES
233
Aquı́ vale la pena reexpresar, con matrices, algunas de las propiedades que arriba expusimos:
† †
i † ∗ †
A† → ei A† |ej i = A† j = Aji
= Aij y
∗
†
∗
(λA) → ei λA† |ej i = ej λA |ei i = λ∗ ej A |ei i = λ∗ ei A† |ej i = λ∗ A† ,
pero más interesante es:
4.3.3.
†
= (Ajk )∗ (Bik )∗ = (A† )kj (B † )ik = (B † )ik (A† )kj =→ B† A† .
ar
†
†
(AB) → ei (AB) |ej i = Aik Bjk
Representación matricial y transformaciones
Ski
lim
in
Hemos dicho que dada una una base particular en el espacio de acción de un operador, éste quedará representado
por una matriz adaptada a esa base. Por lo tanto, si cambiamos la base que genera la representación, ese mismo
operador tendrá otra matriz como representación.
Por comodidad volvamos a suponer un único espacio vectorial, V ≡ W, pero ahora supondremos que este espacio
vectorial V tiene dos base discretas ortonormales {|ei i} y {|ẽi i}. Entonces las representaciones matriciales de A:
Ãij = ẽi A |ẽj i y Aij = ek A |em i, están relacionadas por:
(4.8)
ẽi A |ẽj i = ẽi |ek i ek A (|em i hem |) |ẽj i = ẽi |ek i ek A |em i hem |ẽj i ⇔ Ãij = Ski Akm S̃jm ,
| {z }
| {z }
S̃jm
rP
re
donde Ãij es la representación del operador A en la base {|ẽj i} y Akm en la base {|em i}.
Más aún, siempre podremos expresar unos vectores base en términos de los otros de tal forma que:
−1
n
n
n m
|ẽj i = S̃jm |em i = S̃jm (Sm
|ẽn i) ⇒ hẽn |ẽj i = δjn = S̃jm Sm
≡ Sm
S̃j
⇒ S̃ji = Sji
,
(4.9)
con lo cual la relación (4.8), Ãij = Ski Akm S̃jm , puede ser reescrita como
Ãij = Ski Akm
Sjm
−1
⇔
à = SAS−1
⇒
A = S−1 ÃS.
(4.10)
ad
o
Diremos que dos representaciones matriciales Aij y Ãkm , de un mismo operador A, son similares si están relacionadas entre si por (4.10), donde la matriz de transformación Ski y su inversa se construyen a partir de los
productos internos de las bases. Esa misma afirmación se puede refrasear por el hecho que dos operadores à y A
están relacionados por una transformación de similaridad (4.10) constituyen distintas representaciones de un mismo
operador.
∗
Adicionalmente, por la definición de producto interno, ek |ẽm i = hẽm |ek i y tomando en cuenta (4.9), tendremos:
k
∗
k
k −1
S̃m
= (Skm ) ≡ S † m = Sm
,
rr
es decir, las matrices de productos internos que transforman las representaciones matriciales de los operadores, son
unitarias y la relación (4.8) puede escribirse también como:
m
(4.11)
Ãij = Ski Akm S̃jm ⇔ Ãij = Ski Akm S † j .
Bo
En este caso, diremos que las representaciones matriciales de A están relacionadas a una transformación unitaria
del tipo (4.11).
4.3.4.
Traza de operadores
La traza, Tr (A), de un operador A es la suma de los elementos diagonales de su representación matricial A.
Esto es, dado un operador A y una base ortogonal {|ei i} para Vn , entonces:
Tr (A) = ek A |ek i = Akk .
La traza de la representación matricial de un operador es, por ejemplo:


1 2 3
Aij =  4 5 6  ⇒ Tr (A) = Aii = 15 .
7 8 9
234
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
Propiedades de la Traza
Claramente la traza es lineal: Tr (A+λB) = Tr (A) + λTr (B), ya que
Tr (A + λB) = ek A + λB |ek i = ek A |ek i + λ ek B |ek i = Tr (A) + λTr (B) .
La traza de un producto conmuta, esto es, Tr (AB) = Tr (BA), y es fácilmente demostrable:
I
ar
Tr (AB) = ek AB |ek i = ek A|em i hem |B |ek i = ek B|em i hem |A |ek i = Tr (BA) .
| {z }
| {z }
I
in
Recuerde que ek B |em i y ek A |ek i son números que pueden ser reordenados. Donde una vez más hemos
utilizado las dos relaciones de cierre |ẽm i hẽm | = |ek i ek = I.
Del mismo modo es fácil demostrar que la traza de un triple producto de matrices respeta la ciclicidad del orden
de la matrices en el producto: Tr (ABC) = Tr (BCA) = Tr (CAB).
lim
Invariancia de la Traza
La traza de una matriz no depende de la base que seleccionemos, es un invariante que caracteriza al operador
independientemente de la base en la cual se represente. Entonces, a partir de (4.8) tendremos:
Akk = ek A |ek i = ek |ẽm i hẽm | A |ek i = hẽm | A|ek i ek ẽm i = hẽm | A |ẽm i = Ãm
m.
| {z }
| {z }
I
rP
re
I
Nótese que primero hemos introducido |ẽm i hẽm |, luego hemos reubicado el término ek |ẽm i, para el lado derecho
y, finalmente, hemos identificado el término |ek i ek como el operador unidad. Es claro que la traza caracteriza al
operador independiente de su representación matricial.
4.3.5.
Un paréntesis determinante
ad
o
El determinante de un operador, A, se define como una aplicación de su representación matricial, ei A |ej i en
R, es decir, asocia un número real con la representación matricial del operador, y se define como:
det |A| = εijk··· A1i A2j A3k · · · ≡
A11
A21
..
.
A12
A22
An1
An2
···
..
A1n
A2n
,
.
Ann
Bo
rr
donde los elementos de la representación matricial se expresan como Aij = ei A |ej i y hemos generalizado el tensor
de Levi-Civita que presentamos en la sección 1.4.1, de tal forma que:

 0, si cualesquiera dos ı́ndices son iguales
1, si los ı́ndices i, j, k · · · constituyen una permutación cı́clica de 1, 2, 3 · · · n
εijk··· = εijk··· =

−1, si los ı́ndices i, j, k · · · constituyen una permutación anticı́clica de 1, 2, 3 · · · n
Un ejemplo simplificado de esta asociación para el caso de representaciones matriciales 3 × 3 es el siguiente:
A11
i

A21
e A |ej i =
A31

A12
A22
A32

A13
A23  ⇒ det |A| = εijk A1i A2j A3k =
A33
A11
A21
A31
A12
A22
A32
A13
A23
A33
,
con lo cual
det |A| = ε123 A11 A22 A33 + ε312 A13 A21 A32 + ε231 A12 A23 A31 + ε132 A11 A23 A32 + ε321 A13 A22 A31 + ε213 A12 A21 A33
= A11 A22 A33 + A13 A21 A32 + A12 A23 A31 − A11 A23 A32 − A13 A22 A31 − A12 A21 A33 .
4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES
235
Propiedades de los determinantes
1. det |A| = det |AT |, donde AT es el operador traspuesto de A, esto es claro para las representaciones matriciales
T
ei A |ej i = Aij = ej A |ei i .
Esta propiedad proviene de la definición del ı́ndice de Levi-Civita: det |A| = εijk··· A1i A2j A3k · · · = εijk··· Ai1 Aj2 Ak3 · · · =
det |AT | , que se traduce en que si se intercambian filas por columnas el determinante no se altera.
A12
A22
A32
A13
A23
A33
=
A11
A12
A13
A21
A22
A23
A31
A32
A33
.
ar
A11
A21
A31
2. Si dos filas o dos columnas son idénticas el determinante se anula
A1i A2i A3k
εiik··· Ai1 Ai2 Ak3
··· =
··· = 0,
A11
A11
A31
⇔
A12
A12
A32
A13
A13
A33
in
ε
iik···
= 0.
lim
3. Si multiplicamos una fila o una columna por un número, el determinante queda multiplicado por el número
εijk··· A1i λA2j A3k · · · = λεijk··· A1i A2j A3k · · · = λ det |A|
εijk··· Ai1 Aj2 λAk3 · · · = λεijk··· Ai1 Aj2 Ak3 · · · = λ det |A| ,
A11
A21
A31
rP
re
de aquı́ claramente se desprende que si una fila o una columna es cero (λ = 0) el determinante se anula. Más
aún, si dos filas o dos columnas son proporcionales A1i = λA2j el determinante se anula, por cuanto se cumple
la propiedad anterior:
λA12
λA22
λA32
Resulta obvio que:
A13
A23
A33
=
A11
A21
λA31
0
0
0
A13
A23
A33
A11
A21
A31
ad
o
al igual que:
A11
A21
A31
λA11
λA21
λA31
A13
A23
A33
=
A11
λA11
A31
A12
λA12
A32
A12
A22
λA32
=
A13
λA13
A33
A11
A21
0
=λ
A13
A23
λA33
A12
A22
0
A11
A21
A31
=λ
A11
A21
A31
A13
A23
0
= 0,
A11
A21
A31
A13
A23
A33
A12
A22
A32
=λ
A13
A23
A33
A11
A11
A31
.
A12
A12
A32
A13
A13
A33
= 0.
rr
4. Si se intercambian dos filas o dos columnas cambia de signo el determinante.
Bo
det |A| = εijk··· A1i A2j A3k · · · =
A11
A21
..
.
A12
A22
An1
An2
···
..
A1n
A2n
.
⇒ εijk··· A1j A2i A3k · · · = − det | ei Ā |ej i | ,
Ann
donde en la representación matricial ei Ā |ej i se han intercambiando un par de columnas. Claramente las
propiedades del ı́ndice de Levi-Civita, obliga al cambio de signo det |Ã| = − det |A| .
Nótese que las propiedades anteriores nos lleva a reescribir el determinante de un operador de la siguiente
manera:
β γ
det |A| = εαβγ··· det |A| = εijk··· Aiα Ajβ Akγ · · · ⇐⇒ det |A| = εαβγ··· det |A| = εijk··· Aα
i Aj Ak · · ·
claramente, si αβγ · · · ⇐⇒ 123 · · · obtenemos nuevamente la definición anterior. Si se intercambian dos filas o
dos columnas, el determinante cambia de signo debido al intercambio de dos ı́ndices griegos. Si dos filas o dos
columnas son iguales el determinante se anula debido a la propiedad de sı́mbolo de Levi-Civita con ı́ndices
griegos.
236
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
5. El determinante de la composición de operadores es el producto de los determinantes
det |AB| = det |A| det |B| .
Antes de proceder a la demostración de esta importante propiedad jugaremos un poco más con las propiedades
de las matrices. Si A es un operador con una representación matricial m × n y B es uno con una representación
α
matricial n × p, entonces tendremos (AB) = Aα B, esto es, la α-ésima fila de AB es igual a la multiplicación
de la α-ésima fila de A, por toda la matriz B.

l
α
α
α
α
α 
Cjα = Aα
B
⇒
C
=
(A
,
A
,
A
,
·
·
·
A
,
)

l
j
j
1
2
3
n

B21
B22
B1n
B2n
···
..
.

Bn1
Bn2 

.

n
Bn
lim
Tendremos entonces:
B11
B12
..
.
in

ar
i
Veamos: Cji = (AB)j = Ail Bjl , por lo tanto la α-ésima fila:
det |A| det |B| = det |A| εijk··· B1i B2j B3k · · · = εijk··· Aiα Ajβ Akγ · · · εabc··· B1a B2b B3c · · · ,
rP
re
que siempre puede ser rearreglado como:
β γ
i β j γ k
εijk··· Aα
εijk··· B1i B2j B3k · · · = Aα
i Aj Ak · · ·
i B1 Aj B2 Ak B3 · · · = det |AB| .
Veamos este desarrollo para el caso de matrices 3 × 3:
det |A| det |B| =
+
+
con lo cual:
ε123 A11 A22 A33 + ε312 A13 A21 A32 + ε231 A12 A23 A31 + ε132 A11 A23 A32
ε321 A13 A22 A31 + ε213 A12 A21 A33 . ε123 B11 B22 B33 + ε312 B31 B12 B23 + ε231 B21 B32 B13
ε132 B11 B32 B23 + ε321 B31 B22 B13 + ε213 B21 B12 B33 ,
rr
ad
o
= A11 A22 A33 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 − B11 B32 B23 − B31 B22 B13 − B21 B12 B33
+ A13 A21 A32 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33
+ A12 A23 A31 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33
− A11 A23 A32 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33
− A13 A22 A31 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33
− A12 A21 A33 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33 .
Bo
Como son números se pueden arreglar de la siguiente forma:
= A11 A22 A33 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
+ A13 A21 A32 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
+ A12 A23 A31 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
− A11 A23 A32 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
− A13 A22 A31 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
− A12 A21 A33 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33
= εijk Aiα B1α Ajλ B2λ Akµ B3µ .
Por lo tanto:
εijk Aiα B1α Ajλ B2λ Akµ B3µ = det |A| det |B| = det |AB|.
(4.12)
4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES
237
La invariancia del determinante
El resultado de expresado en la ecuación (4.12) tiene varias consecuencias importantes:
1. El determinante del operador inverso es el inverso del determinante, es decir:
det |A−1 | =
1
= det |A|−1 .
det |A|
I = A−1 A ⇒ det |I| = det |AA−1 | = det |A| det |A−1 | = 1 ⇒ det |A−1 | =
ar
Esta afirmación es fácilmente demostrable
1
.
det |A|
in
2. La segunda consecuencia es todavı́a más importante: el determinante de un operador no depende de su
representación matricial. Es decir, el determinante, al igual que la traza, asocia un número real al operador,
independientemente de su representación matricial:
lim
det |A| ≡ det | ei A |ej i | = det | ẽi A |ẽj i | ≡ det |Ã| .
Es inmediato darse que cuenta que al aplicar la función determinante a la ecuación (4.10) se tiene:
det |Ãij | = det |Ski Akm
Sjm
−1
| ≡ det |Ski | det |Akm | det | Sjm
−1
| = det |Ski | det |Akm |
1
= det |Akm | .
det |Sjm |
rP
re
Con lo cual queda demostrada la invariancia del determinante de representaciones matriciales de operadores
en bases ortonormales.
Fórmula de Laplace
La fórmula de Laplace permite expresar el determinate de una matriz en términos de sus matrices menores o
cofactores, matrices que definiremos en la siguiente sección.
det |A| =
n
X
Aij (Ac )ij ,
para cualquier i .
(4.13)
j=1
Diferenciación de operadores y representación matricial
ad
o
4.3.6.
Retomemos, ahora en el lenguaje de representaciones matriciales de operadores, lo que desarrollamos en la
sección 4.2.7. Dado un operador A(t), el cual supondremos dependiente de una variable arbitraria t, podremos
definir la derivada como:
A (t + ∆t) − A(t)
dA(t)
= lı́m
,
∆t→0
dt
∆t
rr
por lo tanto, si uk A |ui i = Aki entonces:
k
Bo
u
dA(t)
|ui i =
dt

dA(t)
dt
k
i


d
dAki
k
=
u A(t) |ui i =
=

dt
dt

dA11
dt
dA21
dt
dA12
dt
dA22
dt
dAn
1
dAn
2
dt
dt
..
.
···
..
dA1n
dt
dA2n
dt
.
dAn
n
dt



.


La regla es simple, la representación matricial de la derivada de un operador será la derivada de cada uno de sus
elementos. Por ejemplo:

 

x
x2
2
1
2x
0
d 
.
1
e−x
5x  =  0
−e−x
5
dx
3
2
3x
3
cos(x)
9x
0
−sen(x)
De igual forma tendremos las reglas usuales de la diferenciación y por lo tanto se cumplirá
d (A(t) + B(t))
d (A(t)) d (B(t))
=
+
,
dt
dt
dt
238
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
es decir:
uk
d (A(t) + B(t))
d
d
uk (A(t) + B(t)) |ui i =
uk A(t) |ui i + uk B(t) |ui i
|ui i =
dt
dt
dt
d
d
=
uk A(t) |ui i +
uk B(t) |ui i
dt
dt
dA(t)
dB(t)
d (A(t)) d (B(t))
= uk
|ui i + uk
|ui i =
+
.
dt
dt
dt
dt
ar
Del mismo modo se cumplirá:
d (A(t)B(t))
dA(t)
dB(t)
=
B(t) + A(t)
,
dt
dt
dt
lim
d
d
d (A(t)B(t))
|ui i =
uk A(t)B(t) |ui i =
uk A(t)I B(t) |ui i
dt
dt
dt = uk A(t) |um i hum | B(t) |ui i
uk
in
con la precaución que no se puede modificar el orden de aparición de los operadores. Es fácil ver que:
d uk A(t) |um i m
d hum | B(t) |ui i
hu | B(t) |ui i + uk A(t) |um i
dt
dt
dA(t)
dB(t)
= uk
|um i hum | B(t) |ui i + uk A(t) |um i hum |
|ui i .
dt
dt
=
Ejemplos
rP
re
4.3.7.
1. Si tenemos un matriz B, 2 × 3, de la forma
B=
3
1
1
0
−2
4
,
y1 = 3x1 + x2 − 2x3
y2 = x1 + 0x2 + 4x3 .
rr
esto es:
ad
o
y suponemos las bases canónicas para V3 y V2 : {|i1 i , |i2 i , |i3 i} y {|i1 i , |i2 i}, respectivamente, entonces la
matriz B representa la transformación B : V3 → V2 que lleva un vector genérico |xi = (x1 , x2 , x3 ) a un vector
genérico |yi = (y1 , y2 ) tal que:


x1
y1
3 1 −2
3 1 −2 
x2  =
B=
⇒ B |xi = |yi ⇒
,
1 0 4
1 0 4
y2
x3
Es claro que la representación matricial dependerá de la base en la cual se exprese.
Bo
2. Si suponemos el operador diferencial D (·) = d(·)
dx cuyo dominio está conformado por el espacio vectorial de
los polinomios
de
grado
≤
3,
entonces
tendremos
que: D (·) : P3 → P2 . En este caso las bases podrı́an ser:
2
3
2
3
2
|pi i = 1, x, x , x y |p̃j i = 1, x, x de P y P respectivamente.
Al operar (diferenciar) sobre
 d(1)

 dx






d(x)

 dx

D |pj i ⇒

d(x2 )



dx






 d(x3 )
dx
|pj i ∈ P3 y expresar ese resultado en la base de P2 tenemos:
=
0
=
0 · 1 + 0 · x + 0 · x2
=
1
=
1 · 1 + 0 · x + 0 · x2
=
2x
=
0 · 1 + 2 · x + 0 · x2
=
3x2
=
0 · 1 + 0 · x + 3 · x2

0
⇒ hp̃α | D |pj i =  0
0
1
0
0
0
2
0

0
0 .
3
4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES
239
in
ar
Los coeficientes de esa expansión serán las columnas de la matriz que los representa. Para enfatizar, los
elementos de una matriz, no sólo dependen de la base sino del orden en el cual la base se presente.
Consideremos que la base de P2 viene representada por |p̂j i = x2 , x, 1 , la representación matricial del
operador D (·) = d(·)
dx será:
 d(1)

=
0
= 0 · x2 + 0 · x + 0 · 1

dx








d(x)

=
1
= 0 · x2 + 0 · x + 1 · 1

0 0 0 3
 dx
⇒ hp̂α | D |pj i =  0 0 2 0  .
D |pj i ⇒

d(x2 )

0 1 0 0

= 2x = 0 · x2 + 2 · x + 0 · 1

dx






 d(x3 )
= 3x2 = 3 · x2 + 0 · x + 0 · 1
dx

1
0
0
0
2
0


1
0
 1
0 
 1
3
1

0
 0
0

0
2
0


1
3
 1
0 
 1
0
1

0
0
1
 
1

 =  2  ⇒ 1 + 2x + 3x2 ,

3
y equivalentemente:
 
3

 =  2  ⇒ 3x2 + 2x + 1 ,

1
rP
re
0
 0
0
lim
Se puede ver que D |pj i es:
¡Es el mismo polinomio! Recuerde que las componentes del vector multiplican a los vectores bases en el mismo
orden.
rr
ad
o
3. Construyamos
la representación para el mismo operador D del
ejemplo anterior, pero ahora en las siguientes
bases: |pi i = 1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 y |p̃i i = 1, x, x2 de P3 y P2 , respectivamente. Entonces,
nuevamente vemos que D |pj i implica:
 d(1)

= 0
= 0 · 1 + 0 · x + 0 · x2
 dx








d(1+x)

= 1
= 1 · 1 + 0 · x + 0 · x2
 dx
0 1 1 1

⇒ hp̃α | D |pj i =  0 0 2 2  .
2

d
1+x+x
(
)

0 0 0 3

= 1 + 2x
= 1 · 1 + 2 · x + 0 · x2

dx






 d(1+x+x2 +x3 )
= 1 + 2x + 3x2 = 1 · 1 + 2 · x + 3 · x2
dx
Bo
4. Dada la siguiente transformación:
T : R3 → R4 , T [(x, y, z)] = (x + y, x − 2z, x + 2y + 3z, y − 2z) .
y tomemos como bases los conjuntos:
|ei i = {(1, 1, 0), (1, 0, 1), (0, 1, 1)} ∈ R3 ,
|ẽi i = {(1, 1, 1, 1), (0, 1, 1, 1), (0, 0, 1, 1), (0, 0, 0, 1)} ∈ R4 .
Queremos encontrar la representación matricial del operador T, esto es
Tji = ẽi T |ej i = ẽi Cjk |ẽk i ≡ Cjk ẽi ẽk i ,
por lo tanto los Cjk son los coeficientes de la expansión de los vectores base de R3 transformados. Es decir
T |e1 i = C1k |ẽk i , T |e2 i = C2k |ẽk i , T |e3 i = C3k |ẽk i ,
y
T |e4 i = C4k |ẽk i .
240
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
Entonces, podemos hacer las siguientes expansiones:
T [(1, 1, 0)] = (2, 1, 3, 1) = C11 (1, 1, 1, 1) + C12 (0, 1, 1, 1) + C13 (0, 0, 1, 1) + C14 (0, 0, 0, 1) ,
y al resolver para {C11 , C12 , C13 , C14 } obtener: {C11 = 2, C12 = −1, C13 = 2, C14 = −2}.
Para la siguiente base de R3
resolviendo para {C21 , C22 , C23 , C24 } se obtiene: {C21 = 1, C22 = −2, C23 = 5, C24 = −6}.
Y finalmente, para:
ar
T [(1, 0, 1)] = (1, −1, 4, −2) = C21 (1, 1, 1, 1) + C22 (0, 1, 1, 1) + C23 (0, 0, 1, 1) + C24 (0, 0, 0, 1) ,
in
T [(0, 1, 1)] = (1, −2, 5, −1) = C31 (1, 1, 1, 1) + C32 (0, 1, 1, 1) + C33 (0, 0, 1, 1) + C34 (0, 0, 0, 1) ,
resulta: {C31 = 1, C32 = −3, C33 = 7, C34 = −6}.
Por lo tanto, la representación matricial que hemos obtenido será:
= C1k ẽ1 ẽk i = C11 ẽ1 ẽ1 i + C12 ẽ1 ẽ2 i + C13 ẽ1 ẽ3 i + C14 ẽ1 ẽ4 i ,
T21
= C2k ẽ1 ẽk i = C21 ẽ1 ẽ1 i + C22 ẽ1 ẽ2 i + C23 ẽ1 ẽ3 i + C24 ẽ1 ẽ4 i , · · ·
lim
T11
Vale decir:
=
2 · 4 + (−1) · 3 + 2 · 2 + (−1) · 1 = 7 ,
T21
=
1 · 4 + (−2) · 3 + 5 · 2 + (−6) · 1 = 2 ,
···
rP
re
T11
Si continuamos haciendo todas las cuentas, para todas las demás componentes, tendremos la siguiente matriz:


7
2
3
 5
1
2 
.
hẽj | T |ei i = 
 4
2
4 
1 −2 −1
ad
o
La ecuación para la transformación de cualquier vector es entonces:
 1  
x̃
7
2
3
2 


x̃
5
1
2
 
T |x̃i i = Tij |xj i ⇒ 
 x̃3  =  4
2
4
1 −2 −1
x̃4

 1 
x

  x2  .

x3
Pedimos al lector repetir los cálculos pero considerando las bases:
rr
|ei i = {(1, 1, 0), (1, 0, 1), (0, 1, 1)} ∈ R3 ,
|ẽi i = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} ∈ R4 ;
y también las siguientes bases canónicas
Bo
|ei i = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} ∈ R3 ,
|ẽi i = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} ∈ R4 .
¿Qué puede concluir de los resultados obtenidos de este último par de bases?
5. Para la matriz

3
A= 1
4

−2
2
2 −3  ,
1
2
el desarrollo de Laplace (4.13) para la primera fila (i = 1) es:
det |A| = A11 (Ac )11 + A12 (Ac )12 + A13 (Ac )13
2 −3
1 −3
= 3
− (−2)
+2
1
2
4
2
=
3(7) + 2(14) + 2(−7) = 35 .
1
4
2
1
4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES
241
6. En Mecánica Clásica la cantidad de momento angular viene definida como L = r × p. Para pasar a Mecánica
Cuántica se asocia r y p con los operadores posición y cantidad de movimiento los cuales, al operar sobre la
función de onda nos proveen lo siguiente:
∂
∂
hr |ψi = −i~
ψ (r)
hr| X |ψi = x hr |ψi = x ψ (r)
hr| Px |ψi = −i~
∂x
∂x
hr| Py |ψi =
hr| Z |ψi = z hr |ψi = z ψ (r)
hr| Pz |ψi =
−i~
∂
∂y
hr |ψi = −i~
∂
∂
hr |ψi = −i~
ψ (r)
−i~
∂z
∂z
hr| Px |ψi = −i~ ∇ ψ (r) .
lim
y
in
En coordenadas cartesianas, en la representación de coordenadas {|ri} tendremos que
hr| R |ψi = r ψ (r)
∂
ψ (r)
∂y
ar
hr| Y |ψi = y hr |ψi = y ψ (r)
De forma que en Mecánica Cuántica las componentes cartesianas del operador cantidad de movimiento angular
son:
hr| L |ψi = −i~ (r×∇) ψ (r)
hr| L |ψi = −i~
∂
∂
−z
y
∂z
∂y
ψ (r) i − i~
∂
∂
−x
z
∂x
∂z
∂
∂
−y
ψ (r) j − i~ x
ψ (r) k .
∂y
∂x
rP
re
Utilizando las definiciones anteriores vamos a mostrar que el conmutador de las componentes cartesianas de
la cantidad de movimiento angular cumple la siguiente relación
[Lx , Ly ] |ψi = i~Lz |ψi ,
con: L1 = L1 = Lx ; L2 = L2 = Ly ; L3 = L3 = Lz . En general, [Ll , Lm ] = i~εlmn Ln .
ad
o
Dado que:
[L1 , L2 ] |ψi = [Lx , Ly ] |ψi = (Lx Ly − Ly Lx ) |ψi
∂
∂
∂
∂
∂
∂
∂
∂
= −i~
y
−z
−x
−x
−z
z
− z
y
ψ (r)
∂z
∂y
∂x
∂z
∂x
∂z
∂z
∂y
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
z
−x
−z
z
−x
− z
y
−z
−x
y
−z
ψ (r) .
= y
∂z
∂x
∂z
∂y
∂x
∂z
∂x
∂z
∂y
∂z
∂z
∂y
rr
Con lo cual:
Bo
=
=
∂
∂
∂2
∂
2 ∂
yz
+y
− xy 2 − z
− zx
∂z∂x
∂x
∂z
∂y∂x
∂y∂z
∂
∂
∂
∂
2 ∂
−
zy
−z
− yx 2 − zx
−x
ψ (r)
∂x∂z
∂y∂x
∂z
∂z∂y
∂y
∂
∂
y
−x
∂x
∂y
ψ (r) .
7. Consideremos que el espacio de estados para un determinado sistema fı́sico viene expandido por la base
ortonormal {|u1 i , |u2 i , |u3 i}. Definamos dos operadores Lz y S de la siguiente manera:
Lz |u1 i = |u1 i ,
S |u1 i = |u3 i ,
Lz |u2 i = 0 ,
S |u2 i = |u2 i ,
Lz |u3 i = − |u3 i ,
S |u3 i = |u1 i .
242
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
con lo cual:

u1 Lz S |u1 i − u1 SLz |u1 i


 u2 Lz S |u1 i − u2 SLz |u1 i


u3 Lz S |u1 i − u3 SLz |u1 i
ar
a) Calculemos la representación matricial en la base {|u1 i , |u2 i , |u3 i} del operador: [Lz , S].
La matriz será:


u1 Lz S − SLz |u1 i
u1 Lz S − SLz |u2 i
u1 Lz S − SLz |u3 i




2
2
 u2 Lz S − SLz |u1 i
u Lz S − SLz |u2 i
u Lz S − SLz |u3 i 




3
3
3
u Lz S − SLz |u1 i
u Lz S − SLz |u2 i
u Lz S − SLz |u3 i
u1 Lz S |u2 i − u1 SLz |u2 i
u1 Lz S |u3 i − u1 SLz |u3 i


u2 Lz S |u3 i − u2 SLz |u3 i 
,

u3 Lz S |u3 i − u3 SLz |u3 i
in
u2 Lz S |u2 i − u2 SLz |u2 i
u3 Lz S |u2 i − u3 SLz |u2 i
0−0


u [Lz , S] |uj i = 


i
0−0
0−0
0−0
(−1) − 1
0−0
lim
de donde:

1 − (−1)
0−0
0−0



0
 
 
= 0
 
 
−2
0
0
0
2



0 
.

0
rP
re
b) ¿Lz , S y [Lz , S] serán biyectivas?
Veamos. Por definición S es biyectiva ya que cada vector tiene su imagen, Lz no lo es por cuanto el
vector |u2 i no tiene imagen y, finalmente [Lz , S] tampoco será biyectiva dado que ui [Lz , S] |uj i no tiene
inversa ya que det ui [Lz , S] |uj i = 0.
c) Calculemos la dimensión del dominio, del rango y del núcleo de la transformaciones Lz , S y [Lz , S].
Lz
S
[Lz , S]
Rango
2
3
2
Núcleo
1
0
2
ad
o
dado que [Lz , S] |u2 i = 0 .
Dominio
3
3
3
8. Buscaremos la expresión matricial para los operadores lineales de Pauli: R2 7−→ R2 sabiendo que actúan como:
σz |+i = |+i , σz |−i = − |−i , σx |+ix = |+ix , σx |−ix = − |−ix , σy |+iy = |+iy , σy |−iy = − |−iy
con:
rr
|+i 1
0
Bo
Ahora bien:
x
1
1
, |+ix = √ [|+i + |−i] , |−ix = √ [|+i − |−i] ,
2
2
1
1
|+iy = √ [|+i + i |−i] , |−iy = √ [|+i − i |−i] .
2
2
, |−i h+ |+ix = 1 ,
0
1
x
h+ |−ix =x h− |+ix = 0 ,
x
h− |−ix = 1 ,
h+ |+iy = 1 ,
y h+ |−iy =y h− |+iy = 0 ,
y h− |−iy = 1 .
n
o
Es decir, los vectores {|+ix , |−ix } y |+iy , |−iy forman bases ortonormales, por lo que los vectores {|+i , |−i}
se pueden expresar en término de esas bases como:
y
1
|+i = √ [|+ix + |−ix ] ,
2
1
|−i = √ [|+ix − |−ix ] ,
2
i
1 h
|+i = √ |+iy + |−iy ,
2
i
−i h
|−i = √ |+iy − |−iy .
2
4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES
Ası́ las expresiones matriciales serán:

h+| σz |+i
i
(σz )j = 
h−| σz |+i
243
h+| σz |−i


1

0
=
h−| σz |−i
.
0
−1
i
Para (σx )j :
h+| σx |+i
i
h+| σx |−i
(σx )j = 



[ h+| +x h−|] σx [|+ix + |−ix ]
1 x
=
2
[x h+| −x h−|] σx [|+ix + |−ix ]

[ h+| +x h−|] [|+ix − |−ix ]
1 x
=
2
[x h+| −x h−|] [|+ix − |−ix ]

1
=
i
h+| σy |+i
h+| σy |−i
h−| σy |+i
h−| σy |−i
Bo
rr
1

2
4.3.8.

h
i
[y h+| +y h−|] σy |+iy + |−iy
h
i
i [y h+| −y h−|] σy |+iy + |−iy
h
i
[y h+| +y h−|] |+iy − |−iy
h
i
i [y h+| −y h−|] |+iy − |−iy
0
−i
i
0
=

[x h+| −x h−|] [|+ix + |−ix ]
h
i 
−i [y h+| +y h−|] σy |+iy − |−iy


h
i 
[y h+| −y h−|] σy |+iy − |−iy
h
i 
−i [y h+| +y h−|] |+iy + |−iy


h
i 
− [y h+| −y h−|] |+iy + |−iy

.
Practicando con Maxima
1. Consideremos la transformación lineal del ejercicio resuelto con anterioridad:
T : R3 → R4 , T [(x, y, z)] = (x + y, x − 2z, x + 2y + 3z, y − 2z) .
(%i1) load(vect)$


ad
o
1

2

=
[x h+| +x h−|] [|+ix + |−ix ]


=
[x h+| −x h−|] σx [|+ix − |−ix ]
0
Y finalmente, para (σy )j :
i


1
(σy )j = 

[x h+| +x h−|] σx [|+ix − |−ix ]
rP
re
0

in
h−| σx |−i
lim
h−| σx |+i

ar

244
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
(%i2) T(x,y,z):=[x+y,x-2*z,x+2*y+3*z,y-2*z];
( %o2) T (x, y, z) := [x + y, x − 2z, x + 2y + 3z, y − 2z]
Escribimos ahora los vectores de la base en R4 :
ar
(%i3) e1:[1,1,1,1];e2:[0,1,1,1];e3:[0,0,1,1]; e4:[0,0,0,1];
( %o3) [1, 1, 1, 1]
( %o4) [0, 1, 1, 1]
in
( %o5) [0, 0, 1, 1]
( %o6) [0, 0, 0, 1]
lim
Entonces:
(%i7) linsolve(T(1,1,0)-C11*e1-C12*e2-C13*e3-C14*e4,[C11,C12,C13,C14]);
( %o7) [[C11 = 2, C12 = −1, C13 = 2, C14 = −2]]
( %o8) [2, −1, 2, −2]
rP
re
(%i8) [C11,C12,C13,C14]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4])];
(%i9) linsolve(T(1,0,1)-C21*e1-C22*e2-C23*e3-C24*e4,[C21,C22,C23,C24]);
( %o9) [[C21 = 1, C22 = −2, C23 = 5, C24 = −6]]
(%i10)[C21,C22,C23,C24]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4])];
( %o10) [1, −2, 5, −6]
ad
o
(%i11)linsolve(T(0,1,1)-C31*e1-C32*e2-C33*e3-C34*e4,[C31,C32,C33,C34]);
( %o11) [[C31 = 1, C32 = −3, C33 = 7, C34 = −6]]
(%i12)[C31,C32,C33,C34]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4])];
rr
( %o12) [1, −3, 7, −6]
Calculemos ahora las componentes de la representación matricial:
Bo
(%i13)T11: C11*(e1.e1) + C12*(e1.e2) +C13*(e1.e3) + C14*(e1.e4);
( %o13) 7
(%i14)T21: C21*(e1.e1) + C22*(e1.e2) +C23*(e1.e3) + C24*(e1.e4);
( %o14) 2
(%i15)T31: C31*(e1.e1) + C32*(e1.e2) +C33*(e1.e3) + C34*(e1.e4);
( %o15) 3
(%i16)T12: C11*(e2.e1) + C12*(e2.e2) +C13*(e2.e3) + C14*(e2.e4);
4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES
245
( %o16) 5
(%i17)T22: C21*(e2.e1) + C22*(e2.e2) +C23*(e2.e3) + C24*(e2.e4);
( %o17) 1
(%i18)T32: C31*(e2.e1) + C32*(e2.e2) +C33*(e2.e3) + C34*(e2.e4);
ar
( %o18) 2
(%i19)T13: C11*(e3.e1) + C12*(e3.e2) +C13*(e3.e3) + C14*(e3.e4);
(%i20)T23: C21*(e3.e1) + C22*(e3.e2) +C23*(e3.e3) + C24*(e3.e4);
lim
( %o20) 2
in
( %o19) 4
(%i21)T33: C31*(e3.e1) + C32*(e3.e2) +C33*(e3.e3) + C34*(e3.e4);
( %o21) 4
(%i22)T14: C11*(e4.e1) + C12*(e4.e2) +C13*(e4.e3) + C14*(e4.e4);
rP
re
( %o22) 1
(%i23)T24: C21*(e4.e1) + C22*(e4.e2) +C23*(e4.e3) + C24*(e4.e4);
( %o23) − 2
(%i24)T34: C31*(e4.e1) + C32*(e4.e2) +C33*(e4.e3) + C34*(e4.e4);
( %o24) − 1
ad
o
Por lo tanto, la matriz que representa a la transformación es la siguiente:
(%i25)matrix([T11,T21,T31],[T12,T22,T32],[T13,T23,T33],[T14,T24,T34]);
2
1
2
−2

3
2

4
−1
rr

7
5
( %o25) 
4
1
Podemos repetir los cálculos pero ahora con la base canónica:
Bo
(%i26)e1:[1,0,0,0];e2:[0,1,0,0];e3:[0,0,1,0]; e4:[0,0,0,1];
( %o26) [1, 0, 0, 0]
( %o27) [0, 1, 0, 0]
( %o28) [0, 0, 1, 0]
( %o29) [0, 0, 0, 1]
Por ser la base ortonormal el cálculo de la representación matricial de la transformación es directa:
(%i30)linsolve(T(1,1,0)-C11*e1-C12*e2-C13*e3-C14*e4,[C11,C12,C13,C14]);
( %o30) [C11 = 2, C12 = 1, C13 = 3, C14 = 1]
246
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
(%i31)[C11,C12,C13,C14]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4])];
( %o31) [2, 1, 3, 1]
(%i32)linsolve(T(1,0,1)-C21*e1-C22*e2-C23*e3-C24*e4,[C21,C22,C23,C24]);
(%i33)[C21,C22,C23,C24]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4])];
( %o33) [1, −1, 4, −2]
in
(%i34)linsolve(T(0,1,1)-C31*e1-C32*e2-C33*e3-C34*e4,[C31,C32,C33,C34]);
( %o34) [C31 = 1, C32 = −2, C33 = 5, C34 = −1]
La representación matricial que resulta ahora es:
lim
(%i35)[C31,C32,C33,C34]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4])];
( %o35) [1, −2, 5, −1]
1
−1
4
−2

1
−2

5
−1
(%i37)kill(all)$
rP
re
(%i36)matrix([2,1,1],[1,-1,-2],[3,4,5], [1,-2,-1]);

2
1
( %o36) 
3
1
2. Dada una transformación T : R2 → R3 , donde una base para R3 es:
ad
o
|ei i = {(1, 2, 1), (1, 1, 0), (0, 0, 3)} ∈ R3 ,
y las imágenes de esta base respecto a la base canónica en R2 son:
T [|e1 i] = (3, 3) , T [|e2 i] = (6, 3) , T [|e3 i] = (3, 6) .
¿Qué transformación está asociada a las coordenadas canónicas en R3 ?
rr
Escribamos los vectores.
(%i1) e1:[1,2,1];e2:[1,1,0];e3:[0,0,3];
Bo
( %o1) [1, 2, 1]
( %o2) [1, 1, 0]
( %o3) [0, 0, 3]
Ahora introducimos las imágenes:
(%i4) Te1:[3,3];Te2:[6,3];Te3:[3,6];
( %o4) [3, 3]
( %o5) [6, 3]
( %o6) [3, 6]
ar
( %o32) [C21 = 1, C22 = −1, C23 = 4, C24 = −2]
4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES
247
Respecto a estas coordenadas la transformación tiene la siguiente representación vectorial:
(%i7) A:matrix(Te1,Te2,Te3);

3
( %o7) 6
3

3
3
6
ar
Lo que queremos es buscar la representación matricial de la transformación pero respecto a la base canónica,
por lo tanto debemos buscar primero el cambio de base a la base canónica en R3
(%i8) E:invert(matrix([1,2,1],[1,1,0],[0,0,3]));
1
3
− 13 
1
3
in
2
−1
0

lim

−1
( %o8)  1
0
En la base canónica la transformación tiene la siguiente representación:
(%i9) AE:transpose(E.A);
10
5
−4
−2
1
2
rP
re
( %o9)
Por lo tanto la transformación es:
(%i10)T(x,y,z):=[10*x-4*y+z,5*x-2*y+2*z];
( %o10) T (x, y, z) := [10x − 4y + z, 5x − 2y + 2z]
Podemos verificar si el resultado es el correcto.
ad
o
(%i11)solve(T(1,2,1)-a*[1,0]-b*[0,1],[a,b]);
( %o11) [[a = 3, b = 3]]
(%i12)solve(T(1,1,0)-a*[1,0]-b*[0,1],[a,b]);
( %o12) [[a = 6, b = 3]]
rr
(%i13)solve(T(0,0,3)-a*[1,0]-b*[0,1],[a,b]);
Bo
( %o13) [[a = 3, b = 6]]
4.3.9.
Ejercicios
1. Considere el espacio P(t) de polinomios de grado N en t, vale decir, |f it ↔
d
operador T = exD ≡ exp(xD), con D = dt
.
PN
n=0
a0 tn , considere además un
a) Muestre que T |pit = |pit+x , esto es que el operador T puede ser considerado un operador traslación
espacial para los polinomios P(t) de grado N .
b) Considere que el espacio de polinomios está definido en el intervalo [−1, 1], que definimos un producR1
to interno de la forma hf | gi = −1 f g dt y un espacio de polinomios de grado N = 2. ¿Cuál es la
representación matricial de T en la base de polinomios de Legendre {P0 , P1 , P2 }?
248
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
2. Heredando el formalismo de la Mecánica Clásica, se construye en Mecánica Cuántica el operador hamiltoniano,
hermı́tico, para un sistema unidimensional como:
H=
P2
+ V(X) ,
2m
donde H, P y X son operadores, y V(X) un operador que es una función de otro operador. Adicionalmente,
uno puede construir el siguiente operador: [X, P] = i~I.
ar
a) Determine los siguientes conmutadores: [H, P], [H, X] y [H, XP].
b) Suponga que H |ψn i = En |ψn i y entonces calcule la representación matricial del siguiente operador
hψ m | [A, H] |ψn i, para un operador arbitrario A.
in
3. Considere la representación matricial de un operador en la base canónica de la forma:
1 a
A=
0 1
4. Si
Mij (t)
cos(ωt)
−sen(ωt)
=
Demuestre que:
lim
¿Existirá algún operador B, no singular, tal que D = B−1 AB, con D un operador diagonal? Si ese fuera el caso
¿Cuál serı́a la representación matricial de ese operador B, en la base canónica? Justifique su respuesta.
sen(ωt)
cos(ωt)
.
rP
re
d2 M(t)
= −ω 2 M(t) .
dt2
5. Dada a matriz:

1
Aji =  1
0
Evalúe: A2 , A3 , AAx .
6. Dada la matriz:

ad
o
0
Aji =  −i
0
1
1
1
0
0
−1

0
1 .
1

i
0 .
0
Demuestre que An = AAA... = I, con n 6= 0.
rr
7. Considere el siguiente “operador vectorial” σ = σx i + σy j + σz k, donde las matrices σx , σy , σz se conocen
como operadores de Pauli y su representación matricial en la base canónica es:
0 1
0 −i
1 0
1 0
σx =
, σy =
, σz =
, I=
.
1 0
i 0
0 −1
0 1
El vector dirección puede escribirse como:
Bo
n = sen(θ) cos(φ)i + sen(θ)sen(φ)j + cos(θ)k = nx i + ny j + nz k ,
con lo cual: σ · n = nx σx + ny σy + nz σz .
A partir de todo lo anterior calcule la representación matricial del siguiente operador en la base canónica
i
exp
ψ σ·n .
2
8. Dadas las siguientes matrices:
√


2/2 √ 0
√0
Lx =  2/2 √ 0
2/2  ,
0
2/2
0

√0
Ly =  −i 2/2
0
Demuestre las siguientes reglas de conmutación:
√
i 2/2
√0
−i 2/2

√0
i 2/2  ,
0

−1
Lz =  0
0

0 0
0 0 .
0 1
4.4. UN ZOOLÓGICO DE MATRICES CUADRADAS
249
a) Lx Ly − Ly Lx = iLz .
b) Ly Lz − Lz Ly = iLx .
c) Lz Lx − Lx Lz = iLy .
d ) L2x + L2y + L2z = 2.
9. Calcule los siguientes determinantes:
2
0
0
,
1
1
2
2
1
2 − x2
3
3
2
3
2
3
1
5
1 9 − x2
,
1
0
3
−2
0
1
−3
1
2
−2
4
−2
3
1
−2
0
,
10. Utilizando las propiedades de los determinantes resuelva para x
x+4 x−3
x
x+5
x−1 x+1
11. Utilizando la propiedad lineal de los determinantes calcule:
∆=
a+b
c+d
= 0.
5
0
−1
6
−3
0
3
0
−4
−1
−1
7
5
1
2
3
−2
−5
2
3
.
lim
x+2
x+3
x−2
−2
1
3
2
0
ar
0
1
0
in
2
0
2
n+p
q+r
.
rP
re
12. Encuentre el determinante de la matriz 4 × 4 definida por la función:
Aij =
1
.
i+j−x
13. Muestre que si las filas de un determinante de orden n son linealmente independientes, entonces sus columnas
son también linealmente independientes.
ad
o
14. Dada la representación matricial de un operador:

1 1
 1 1
3 −3

3
−3  .
−3
a) Encuentre la representación diagonal y la base que diagonaliza esta matriz.
b) Muestre que la traza y el determinante de ambas representaciones matriciales coinciden.
c) Encuentre la matriz de transformación a la representación diagonal.
rr
15. Pruebe que la representación matricial, 2 × 2 más general para un operador unitario y simétrico (vale decir:
SS† = I y ST = S) puede ser escrita como:
√
αe2iβ
i 1 − α2 ei(β+γ)
√
S=
,
i 1 − α2 ei(β+γ)
αe2iγ
Bo
con α, β y γ parámetros reales y, adicionalmente 0 ≤ α ≤ 1.
16. Resuelva los ejercicios anteriores utilizando Maxima.
4.4.
Un zoológico de matrices cuadradas
A continuación presentaremos un conjunto de matrices importantes y de operaciones que serán de gran utilidad
para el resto de desarrollo del tema13 . Es bueno tener en mente que las matrices pueden tener todas sus elementos
reales, diremos que son matrices pertenecientes al espacio vectorial de matrices reales Rn×m o tener como elementos
números complejos, en este caso diremos que pertenecen al espacio vectorial de matrices complejas Cn×m .
13 Para mayores detalles sobre éstas y otros tipos de matrices pueden consultar Antony, R. and Alemayehu, H., A NOTE ON SPECIAL
MATRICES, Italian journal of pure and applied mathematics, (2015), 587-604.
250
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
4.4.1.
Matriz unidad y la matriz nula
La matriz unitaria es aquella que sólo tiene elementos en la diagonal iguales a la unidad I ⇒ Iji = δji ., y el
resto cero. Mientras que la matriz nula es aquella con todos los elementos iguales a cero O ⇒ 0ij = 0 .
4.4.2.
Matriz diagonal y diagonal a bloques
Matriz transpuesta
lim
4.4.3.
superior e inferior:

Ď31 Ď41
D32 Ď42 
,
y
Ď33 Ď43 
0 Ď44
D̂11

D̂12
D̂ji = 
 D̂3
1
D̂14

0
D̂22
D23
D̂24
0
0
D̂33
D̂34

0
0 
.
0 
D̂44
rP
re
También tenemos las triangulares
 1
Ď1 Ď21

0 Ď22
Ďji = 
 0
0
0
0
in
ar
Una matriz diagonal es aquella que contiene elementos únicamente en la diagonal las demás componentes son
cero: Aij = 0 ∀ i 6= j. Como veremos más adelante, existen algunos métodos para reducir una matriz a su forma
diagonal. Una propiedad importante de estas matrices es que conmutan entre si, es decir, AB = BA, si A y B son
diagonales. Podemos tener matrices diagonales a bloques, vale decir:

 1
D1 D21 0
0
 D12 D22 0
0 
.
Dji = 
 0
0 D33 D43 
0
0 D34 D44
Tal y como discutimos en la sección 4.3.2, cuando desarrollamos el concepto de matrices hermı́ticas conjungadas,
la matriz transpuesta es aquella que se obtiene intercambiando filas por columnas: A = Aij ⇒ AT = Aji . Si A = AT ,
(Aij = Aji ), se dice que A es simétrica. Y si A = −AT , (Aij = −Aji ), es llamada antisimétrica. Por lo tanto, una
matriz cuadrada se puede representar por la suma de una matriz simétrica y una antisimétrica
A=
4.4.4.
1
1
A + AT +
A − AT .
2
2
Matriz de cofactores
ad
o
A una matriz A le podemos asociar una de cofactores Ac de
 1


a1 a12 a13
i
Aij =  a21 a22 a23  ⇒ (Ac )j = 
3
3
3
a1 a2 a3
la manera siguiente:
1
1
(Ac )1
2
(Ac )1
c 3
(A )1
1 
(Ac )3
2
(Ac )3  .
c 3
(A )3
(Ac )2
2
(Ac )2
c 3
(A )2
i
rr
Donde los (Ac )j forman la matriz de cofactores, estos cofactores son:
1
Bo
(Ac )1 = (−1)
2
2+1
3
3+1
(Ac )1 = (−1)
(Ac )1 = (−1)
4.4.5.
1+1
a22
a32
a23
a33
,
(Ac )2 = (−1)
a12
a32
a13
a33
,
(Ac )2 = (−1)
a12
a22
a13
a23
,
(Ac )2 = (−1)
1
1+2
2
2+2
3
3+2
a21
a31
a23
a33
,
(Ac )3 = (−1)
a11
a31
a13
a33
,
(Ac )3 = (−1)
a11
a21
a13
a23
,
(Ac )3 = (−1)
1
1+3
2
2+3
3
3+3
a21
a31
a22
a32
,
a11
a31
a12
a32
,
a11
a21
a12
a22
.
Matriz adjunta
Llamaremos matriz adjunta, adj [A], a la traspuesta de la matriz de cofactores de una determinada matriz:
T
T
i
j
adj [A] = (Ac ) ⇒ adj Aij = (Ac )j
= (Ac )i .
4.4. UN ZOOLÓGICO DE MATRICES CUADRADAS



1 2 3
−3
Por ejemplo: A =  4 5 6  ⇒ adj [A] =  6
7 8 9
−3
Una matriz será autoadjunta si adj [A] = A.
4.4.6.
251

6 −3
−12
6 .
6 −3
Matriz singular
4.4.7.
ar
A es singular si det |A| = 0. Si det |A| =
6 0, existirá un número r máximo de vectores filas, o columnas, linealmente
independientes, llamaremos a ese número, 0 ≤ r ≤ n, el rango de la matriz.
Matriz inversa
lim
AB = I → ei AB |ej i = δji → Aik Bjk = δji .
in
Hemos visto que dada una transformación lineal biyectiva, podemos definir una inversa para esa transformación
lineal. Esa transformación lineal tendrá como representación un matriz. Por lo tanto, dado un operador lineal A
diremos que otro operador lineal B será su inverso (por la derecha) si
Algunas propiedades importantes:
A−1
4.4.8.
−1
= A,
rP
re
Ahora bien, como conocemos la matriz Aik y la suponemos no singular (det Aik 6= 0) al tomar un j fijo
tendremos un sistema de n ecuaciones lineales inhomogéneo con n incógnitas: Bj1 , Bj2 , Bj3 , · · · Bjn . Al resolver el
sistema tendremos la solución.
Un procedimiento para encontrar la inversa es el método de eliminación de Gauss-Jordan. Veamos como funciona
para una matriz 3 × 3:
 1



A1 A12 A13
1 0 0
B11 B21 B31
1 0 0
Gauss-Jordan
 A21 A22 A23
 0 1 0
0 1 0 
B12 B22 B32  .
→
3
3
3
A1 A2 A3
0 0 1
0 0 1
B13 B23 B33
AT
Matriz ortogonal
−1
= A−1
T
,
A†
−1
= A−1
†
,
(AB)
−1
= B−1 A−1 .
ad
o
Anteriormente mencionamos, en la sección 1.4.3, que en el espacio real R3 podemos tener una transformación
de coordenadas cartesianas: (x, y, z) → (x̃, ỹ, z̃) que consiste en rotar, un ángulo θ, uno de los sistemas respecto al
otro. Si la rotación se hace, digamos alrededor del eje z, la relación entre las coordenadas es la siguiente:

 1
 x̃ = x cos(θ) + y sen(θ)
 x̃ = x1 cos(θ) + x2 sen(θ)
ỹ = −x sen(θ) + y cos(θ) ⇒
x̃2 = −x1 sen(θ) + x2 cos(θ) ⇒ x̃i = α̃ji xj .

 3
z̃ = z
x̃ = x3
rr
Si la longitud desde el origen a algún punto P del espacio es la misma para ambos sistemas de coordenadas
xi xi = x̃i x̃i = (α̃ki xk )(α̃ij xj ) = xk xj α̃ij α̃ki .
Bo
entonces se tiene que cumplir que: α̃ij α̃ki = δkj .
Este resultado es una consecuencia de haber impuesto la condición para que las longitudes sean las mismas
en ambos sistemas de coordenadas y se conoce como la condición de ortogonalidad. En el lenguaje de la matrices
reales la condición P
de ortogonalidad se puede enunciar de diferentes formas, todas ellas equivalentes: AT A = AAT =
j i
j
T
−1
I, A = A ,
i Ai Ak = δk . y diremos que la matrices que las satisfacen son matrices ortogonales.
4.4.9.
Matrices complejas
Las matrices con todas sus componentes reales no permite estudiar problemas que pueden aparecer en algunas
ramas de la Fı́sica, como en la Mecánica Cuántica. Por lo tanto, de necesita generalizar nuestro estudio a espacios
vectoriales a el de espacios vectoriales de matrices complejas: Cn×n , donde en las componentes de las matrices
aparecen números complejos. Cuando las matrices son complejas surgen generalizaciones que podemos considerar,
como mostramos a continuación.
252
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
La matriz adjunta o matriz transpuesta conjugada. Estas matrices se construyen tomado el complejo
conjugado de cada elemento y luego la transpuesta de la matriz. Se acostumbra denotarlas con A† = (A∗ )T =
(AT )∗ .
La matriz hermı́tica. Son aquellas matrices que satisfacen la siguiente ecuación: A† = A . Notemos que si
A es real, entonces A† = AT , y por lo tanto las matrices hermı́ticas reales son matrices simétricas.
La matriz normal. Se llama matriz normal a aquella que satisface A† A = AA† .
in
ar
La matriz unitaria. La matriz A es unitaria si: A† = A−1 . Si A es real, entonces A−1 = AT , de manera
que las matrices unitarias reales son ortogonales. Es decir, las matrices unitarias son el análogo a las matrices
ortogonales reales y son de fundamental importancia en la Mecánica Cuántica porque dejan la norma de los
vectores invariantes.
4.4.10.
Ejemplos

3
1
1

4
1 .
2
rP
re
2
1. Queremos hallar la matriz inversa de A =  2
−1
lim
Existe una relación importante entre matrices normales y matrices unitarias y es el hecho de que una matriz A
es normal, si y sólo si, existe una matriz diagonal D y una unitaria U tal que: A = UDU† .
Más adelante veremos que los valores en la diagonal de D se denominan los autovalores de A y las columnas de
U son los autovectores de A.
Utilizando el método de Gauss-Jordan. Entonces, escribimos la siguiente matriz aumentada:


1 0 0
2 3 4
 2 1 1
0 1 0 .
0 0 1
−1 1 2
la sumamos con la primera


0 0
2 3 4
1 0 → 0 2 3
0 1
−1 1 2
ad
o
Si multiplicamos la segunda fila por −1 y

2 3 4 1
 2 1 1 0
−1 1 2 0
Ahora multiplicamos la tercera

2 3
 0 2
−1 1
fila por 2 y sumamos con la


0 0
4 1
2
3 1 −1 0  →  0
0 1
2 0
0
Bo
rr
Multiplicamos la primera fila por −2 y sumamos con la



2 3 4 1
0 0
 0 2 3 1 −1 0  → 
0 5 8 1
0 2
Multiplicamos la segunda fila por −8/3 y sumamos con
−3



−4 −1 0
−1 0 2
 0
2 3
1 1 0 →
0
5 8
1 0 2
fila obtenemos:

1
0 0
1 −1 0  .
0
0 1
primera fila
3
2
5
1
1
1
4
3
8

0 0
−1 0  .
0 2
tercera
−4
0
0
−1
2
5
0
3
8
−1
1
1

0 2
−1 0  .
0 2
la tercera, luego multiplicamos esa segunda fila por
−4
0
0
−1
1
5
0
0
8
−1
5
1

0
2
−8 −6  .
0
2
Multiplicamos la tercera fila por −1/5 y sumamos con la segunda fila, luego multiplicamos esa tercera fila por
−5/8




−4 −1 0 −1
−4 −1 0 −1
0
2
0
2
 0
1 0
5 −8 −6  →  0
1 0
5 −8 −6  .
0
5 8
1
0
2
0
0 1 −3
5
4
4.4. UN ZOOLÓGICO DE MATRICES CUADRADAS
253
Se suma la primera fila con la segunda y luego se multiplica esta primera fila que resulta por −1/4.




0
2
−1
2
1
−4 −1 0 −1
1 0 0
 0
5 −8 −6  →  0 1 0
5 −8 −6  .
1 0
5
4
−3
5
4
0
0 1 −3
0 0 1


2
1
−8 −6  .
5
4
ar
Por lo tanto, la matriz inversa es: A−1
−1
= 5
−3
Calculemos ahora la matriz cofactor:
2
2
3
3
4
(Ac )1 = (−1)
(Ac )1 = (−1)
1
3
1
4
−3
2
2
4
3
4
2
2
−3
2
= 7 , (Ac )2 = (−1)
−2
1
2
2
= 6 , (Ac )2 = (−1)
−2
2
2
−3
2
1
1
= 14 , (Ac )3 = (−1)
3
5
= 2 , (Ac )2 = (−1)
3
1
2
2
−3
1
4
4
5
= −2 , (Ac )3 = (−1)
rP
re
1
(Ac )1 = (−1)
lim
in
adj[A]
.
2. También se puede obtener la matriz inversa de la siguiente manera: A−1 = det|A|


3 −2
2
2 −3  . Primero procedemos a calcular el determinante det |A| =
Dada la siguiente matriz: A =  1
4
1
2


3 −2
2
 1
2 −3  = 35 .
4
1
2
3
3
4
6
= 11 , (Ac )3 = (−1)
2
1
= −7 ,
−2
1
3
1
= −11 ,
−2
2
= 8.
ad
o
Por lo tanto, la matriz cofactor y la adjunta son:




7 14 −7
7
6 2
−2 11  .
Ac =  6 −2 −11  ⇒ adj [A] =  14
2 11
8
−7 −11 8
Y ahora si, la matriz inversa:
A−1

6 2
−2 11  .
−11 8
Practicando con Maxima
rr
4.4.11.

7
1 
14
=
35
−7
Bo
En este ejercicio vamos a introducir algunos comandos básicos que nos permitirán realizar operaciones tı́picas
con matrices. Dada la siguiente matriz:
(%i1) A:matrix([1,2,3],[4,8,5],[9,5,4]);


1 2 3
( %o1) 4 8 5
9 5 4
La transpuesta es:
(%i2) transpose(A);


1 4 9
( %o2) 2 8 5
3 5 4
254
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
El comando adjoint(A) calcula el adjunto de la matriz A. La matriz adjunta es la transpuesta de la matriz de
cofactores de A.
(%i3) adjoint(A);


7
7
−14
7 
( %o3)  29 −23
−52 13
0
ar
Para la matriz inversa:
in
(%i4) invert(A);

 1
1
2
− 13 − 13
13
29
1 
23
− 13
( %o4) − 91
91
4
1
−7
0
7
(%i5) determinant(A);
lim
( %o5) − 91
(%i6) invert(A),detout;


7
7
−14
 29 −23
7 
−52 13
0
( %o6) −
91
rP
re
Si se quiere, se puede calcular la inversa con el determinante afuera:
Podemos comprobar que A−1 A = I
(%i7) invert(A).A;


1 0 0
( %o7) 0 1 0
0 0 1
ad
o
Para calcular la menor (i, j) de la matriz, es decir, eliminar la fila i y la columna j de una matriz se debe escribir:
(%i8) minor(A,2,2);
1 3
( %o8)
9 4
rr
Para generar una matriz triangular superior a partir de una matriz dada se debe usar el siguiente comando:
triangularize(). El comando echelon() es equivalente pero normaliza a 1 el primer elemento no nulo de cada fila
utilizando el método de eliminación de Gauss-Jordan.
Bo
(%i9) triangularize(A);


1
2
3
( %o9) 0 −13 −23
0
0
91
(%i10)echelon(A);


1 2 3

( %o10) 0 1 23
13
0 0 1
Con el paquete nchrpl se puede calcular la traza de una matriz
(%i11)load(nchrpl)$
(%i12)mattrace(A);
4.4. UN ZOOLÓGICO DE MATRICES CUADRADAS
255
( %o12) 13
Consideremos ahora la matriz
([1, %i, 0], [1, 2 ,-%i], [%i, 1, 2] );

0
−i
2
ar
(%i13)M:matrix

1 i
( %o13) −1 2
i 1

1
1
(1−x)i
2


(1 − x)
lim
(%i14)(1-x)^M;

i
1−x
(1 − x)
2

1
(1 − x)
( %o14)  1−x
i
(1 − x)
1−x
(%i15)domxexpt:false$
in
Para el exponente de matrices tenemos la opción domxexpt (true o false). Cuando es true el exp(M ) se
interpreta como la matriz cuyo elemento i, j es igual a exp(M [i, j]). En el otro caso, exp(M ) se interpreta como
(x)M .
(%i16)(1-x)^M;
1

−1

( %o16) (1 − x)
i

i
2
1
0

−i

2
rP
re

Y en cuanto al cálculo del rango de una matriz
(%i17)rank(M);
( %o17) 3
4.4.12.
ad
o
(%i18)kill(all)$
Ejercicios
1. Considere las matrices:

0
A= i
−i
−i
0
i
 √

i
−i  ,
0
3
1
B= √  1
8
2
√
−√ 2
6
0
√ 
− 3
−1  .
2
Bo
rr
Diga si son: (a) reales, (b) diagonales, (c) simétricas, (d) antisimétricas, (e) singulares, (f) ortogonales, (g)
hermı́ticas, (h) antihermı́ticas, (i) unitarias o (j) normales.
10 3i
2. Dada una matriz hermı́tica H =
, construya la matriz unitaria U, tal que U† HU = D donde D
−3i 0
es una matriz real y diagonal.
3. Utilizando el método de eliminación de Gauss-Jordan encuentre la inversa de la matriz:


1 2 3
A= 4 8 5 
9 5 4
4. Encuentre la matriz inversa de las siguientes matrices:

2
A= 1
−3
4
−2
3

3
−2  ,
2

1
B= 1
0
1
1
1

0
1 ,
1

1/2
 1/2
C=
 1/2
1/2
1/2
1/2
−1/2
−1/2
1/2
−1/2
1/2
−1/2

1/2
−1/2 
.
−1/2 
1/2
256
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
Además, calcule: BT (A)−1 B y (2A + (B)−1 BT )AT .
5. Considere matrices ortogonales, reales 3 × 3 las cuales, adicionalmente cumplen con: det |M| = 1.
a) ¿Cuántos parámetros reales son necesarios para caracterizar unı́vocamente a este tipo de matrices?
b) ¿Este tipo de matrices forman grupo bajo la multiplicación de matrices?
ar
c) Si ahora considera la matrices ortogonales reales con det |M| = −1 ¿Este tipo de matrices formarán grupo
bajo la multiplicación? Justifique su respuesta.
6. Si A y B son dos matrices hermı́ticas que no conmutan: AB − BA = iC , entonces pruebe que C es hermı́tica.
7. Si A = exp (iαB) , α ∈ R. Demuestre que si B es hermı́tica entonces A es unitaria.
in
8. Pruebe que el producto directo de dos matrices unitarias resulta en una matriz unitaria.
4.5.
Sistemas de ecuaciones lineales
lim
9. Resuelva los problemas anteriores utilizando Maxima.
Una de las aplicaciones más útiles del álgebra de matrices es la resolución de sistemas de ecuaciones lineales.
A11 x1 + A12 x2 + · · · A1n xn
= c2
..
.
rP
re
A21 x1 + A22 x2 + · · · A2n xn
= c1
1
m 2
m n
Am
1 x + A2 x + · · · An x
= cm ,
Este sistema puede ser expresado de una forma más compacta:
i
α
Aα
i x =c
y α = 1, 2, .., m ,
por lo tanto, tendremos m ecuaciones lineales para n incógnitas x1 , x2 , · · · xn . Las cantidades Aα
i resultan ser las
componentes de la matriz de los coeficientes.
Si todos los ci son cero el sistema se denomina homogéneo, en caso contrario inhomogéneo. Puede resultar que
el conjunto de las incógnitas {xi } represente una solución, infinitas soluciones o que simplemente no exista una
solución para el sistema.
Este problema puede ser pensado como un problema de un operador A en el espacio vectorial de transformaciones
lineales L (V, W), donde dim (V) = n y dim (W) = m, con las cα las componentes del vector transformado:
ad
o
con i = 1, 2, .., n
i
|ci = A |xi → cα = Aα
i x .
Bo
rr
El operador A aplicará todo vector de V en algún subespacio (o todo el espacio) de W. A este subespacio se le
denomina el rango o recorrido de A y su dimensión es igual al rango de la matriz A. Si A es no singular, entonces
existe algún subespacio de V que es aplicado al vector cero de W, es decir, se cumple que A |x0 i = |0i, donde al
conjunto de vectores {|x0 i} se le llama el espacio nulo de A.
A continuación, mostraremos algunos métodos para la resolución de sistemas de ecuaciones lineales.
4.5.1.
Eliminación de Gauss-Jordan
Uno de los métodos más utilizados es el de la eliminación de Gauss-Jordan, el cual se basa en el intercambio
de ecuaciones y la multiplicación apropiada e inteligente por constantes y resta de ecuaciones. La idea es construir
una matriz triangular superior para poder luego despejar desde abajo.
Veamos como se aplica el método para resolver el sistema de ecuaciones. Primeramente escribimos el siguiente
arreglo:


a
2 3 −1 5
b  4 4 −3 3  ,
c
−2 3 −1 1
4.5. SISTEMAS DE ECUACIONES LINEALES
257
entonces para eliminar x de la fila c (o la ecuación c) sumamos la fila a con la c, a + c y esta nueva ecuación será la
nueva c


a
5
2 3 −1
b  4 4 −3
3 ,
0
c
6
0 6 −2

a
2
b0  0
c0
0
3
−2
6
−1
−1
−2

5
−7  ,
6

a
2
b0  0
c00
0
3
−2
0
−1
−1
−5

5
−7  .
−15
ar
ahora −2a + b será la nueva b
in
finalmente 3b0 + c0
−5z = −15 → z = 3 ,
lim
Este sistema es equivalente al primer sistema de ecuaciones, el lector puede verificar que poseen el mismo
determinante. Po lo tanto, la solución emerge rápidamente:
−2y − z = −7 → −2y − 3 = −7 → y = 2 ,
2x + 3 (2) − 3 = 5 → x = 1 .
Es bueno recalcar que los sistemas de ecuaciones lineales no necesariamente tienen solución y a veces tienen más
de una solución.
El método de la matriz inversa
rP
re
4.5.2.
El análisis matricial nos puede ayudar a investigar sobre las posibles soluciones de un sistema de ecuaciones
lineales, como vimos, en notación de matrices el sistema se puede escribir de la manera siguiente:
 1
 1   1 
A1 A12 · · · A1n
x
c
 A21 A22 · · · A2n   x2   c2 


 

 ..
  ..  =  ..  ⇒ AX = C .
..
 .
 .   . 
.
Am
1
Am
2
···
Am
n
xn
cm
ad
o
Podemos considerar a cada columna de la matriz A como un vector, entonces el rango r de la matriz A será
igual al número de vectores linealmente independientes, este número es también la dimensión del espacio vectorial
que expanden estos vectores.
Con respecto a las posibles soluciones del sistema podemos decir:
1. Si C pertenece al rango de A y además r = n, entonces todos los vectores del conjunto son linealmente
independientes y el sistema tendrá como única solución al conjunto {x1 , x2 , . . . xn }.
Bo
rr
2. Si C pertenece al rango de A y además r < n, entonces únicamente r vectores serán linealmente independientes.
Esto significa que podremos escoger los coeficientes de los n − r vectores de manera arbitraria sin dejar de
satisfacer el sistema. Por tanto, existirá un número infinito de soluciones, que expanden un espacio vectorial
de dimensión n − r.
3. La otra posibilidad es que el sistema no tenga solución, en este caso C no pertenece al rango de A.
Cuando el sistema es homogéneo, C = O, claramente existe una solución que viene a ser la trivial: {x1 = x2 =
· · · = xn = 0}, además, si r = n ésta será la única solución. Es bueno anotar que si hay menos ecuaciones que
incógnitas (m < n) entonces automáticamente r < n, por lo tanto un conjunto de ecuaciones lineales homogéneas
con menos ecuaciones que incógnitas siempre tiene una infinidad de soluciones.
Debemos considerar el importante caso cuando m = n, es decir, la matriz A es cuadrada y existe igual número
de ecuaciones como de incógnitas. Al ser cuadrada la matriz se tiene que la condición r = n implica que la matriz
es no singular (det |A| =
6 0). El caso r < n se corresponde a que det |A| = 0.
Para resolver el sistema de ecuaciones consideremos lo siguiente: dada la matriz A, n × n no singular, entonces
A tiene una matriz inversa, tal que:
AX = C ⇒ X = A−1 C .
258
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
4.5.3.
Factorización LU
El método de la matriz inversa es relativamente simple, pero laborioso cuando se trata de resolver sistemas de
ecuaciones muy grandes. La factorización o descomposición LU (Lower-Upper) es una técnica, existen varias de
este tipo, para factorizar una matriz como el producto de una matriz triangular inferior y una matriz triangular
superior. Si A es un matriz cuadrada no singular, entonces:
AX = C ⇒ A = LU ,
in
ar
las matrices L y U serán únicas.
Este método es básicamente una versión de el método de Gauss-Jordan, pero es más eficiente a la hora de ser
implementado en algoritmos computacionales tanto algebraicos como numéricos.
Para matrices 3 × 3 el método se implementa de la siguiente manera.


 
 1
1
0 0
U11
U21
U31
U1 U21 U31
,
L21 U21 + U22
L21 U31 + U32
A =  L21 1 0   0 U22 U32  =  L21 U11
3 1
3 1
3 2
3 1
3 2
3
3
3
3
L1 U1 L1 U2 + L2 U2 L1 U3 + L2 U3 + U3
0
0 U3
L1 L2 1
lim
las nueve incógnitas se obtienen igualando con las componentes conocidas de la matriz A. Con L y U determinadas
tenemos entonces que
LUX = C ,
por lo tanto, se debe realizar los cálculos en dos partes:
y luego
UX = Y .
rP
re
primero LY = C
Con la matrices L y U se puede calcular el determinante de la matriz A de una manera más directa, es fácil ver
que:
n
Y
Uii .
det |A| = det |L| det |U| = det |U| =
i=1
4.5.4.
Método de Cramer
Un método alternativo para resolver sistemas de ecuaciones lineales es la conocida regla de Cramer. El funcionamiento del método lo podemos ilustrar con un sistema de tres ecuaciones y tres incógnitas:
= c1
A21 x1
A31 x1
= c2
ad
o
A11 x1 + A12 x2 + A13 x3
+
+
A22 x2
A32 x2
+
+
A23 x3
A33 x3
= c3 ,
Como mencionamos anteriormente, el determinate de una matriz, det |A| = |A|,
A11
A21
A31
rr
|A| =
A12
A22
A32
A13
A23
A33
,
Bo
no cambia bajo la operación, por ejemplo, de sumarle a la primera columna las cantidades:
|A| =
A11
A21
A31
A12
A22
A32
A13
A23
A33
=
A11 + (x2 /x1 )A12 + (x3 /x1 )A13
A21 + (x2 /x1 )A22 + (x3 /x1 )A23
A31 + (x2 /x1 )A32 + (x3 /x1 )A33
lo cual es igual a:
1
|A| = 1
x
c1
c2
c3
A12
A22
A32
A13
A23
A33
≡
1
|∆1 | .
x1
Se puede hacer lo mismo con las otras dos columnas para obtener:
x1 =
|∆1 |
,
|A|
x2 =
|∆2 |
,
|A|
x3 =
|∆3 |
.
|A|
A12
A22
A32
A13
A23
A33
4.5. SISTEMAS DE ECUACIONES LINEALES
259
Donde los determinantes, |∆n |, son los determinantes de Cramer:
|∆1 | =
c1
c2
c3
A12
A22
A32
A13
A23
A33
,
|∆2 | =
A11
A21
A31
c1
c2
c3
A13
A23
A33
,
|∆3 | =
A11
A21
A31
A12
A22
A32
c1
c2
c3
.
Se puede demostrar que si |A| =
6 0, entonces la solución ası́ obtenida es única.
Ejemplos
1. Resolver el sistema:
2x1 + 4x2 + 3x3 = 4 , x1 − 2x2 − 2x3 = 0 , −3x1 + 3x2 + 2x3 = −7 .
 1  

3
x
4
−2   x2  =  0  ,
2
x3
−7
lim
Este sistema de ecuaciones se puede escribir como:

2
4
AX = C ⇒  1 −2
−3 3
in
Utilizando el método de la matriz inversa.
donde A es la matriz de los coeficientes.
resulta que
2
4
−3

 

1
−2
4
2
13
7   0  =  −3  .
−18 −8
−7
4
rP
re
Luego de calcular la matriz inversa de A entonces
 1 

x
1

X = A−1 C ⇒  x2  =
11
3
x
ar
4.5.5.
Existe entonces una única solución al sistema, que es: {x1 = 2, x2 = −3, x3 = 4}.
2. Resolver el mismo sistema de ecuaciones anteriormente estudiado:
2x1 + 4x2 + 3x3 = 4 , x1 − 2x2 − 2x3 = 0 , −3x1 + 3x2 + 2x3 = −7 .
Pero utilizando el método de factorización LU.
La matriz de los coeficientes es:

ad
o
2
A= 1
−3
Cálculo de L y U

rr
2
 1
−3
4
−2
3
 
U11
3
−2  =  L21 U11
L31 U11
2
4
−2
3

3
−2 
2
U21
2 1
L1 U2 + U22
L31 U21 + L32 U22

U31

L21 U31 + U32
3 1
L1 U3 + L32 U32 + U33
Bo
Con los valores de inicio: U11 = 2, U21 = 4, U31 = 3 se procede a resolver las ecuaciones:
L21 U11 = 1
L21 U21 + U22 = −2
L31 U21 + L32 U22 = 3
L31 U11 = −3
L21 U31 + U32 = −2
L31 U31 + L32 U32 + U33 = 2
por lo tanto

1
A = LU =  1/2
−3/2
Resolvemos primero LY = C, lo cual

1
0
 1/2
1
−3/2 −9/4
0
1
−9/4

0
2
0  0
1
0
4
−4
0

3
−7/2 
−11/8
es bastante fácil
 1
 1  

0
y
4
 y =4
y 2 = −2
0   y2  =  0  ⇒
 3
3
1
y
−7
y = − 11
2
260
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
Con este resultado resolvemos: UX = Y, y obtenemos la solución
 1

 1  

2 4
3
x
4
 x =2
 0 −4 −7/2   x2  =  −2  ⇒
x2 = −3
 3
0 0 −11/8
x3
−11/2
x =4
3. Resolver, nuevamente, el sistema de ecuaciones:
Utilizando ahora los determinantes de Cramer.

2
A = XC ⇒  1
−3
 1  

3
x
4
−2   x2  =  0  ⇒ |A| = 11 .
2
x3
−7
4
−2
3
in
Esto es:
4
0
−7
4
−2
3
3
−2
2
= 22 ,
2
1
−3
|∆2 | =
4
0
−7
3
−2
2
de manera que
4.5.6.
22
= 2,
11
x2 = −
= −33 ,
33
= −3 ,
11
x3 =
|∆3 | =
2
1
−3
4
−2
3
44
= 4.
11
rP
re
x1 =
lim
Los diferentes determinantes de Cramer son:
|∆1 | =
ar
2x1 + 4x2 + 3x3 = 4 , x1 − 2x2 − 2x3 = 0 , −3x1 + 3x2 + 2x3 = −7 .
Practicando con Maxima
1. Resolveremos el siguiente sistema se ecuaciones lineales por el método de Gauss-Jordan
2x1 + 4x2 + 3x3
=
4
1
2
3
=
0
1
2
3
= −7
x − 2x − 2x
−3x + 3x + 2x
ad
o
Introducimos el sistema de ecuaciones:
(%i1) ecu1:2*x1+4*x2+3*x3=4; ecu2:x1-2*x2-2*x3=0; ecu3:-3*x1+3*x2+2*x3=-7;
( %o1) 3x3 + 4 x2 + 2 x1 = 4
( %o2) − 2 x3 − 2 x2 + x1 = 0
rr
( %o3) 2x3 + 3 x2 − 3 x1 = −7
Construimos la matriz de coeficientes y la denominaremos A
Bo
(%i4) A:coefmatrix([ecu1,ecu2,ecu3],[x1,x2,x3]);

2
( %o4)  1
−3
4
−2
3

3
−2
2
Le agregamos la columna con los elementos independientes
(%i5) M:addcol(A,[4,0,-7]);

2
( %o5)  1
−3
4
−2
3
−3
−2
2

4
0
−7
4
0
−7
= 44 .
4.5. SISTEMAS DE ECUACIONES LINEALES
261
Reducimos la matriz M utilizando el algoritmo de Gauss-Jordan.
(%i6) echelon(M);

1
( %o6) 0
0
−2
1
0
−2
0

7
8
1
2
1
4
ar
De la última fila es fácil determinar que x3 = 4. Los otros dos valores que resultan son x2 = −3 y x1 = 2.
Por supuesto podemos recurrir al cálculo directo:
in
(%i7) linsolve([ecu1,ecu2,ecu3],[x1,x2,x3]);
( %o7) [x1 = 2, x2 = −3, x3 = 4]
2x1 + 4x2 + 3x3
1
2
3
1
2
3
x − 2x − 2x
−3x + 3x + 2x
pero ahora por el método de la matriz inversa.
lim
2. Resolvamos nuevamente el mismo sistema
=
4
=
0
= −7
( %o8) 3 x3 + 4 x2 + 2 x1 = 4
( %o9) − 2 x3 − 2 x2 + x1 = 0
( %o10) 2 x3 + 3 x2 − 3 x1 = −7
La matriz de cofactores:
rP
re
(%i8) ecu1:2*x1+4*x2+3*x3=4; ecu2:x1-2*x2-2*x3=0; ecu3:-3*x1+3*x2+2*x3=-7;

ad
o
(%i11)A:coefmatrix([ecu1,ecu2,ecu3],[x1,x2,x3]);
2
( %o12)  1
−3
4
−2
3

3
−2
2
La matriz inversa de A la denominaremos Ainv, y la calcularemos con el determinante afuera:
rr
(%i13)Ainv:invert(A),detout;

Bo
( %o13)
2
4
−3

1
−2
13
7
−18 −8
11
La matriz con los términos inhomogéneos lo llamaremos C:
(%i14)C:matrix([4,0,-7]);
( %o14) 4
0
−7
Para que finalmente podamos hacer la siguiente multiplicación de matrices:
(%i15)X:Ainv.C;
262
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES


2
( %o15) −3
4
Por lo tanto: x1 = 2, x2 = −3, x3 = 4.
3. Vamos ahora a resolver el mismo sistema pero usando la técnica de factorización LU.
ar
Le podemos pedir al programa que factorize la matriz A por medio de la función lu factor(A), consultar el
manual de Maxima para más detalles.
(%i16)U:lu_factor(A)$
1
( %o17) 0
0
0
1
0
 
1
0
0 ,  12
1
− 23
0
1
− 94
 
2
0
0 , 0
1
0
4
−4
0

3
− 72 
− 11
8
Por lo tanto, aquı́ tendremos que: L = F [2] y U = F [3].
Podemos resolver entonces la primera parte, LY = C:
(%i18)Y:invert(F[2]).C;

4
( %o18)  −2 
− 11
2
Y ahora UX = Y:
(%i19)X:invert(F[3]).Y;

2
( %o19) −3
4
ad
o

rP
re

lim

in
(%i17)F:get_lu_factors(U);
Por lo que resulta que: x1 = 2, x2 = −3, x3 = 4.
Notemos que:
(%i20)determinant(A)=determinant(F[2])*determinant(F[3]);
rr
( %o20) 11 = 11
4. Utilicemos ahora los determinantes de Cramer. Para tal fin, construiremos las matrices eliminando las columnas correspondientes.
Bo
(%i21)A1:col(A,1)$ A2:col(A,2)$ A3:col(A,3)$ C:transpose(matrix([4,0,-7]))$
Las tres matrices son entonces:
(%i22)D1:addcol(C,A2,A3);D2:addcol(A1,C,A3);D3:addcol(A1,A2,C);

4
( %o22)  0
−7

2
( %o23)  1
−3

4
3
−2 −2
3
2

4
3
0 −2
−7 2
4.5. SISTEMAS DE ECUACIONES LINEALES

2
( %o24)  1
−3
4
−2
3
263

4
0
−7
Por lo tanto, los determinantes generan la solución a problema:
(%i25)x1:determinant(D1)/determinant(A);x2:determinant(D2)/determinant(A);
x3:determinant(D3)/determinant(A);
ar
( %o25) 2
( %o26) − 3
5. Existen algunas consideraciones a tomar en cuenta.
El sistema puede contener más incógnitas que ecuaciones, por ejemplo:
lim
(%i28)ecu1:x+y+z=1; ecu2:x+2*y+z=0;
in
( %o27) 4
( %o28) z + y + x = 1
( %o29) z + 2 y + x = 0
(%i30)linsolve([ecu1,ecu2,ecu3],[x,y,z]);
rP
re
( %o30) [x = 2 − %r1 , y = −1, z = %r1 ]
El programa nos está señalando que las soluciones, en este caso infinitas, dependerán de un parámetro que
aquı́ es indicado con el sı́mbolo %r1 . Una solución puede ser entonces la siguiente: {x = 2, y = −1, z = 0}.
El sistema tiene más ecuaciones que incógnitas, por ejemplo:
(%i31)ecu1:x+y=5; ecu2:x+2*y=8; ecu3:3*x+y=9;
( %o31) y + x = 5
( %o32) 2 y + x = 8
( %o33) y + 3 x = 9
ad
o
(%i34)linsolve([ecu1,ecu2,ecu3],[x,y]);
solve: dependent equations eliminated: (3)
( %o34) [x = 2, y = 3]
Aquı́, Maxima encuentra una solución al eliminar una de las ecuaciones dependientes.
El sistema no tiene solución, por ejemplo:
(%i35)ecu1:x+y=5; ecu2:x+2*y=8; ecu3:3*x+y=10;
Bo
rr
( %o35) y + x = 5
( %o36) 2 y + x = 8
( %o37) y + 3 x = 10
(%i38)linsolve([ecu1,ecu2,ecu3],[x,y]);
( %o38) [ ]
4.5.7.
Ejercicios
1. Resuelva, utilizando dos de los métodos anteriormente vistos, el siguiente sistema de ecuaciones:
2x + 3y + z
=
11
x+y+z
=
6
5x − y + 10z
=
34
264
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
2. Resuelva, utilizando el método de la matriz inversa, el siguiente sistema de ecuaciones:
x1 + 2x2 + 3x3
=
1
3
=
2
x1 + 3x2 + 4x3
=
3
1
2
3x + 4x + 5x
x+y+z
=
1
x + 2y + 4z
=
η
x + 4y + 10z
=
η2
ar
3. Demuestre que el siguiente sistema sólo tiene solución si η = 1 o η = 2
x1 + ηx2
1
=
1
2
x − x + 3x
3
= −1
1
2
3
= −2
lim
2x − 2x + ηx
in
4. Encuentre las condiciones sobre η para que al resolver el sistema
a) tenga una solución
b) no tenga solución
c) tenga infinitas soluciones
Encuentre todas las soluciones que puedan existir.
rP
re
5. Encuentre la factorización LU de las siguientes matrices:

3
A= 1
2
6
0
−2

2
 1
B=
 5
3

9
5 ,
16
−3
4
3
−6
1
−3
−1
−3

3
−3 
.
−1 
1
Resuelva AX = C, cuando: C = (21 9 28)T y C = (21 7 22)T .
Resuelva BX = C cuando: C = (−4 1 8 − 5)T y C = (−10 0 − 3 − 24)T .
6. Utilizando la regla de Cramer resuelva el siguiente sistema:
=
4
10x1 − 8x2 − 10x3
=
44
=
72 .
ad
o
13x1 + 22x2 − 13x3
1
2
9x − 18x − 9x
3
7. Utilizando cualquiera de los métodos anteriores resuelva:
Bo
rr
x1 + x2 + x3 + x4 + x5
1
2
3
3
= −2
4
5
=
23
5
=
12 .
−2
−2
−1
−5
1

x + 2x + 2x + 6x
1
2
3
4
5x + 4x + 3x + 3x − x
8. Determine el rango de la siguiente matriz:

1
 2

 −2

 6
−1
−2
−1
−5
0
−1
3
1
8
−1
1
7
5
3x + 2x + x + x − 3x
2
=
4
−1
0
−4
2
−1
−1
−2
3
−7
2





9. ¿Cuál es la condición para que las siguientes rectas se intercepten en un mismo punto?
a1 x + b1 y + c1 = 0 , a2 x + b2 y + c2 = 0 , a3 x + b3 y + c3 = 0 ,
10. Resuelva los problemas anteriores utilizando Maxima.
4.6. AUTOVECTORES Y AUTOVALORES
4.6.
265
Autovectores y autovalores
La ecuación de Schrödinger independiente del tiempo de la Mecánica Cuántica es una ecuación, que escrita en
la forma de operadores, tiene la siguiente forma:
H |ΨE i = E|ΨE i ,
A |ψi = λ |ψi ,
lim
in
ar
donde H es un operador diferencial de segundo orden llamado el hamiltoniano y ΨE la función de onda, en este
caso representada por |ΨE i, un estado propio de H que corresponde a un valor propio de la energı́a E.
Por tratarse de un espacio de Hilbert, es decir, un espacio vectorial con un producto interno bien definido, resulta
de interés buscar soluciones en lo que se denomina el estado ligado de la ecuación de Schrödinger. Esto significa
buscar los |ΨE i en el espacio de las funciones de cuadrado integrable introduciendo una base unidimensional para
representar ΨE y una matriz para representar H, en otras palabras: buscar una representación matricial para la
ecuación de Schrödinger.
Los vectores propios, |ΨE i, autovectores o “eigenvectores” de un operador lineal H son los vectores no nulos que,
cuando son transformados por el operador, dan lugar a un múltiplo escalar de sı́ mismos, con lo que no cambian su
dirección. Este escalar E recibe el nombre de valor propio, autovalor, valor caracterı́stico o “eigenvalor”. De manera
que una transformación queda completamente determinada por sus vectores propios y valores propios. Un espacio
propio, autoespacio, “eigenespacio” o subespacio fundamental asociado al valor propio E es el conjunto de vectores
propios con un valor propio común.
De manera general, llamaremos a |ψi un autovector del operador A si se cumple que
(4.14)
4.6.1.
ad
o
rP
re
en este caso λ (que, en general será un número complejo) se denomina el autovalor correspondiente al autovector
|ψi. La ecuación (4.14) es conocida en la literatura como la ecuación de autovalores y se cumple para algunos valores
particulares de los autovalores λ y, obviamente esto conduce a algunos vectores |ψi, los autovectores. Al conjunto
de los autovalores se le denomina el espectro del operador A.
Nótese que si |ψi es autovector de A para un determinado autovalor λ entonces |φi = α |ψi (un vector proporcional a |ψi, con α un número complejo) también es un autovector para el mismo autovalor. Esto representa una
incómoda ambigüedad: dos autovectores que corresponden al mismo autovalor. Un intento de eliminarla es siempre considerar vectores |ψi normalizados, i.e. hψ |ψi = 1. Sin embargo, no deja de ser un intento que no elimina la
ambigüedad del todo porque siempre queda el ángulo de fase arbitrario. Esto es, el vector eiθ |ψi, con θ un número
real arbitrario, tiene la misma norma del vector |ψi. Sin embargo esta arbitrariedad es inofensiva y en Mecánica
Cuántica las predicciones obtenidas con |ψi son las mismas que con eiθ |ψi.
Autovalores, autovectores e independencia lineal
La relación que existe entre los autovalores e independencia lineal de los autovectores asociados con cada autovalor es una de las herramientas más útiles que disponemos. Expondremos a continuación tres teoremas que establecen
esta relación.
rr
Teorema 1: Sean {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk i} autovectores del operador A : Vm → Vn . Supongamos que
existen k autovalores: {λ1 , λ2 , · · · , λk }, distintos correspondientes a cada uno de los autovectores |ψj i, entonces
los {|ψ1 i , |ψ2 i , · · · , |ψk i} son linealmente independientes.
Bo
Demostración La demostración de este teorema es por inducción y resulta elegante y sencilla.
Primeramente demostramos para j = 1.
Obvio que el resultado se cumple y es trivial para el caso k = 1 (un autovector |ψ1 i que corresponde a un
autovalor λ1 es obvia y trivialmente linealmente independiente).
Seguidamente supondremos que se cumple para j = k − 1.
Si existen {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk−1 i} autovectores de A correspondientes a {λ1 , λ2 , · · · , λk−1 } entonces los
{|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk−1 i} son linealmente independientes.
Ahora lo probaremos para j = k.
Por lo cual si tenemos k autovectores {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk i}, podremos construir una combinación lineal
con ellos, y si esa combinación lineal se anula serán linealmente independientes.
cj |ψj i = 0
con j = 1, 2, · · · , k ,
266
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
al aplicar el operador A a esa combinación lineal, obtenemos: cj A |ψj i = 0 ⇒ cj λj |ψj i = 0 , multiplicando
por λk y restando miembro a miembro resulta:
cj (λj − λk ) |ψj i = 0
con j = 1, 2, · · · , k − 1 ,
(nótese que el último ı́ndice es k − 1) pero, dado que los k − 1 vectores |ψj i son linealmente independientes,
entonces tendremos k − 1 ecuaciones cj (λj − λk ) = 0, una para cada j = 1, 2, · · · , k − 1. Dado que λj 6= λk
necesariamente llegamos a que cj = 0 para j = 1, 2, · · · , k − 1 y dado que:
con j = 1, 2, · · · , k ⇒ cj 6= 0 ,
ar
cj |ψj i = 0
con lo cual si cj |ψj i = 0 ⇒ cj = 0 con j = 1, 2, · · · , k , y los {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk i} son linealmente
independientes y queda demostrado el teorema. J
lim
in
Es importante acotar que este teorema nos recalca que si A : Vm → Vn y A tiene k ≤ n autovalores
{λ1 , λ2 , · · · , λk } entonces existirán, cuando menos, k ≤ n autovectores {|ψ1 i , |ψ2 i , · · · , |ψk i} linealmente independientes, uno para cada autovalor. Hacemos énfasis en ese cuando menos, k ≤ n autovectores linealmente
independientes, porque significa que el espacio Vm no podrá ser expandido por los autovectores de A. Ese punto lo
analizaremos en la sección 4.17.
El inverso de este teorema no se cumple. Esto es, si A : Vm → Vn tiene {|ψ1 i , |ψ2 i , |ψ3 i , · · · , |ψn i} autovectores
linealmente independientes, no se puede concluir que existan n autovalores {λ1 , λ2 , · · · , λn } distintos correspondientes a cada uno de los autovectores |ψj i.
El teorema anterior lo complementa el siguiente que lo presentaremos sin demostración.
rP
re
Teorema 2: Cualquier operador lineal A : Vn → Vn tendrá un máximo de n autovalores distintos. Adicionalmente, si A tiene precisamente n autovalores: {λ1 , λ2 , · · · , λn }, entonces los n autovectores, {|ψ1 i , |ψ2 i , · · · , |ψn i}
(uno para cada autovalor), forman una base para Vn y la representación matricial, en esa base, del operador
será diagonal
ψ i A |ψj i = Aij = diag (λ1 , λ2 , · · · , λn ) .
(4.15)
ad
o
Es muy importante recalcar el significado de este teorema. Si la dimensión del espacio vectorial dim (Vn ) = n
y por consiguiente la representación matricial será n × n, entonces A tendrá un MÁXIMO de n autovalores
{λ1 , λ2 , · · · , λn }. Por otro lado, si tenemos n autovalores distintos {λ1 , λ2 , · · · , λn } TENDREMOS n autovectores LINEALMENTE INDEPENDIENTES y la representación matricial será diagonal con los autovalores en la
diagonal: diag (λ1 , λ2 , · · · , λn ).
Una versión complementaria al teorema anterior se obtiene si consideramos que además existe una base ortogonal,
{|ei i}, para V. Por lo tanto, la representación matricial de la expresión de la ecuación (4.15) es la siguiente:
{|ei i}
A |ψi = λ |ψi ===⇒ ei A |ej i ej |ψi = ei λ |ψi = λ ei |ψi ⇒ Aij cj = λci ,
(4.16)
rr
claramente, la base ortonormal, {|ei i}, genera una representación diagonal de A, entonces Aij ∝ δji , y esto lo podemos
resumir en el siguiente teorema que presentaremos sin demostración para concluir esta sección.
Bo
Teorema 3: Dado un operador lineal A : Vn → Vn , si la representación matricial de A es diagonal, ei A |ej i =
Aij ∝ δji , entonces existe una base ortogonal {|e1 i , |e2 i , · · · , |en i} y un conjunto de cantidades {λ1 , λ2 , · · · , λn }
tales que se cumple A |ei i = λi |ei i con i = 1, 2, · · · n .
4.6.2.
El polinomio caracterı́stico, autovalores y autovectores de un operador
Nos toca ahora generar un método para calcular los autovalores {λj }, con k = 1, 2, · · · k ≤ n para un operador
lineal A : Vn → Vn suponiendo que existe una base ortonormal {|e1 i , |e2 i , · · · |en i}. Entonces la ecuación (4.16)
nos ilustra la representación matricial de la ecuación de autovalores:
ei A |ej i ej |ψi = λ ei |ψi ⇒ Aij cj = λci ⇒ Aij − λδji cj = 0 ,
con j = 1, 2, · · · , n. El conjunto de ecuaciones: Aij − λδji cj = 0, puede ser considerado un sistema (lineal y
homogéneo) de ecuaciones con n incógnitas
cj , el cual tendrá solución si el determinante de los coeficientes se anula.
j
i
i
Tendremos entonces que Aj − λδj c = 0 ⇒ det |A − λI| = 0, es decir:
4.6. AUTOVECTORES Y AUTOVALORES
267
P (λ) = det Aij − λδji = 0 .
(4.17)
Esta ecuación se denomina ecuación caracterı́stica (o secular) y a partir de ella emergen los autovalores (el
espectro) del operador A, esto es:
An1
A12
−λ
···
A22
..
An2
A1n
A2n
.
= 0.
ar
det Aij − λδji =
A11 − λ
A21
..
.
Ann − λ
El caso degenerado
rP
re
4.6.3.
lim
in
Es importante señalar que el polinomio caracterı́stico será independiente de la base a la cual esté referida la representación matricial ei A |uj i del operador A, porque hereda del determinante, esa invariancia de la representación
matricial tal y como vimos en la página 237.
El resultado será un polinomio de grado n (el polinomio caracterı́stico). Las raı́ces de este polinomio serán los
autovalores que estamos buscando. Es claro que estas raı́ces podrán ser reales y distintas, algunas reales e iguales
y otras imaginarias.
Para el caso de raı́ces reales, tendremos el mismo número de raı́ces que el grado del polinomio, generado
por la representación matricial del operador con ese mismo grado. Es decir, tendremos un operador A con una
representación matricial de dimensión n × n, con n autovalores distintos, que estará asociados a n autovectores que
serán linealmente independientes y que generarán una representación matricial diagonal.
Sea el operador lineal A : Vn → Vn y calculamos el polinomio caracterı́stico de grado n a partir de (4.17). Se
puede dar el caso que al menos una de las raı́ces del polinomio caracterı́stico presenten algún grado de multiplicidad.
Entonces el polinomio caracterı́stico se podrá factorizar de la forma:
P (λ) = det Aij − λδji = (λ − λ1 )k (λ − λ2 ) · · · (λ − λm ) · · · (λ − λn ).
(4.18)
4.6.4.
ad
o
Entonces existirán n−k raı́ces simples que podrán ser asociadas con n−k autovectores linealmente independientes y
una raı́z, λ1 , con multiplicidad k que podrá ser asociada con 1, 2, · · · hasta k autovectores linealmente independientes
con los anteriores. Es decir, ese autovalor estará asociado a un subespacio vectorial, denominado autoespacio S λ1
tal que dim(Sλ1 ) ≤ grado de multiplicidad del autovalor λ1 14 . La demostración general de la afirmación anterior
queda fuera de los alcance de este trabajo, pero en la próxima sección ilustraremos la multiplicidad algebraica vs
multiplicidad geométrica con varios ejemplos. Más adelante, cuando analicemos el caso particular de los autovalores
para la matrices hermı́ticas en la sección 4.7.1, retomaremos la relación de la multiplicidad del autovalor y la
dimensión del autoespacio que genera este autovalor degenerado.
Ejemplos
rr
E
1. Reflexión respecto al plano xy. Si R : V3 → V3 es tal que R |ψi = ψ̃ donde se ha realizado una reflexión
en el plano xy. Esto es
R |ii = |ii ; R |ji = |ji ; R |ki = − |ki ,
Bo
con |ii , |ji , |ki los vectores unitarios cartesianos. Es claro que cualquier vector en el plano xy será autovector
de R con un autovalor λ = 1, mientras que cualquier otro vector |ψi ∈ V3 y que no esté en el mencionado
plano cumple con |ψi = c |ki y también será autovector de R pero esta vez con un autovalor λ = −1.
2. Dos visiones de rotaciones de ángulo fijo θ. La rotaciones de un vector en el plano pueden verse de dos
maneras.
a) Se considera el plano como un espacio vectorial real V2 con una base cartesiana canónica:
|ii = (1, 0) , |ji = (0, 1), esto es, si:
R |ai = λ |ai ⇒ el ángulo de rotación = nπ ,
14 Este
con n entero.
problema se conoce en la literatura como la relación entra la multiplicidad algebraica del autovalor y la multiplicidad geométrica
del autoespacio
268
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
b) Igualmente si consideramos el plano complejo unidimensional, expresemos cualquier vector en el plano
en su forma polar |zi = reiθ por lo cual:
R |zi = rei(θ+α) = eiα |zi ,
si queremos λ = eiα reales, necesariamente α = nπ con n entero.
Pψ |ϕi = λ |ϕi ⇒ Pψ |ϕi = (|ψi hψ|) |ϕi ⇒ |ϕi ∝ |ψi ,
ar
3. Proyectores: autovalores y autovectores. Es interesante plantearse la ecuación de autovalores con la
definición del proyector para un determinado autoespacio. Esto es, dado Pψ = |ψi hψ| si este proyector cumple
con una ecuación de autovalores para un |ϕi supuestamente arbitrario
in
es decir, necesariamente |ϕi es colineal con |ψi. Más aún, si ahora el |ϕi no es tan arbitrario sino que es
ortogonal a |ψi , hψ |ϕi = 0 ⇒ λ = 0, entonces el espectro del operador Pψ = |ψi hψ| es 0 y 1, el primero
de los cuales es infinitamente degenerado y el segundo es simple. Esto nos lleva a reflexionar que si existe
un autovector de un determinado operador, entonces su autovalor es distinto de cero, pero pueden existir
autovalores nulos que generan un autoespacio infinitamente degenerado.
lim
4. El operador diferenciación. D |f i → D (f ) = f 0 . Los autovectores del operador diferenciación necesariamente deben satisfacer la ecuación:
D |f i = λ |f i → D (f ) (x) = f 0 (x) = λf (x) ,
rP
re
la solución a esta ecuación será una exponencial. Esto es, |f i → f (x) = ceλx , con c 6= 0, y donde las f (x) se
denominarán autofunciones del operador.
5. Ejemplos de autovalores y autovectores matrices reales. El procedimiento para el cálculo de los
autovectores y autovalores es el siguiente. Una vez obtenidas las raı́ces del polinomio caracterı́stico (los autovalores), se procede a determinar el autovector, |ψj i, correspondiente a cada autovalor. Distinguiremos en
esta determinación casos particulares dependiendo del tipo de raı́z del polinomio caracterı́stico. Ilustraremos
estos casos con ejemplos para el caso especı́fico de matrices reales 3 × 3.
ad
o
a) Todos los autovalores reales son distintos. Hemos presentado y analizado en la sección 4.6.1 tres
teoremas que discuten la relación entre los autovalores, y la independencia lineal de los autovectores
asociados con éstos. En esta sección ilustraremos el caso que surge cuando las raı́ces del polinomio
caracterı́stico (4.17) son reales y distintas.
Consideremos la siguiente representación matricial de un operador A en la base canónica


2−λ
1
3
2 1 3
1
2−λ
3
= 0,
ei A |ej i =  1 2 3  ⇒ det Aij − λδji =
3
3
20 − λ
3 3 20
con lo cual el polinomio caracterı́stico (4.17) queda expresado como:
rr
λ3 − 24λ2 + 65λ − 42 = (λ − 1) (λ − 2) (λ − 21) = 0 ,
Bo
y es claro que tiene 3 raı́ces distintas. Para proceder a calcular los autovectores correspondientes a cada
autovalor resolvemos la ecuación de autovalores (4.16) para cada autovalor. Esto es:
λ1 = 1

 1 
 1 
2 1 3
x
x
2x1 + x2 + 3x3
= x1
1
2
3
2
2
 1 2 3   x  = 1  x  ⇐⇒
x + 2x + 3x
= x2
3
3
1
2
3
3 3 20
x
x
3x + 3x + 20x = x3 ,
que constituye un sistema de ecuaciones algebraicas de 3 ecuaciones con 3 incógnitas. Resolviendo
el sistema tendremos el primer autovector:
 1 


x
−1
|ψiλ1 =1 = |ψ1 i =  x2  = α  1  ,
x3
0
con α un número distinto de cero. Este α indica la indeterminación que discutimos a comienzos de
la sección 4.6 correspondiente a esa ambigüedad que impone la presencia de una constante arbitraria
de proporcionalidad.
4.6. AUTOVECTORES Y AUTOVALORES
269
λ2 = 2
2
 1
3
 1 
 1 
3
x
x
3   x2  = 2  x2  ⇐⇒
20
x3
x3
1
2
3
2x1 + x2 + 3x3
x1 + 2x2 + 3x3
3x1 + 3x2 + 20x3
= 2x1
= 2x2
= 2x3 .
Resolviendo el sistema se tiene el segundo autovector
 1 


x
−3
|ψiλ2 = |ψ2 i =  x2  = β  −3  .
x3
1
λ3 = 21
2
 1
3
1
2
3
 1 
 1 
3
x
x
3   x2  = 21  x2  ⇐⇒
20
x3
x3
2x1 + x2 + 3x3
x1 + 2x2 + 3x3
3x1 + 3x2 + 20x3
lim
Al resolver este sistema el tercer autovector

 
x1
1
= |ψ3 i =  x2  = γ  1  .
x3
6

|ψiλ3
= 21x1
= 21x2
= 21x3 .
in

ar

rP
re
Como hemos dicho, podemos eliminar la ambigüedad de la fase arbitraria si normalizamos los autovectores:




 
−1
−3
1
E
E
E
1
1
1 
1 ,
ψ̂2 = √  −3  ,
ψ̂3 = √  1  .
ψ̂1 = √
2
19
38
0
1
6
D
E
Notemos que ψ̂ i ψ̂j = δji , es decir la base de autovectores es, necesariamente, ortonormal.
ad
o
b) Autovalores degenerados. En esta sección discutiremos algunos ejemplos de autovalores degenerados,
vale decir cuando alguna de las raı́ces del polinomio caracterı́stico (4.17) tiene una multiplicidad. Arriba
en la página 267 discutimos el caso de la diferencia de la multiplicidad algebraica y la multiplicidad
geométrica. Esto es que la dimensión del autoespacio siempre es menor o igual a la multiplicidad de la
raı́z degenerada del polinomio caracterı́stico dim(Sλ1 ) ≤ grado de multiplicidad del autovalor.
rr
1) Multiplicidad geométrica igual a multiplicidad algebraica. Consideremos una matriz real
3×3


4−λ
−3
1
4 −3 1
4
−1 − λ
0
= 0,
ei A |ej i =  4 −1 0  ⇒ det Aij − λδji =
1
7
−4 − λ
1 7 −4
con lo cual el polinomio caracterı́stico queda expresado como:
2
Bo
λ3 + λ2 − 5λ − 3 = (λ + 3) (λ − 1) = 0 ,
y es claro que tiene 2 raı́ces iguales y una distinta. En este caso λ = 1 es un
de orden 2.
Ahora resolveremos la ecuación de autovalores para cada autovalor.
λ1 = −3

 1 
 1 
4 −3 1
x
x
4x1 − 3x2 + x3
 4 −1 0   x2  = −3  x2  ⇐⇒
4x1 − x2
3
3
1
1 7 −4
x
x
x + 7x2 − 4x3



x1
−1
=  x2  = α  2 
x3
13

Resolviendo |ψiλ1

⇒
ψ̂1
E

−1
1 
2 
= √174
13
autovalor degenerado
= −3x1
= −3x2
= −3x3 .
270
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
λ2 = 1 (autovalor degenerado de orden 2)

 1   1 
4 −3 1
x
x
 4 −1 0   x2  =  x2  ⇐⇒
1 7 −4
x3
x3
4x1 − 3x2 + x3
4x1 − x2
1
x + 7x2 − 4x3
= x1
= x2
= x3 .
lim
in
ar
Resolviendo el sistema tendremos el segundo autovector
 
 1 
 
1
x
1
E
1
|ψiλ2 =  x2  = α  2  ⇒
ψ̂2 = √  2  .
14
3
x3
3
Eo
n E
son linealmente independientes como nos los habı́a anunciado el teoClaramente ψ̂1 , ψ̂2
rema 1 en la sección
D
E4.6.1, sin embargo, esos autovectores no presentan ninguna relación de
ortogonalidad ψ̂ i ψ̂j 6= δji .
Más, aún, este autovector puede descomponerse en infinitas parejas de vectores linealmente
independientes que expenden el subespacio Sλ=1 , asociado con λ = 1, el autovalor degenerado
de multiplicidad k = 2. Una posible combinación lineal podrı́a ser:


 
1
0
|ψiλ2 = α |ψ1 iλ2 + β |ψ2 iλ2 = α  0  + β  2  .
3
0
ad
o
rP
re
Por lo tanto, la multiplicidad geométrica –la dimensión del autoespacio, S λ2 =1 , asociado con el
autovalor degenerado λ = 1– coincide con la multiplicidad algebraica del autovalor λ = 1 como
raı́z del polinomio caracterı́stico. Es decir, podemos determinar la dimensión del subespacio que
alberga al vector |ψiλ2 . Es importante recalcar que ninguno de los (infinitos) dos vectores linealmente independientes, será autovector de A por separado. Unicamente lo será la combinación
lineal en la que resulta |ψiλ2 .
2) Multiplicidad geométrica menor a multiplicidad algebraica. Consideremos, para ilustrar este
caso la siguiente matriz real 3 × 3


1−λ
1
2
1 1 2
0
1−λ
3
= 0.
ei A |ej i =  0 1 3  ⇒ det Aij − λδji =
0
0
2−λ
0 0 2
En este caso, el polinomio caracterı́stico es:
2
λ3 − 4λ2 + 5λ − 2 = (λ − 2) (λ − 1) = 0 .
Bo
rr
Una vez más, el polinomio caracterı́stico tiene 2 raı́ces iguales y una distinta y, como en el caso
anterior λ = 1 es un autovalor degenerado de orden 2. Pasemos a resolver la ecuación de autovalores
para cada autovalor.
λ1 = 2

 1 
 1 
1 1 2
x
x1 + x2 + 2x3 = 2x1
x
 0 1 3   x2  = 2  x2  ⇐⇒
x2 + 3x3 = 2x2
x3
2x3 = 2x3 .
0 0 2
x3
 1 
 
x
5
Resolviendo el sistema obtenemos al primer autovector: |ψ1 i =  x2  = α  3  .
x3
1
λ2 = 1

 1   1 
1 1 2
x
x
x1 + x2 + 2x3 = x1
2
2
 0 1 3   x  =  x  ⇐⇒
x2 + 3x3 = x2
3
3
0 0 2
x
x
2x3 = x3
 1 
 
x
1
Con el correspondiente segundo autovector: |ψ2 i =  x2  = α  0  .
x3
0
4.6. AUTOVECTORES Y AUTOVALORES
271
con lo cual el polinomio caracterı́stico es:
2
in
ar
Una vez más los dos vectores NO son ortogonales, ψ i |ψj i 6= δji , pero SI linealmente independientes. En este caso, asociado al autovalor λ2 = 1, tenemos además del autovector |ψ2 i, el
autovector nulo y esto genera una imposibilidad de determinar la dimensión del autoespacio. Los
autovectores siguen siendo linealmente independientes, pero aquı́ la dimensión del autoespacio
es NECESARIAMENTE 1, dim(Sλ2 =1 ) = 1, por lo tanto ilustra que la multiplicidad geométrica
es menor que la multiplicidad aritmética de las raı́ces del polinomio caracterı́stico.
3) Vamos ilustrar un tercer ejemplo que se presenta para uno de los autovalores degenerados. Consideremos entonces otra matriz 3 × 3 con autovalores repetidos


2−λ
1
1
2 1 1
2
3−λ
2
= 0,
ei A |ej i =  2 3 2  ⇒ det Aij − λδji =
3
3
4−λ
3 3 4
λ3 + λ2 − 5λ − 3 = (λ − 7) (λ − 1) = 0 ,
λ1 = 7

2
 2
3
1
3
3
lim
que tiene 2 raı́ces iguales y una distinta. En este caso λ = 1 vuelve a ser un autovalor degenerado de
orden 2. Volvemos a calcular los autovectores correspondientes a cada autovalor
 1 
 1 
x
x
1
2   x2  = 7  x2  ⇐⇒
x3
x3
4
=
=
=
7x1
7x2
7x3 .
rP
re
Al resolver el sistema
2x1 + x2 + x3
2x1 + 3x2 + 3x3
3x1 + 3x2 + 4x3



1
x1
=  x2  = α  2  .
3
x3

|ψiλ1
λ2 = 1. En este caso el autovalor degenerado de orden 2 presenta una pequeña patologı́a. Veamos
 1   1 

2x1 + x2 + x3 = x1
x
x
2 1 1
2
2
 2 3 2   x  =  x  ⇐⇒ 2x1 + 3x2 + 2x3 = x2
3x1 + 3x2 + 4x3 = x3 .
x3
x3
3 3 4
ad
o
Resolviendo


 1 


x
0




|ψ i =  x2  = β  1 


 2 λ2
x3
−1
Bo
rr
|ψiλ2 =

 1 


x
1




|ψ1 iλ2 =  x2  = α  0 




x3
−1

con lo cual el autovector |ψiλ2 correspondiente al autovalor λ2 = 1, está asociado con a dos vec
tores linealmente independientes |ψ1 iλ2 , |ψ2 iλ2 y, por lo tanto aquı́ también la multiplicidad
aritmética coincide con la multiplicidad geométrica. Una vez más los autovectores, correspondientes a distintos autovalores no son ortogonales pero si linealmente independientes.
c) Finalmente, consideremos una matriz 3 × 3 con 1 autovalor real y dos autovalores complejos


1 2 3
1−λ
2
3
3
1−λ
2
ei A |ej i =  3 1 2  ⇒ det Aij − λδji =
= 0,
2 3 1
2
3
1−λ
con lo cual el polinomio caracterı́stico queda expresado como:
λ3 − 3λ2 − 15λ − 18 = (λ − 6) λ2 + 3λ + 3 = 0 .
En este caso λ1 = 6 es un autovalor real. Adicionalmente
existen √
dos autovalores complejos, uno el
√ complejo conjugado del otro: λ2 = − 21 3 + i 3 y λ3 = − 21 3 − i 3 . Para proceder a calcular los
272
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
autovectores correspondientes a cada autovalor resolvemos la ecuación de autovalores para cada autovalor
real. En este caso existe un único autovalor real λ = 6.

 1 
 1 
1 2 3
x
x
4x1 − 3x2 + x3 = 6x1
2
2
 3 1 2   x  = 6  x  ⇐⇒
4x1 − x2 = 6x2
3
3
1
2 3 1
x
x
x + 7x2 − 4x3 = 6x3 .
Tendremos que para λ = 6

 
x1
1
=  x2  = α  1  .
x3
1
|ψiλ1
ar

in
6. Sean A y B dos operadores hermı́ticos, con autovalores no degenerados y un operador unitario definido como:
U = A + iB. Vamos a mostrar que:
a) Si A y B conmutan, [B, A] = 0, los autovectores de A también lo son de B.
Si {|ui i} son autovectores de A entonces
A |ui i = λi |ui i ⇒ BA |ui i = λi B |ui i ,
entonces AB |ui i = λi B |ui i .
lim
como [B, A] = 0 ,
7. Dada una matriz de la forma
rP
re
Por lo tanto, B |ui i es un autovector de A. Pero la solución para la ecuación de autovectores (A − λi I) |ui i =
0 es única, por lo cual todos los autovectores de A son proporcionales. Esto es: B |uj i = µj |uj i, con lo
cual queda demostrado que los autovectores de A son autovectores de B.
b) Si U |vi i = νi |vi i, entonces |µi | = 1.
Es claro que: v j U† U |vi i = v j I |vi i ⇒ µ∗j µi v j |vi i = v j I |vi i ⇒ µ2i = 1 .

1
A= β
0
α
1
0

0
0 
1
y
A |vi i = λi |vi i
con α y β números complejos distintos de cero. Vamos a encontrar:
a) Las relaciones que deben cumplir α y β para que λi sea real.
El polinomio caracterı́stico y la condición para que λ sea real es:
p
(1 − λ)(1 − 2λ + λ2 − αβ) = 0 ⇒ λ = 1 ± αβ ⇒ αβ > 0 ∧ αβ ∈ R .
ad
o
b) Las relaciones que deben cumplir α y β para que v j |vi i = δij .
Los autovalores y autovectores para esta matriz serán:
 
 β 

√
0
p
p
αβ
λ1 = 1 ⇒ |v1 i =  0  , λ2 = 1 + αβ ⇒ |v2 i =  1  , λ3 = 1 + αβ ⇒ |v3 i = 
1
0
β2
αβ
1
0
= 1 ⇒ |α| = |β| .
rr
con lo cual: v 2 |v3 i = 0 ⇒
−β
√
αβ
c) Supongamos que A es hermı́tica, encontremos las relaciones que deben cumplir α y β.
Si A es hermı́tica, entonces α∗ = β, con lo cual se cumplen automáticamente ambas aseveraciones.
Bo
8. Dadas las siguientes matrices:
6 −2
A=
,
−2 9
B=
1
8
8
−11
,
C=
−9 −10
−10
5
,
D=
14 2
2 11
Determinemos cuales conmutan entre ellas y busquemos la base de autovectores comunes.
Notamos que: [A, B] = [A, D] = [D, B] = 0, y
0 2
0
[A, C] =
, [B, C] =
−2 0
8
−8
0
,
[D, C] =
Los autovectores comunes a A, B, D, serán:
|u1 i =
− 21
1
,
|u2 i =
2
1
.
0
2
−2
0
.

,
4.6. AUTOVECTORES Y AUTOVALORES
273
9. Dada la representación matricial de dos operadores


0 0 1
A= 0 1 0 
1 0 0

y
0
B= 1
1
1
0
1

1
1 
0
a) Evaluemos [A, B].
0
AB =  1
0
0
0
0

0
0  = BA ⇒ [A, B] = 0
0
ar

in
b) Vamos a mostrar que A tiene por autovalores λ1 = 1 y λ2 = −1, con λ1 un autovalor degenerado. Y
construyamos luego la base de autovectores para A.








0 0 1
x
x
−λ
0
1
x
 0 1 0  y  = λ y  ⇒  0 1 − λ 0  y  .
1 0 0
z
z
1
0
−λ
z
−λ
0
1
0
1−λ
0
= λ(1 − λ)λ − (1 − λ) = λ2 − 1 (1 − λ) = 0 ,
y λ = −1. Para el caso de λ = −1




0 1
x
x
1 0  y  = − y  ⇒
0 0
z
z
se cumple que:
rP
re
se tienen dos autovalores: λ = 1

0
 0
1
1
0
−λ
lim
Entonces para:
z = −x
y = −y
x = −z
con lo cual el autovector asociado con el autovalor λ = −1 tendrá la forma de:


1
|ui−1 = α  0  .
−1
Para λ = 1 se cumple:

0
1
0
ad
o
0
 0
1

 

1
x
x
0  y  =  y  ⇒
0
z
z
z=x
y=y
x=z
hay dos vectores linealmente independientes asociados con λ = 1, a saber:
 


1
0
|ui1a = β  0  y |ui1b =  y  con y arbitrario .
1
0
Bo
rr
Nótese que estos tres autovectores: {|ui1a , |ui1b , |ui−1 } son ortogonales entre
c) ¿Cuál es la representación matricial de A en la base de autovectores?
Veamos lo siguiente:

 
u1 A |u1 i u1 A |u2 i u1 A |u3 i
1 0
Ãij =  u2 A |u1 i u2 A |u2 i u2 A |u3 i  =  0 1
0 0
u3 A |u1 i u3 A |u2 i u3 A |u3 i
si.

0
0 ,
−1
ya que los autovectores forman una base ortogonal. Obviamente se cumple que:
det|A| = det|Ã| = −1
y
Tr(A) = Tr(Ã) = 1 .
d ) A partir de los autovectores de A vamos a calcular los autovalores y autovectores de B.
Claramente B |u−1 i = − |u−1 i con lo cual tenemos el primer autovector de B asociado al autovalor
λ = −1. Para encontrar los otros autovectores tendremos:


 

−λ 1
1
1
0
 1 −λ 1   y  =  0  .
1
1 −λ
1
0
274
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
4.6.5.
Practicando con Maxima
En este ejercicio aprenderemos a resolver el problema de autovalores y autovectores. Primeros lo haremos de
manera indirecta, realizando los cálculos por pasos, y luego utilizando las funciones especı́ficas del programa.
1. Dada la matriz A del primer ejemplo anteriormente resuelto:
(%i1) A:matrix([2,1,3], [1,2,3], [3,3,20]);

3
3
20
Generamos la matriz identidad 3 × 3 con el comando ident(n).
(%i2) I:ident(3);
0
1
0

0
0
1
lim

1
( %o2) 0
0
ar
1
2
3
in

2
( %o1) 1
3
Escribimos la ecuación de autovalores de manera matricial y la llamaremos M .

2−λ
( %o3)  1
3
rP
re
(%i3) M:A-lambda*I;

1
3
2−λ
3 
3
20 − λ
El determinante nos dará el polinomio caracterı́stico, luego resolvemos para λ.
(%i4) factor(determinant(M));
( %o4) − (λ − 21) (λ − 2) (λ − 1)
ad
o
(%i5) solve(%=0);
( %o5) [λ = 1, λ = 2, λ = 21]
Los autovalores son: λ1 = 1, λ2 = 2 y λ3 = 21. Para cada autovalor evaluaremos una matriz correspondiente:
rr
(%i6) M1:M,lambda=1; M2:M,lambda=2; M3:M,lambda=21;
Bo


1 1 3
( %o6) 1 1 3 
3 3 19


0 1 3
( %o7) 1 0 3 
3 3 18


−19
1
3
−19 3 
( %o8)  1
3
3
−1
Necesitamos ahora resolver, para cada autovalor, la ecuación de autovectores: AX = λi X. Ası́ que podemos
escribir las siguientes matrices:
(%i9) M1:M1.[x,y,z]; M2:M2.[x,y,z]; M3:M3.[x,y,z];
4.6. AUTOVECTORES Y AUTOVALORES
275

ar

3z + y + x
( %o9)  3 z + y + x 
19 z + 3 y + 3 x


3z + y

3z + x
( %o10) 
18 z + 3 y + 3 x


3 z + y − 19 x
( %o11)  3 z − 19 y + x 
−z + 3 y + 3 x
(%i12)ec1:M1[1,1]=0; ec2:M1[2,1]=0; ec3:M1[3,1]=0;
( %o12) 3 z + y + x = 0
( %o14) 19 z + 3 y + 3 x = 0
(%i15)solve([ec1,ec2,ec3],[x,y,z]);
rP
re
solve: dependent equations eliminated: (2)
( %o15) [[x = − %r4 , y = %r4 , z = 0]]
lim
( %o13) 3 z + y + x = 0
in
Iremos ahora resolviendo cada uno de los sistemas de ecuaciones. Para λ1 = 1:
Recordemos que Maxima nos indica con el sı́mbolo %rn que se trata de una constante. Ası́ que de las infinitas
soluciones escogemos alguna de las más simples: (1, −1, 0).
Repetimos los cálculos para el segundo autovalor, es decir, λ2 = 2:
(%i16)ec1:M2[1,1]=0; ec2:M2[2,1]=0; ec3:M2[3,1]=0;
( %o16) 3 z + y = 0
( %o17) 3 z + x = 0
ad
o
( %o18) 18 z + 3 y + 3 x = 0
(%i19)solve([ec1,ec2,ec3],[x,y,z]);
solve: dependent equations eliminated: (3)
( %o19) [[x = −3 %r5 , y = −3 %r5 , z = %r5 ]]
rr
Por lo tanto un autovector puede ser: (1, 1, −1/3).
Finalmente, para λ3 = 21:
Bo
(%i20)ec1:M3[1,1]=0; ec2:M3[2,1]=0; ec3:M3[3,1]=0;
( %o20) 3 z + y − 19 x = 0
( %o21) 3 z − 19 y + x = 0
( %o22) − z + 3 y + 3 x = 0
(%i23)solve([ec1,ec2,ec3],[x,y,z]);
solve: dependent equations eliminated: (3)
%r6
%r6
,y =
, z = %r6
( %o23) x =
6
6
Podemos tomar como autovector a: (1, 1, 6).
276
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
2. Maxima ofrece la posibilidad de resolver el problema de autovalores a través de un determinado número de
funciones. Por ejemplo, la función charpoly nos dará el polinomio caracterı́stico directamente de la matriz
que queremos estudiar y respecto de la variable que seleccionemos, es este caso será λ.
(%i24)charpoly(A,lambda);
( %o24) λ + ((2 − λ) (20 − λ) − 9) (2 − λ) + 3 (3 − 3 (2 − λ)) − 11
ar
(%i25)factor(%);
( %o25) − (λ − 21) (λ − 2) (λ − 1)
in
(%i26)solve(%=0);
( %o26) [λ = 1, λ = 2, λ = 21]
lim
El programa también permite obtener los autovalores directamente de la matriz problema. Esto se hace con el
comando eigenvalues(M). El resultado será una lista conformada a su vez por dos listas: la primera sublista
la forman los valores propios de la matriz M y la segunda con su multiplicidad correspondientes. Veamos:
(%i27)eigenvalues(A);
rP
re
( %o27) [[1, 2, 21] , [1, 1, 1]]
La función para calcular los autovectores es eigenvectors(M). El resultado será una lista con dos elementos;
el primero está formado por dos listas: la primera con los valores propios de M y la segunda con su respectiva
multiplicidad, el segundo elemento es una lista de listas de vectores propios, una por cada valor propio.
(%i28)eigenvectors(A);
1
, [[1, 1, 6]]
( %o28) [[1, 2, 21] , [1, 1, 1]] , [[1, −1, 0]] , 1, 1, −
3
ad
o
3. Consideremos otro de los ejemplos tratado anteriormente. Dada la matriz:
(%i29)B:matrix([4,-3,1], [4,-1,0], [1,7,-4]);
rr


4 −3 1
( %o29) 4 −1 0 
1 7 −4
(%i30)eigenvectors(B);
( %o30) [[[−3, 1] , [1, 2]] , [[[1, −2, −13]] , [[1, 2, 3]]]]
Bo
Notemos que sólo se obtienen dos autovectores.
4. Consideremos la matriz:
(%i31)C:matrix([2,1,1], [2,3,2], [3,3,4]);


2 1 1
( %o31) 2 3 2
3 3 4
(%i32)eigenvectors(C);
( %o32) [[[7, 1] , [1, 2]] , [[[1, 2, 3]] , [[1, 0, −1] , [0, 1, −1]]]]
4.6. AUTOVECTORES Y AUTOVALORES
277
5. Y finalmente, dada la matriz:
(%i33)D:matrix([1,2,3], [3,1,2], [2,3,1]);

1
( %o33) 3
2
2
1
3

3
2
1
#
# """ √
###
√
√
3i + 3
3i − 3
3i − 1
3i + 1
,
, 6 , [1, 1, 1] ,
1,
,−
,
−
2
2
2
2
hh
ii
ii
√
√
1, − 32i+1 , 32i−1 , [[1, 1, 1]]
ar
(%i34)eigenvectors(D);
( %o34)
Ejercicios
lim
4.6.6.
in
""" √
1. Si |v1 i y |v2 i son autovectores del operador lineal A que corresponden a distintos autovalores. Muestre que
α |v1 i + β |v2 i (α 6= 0, β 6= 0) no puede ser un autovector de A.
rP
re
2. Demuestre que si todo vector de un espacio vectorial V es un autovector del operador lineal A, entonces
A = λI. Donde I es el operador identidad.
3. Demuestre que si el operador lineal A conmuta con todos operadores que actúan em un determinado espacio
vectorial, entonces A = λI.
4. Si un operador lineal A tiene un autovector |v0 i con autovalor λ0 . Demuestre que |v0 i es también un autovector
del operador A2 con autovalor λ20 .
5. Aun si un operador lineal A no tiene autovectores el operador A2 puede llegar a tenerlos. Demuestre que si
A2 tiene un autovector con un autovalor no degenerado λ0 = µ2 , entonces A tiene un autovector.
ad
o
6. Encuentre los autovalores y autovectores de las siguientes matrices:





0 0
1
3 −1
1
0 0
 0 0
4 −2  , B =  −3 1 0  , C = 
A= 3
 1 0
−1 −2 2
4 −7 1
0 1
1
0
0
0


0

1 
, D=


0
0
0
1
0
0
1
0
0
0
0
0
0
1

0
0 
,
1 
0
y la matriz E = diag(1, 1, −1, −1). Verifique si los autovectores son ortogonales entre ellos.
rr
7. Demuestre que la matriz

2
A =  −6
3
0
4
−1

0
4 ,
0
Bo
no tiene tres autovectores linealmente independientes y que cualquier autovector tiene la forma:


λ
 3λ − 2ν  .
ν
8. Construimos un sistema con tres partı́culas, de masa mi rı́gidamente unidas, colocadas en tres puntos distintos
de la siguiente forma:






1
−1
1
m1 = 1 →  1  , m2 = 2 →  −1  y m3 = 1 →  1  .
−2
0
2
a) Encuentre la matriz del tensor de inercia.
278
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
b) Diagonalize esa matriz y encuentre los ejes principales de inercia.
9. En Mecánica Cuántica, el problema del oscilador armónico simple puede ser representado por un problema
de autovalores
L|ψ >= λ|ψ > ⇒ < x|L|ψ >= λ < x|ψ > ↔ Lψ(x) = λψ(x) ,
donde : L ↔
x2
1
d2
+
+ .
2
dx
4
2
L+ =
x
d
+
2 dx
y
L− =
ar
Si construimos un par de operadores:
x
d
−
,
2 dx
in
utilice los resultados del problema anterior y construya las nuevas autofunciones de L con sus autovalores.
1
1
.
lim
10. Considere las siguiente representación matricial para dos operadores:
1 δ
1
i
i
m
m
< u (A)uj >= Aj =
y < u |B|un >= Bn =
δ 1
δ2
a) Muestre como actúan A y B sobre un vector genérico |ψ > expandido en esa base {|u1 >, |u2 >} (vale
decir |ψ >= α|u1 > +β|u2 >).
b) Muestre que los autovalores de A son degenerados para δ = 0 y que sus autovectores son ortogonales
para δ 6= 0 e incluso para δ → 0.
rP
re
c) Muestre que también B tiene autovalores degenerados para δ = 0 y encuentre la expresión (en función
de 0 ≤ δ ≤ 1) para el coseno del ángulo entre dos autovectores.
11. Dada la siguiente representación matricial de un operador en la base canónica:
√ 2√
i 2
1
0
M=
, |1 >=
, |2 >=
.
0
1
−i 2
3
a) Encuentre los autovectores {|ϕ1 >, |ϕ2 >} para ese operador en la base canónica.
ad
o
b) Encuentre las representaciones matriciales de los operadores proyección sobre los auto espacios, P|ϕi > =
|ϕi >< ϕi |, en esa misma base canónica.
c) Encuentre las representaciones matriciales de los operadores proyección sobre los complementos ortogon
= |ϕm >< ϕn | en esa misma base y con ella calcule M = Mji Uij .
nales de los autoespacios Um
rr
12. Las matrices σ x , σ y , σ z se conocen con el nombre de matrices de Pauli :
0 1
0 −i
1 0
σx =
, σy =
, σz =
,
1 0
i 0
0 −1
I=
1
0
0
1
.
Bo
a) Muestre si las matrices de Pauli σ x , σ y , σ z , conjuntamente con la matriz identidad, I forman un grupo
respecto a la siguiente operación:
donde jkm
σ k ≡ σ j σ k = ijkm σ m + δjk I con j, k, m = x, y, z
√
es el sı́mbolo de Levi-Civita y i = −1.
σj
b) Muestre si las matrices de Pauli σ x , σ y , σ z , conjuntamente con la matriz identidad I son linealmente
independientes.
c) ¿Las matrices de Pauli forman base para un espacio vectorial de matrices complejas 2x2? ¿Por qué? Si
forman una base exprese la matriz
3 i
,
5 1
en términos de esa base.
d ) Derive la expresión general para [σ j , σ k ].
4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
279
e) Suponga ahora que σ z actúa de la siguiente forma: σ z |+i = |+i , σ z |−i = − |−i , con:
1
0
|+i , |−i .
0
1
Encuentre la expresión para los autovalores y autovectores de las otras matrices de Pauli:
σ x |+ix = λ+x |+ix ,
σ x |−ix = λ−x |−ix ,
σ y |+iy = λ+y |+iy ,
σ y |−iy = λ−y |−iy .
Pλ = λ2 − λTr(M) + det|M| .
13. Resuelva con Maxima los ejercicios anteriores.
4.7.
lim
Donde los λ son sus autovalores.
in
g) El polinomio caracterı́stico para ese operador genérico M se puede expresar como
ar
f ) Muestre que cualquier representación matricial de un operador genérico M puede ser expresado como
combinación lineal de las matrices de Pauli.
Autovalores y autovectores de matrices importantes
rP
re
Consideremos la ecuación de autovalores (4.14) y la definición de operadores adjuntos que hemos discutido en
la sección 4.2.3. Podemos afirmar sin perder generalidad que dado un conjunto de vectores {|u1 i , |u2 i , · · · , |un i}
y de cantidades {λ1 , λ2 , · · · , λn } que cumplan con A |ui i = λi |ui i con i = 1, 2, · · · n, entonces

A |ui i = λi |ui i ⇒
uj A |ui i = λi uj |ui i 
⇒ uj A − A† |ui i = (λi − λ∗j ) uj |ui i .
(4.19)

j
†
∗
j
j
†
∗
j
u A = λj u
⇒ u A |ui i = λj u |ui i
ad
o
Vale decir, hemos proyectado las ecuaciones de autovalores de un operador genérico y su adjunto a lo largo de los
vectores y las formas correspondientes, uj y |ui i, para luego restar esas expresiones miembro a miembro.
Es evidente que si no conocemos el tipo de operador, poco se puede decir de sus autovectores y autovalores. Hay
que imponer algunas restricciones sobre el tipo de operador para poder sacar algunas conclusiones respecto al tipo
de autovalores y autovectores que ese operador pueda tener. Por ejemplo:
Si A es hermı́tico, A = A† y autovectores son distintos, (i 6= j) entonces de la ecuación (4.19) se deduce que
esos autovectores serán ortogonales, uj |ui i ∝ δij .
Si A es hermı́tico, A = A† y autovectores son los mismos, (i = j) entonces los autovalores son reales: λi = λ∗i .
4.7.1.
rr
Este caso lo analizaremos en la próxima sección.
Autovalores y autovectores de matrices hermı́ticas y unitarias
Bo
Tal y como mencionamos en la sección 4.2.4 un operador hermı́tico o autoadjunto cumple con A† = A y luego
en la sección 4.3.2, comprobamos que su representación matricial es igual a su traspuesta conjugada. Por lo tanto,
la representación matricial de un operador autoadjunto es una matriz simétrica con números reales en su diagonal.
Veamos ahora cómo se comportan sus autovalores.
Teorema 4: Supongamos un operador lineal A : Vn → Vn , hermı́tico: A = A† , con autovalores: {λ1 , λ2 , . . . , λn }.
Entonces:
Los autovalores {λ1 , λ2 , . . . , λn } son reales.
Los autovectores {|ψ1 i , |ψ2 i , · · · , |ψn i}, correspondientes a cada uno de los autovalores, serán ortogonales.
Demostración:
280
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
Para demostrar que los autovalores {λ1 , λ2 , . . . , λn } son reales, proyectamos la ecuación de autovalores en
cada uno de los autovectores:
A |ψi = λ |ψi ⇒ hψ| A |ψi = λ hψ |ψi .
Ahora bien, dado que hψ |ψi es real, si demostramos que hψ| A |ψi es real, estará demostrado que λ lo será
también. Pero como A es hermı́tico:
∗
hψ| A |ψi = hψ| A† |ψi = hψ| A |ψi ⇒ hψ| A |ψi ∈ R ,
ar
por consiguiente los autovalores {λ1 , λ2 , . . . , λn } son reales. Más aún, si A es hermı́tico, y como sus autovalores
son reales entonces:
hψ| A† = λ∗ hψ| = λ hψ| ⇒ hψ| A |φi = λ hψ |φi .
A |ϕi = µ |ϕi ,
y
lim
A |ψi = λ |ψi
in
Para demostrar que los autovectores {|ψ1 i , |ψ2 i , · · · , |ψn i} son ortogonales, consideremos dos autovectores
con sus correspondientes autovalores de tal forma que se cumplen las siguientes ecuaciones:
rP
re
pero como A es hermı́tico entonces se cumple que: hϕ| A = µ hϕ|, multiplicando a la izquierda por |ψi y a
hψ| A = λ hψ| por hϕ| a la derecha:



(hϕ| A = µ hϕ|) |ψi 
 hϕ| A |ψi = µ hϕ |ψi 
⇒
⇒ (λ − µ) hϕ |ψi = 0 ,



hϕ| (A |ψi = λ |ψi)
hϕ| A |ψi = hϕ |ψi
y como hemos supuesto que λ 6= µ con lo cual hϕ |ψi = 0, los autovectores correspondientes a dos autovalores
son ortogonales. J
Es importante señalar el hecho de que si la matriz A es real, entonces A = PǍPT , con Ǎ diagonal y P ortogonal:
P = P−1 .
En resumen, si A : Vn → Vn es un operador lineal hermı́tico entonces:
T
Sus autovalores son reales.
Los autovectores correspondientes a cada autovalor son ortogonales.
ad
o
Los autovectores de A resultan ser una base ortonormal del espacio vectorial Vn .
Autoespacios y autovalores degenerados
Una vez más, consideraremos el caso autovalores degenerados, para operadores hermı́ticos o autoadjuntos. El
siguiente teorema garantiza la existencia de al menos un subespacio S (λ0 ) ⊂ Vn .
rr
Teorema 5: Sea un operador lineal A : Vn → Vn , hermı́tico, con una representación matricial n × n, tal que
su polinomio caracterı́stico P (λ) = det Aij − λδji = 0 tiene al menos una raı́z degenerada λ = λ0 , de orden
k ≤ n. Entonces existen k autovectores, no triviales, que cumplen con: A |ψj i = λ0 |ψj i para j = 1, 2, · · · , k .
Bo
Demostración: La demostración también emerge de una variante del Método de Inducción Completa. Para ello,
probamos que se cumple para j = 1. Esta afirmación es obvia. Si existe un λ = λ0 existe un |ψj i, tal que cumple
con la ecuación anterior y es linealmente independiente con él mismo.
Suponemos que se cumple para 1 ≤ j = m ≤ k. Es decir, existen m autovectores |ψj i de A para el autovalor λ0 .
Definamos un subespacio Sλ0 = S (λ0 ) ⊂ Vn donde:
|ψj i ∈ Sλ0
/
A |ψj i = λ0 |ψj i ⇒ A |ψj i ∈ Sλ0
con j = 1, 2, · · · , m ,
por lo tanto, podremos separar Vn como una suma directa entre el subespacio Sλ0 y N , su complemento ortogonal:
Vn = Sλ0 ⊕ N
/
A |ψj i = λ0 |ψj i
∧
|φi ∈ N
⇒
hφ |ψj i = 0 ,
claramente Sλ0 es un subespacio invariante de A por cuanto su acción se circunscribe dentro del mismo subespacio
Sλ0 .
4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
281
Mostraremos que se cumple para operadores hermı́ticos, por cuanto no es verdad en general, entonces:

hφ |ψj i = 0

∧
⇒ hψj |φi = 0 = hψj | A† |φi = hψj | A |φi ,

A |ψj i = λ0 |ψj i
0
0
···
1
0
···
0
n
Rm+1
···
lim
···
0
in
ar
de donde se concluye que el vector es ortogonal a Sλ0 y por lo tanto está en el complemento ortogonal A |φi ∈ N
(por hipótesis |φi ∈ N ). Esto implica que N también es un espacio invariante del operador hermı́tico A.
Entonces, el espacio Vn puede expresarse como una suma directa de los dos subespacios invariantes respecto al
operador lineal A y su representación matricial en la base de autovectores tendrá la forma de una matriz diagonal
a bloques:


 1
1 ··· 0
0
···
0
Q1 · · · Q1m 0 · · · 0

 ..
.
..
..
.   .. . .
..
..
..

 .
 .
. ..
.
.
. .. 
.
0
.



 m
m




0
···
0
Q1
Qm 0 · · · 0   0 · · · 1
,
ψ j A |ψi i = Aji → 
m+1
m+1



 0
···
0
1 0 0   0 · · · 0 Rm+1 · · · Rn





 .
.
.
.
.
.
.
.
..
..
..
.. . . . ..   .. . . . ..
..
..

 ..
.
.
Rnn
µ
α
donde Qα
β y Rυ son matrices m × m y (n − m) × (n − m), respectivamente. La matriz Qβ opera en Sλ0 mientras
µ
que Rυ actúa sobre el complemento ortogonal N .
El polinomio caracterı́stico de A puede expresarse como:
P (λ) = det Aij − λδji = 0 ⇒ P (λ) = det Qij − λδji det Rji − λδji = 0 ,
rP
re
y como λ = λ0 es la raı́z múltiple del polinomio caracterı́stico que anula el det Qij − λδji , tendremos que
m
det Qij − λ0 δji = 0 ⇒ P (λ) = (λ − λ0 ) F (λ) ,
con F (λ0 ) 6= 0 ,
donde λ0 no es raı́z del polinomio F (λ). Ahora bien, para que se cumpla cuando j = k, el polinomio caracterı́stico
es
k
m
k
j = k ⇒ P (λ) = (λ − λ0 ) R (λ) ⇒ (λ − λ0 ) F (λ) = (λ − λ0 ) R (λ) .
ad
o
Otra vez, λ0 no es raı́z del polinomio R (λ). La ecuación anterior se cumple para todo λ, en particular para λ = λ0 .
Por lo tanto:
k−m R (λ)
1 = (λ − λ0 )
.
F (λ)
Es claro que λ = λ0 obliga a que k = m. J
Autovalores y autovectores de matrices unitarias
rr
Para finalizar esta sección volvamos a considerar la ecuación de autovalores (4.14) y la definición de operadores
adjuntos que hemos discutido en la sección 4.2.3. Entonces, si un operador U es unitario, se cumple que U† = U−1
entonces si |ψj i es un autovector, normalizado del operador U, correspondiente a un autovalor λj tendremos que la
norma al cuadrado de U |ψj i será igual a:
U |ψj i = λj |ψj i ⇒
ψ j U† U |ψj i = 1 = λ∗j λj ψ j |ψj i = λ∗j λj ⇒ λj = eiϕj ,
Bo
con ϕu una función real.
Con lo cual podemos concluir que, necesariamente, los autovalores de los operadores unitarios serán números
complejos de módulo 1. Cuando los autovalores son diferentes, digamos k 6= j, entonces esta condición implica que
ψ k |ψj i = 0, con lo cual los autovectores de un operador unitarios son ortogonales.
4.7.2.
Autovalores y autovectores de matrices similares
Como discutimos en la sección 4.3.3, dos operadores à y A que están relacionados por una transformación
de similaridad. La ecuación (4.10), Ã = S−1 AS, conecta las distintas representaciones matriciales de un mismo
operador, las cuales tendrán la misma traza y el mismo determinante, independientemente de su representación
matricial. Tal y como se desprende de ecuación (4.8) la representación matricial de los operadores S corresponde a
la matriz de productos internos de los vectores base ẽi |ek i.
Ahora nos toca identificar otra propiedad fundamental inherente al operador y no a su representación matricial.
Para ello complementaremos los teoremas expuestos allá con el siguiente.
282
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
Teorema 6: Dos matrices, Akl y Ãij , n × n, similares tienen el mismo polinomio caracterı́stico y con ello el
mismo conjunto de autovalores.
Demostración: Es inmediato verificar que: Ã − λI = S−1 AS − λI = S−1 (A − λI) S , y dado que
det à − λI = det S−1 (A − λI) S = det S−1 det |A − λI| det |S| = det |A − λI| .
in
ar
Por lo tanto, ambos operadores à y A, tendrán el mismo polinomio caracterı́stico y con ello el mismo conjunto de
autovalores. J
Haremos una lista de todas la propiedades para los autovalores y autovectores de operadores, expuestas en ésta
y en la sección anterior.
Sea un operador lineal A : Vn → Vn con un polinomio caracterı́stico que tiene n raı́ces distintas: {λ1 , λ2 , . . . , λn }.
Entonces tendremos que:
lim
Los diferentes autovectores {|ψ1 i , |ψ2 i , · · · , |ψn i} correspondientes a los {λ1 , λ2 , . . . , λn }, formarán una base
para V.
La representación matricial del operador ψ k A |ψm i en la base de autovectores {|ψ1 i , |ψ2 i , · · · , |ψn i}, será
diagonal:
k
Dm
= ψ k A |ψm i = diag (λ1 , λ2 , . . . , λn ) .
rP
re
Cualquier otra representación matricial, uk A |um i, del operador A en otra base de V, estará relacionada
con la representación diagonal mediante una transformación de similaridad:
m
(4.20)
D = SAS−1 ⇐⇒ diag (λ1 , λ2 , . . . , λn ) = Ski uk A |um i S −1 j ,
4.7.3.
ad
o
donde Sjm es una matriz, no singular y por lo tanto invertible, de cantidades que relacionan ambas bases, vale
decir la matriz de productos internos entre ambas bases.
E
Considere φ̃i = U |φi i, es decir un vector transformado con un operador unitario U† = U−1 . Además suponga
E
E
A |φi i = λi |φi i entonces à φ̃i = λi φ̃i , con à = UAU† . Los operadores transformados mediante matrices
unitarias tienen los mismos autovalores y autovectores transformados un del otro.
Conjunto completo de observables que conmutan
rr
Definición: Diremos que un operador A : Vn → Vn es un observable si el conjunto de autovectores
de un operador hermı́tico A, forman una base de Vn .
D
D
A ui(µ) = ai ui(µ) ⇒ ui(µ) ui(µ) = 1 ⇐⇒ ui(µ) uj(ν) = δji δνµ ,
ui(µ)
donde el ı́ndice µ indica el grado de degeneración del autovalor λi .
Bo
Un ejemplo trivial de un observable lo constituyen los proyectores P|ψi = |ψi hψ|, con hψ| ψi = 1. Claramente, la
ecuación de autovalores para un proyector obliga a que tenga dos autovalores 0 y 1. El autovalor nulo es infinitamente
degenerado y está asociado a todos los vectores ortogonales a |ψi, mientras que el autovalor 1 corresponde a un
autovalor simple y está asociado a todos los vectores colineales al mismo vector |ψi. Esto es:
P|ψi |ψi = |ψi
y
P|ψi |φi = 0
si hψ| φi = 0 .
Más aún, sea un vector arbitrario |ϕi ∈ Vn , siempre se podrá expresar como:
|ϕi = P|ψi |ϕi + I − P|ψi |ϕi ⇒ P|ψi |ϕi = P|ψi |ϕi + I − P|ψi |ϕi ,
por lo tanto:
P|ψi |ϕi = P|ψi P|ψi |ϕi + P|ψi − P2|ψi |ϕi = P|ψi |ϕi =⇒ P|ψi P|ψi |ϕi = P|ψi |ϕi ,
4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
283
ya que P2|ψi = P|ψi , por definición de proyector. Entonces, se deduce que P|ψi |ϕi es un autovector de P|ψi con
autovalor 1. Igualmente I − P|ψi |ϕi es un autovector de P|ψi con autovalor 0, y la demostración es inmediata:
P|ψi I − P|ψi |ϕi = P|ψi − P2|ψi |ϕi = 0 .
Para el caso de autoespacios correspondientes a autovalores degenerados se puede definir un observable A de la
forma:
D
X
para: µ = 1, 2, · · · , k .
A=
ai Pi con: Pi = ψ·(µ) ψ ·(µ)
ar
i
i
Para los observables que conmutan se tienen los siguientes teoremas:
in
Teorema 7: Si dos operadores lineales A y B, hermı́ticos, conmutan, [A, B] = 0, y |ψi es autovector de A con
autovalor σ, entonces B |ψi también será autovector de A con el mismo autovalor σ.
Demostración: La demostración es sencilla:
lim
A |ψi = a |ψi ⇒ B (A |ψi = σ |ψi) ⇒ BA |ψi = A (B |ψi) = σ (B |ψi) .
J
Ahora bien, de esta situación se puede distinguir un par de casos:
rP
re
si el autovalor σ es no degenerado los autovectores asociados con este autovalor son, por definición, colineales
con |ψi. Por lo tanto B |ψi, será necesariamente colineal con |ψi. La conclusión a esta afirmación es que
NECESARIAMENTE |ψi es autovector de B.
si el autovalor σ es degenerado, B |ψi ∈ Sσ , es decir B |ψi está en el autoespacio Sσ con lo cual Sσ es
globalmente invariante bajo la acción de B.
Teorema 8: Si dos observables A y B conmutan, [A, B] = 0, y si |ψ1 i y |ψ2 i son autovectores de A para
autovalores distintos, entonces el elemento de matriz ψ 1 B |ψ2 i = 0
Demostración: Si A |ψ1 i = σ1 |ψ1 i y
A |ψ2 i = σ2 |ψ2 i entonces:
0 = ψ 1 [A, B] |ψ2 i = ψ 1 AB − BA |ψ2 i = ψ 1 A B |ψ2 i − ψ 1 B (A |ψ2 i)
ad
o
= σ1 ψ 1 B |ψ2 i − σ2 ψ 1 B |ψ2 i = (σ1 − σ2 ) ψ 1 B |ψ2 i ⇒
ψ 1 B |ψ2 i = 0 . J
Teorema 9: Si dos observables A y B, son hermı́ticos, y conmutan, [A, B] = 0, los autovectores {|ψi i} comunes
a A y B constituyen una base ortonormal para Vn .
Demostración: Denotemos los autovectores de A como ψi(µ) , de tal modo que:
rr
A ψi(µ) = σi ψi(µ)
donde i = 1, 2, .., n − kn + 1
y
µ = 1, 2, .., kn ,
Bo
kn indica el orden de la degeneración de un determinado autovalor σn .
Dado que A es un observable, los ψi(µ) forman una base, claramente:
D
ψ i(µ) ψj(ν) = δji δνµ .
i(µ)
Dado que los elementos de la matriz ψ i(ν) B ψj(ν) = δji , entonces esto quiere decir que los elementos Bj(ν) =
ψ i(µ) B ψj(ν) serán nulos para i 6= j, pero no podemos decir nada a priori para el caso µ 6= υ y i = j. En general,
al ordenar la base:
ψ1(1) , ψ1(2) , · · · ψ1(k1 ) , ψ2(1) , ψ2(2) , · · · , ψ2(k2 ) , · · · , ψ3(1) , · · · ψn−kn (1) ,
para el caso que consideraremos será:
ψ1(1) , ψ1(2) , ψ1(3) , ψ2(1) , ψ2(2) , ψ3(1) , ψ4(1) , ψ4(2) , ψ5(1) .
284
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
La representación matricial de B en esa base, ψ i(µ) B ψj(ν) , tendrá la forma de una matriz diagonal a bloques:
1 (1)
(2)
1 (2)
B1 (2)
1 (3)
B1 (2)
B1
1 (1)
(3)
1 (2)
B1 (3)
1 (3)
B1 (3)
B1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0


















0
2
B2
2
B2
(1)
(1)
(2)
(1)
2
B2
2
B2
0
(1)
(2)
(2)
(2)
3 (1)
B3 (1)
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
4
B4
4
B4
0
(1)
(1)
(2)
(1)
4
B4
4
B4
0
(1)
(2)
(2)
(2)
0
0
0
5 (1)
B5 (1)
ar


















1 (1)
(1)
1 (2)
B1 (1)
1 (3)
B1 (1)
B1
in

lim
Tal y como hemos mencionado los subespacios: E 1 , E 2 , y E 4 corresponden a los autovalores degenerados σ1 , σ2 ,
y σ4 (de orden 3, 2 y 2 respectivamente).
Una vez más surgen dos casos a analizar:
Si σn es un autovalor no degenerado, entonces existe un único autovector asociado a este autovalor (la dimensión del autoespacio es 1 → kj = 1, y no hace falta). Esto corresponde al ejemplo hipotético anterior para los
autovalores simples σ3 , y σ5 .
rP
re
Si σn es un autovalor degenerado, entonces existe un conjunto de autovectores asociados a este autovalor σn
(en este caso la dimensión del autoespacio es kn ). Como los ψj(µ) son autovectores de A su representación
matricial será diagonal a bloques. Ahora bien, como el autoespacio Sa es globalmente invariante bajo la acción
i (µ)
de B y Bj(µ) = ψ i(µ) B ψj(µ) es hermı́tico, por ser B hermı́tico, entonces B es diagonalizable dentro del
bloque que la define. Es decir, se podrá conseguir una base χj(µ) tal que la representación matricial de B en
esa base es diagonal
D
D
i(µ)
i(µ)
Bj = ψ i(µ) B ψj(µ) =⇒ χi(µ) B χj(µ) = B̃j(µ) = βj(µ) δji ,
que no es otra cosa que los vectores χj(µ) serán autovectores de B
ad
o
B χj(µ) = βj(µ) χj(µ) . J
Es importante recalcar que los autovectores ψj(µ) de A asociados con un autovalor degenerado NO son necesariamente autovectores de B. Sólo que como B es hermı́tico puede ser diagonalizado dentro del autoespacio.
De ahora en adelante denotaremos los autovectores comunes a dos operadores A y B con distintos autovalores
como u i|j(µ) tal que
rr
A u n|m(µ) = σn u n|m(µ)
y
B u n|m(µ) = βm u n|m(µ) ,
donde hemos dejado “espacio” para permitir la degeneración la cual será indicada por el ı́ndice µ.
La prueba del inverso del teorema anterior es bien simple.
Bo
Teorema 10: Si existe una base de autovectores
[A, B] = 0.
uj(µ)
comunes a A y B, entonces A y B conmutan,
Demostración: Es claro que:
AB u n|m(µ) = βm A u n|m(µ) = βm σn u n|m(µ) ,
BA u n|m(µ) = σn B u n|m(µ) = σn βm u n|m(µ) ,
restando miembro a miembro obtenemos de manera inmediata
(AB − BA) u n|m(µ) = [A, B] u n|m(µ) = (βm σn − σn βm ) u n|m(µ) = 0 . J
4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
285
Definición: Los operadores: {A, B, C, D · · ·} constituye un conjunto completo de observables que conmutan si:
1. Los operadores del conjunto conmutan entre ellos:
[A, B] = [A, C] = [A, D] = [B, C] = [B, D] = [C, D] = · · · = 0
2. Al determinar el conjunto de autovalores para los operadores
ar
{αn , βm , γk , δl , · · ·}
se especifica de manera unı́voca un único autovector común a todos estos operadores
4.7.4.
(µ)
.
in
{αn , βm , γk , δl , · · ·} ⇒ u n|m|k|l···
Ejemplos
D = S−1 AS
⇐⇒
lim
1. Consideremos una vez más la transformación D = S−1 AS, descrita en la ecuación (4.20), donde D es un
operador diagonal cuya representación matricial será
diag (λ1 , λ2 , . . . , λn ) ≡ λj δji = S −1
i
k
Akm Sjm ,
D = S−1 AS
rP
re
con Akm = uk A |um i. Tal y como hemos comentado en la sección 4.7, debe haber restricciones sobre el
operador A para que sea diagonalizable. En particular, allı́ pudimos comprobar que si A era hermı́tico, su
representación matricial en la base de autovectores era diagonal. Entonces para este caso supondremos que A
es diagonalizable mediante la transformación (4.20). Claramente esto implica que
⇒ SD = AS
⇐⇒
i
Sm
λj δjm = Aim Sjm
⇒ Aim Sjm = λj Sji ,
y esta última ecuación sugiere una ecuación de autovalores fijando un valor particular para j. Esto es:
Aim S1m = λ1 S1i ;
Aim S2m = λ2 S2i ;
Aim S3m = λ3 S3i ;
· · · Aim Sjm = λj Sji · · ·
Aim Snm = λn Sni .
ad
o
Cada una de estas ecuaciones es una ecuación de autovalores para autovectores S1i , S2i , S3i , · · · Sni . Vale decir
la matriz de transformación Sjm está construida por columnas de autovectores. Con lo cual al resolver la
ecuación de autovalores para la matriz A es inmediato construir la matriz de transformación S a partir de los
autovectores de A.
rr
2. Para ejemplificar numéricamente el ejemplo anterior, consideremos la siguiente matriz real y simétrica:


1 0 3
A =  0 −2 0  .
3 0 1
Bo
Los autovalores y autovectores para A son respectivamente:
P (λ) = −(λ − 4)(λ + 2)2 = 0 ⇒ λ1 = 4 , λ2 = −2 , λ3 = −2 ,






1
0
−1
|u1 i =  0  , |u2 i =  1  , |u3 i =  0  .
1
0
1
El lector debe verificar que este conjunto de vectores son mutuamente ortogonales porque claramente la matriz
es simétrica. Por lo tanto, la matriz A se puede diagonalizar a través de la transformación C−1 AC, donde C
se construye con los autovectores normalizados de A como columnas.


1 √0 −1
1 
C= √
2 0 .
0
2
1 0
1
286
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
Entonces, a pesar que los autovalores de A son
mente independientes, y se tiene que:


1 √0 1
1
1


0
C−1 AC =  0
2 0
2
3
−1 0 1
degenerados (λ = 4, −2, −2) sus tres autovectores son lineal0
−2
0

1
3
0  0
1
1
√0
2
0
 
−1
4


0
=
0
0
1
0
−2
0

0
0 .
−2
3. Dada la siguiente matriz:
2
2
A =  2 −1
−2 4

−2
4 ,
−1
ar

in
Aquı́ también se cumple que A = AT , con lo cual se puede diagonalizar. Calculemos nuevamente una matriz
C que permita diagonalizar a la matriz A.
Primeramente procedemos a calcular los autovalores de A.
2−λ
2
−2
2
−1 − λ
4
−2
4
−1 − λ
Para λ = −6:
8
 2
−2

 1 
 1 
2 −2
x
x
 14x1 + 2x2 − 2x3 = 0
2x1 + 11x2 + 4x3 = 0
5 4   x2  = −6  x2  ⇒

4 5
x3
x3
−2x1 + 4x2 + 11x3 = 0
Un autovector puede ser:
rP
re

= −(λ − 3)2 (λ + 6) = 0 .
lim
P (λ) =



1
1
1
|u1 i =  −2  ⇒ |û1 i =  −2  .
3
2
2

ad
o
Para el autovalor degenerado λ = 3, tenemos:


 1 
 1 
−1 2 −2
x
x
 −4x1 + 2x2 − 2x3 = 0
 2 −4 4   x2  = 3  x2  ⇒
2x1 − 7x2 + 4x3 = 0

−2 4 −4
x3
x3
−2x1 + 4x2 − 7x3 = 0
En este caso podemos tomar como autovectores:

 





0
1
0
1
1
2
|u2 i =  0  ⇒ |û2 i = √  0  , |u3 i =  1  ⇒ |û3 i = √  1  .
5
2
−1/2
1
1
−1/2
Bo
rr
El lector debe comprobar que en este caso los autovectores NO son mutuamente ortogonales. Construimos la
matriz C:
 1

√2
0
3
5

√1 
0
C = − 23
.
2
2
√1
√1
−
3
5
2
De manera que:

1
3
√
 5
C−1 AC =  4 √
9
2 2
9
2
−
√3
5
5
9
√
2
9
2
3√

2

−√95   2
4 2
−2
9
2
−1
4
 1
−2
3

4  − 23
2
−1
3
√2
5
0
− √15
0

√1 
2
√1
2
4. La siguiente matriz es un ejemplo de una matriz hermı́tica o autoadjunta:


1
−1 + 2i i
2
−1  ⇒ A† = A
A =  −1 − 2i
−i
−1
3

−6
= 0
0

0 0
3 0 .
0 3
4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
287
Los autovalores de esta matriz son:
√
√
P (λ) = − (λ − 4) λ2 − 2 λ − 4 = 0 ⇒ λ1 = 4 , λ2 = 1 + 5 , λ3 = 1 − 5 .

1
λ1 = 4 ⇒ |u1 i =  −1 − i  ,
1

1
λ3 = 1− 5 ⇒ |u3 i =
√
3

√
,
√ 1 − 5i √ − 5−2− 1+ 5 i
Estos vectores normalizados son:


1
1
|u1 i
−1 − i  ,
=
|û1 i = p
2
hu1 |u1 i
1
3
hu2 |u2 i

|u3 i
3
hu3 |u3 i
1 + 5i √  .
5−2− 1− 5 i
3√

=p
√  √ 1 − 5i √  ,
30 + 6 5
− 5−2− 1+ 5 i

3√
1 + 5i √  .
=p
√  √
30 − 6 5
5−2− 1− 5 i
rP
re
|û3 i = p
|û2 i = p

|u2 i

3√
in
3√
lim

√
1
λ2 = 1+ 5 ⇒ |u2 i =
3
ar
Los tres autovalores reales generan los siguientes autovectores:

Se puede demostrar que los autovectores son ortogonales:

(u1 )† u2 = 0 ⇒
1
hu1 |u3 i =
(u1 )† u3 = 0 ⇒
1
−1 + i

3√
=0
√ 1 − 5i √ − 5−2− 1+ 5 i


3√
−1 + i 1  √
1 + 5i √  = 0
5−2− 1− 5 i


3√
√
√
√ 1 + 5i √  = 0
1 + 5i − 5 − 2 + 1 + 5 i  √
5−2− 1− 5 i
1

ad
o
hu1 |u2 i =
hu2 |u3 i =
(u2 )† u3 = 0 ⇒
3
Bo
rr
La matriz A es entonces diagonalizable si construimos la siguiente matriz a partir de los autovectores normalizados:
 1

√ 9 √
√ 9 √
2
30+6
5
30−6
5




√
√


3(1− 5 i)
3(1+ 5 i)
 −1−i

√
√

.
√
√
P= 2

30+6 5
30−6 5




√
√
√
√

3(− 5−2−(1+ 5)i)
3( 5−2−(1− 5)i) 
1
√
√
√
√
2
30+6
5
30−6
5
Si elegimos la matriz diagonal a partir de los autovalores:

4
D= 0
0
0√
1+ 5
0

0
0√  ,
1− 5
entonces resulta que es posible factorizar la matriz A de la siguiente forma (Para el lector se deja la comprobación)
A = PDP† .
288
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
5. Dada la matriz:
√1
2



i
A=
 − √2

0
√1
2
0
√i
2


0 
.

0

i
Esta matriz es unitaria, ya que: A† = A−1 .
√
λ1 =
2(1 + i) − 2
4
√
−3i
√
, λ2 =
2(1 + i) + 2
4
√
−3i
in
es decir:
ar
Los autovalores se obtienen de la manera usual:
h
i
√
P (λ) = (λ − i) 2 λ2 − 2(1 + i)λ + 2 i = 0 ,
, λ3 = i .
λ3 λ∗3
rP
re
lim
Notemos que los valores propios están normalizados a la unidad:
! √
√ !
√
√
2(1 + i) − 2 −3i
2(1 − i) − 2 3i
∗
λ1 λ1 =
=1
4
4
! √
√ !
√
√
2(1 + i) + 2 −3i
2(1 − i) + 2 3i
∗
=1
λ2 λ2 =
4
4
= i(−i) = 1
Estos tres autovalores generan los siguientes autovectores:






1
1
0
√
√
 , |u2 i =  i+ −6i−1  , |u3 i =  0  ,
|u1 iλ1 =  i− −6i−1
λ2
λ3
2
2
1
0
0
ad
o
Se puede demostrar que los autovectores son ortogonales:
hu1 |u2 i =
rr
hu1 |u3 i =
(u1 )† u3 = 0 ⇒
(u2 )† u3 = 0 ⇒

√
1
−i− 6i−1
2
1
√
−i− 6i−1
2
1
√
−i+ 6i−1
2
0


1
√
i+ −6i−1
2

 = 0,
0

0
 0  = 0,
1
 
0
0  0  = 0.
1
0
Bo
hu2 |u3 i =
(u1 )† u2 = 0 ⇒
Con los autovectores normalizados construimos la matriz U, que también será unitaria, y la matriz diagonal
D con los autovalores.


 √

√
√ 1√
√ 1√
0
2(1+i)−2 −3i
3+√ 3
3−
3
0 √
0
√
4
 (1−i) 3+1

√


3−1
(
) (1−i)
2(1+i)+2 −3i
U=
√( √ ) 0 
0
0 .
 − √ √
, D=
4
2 3+ 3
2 3− 3
0
0
i
0
0
1
6. Considere que el espacio de estados para un determinado sistema fı́sico viene expandido por una base ortonormal {|ξ1 i , |ξ2 i , |ξ3 i}. Definimos dos operadores Lz y S de la siguiente manera:
Lz |ξ1 i = |ξ1 i , Lz |ξ2 i = 0 , Lz |ξ3 i = − |ξ3 i , S |ξ1 i = |ξ3 i , S |ξ2 i = |ξ2 i , S |ξ3 i = |ξ1 i .
4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
289

0
ξ i S |ξj i =  0
1
0
1
0


1
1
0  , ξ i S2 |ξj i =  0
0
0
0
1
0

0
0 .
1
ar
En la base ortonormal {|ξ1 i , |ξ2 i , |ξ3 i} las representaciones matriciales para Lz , L2z , S y S2 serán las siguientes:




1 0 0
1 0 0
ξ i Lz |ξj i =  0 0 0  , ξ i L2z |ξj i =  0 0 0  ,
0 0 −1
0 0 1
in
Es claro que estas matrices son reales y simétricas y, por lo tanto, son hermı́ticas y, al ser el espacio de
dimensión finita, deben ser diagonalizables y sus autovectores formarán base para ese espacio. Por lo tanto,
Lz , L2z , S y S2 son observables. Ahora bien: ¿Cuál será la forma más general de una representación matricial
de un operador que conmute con Lz ?
lim
Notamos que los vectores de la base ortonormal {|ξ1 i , |ξ2 i , |ξ3 i} son autovectores para Lz con autovalores
{1, 0, −1}, con lo cual su representación matricial tiene que ser diagonal. Recuerde que si dos observables A y
B conmutan, [A, B] = 0, y si |ψ1 i y |ψ2 i son autovectores de A para autovalores distintos, entonces el elemento
de matriz ψ 1 B |ψ2 i = 0, con lo cual:
M11
i

0
ξ M |ξj i =
0

⇔
rP
re
[M, Lz ] = 0

0
0 .
M33
0
M22
0
Esto se desprende de manera directa de:
0 = ξ i [M, Lz ] |ξj i = ξ i MLz − Lz M |ξj i = (λj − λi ) ξ i M |ξj i ,
con
(λj − λi ) 6= 0
para i 6= j .
Si nos planteamos la misma pregunta para L2z , vemos que sus autovalores son {1, 0}. Esto es:
L2z |ξ1 i = |ξ1 i ;
L2z |ξ2 i = 0;
L2z |ξ3 i = |ξ3 i ,
ya que:
ad
o
con lo cual tendremos que la representación matricial de ese operador que conmute con L2z , no será diagonal,
es decir:
 1

N1
0 N31
[N, L2z ] = 0 ⇔
ξ i N |ξj i =  0 N22 0  ,
N13 0 N33
0 = ξ 1 [N, L2z ] |ξ3 i ⇒
ξ 1 N |ξ3 i = ξ 1 N |ξ3 i ,
rr
y vale para cualquier elemento N31 (y equivalentemente para N13 ).
Bo
Adicionalmente, si ordenamos la base de autovectores de Lz , como {|ξ1 i , |ξ3 i , |ξ2 i}, tendremos
entonces como representación matricial diagonal
a bloques, correspondiente a un autovalor degenerado 1, a:
 1

N1 N31 0
ξ i Ñ |ξj i =  N13 N22 0  .
0
0 N33
Autovectores
|q1 i = |ξ2 i
|q2 i = √12 (|ξ1 i + |ξ3 i)
|q3 i = √12 (|ξ1 i − |ξ3 i)
Autovalor L2z
0
1
1
Autovalor S
1
1
-1
Figura 4.1: Dado que no hay lı́neas repetidas L2z y S
forman un CCOC.
Finalmente, la representación matricial, más general, de un operador que conmute con S2 es:
 1

P1 P21 P31
[P, S2 ] = 0 ⇔
ξ i P |ξj i =  P12 P22 P32  .
N13 P23 P33
290
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
Ahora intentaremos construir una base común de autovectores para L2z y S. Para ello notamos que |ξ2 i es un
autovector común a L2z y S, por lo tanto, existirá un subespacio expandido por: {|ξ1 i , |ξ3 i}. En ese subespacio
las representaciones matriciales para L2z y S, serán:
ξ i L2z |ξj iS13 =
1
0
0
1
,
ξ i S |ξj iS13 =
0
1
1
0
.
S |qj i = λj |uj i ⇒
0
1
1
0
q1
q2
=λ
q1
q2
⇒

 |q2 i =
√1
2
(|ξ1 i + |ξ3 i)
|q3 i =
√1
2
(|ξ1 i − |ξ3 i)

in
ar
Acto seguido planteamos el problema de autovalores para S, esto es:
con lo cual tendremos los resultados mostrados en la tabla 4.1.
=
0,
mẍ2 + kx2 + k(x2 − x1 )
=
0,
rP
re
mẍ1 + kx1 − k(x2 − x1 )
lim
7. Consideremos otro ejemplo proveniente de la Mecánica Clásica. Se trata de dos osciladores armónicos, de
igual masa, acoplados con resortes con la misma constante elástica k. La ecuaciones de movimiento para este
sistema son:
Podremos expresar estas ecuaciones en forma de operadores:
2
D |xi = 0
d
m dt
2 + 2k
−k
⇔
−k
d2
m dt
2 + 2k
!
x1
x2
= 0.
ad
o
Si pensamos esta ecuación como una ecuación de autovalores, el autovalor es claramente λ = 0, y como las
masas y las constantes elásticas son iguales podemos intercambiar las partı́culas y la fı́sica (las ecuaciones
de movimiento) no cambian. Esto se puede expresar matemáticamente como el operador permutación de las
partı́culas:
1 2 0 1
0 1
x
x
P=
⇒
=
.
1 0
1 0
x2
x1
Bo
rr
Es inmediato comprobar que [D, P] = 0, con lo cual existirá una combinación lineal de autovectores de D
(asociados con el autovalor λ = 0) los cuales también serán autovectores de P. Para ello procedamos a calcular
los autovalores y autovectores de P:
1
1
1
1
−λ 1
√
√
; |ê2 i =
.
P |xi = λ |xi ⇒
= 0 ⇒ λ ± 1 ⇔ |ê1 i =
1
−1
1 −λ
2
2
Fácilmente podemos expresar el vector posición como una combinación lineal de estos dos autovectores de P,
esto es:

1
1  ξ1 = √2 (x1 + x2 )
ξ1
ξ2
x
1
1
=√
+√
⇒
x2
1
−1

2
2
ξ = √1 (x − x )
2
2
1
2
Es claro que
1
|u1 i = √ (x1 + x2 )
2
son autovectores de P y D.
1
1
y
1
|u2 i = √ (x1 − x2 )
2
1
−1
,
4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
291
8. Un operador cantidad de movimiento generalizado se define como aquel conjunto de operadores hermı́ticos
que cumplen con:
[Jx , Jy ] = i~Jz ,
[Jy , Jz ] = i~Jx ,
[Jz , Jx ] = i~Jy ,
es decir:
[Ji , Jj ] = i~ijk Jk ,
con ijk el sı́mbolo de Levy-Civita (Aquı́ los ı́ndices repetidos NO indican suma).
Adicionalmente, definimos los siguientes operadores:
J2 = J2x + J2y + J2z , J+ = Jx + iJy , J− = Jx − iJy .
ar
Queremos demostrar que:
in
2
J , J+ = J2 , J− = J2 , Jz = 0 .
Para probar esta propiedad se puede demostrar de forma genérica que J2k , Jm = 0, con k, m = 1, 2, 3 ≡ x, y, z,
esto es:
2
Jk , Jm = [Jk Jk , Jm ] = Jk Jk Jm − Jm Jk Jk = Jk Jk Jm − (i~mkl Jl + Jk Jm ) Jk ,
con lo cual:
2
Jk , Jm = Jk Jk Jm − i~mkl Jl Jk − Jk (i~mkn Jn + Jk Jm ) ,
lim
y claramente se anula por cuanto los ı́ndices no suman pero si son mudos, y mkl = −mlk .
2
Jk , Jm = Jk Jk Jm − i~mkl Jl Jk − i~mkn Jk Jn − Jk Jk Jm ,
al conmutar los cuadrados de las componentes con cualquiera de las componentes, y dado que los conmutadores
son lineales entonces queda demostrado que:
2
J , J± = J2x + J2y + J2z , Jx ± iJy = J2y , Jx + J2z , Jx ± i J2x , Jy ± i J2z , Jy = 0 .
rP
re
9. Si definimos los autovectores comunes a J2 y Jz como |j, mi de la siguiente manera:
J2 |j, mi = j (j + 1) ~2 |j, mi ,
Jz |j, mi = m~ |j, mi ,
y adicionalmente tenemos que:
p
J− |j, mi = ~ j(j + 1) − m(m − 1) |j, m − 1i ,
con: hj, m |j 0 , m0 i = δjj 0 δmm0 ,
p
J+ |j, mi = ~ j(j + 1) − m(m + 1) |j, m + 1i .
Si se supone (es fácil demostrarlo) que −j ≤ m ≤ j. Esto quiere decir que dado algún valor j, m varı́an entre
−j y j de uno en uno, esto es: m = −j, −j + 1, −j + 2, · · · , j − 2, j − 1, j. Supongamos ahora que j = 12 .
Busquemos:
rr
ad
o
a) La representación matricial para: Jz , J− , J+ , J2 , en la base de autovectores de Jz y J2 .
Si |j, mi son autovectores de J2 y Jz su representación matricial será diagonal y como m varı́a entre −j
y
de 1 tendremos que serán matrices 2 × 2. La base ortogonal de autovectores será:
j1 con1 incrementos
1 1
,
−
,
,
.
2
2
2 2



 1 1
1 1
1 1
1
1
1 0
2 , 2 Jz 2 , 2
2 , 2 Jz 2 , − 2
≡ ~
,

2
1
1
1 1
1
1
1
1
0
−1
,
−
J
,
,
−
J
,
−
z 2 2
z 2
2
2
2
2
2
 1 1 2 1 1



1 1
1
2 1
1 0
2, 2 J
2, 2
2, 2 J
2, −2
3

 ≡ ~2 
.
4
1
1
1
1
1
2 1 1
2 1
0 1
2, −2 J
2, 2
2, −2 J
2, −2
Bo
La representación matricial para J− , J+ obviamente no será diagonal:
 1 1


1 1
1 1
1
1
2 , 2 J+ 2 , 2
2 , 2 J+ 2 , − 2

 ≡ ~
1
1
1 1
1
1
1
1
,
−
J
,
,
−
J
,
−
+
+
2
2
2 2
2
2
2
2
 1 1


1 1
1 1
1
1
2 , 2 J− 2 , 2
2 , 2 J− 2 , − 2

 ≡ ~
1
1
1 1
1
1
1
1
2 , − 2 J− 2 , 2
2 , − 2 J− 2 , − 2
2
0
1
0
0
0
0

,

.
1
0
b) Calculemos
autovalores y autovalores para: Jz , J− , J+ , J .
los
1
1
1 1
Otra vez,
,
−
son autovectores de J2 y Jz . En el caso de J2 con un autovalor de 34 ~2 para
2
2 , 2, 2
ambos autovectores y en el caso de Jz los autovalores serán ± ~2 respectivamente. Para J− , J+ no tendrán
autovalor distinto de cero en esta base.
292
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
4.7.5.
Practicando con Maxima
Consideremos uno de los ejemplos anteriores donde:
ar
(%i1) A:matrix([1,0,3], [0,-2,0], [3,0,1]);


1 0 3
( %o1) 0 −2 0
3 0 1
(%i2) eigenvectors(A);
( %o2) [[[−2, 4] , [2, 1]] , [[[1, 0, −1] , [0, 1, 0]] , [[1, 0, 1]]]]
in
El resultado es una lista con los autovalores y su multiplicidad, y para cada autovalor los autovectores como
sublistas. Es necesario manipular estas sublistas para obtener los autovectores. Entonces, es mejor escribir:
( %o3) [[[−2, 4] , [2, 1]] , [[[1, 0, −1] , [0, 1, 0]] , [[1, 0, 1]]]]
Por lo tanto, una lista con los autovalores es la siguiente:
(%i4) autovalores:val[1];
rP
re
( %o4) [−2, 4]
lim
(%i3) [val,vec]:eigenvectors(A);
Notemos el orden: los dos primeros vectores corresponden al autovalor −2 y el tercero al autovalor 4.
Los autovectores como listas son:
(%i5) L1:vec[1];L2:vec[2];
( %o5) [[1, 0, −1] , [0, 1, 0]]
( %o5) [[1, 0, 1]]
Pero resulta conveniente separar cada autovector.
ad
o
(%i6) L1[1];L1[2];L2[1];
( %o6) [1, 0, −1]
( %o7) [0, 1, 0]
( %o8) [1, 0, 1]
Vamos ahora a normalizar los autovectores:
Bo
rr
(%i9) V1:L1[1]/sqrt(L1[1].L1[1]);V2:L1[2]/sqrt(L1[2].L1[2]);V3:L2[1]/sqrt(L2[1].L2[1]);
1
1
( %o9) √ , 0, − √
2
2
( %o10) [0,
1,
0]
1
1
( %o11) √ , 0, √
2
2
Hacemos una lista con los vectores normalizados:
(%i12)Lvec:[V1,V2,V3];
1
1
1
1
√
√
√
√
, [0, 1, 0] ,
( %o12)
, 0, −
, 0,
2
2
2
2
Y construimos la matriz C:
(%i13)C:transpose(apply(’matrix,Lvec));
4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES

√1
2
( %o13)  0
− √12
0
1
0
293

√1
2
0
√1
2
Para finalmente comprobar:
ar
(%i14)transpose(C).A.C;


−2 0 0
( %o14)  0 −2 0
0
0 4
Es fácil ver que se trata de una matriz hermı́tica
2i − 1
2
−1

i
−1
3
rP
re
(%i16)transpose(conjugate(A))=A;
 

1
1
2i − 1 i
2
−1 = −2 i − 1
( %o16) −2 i − 1
−i
−i
−1
3
lim
(%i15)A:matrix([1,-1+2*%i,%i],[-1-2*%i,2,-1],[-%i,-1,3]);


1
2i − 1 i
2
−1
( %o15) −2 i − 1
−i
−1
3
in
Consideremos ahora otro de los ejemplos, donde tenı́amos la siguiente matriz:
Calculamos los autovalores y autovectores:
(%i17)[val,vec]:eigenvectors(A)$
Al primer elemento de la lista, le asignaremos la variable autovalores, como se muestra a continuación:
(%i18)autovalores:val[1];
h
i
√ √
( %o18) 1 − 5, 5 + 1, 4
ad
o
Ahora procedemos a aislar los diferentes autovectores, es importante tener en mente el orden para utilizar las
etiquetas apropiadas.
Bo
rr
(%i19)L1:vec[1]$L1[1]; L2:vec[2]$L2[1]; L3:vec[3]$L3[1];
" √
#
√
√
5−1 i+ 5−2
5i + 1
( %o20) 1,
,
3
3
"
#
√
√
√
5+1 i+ 5+2
5i − 1
( %o22) 1, −
,−
3
3
( %o24) [1, −i − 1, 1]
Los autovectores normalizados son:
(%i25)u1:L1[1]/sqrt(L1[1].L1[1]),ratsimp;


√
√
√
5
−
1
i
+
5
−
2
3
5i + 1

( %o25)  q
,q
,q
√
√
√
√
√
√
− 4 5 − 14 i − 2 5 + 8
− 4 5 − 14 i − 2 5 + 8
− 4 5 − 14 i − 2 5 + 8
(%i26)u2:L2[1]/sqrt(L2[1].L2[1]),ratsimp;


√
√
√
5
+
1
i
+
5
+
2
3
5i − 1

( %o26)  q √
, −q √
, −q √
√
√
√
4 5 + 14 i + 2 5 + 8
4 5 + 14 i + 2 5 + 8
4 5 + 14 i + 2 5 + 8
294
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
(%i27)u3:L3[1]/sqrt(L3[1].L3[1]),ratsimp;
i+1
1
1
, −√
,√
( %o27) √
2i + 2
2i + 2
2i + 2
Estos vectores serán ortogonales, como podemos ver:
(%i28)conjugate(u1).u2,ratsimp;conjugate(u1).u3,ratsimp;conjugate(u3).u2,ratsimp;
ar
( %o28) 0
( %o29) 0
( %o30) 0
in
Para construir la matriz C preparamos primero el siguiente arreglo:
(%i31)Lvec:[u1,u2,u3]$
(%i32)C:transpose(apply(’matrix,Lvec));

3
3
−(4
√
5−14) i−2
√
5 i+1
√
5+8


q
( %o32)  −(4 √5−14) i−2 √5+8

√
√
 q ( 5−1) i+ 5−2
√
√
−(4 5−14) i−2 5+8
√
5+14) i+2 5+8
√
− q √ 5 i−1 √
5+8
(4√ 5+14) i+2
√
5+1) i+ 5+2
(
−q √
√
(4 5+14) i+2 5+8
q
(4
√
√ 1
2 i+2




− √i+1
2 i+2 


√ 1
rP
re
q
lim
Con cada autovector como columna construimos la matriz C:
2 i+2
La inversa de la matriz C se obtiene como ya sabemos:
(%i33)Cinv:invert(C),ratsimp$
Aquı́ aplicamos una rutina de simplificación a cada uno de los elementos de la matriz. Esto lo hicimos con el
comando ratsimp.
Para finalmente poder calcular C −1 AC y obtener:
Ejercicios
rr
4.7.6.
ad
o
(%i34)Cinv.A.C,ratsimp;
√

5−5
√
0
0
√
 5

5+5
( %o34)  0
√
0
5
0
0
4
Bo
1. Encuentre los autovalores y autovectores

0 −i
 i 0
A=
 0 0
0 0
de las matrices:


0 0

0 0 
, B=

0 −i 
i 0
1
0
0
0
0
−1
0
0

0 0
0 0 

1 0 
0 −1
2. Diagonalizar unitariamente:
A=
2
i
−i
1

1
1+i
5
B= 1−i
−2i
−3
,

2i
−3 
0
3. Diagonalizar ortogonalmente:
A=
1
−3
−3
1

,
3
B =  −2
4
−2
6
2

4
2 
3
4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES
295
4. Demuestre que la matriz
C=
x − iy
−z
x
x + iy
es igual a C = xσ 1 + yσ 2 + zσ 3 . Donde las matrices σ i son la matrices de Pauli.
ar
5. Las transformaciones de Lorentz se pueden escribir de manera matricial como


γ
0 0 −iγv/c
 0

1 0
0


 0

0 1
0
iγv/c 0 0
γ
p
con γ = ( 1 − v 2 /c2 )−1 . La matriz anterior ¿será ortogonal? ¿será unitaria?
in
6. Si los autovalores de una matriz hermı́tica (o semi-hermı́tica) A son todos iguales a λ, demuestre que A = λI.
7. Si una matriz A es semi-hermı́tica, demuestre que (I − A)(I + A)−1 es ortogonal.
lim
8. Dado un observable A y un vector de estado |ψi general, definiremos el valor esperado de A a la cantidad
hAi = hψ| A |ψi, y la relación de dispersión de A como:
D
E D
E
2
2
2
2
(∆A) = (A − hAi I) = A2 − hAi ≡ hψ| A2 |ψi − hψ| A |ψi ,
rP
re
donde I es el operador identidad. Nótese que el valor esperado es un número que representa la dispersión de
un observable y tiene la misma estructura e interpretación de la varianza en estadı́stica.
D
E
2
a) Muestre que la dispersión siempre es positiva, i.e (∆A) > 0. Para ello:
1) Inicie mostrando que para cualquier operador hermı́tico C se cumple C2 > 0.
2) Termine mostrando que A − hAi I es un operador hermı́tico.
b) Muestre que la dispersión se anula para el caso en que |ψi es autovector de A con autovalor hAi.
c) Utilizando la desigualdad de Cauchy-Schwarz muestre que las relaciones de dispersión entre dos observables A y B siempre cumplen con:
D
ED
E 1
2
2
2
con [A, B] = AB − BA .
(∆A)
(∆B) > |h[A, B]i|
4
rr
ad
o
Esta es la forma general de la relación de incertidumbre.15
d ) En Mecánica Cuántica se define el operador de spin como Si = ~2 σi , donde las σi son las matrices de
Pauli y los valores de i = 1, 2, 3 representan las direcciones x, y, z, respectivamente.
1) Encuentre la expresión para el conmutador: [Si , Sj ], con i, j = 1, 2, 3.
2) Considere un vector de estado general |ψi = a |+i + b |−i, donde a y b son números complejos que
cumplen con: a2 + b2 = 1 y {|+i , |−i} la base de autovectores de Sz . Muestre que:
D
ED
E
2
2
(∆Sz )
(∆Sx ) > ~4 [Im(ab∗ )]2 ,
con Im(◦) la parte imaginaria del argumento.
9. Dada la matriz:
Bo

0
2q
0
..
.







 0

 0
0
q
22
q
..
.
0
0
0
0
0
q
0
4(22 ) q
..
..
.
.
0
0
0
0
0
0
0
0
0
..
.
···
···
···
..
.
0
0
0
..
.
0
0
0
..
.
0
0
0
..
.
0
0
0
···
···
···
4(N − 3)2
q
0
q
4(N − 2)2
q
0
q
4(N − 1)2











Encuentre los autovalores y autovectores cuando q = 1 y N = 10.
15 Para detalles de las implicaciones de este problema se puede consultar Dumitru, S. “On the uncertainty relations and quantum
measurements: conventionalities, short comings, reconsideration. arXiv preprint quant-ph/0504058 (2005). Y también Dumitru, S. “A
possible general approach regarding the conformability of angular observables with mathematical rules of Quantum Mechanics. arXiv
preprint quant-ph/0602147 (2006).
296
CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES
Bo
rr
ad
o
rP
re
lim
in
ar
10. Realice los ejercicios anteriores utilizando el programa Maxima.
ar
Bibliografı́a
in
[1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición (Academic
Press, Nueva York)
[2] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva York)
lim
[3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York)
[4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:)
[5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition, London:
[6] Hauser, W (1971) Introduction to Principles of Electromagnetism (Addison-Wesley Pub Co Reading)
rP
re
[7] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Engineering
(Cambridge University Press)
[8] Santaló, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires)
[9] Schutz, B. (1980) Geometrical Methods in Mathematical Physics (Cambridge University Press, Londres)
Bo
rr
ad
o
[10] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York )
297
ad
o
rr
Bo
lim
rP
re
ar
in
298
BIBLIOGRAFÍA
ar
Capı́tulo 5
Bo
rr
ad
o
rP
re
lim
in
Coordenadas curvilı́neas, campos y
operadores diferenciales
299
300
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
La ruta de este capı́tulo
5.1.
in
ar
Comenzaremos este capı́tulo señalando el hecho de que al derivar cantidades vectoriales, por ejemplo con respecto al tiempo, es necesario considerar que esta dependencia temporal puede estar indicada no solamente en las
componentes del vector sino en los vectores base en el cual se representa. Extenderemos esta idea para estudiar
la representación de curvas expresadas de manera paramétrica. En la sección 5.1 introduciremos las coordenadas
curvilı́neas generalizadas, resaltando la utilidad que particularmente tienen las coordenadas curvilı́neas ortogonales.
En la sección 5.1.6 construiremos las expresiones de vectores y tensores a partir de sus leyes de transformación
para luego introducir los conceptos de campos tensoriales, sección 5.2, y los diferentes operadores vectoriales en
coordenadas generalizadas, sección 5.3. En las secciones 5.4 - 5.6 desarrollaremos un estudio sobre la integración
de campos vectoriales y los principales teoremas integrales que permiten relacionar las variaciones de un campo
vectorial con las fuentes que lo producen.
Coordenadas curvilı́neas generalizadas
lim
Tal y como discutimos en la sección 3.2.9, siempre es posible definir un sistema de coordenadas generalizadas
q 1 , q 2 , q 3 tales que
q̃ i = q̃ i (q j ) ⇔ q i = q i (q̃ j ) , con i, j = 1, 2, 3.
rP
re
Donde, no hemos hecho otra cosa que re-escribir la ecuación (3.5), para el caso tridimensional y con una notación
más cercana al análisis vectorial que nos compete en este capı́tulo.
Entonces, nuestro vector posición en la base canónica o, equivalentemente en coordenadas cartesianas1 , se puede
escribir como
|ri ≡ r(q 1 , q 2 , q 3 ) = x(q 1 , q 2 , q 3 ) |ex i + y(q 1 , q 2 , q 3 ) |ey i + z(q 1 , q 2 , q 3 ) |ez i
(5.1)
y el vector desplazamiento diferencial, no es otra cosa que el diferencial total del vector r, vale decir:
dr ≡ |dri =
∂ |ri 1 ∂ |ri 2 ∂ |ri 3
dq +
dq +
dq .
∂q 1
∂q 2
∂q 3
(5.2)
ad
o
Por consiguiente, podemos construir la métrica, los factores de escala y la base asociada con estas coordenadas a
partir de las ecuaciones (3.3) y (3.4), como

∂|ri
∂hr| ∂|ri
gij = ∂|ri


∂q i ⊗ ∂q j ≡ ∂q i · ∂q j








hj = ∂|ri

∂q j


∂ hr| ∂ |ri
j
i
j
2
dqi dq = gij dq dq ⇒
ds ≡ hdr |dri =
·
(5.3)
∂|ri
1

∂qi ∂q j
|e
i
=

j
j
∂|ri
∂q



∂q j





 j
∂hr|
1

 e = ∂hr|
∂qj
∂qj
Bo
rr
con: i, j = 1, 2, 3..
Es importante hacer notar el papel fundamental que juega expresar el vector posición en coordenadas cartesianas (ecuación (5.1)), para luego generar el vector desplazamiento diferencial (5.2) en función de las coordenadas
generalizadas y, finalmente, determinar los factores de escala, la métrica y los vectores base asociados al nuevo
sistema de coordenadas (ecuaciones (5.3)).
Más adelante, en la sección 5.1.5, mostraremos un método para construir sistemas de coordenadas sin necesidad
de la intermediación de las coordenadas cartesianas. Construiremos los sistemas de coordenadas adaptados a las
curvas parametrizadas con alguna cantidad.
Hay que señalar nque, o
tal y como lo
en la ecuación (3.3), aquı́ hemos denotado la base generalizada
n hicimos
o
∂hr|
será la base para los covectores o 1-formas asociados a los vectores
para vectores como ∂|ri
∂q j , mientras
∂qi
antes mencionados. Al final, en la sección 5.1.6 analizaremos con detalle las 1-formas y los tensores en coordenadas
curvilı́neas.
Para fijar ideas y porque lo utilizaremos en los casos particulares de las próximas secciones, escribiremos explı́citamente, tal y como lo discutimos en las sección 3.2.7: los vectores base, los factores de escala y la métrica de un
sistema generalizado de coordenadas ortogonales de la siguiente forma:
1 Nótese
que estamos representando la base cartesiana como |ex i = i, |ey i = j y |ez i = k.
5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS
301
la trı́ada de vectores base {|ej i} ortonormales:
∂ |ri
;
∂q 1
1
|e1 i =
∂|ri
∂q 1
∂ |ri
;
∂q 2
1
|e2 i =
∂|ri
∂q 2
|e3 i =
y
∂ |ri
;
∂q 3
1
∂|ri
∂q 3
∂hr|
∂q1
∂ hr|
;
∂q2
1
e2 =
∂hr|
∂q2
e3 =
y
los factores de escala:
∂ |ri
;
∂q 1
∂ |ri
;
∂q 2
h2 =
y h3 =
∂ |ri
∂q 3
;
lim
h1 =
∂ hr|
;
∂q3
1
∂hr|
∂q3
in
∂ hr|
;
∂q1
1
e1 =
ar
que corresponden a los vectores tangentes a las curvas que definen al radio vector |ri, como veremos con
detalles en la sección 5.1.5.
la trı́ada de 1-formas base ej ortonormales:
el elemento de lı́nea (3.4) en términos de las coordenadas generalizadas como
ds2 = gij dq i dq j = h1 dq 1
2
+ h2 dq 2
2
+ h3 dq 3
2
;
rP
re
donde, como en 3.2, hemos identificado los factores de escala con las componentes del tensor métrico como:
√
√
√
h1 = g11 , h2 = g22 y h3 = g33 .
En la figura 5.1 hemos representado algunos de los sistemas coordenados y su relación con las expresiones que
generan las transformaciones de coordenadas, que discutimos con detalle en la sección 3.2.9, y en las secciones que
siguen haremos explı́citos algunos casos particulares.
5.1.1.
Coordenadas cartesianas
ad
o
El primer caso particular lo constituyen las coordenadas cartesianas, (q 1 , q 2 , q 3 ) ⇐⇒ (x, y, z), y el vector posición
lo construimos a partir de la ecuación (5.1) como:
|ri = x |ex i + y |ey i + z |ez i ⇐⇒ r = xi + yj + zk ,
mientras que el vector desplazamiento diferencial también será inmediato a partir de (5.2)
rr
dr ⇒ |dri =
∂ |ri
∂x
dx +
∂ |ri
∂y
dy +
∂ |ri
∂z
dz = dx |ex i + dy |ey i + dz |ez i ,
Bo
y, consecuentemente, los factores de escala quedan definidos como
h1 = hx =
∂ |ri
= 1,
∂x
h2 = hy =
∂ |ri
= 1,
∂y
h3 = hz =
∂ |ri
= 1,
∂z
mientras que la trı́ada ortonormal es
|ex i =
1
∂|ri
∂x
∂ |ri
,
∂x
|ey i =
1
∂|ri
∂y
∂ |ri
,
∂y
|ez i =
1
∂|ri
∂z
∂ |ri
.
∂z
Finalmente, el elemento de lı́nea viene definido a partir de (5.3) como
2
(ds) = h1 dx1
2
+ h2 dx2
y el tensor métrico será g11 = gxx = 1;
2
+ h3 dx3
2
⇐⇒
ds2 = dx2 + dy 2 + dz 2 ,
g22 = gyy = 1; y g22 = gzz = 1 .
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
rP
re
lim
in
ar
302
5.1.2.
ad
o
Figura 5.1: Algunas coordenadas curvilı́neas en 2D. Podemos apreciar algunos ejemplos de sistemas de coordenadas:
en el cuadrante I coordenadas polares: x = ρ cos(ϕ); y = ρ sen(ϕ). En el cuadrante II coordenadas
elı́pticas:
x = a cosh(u) cos(v); y = asenh(u)sen(v). En III coordenadas parabólicas: x = 12 u2 − v 2 ; y = uv y en el
h
i2
2
(v)
a2
cuadrante IV coordenadas bipolares: x2 + [y − a cot(u)] = a2 csc2 (u); x − a senh
.
+ y2 =
cosh(v)
senh2 (v)
Coordenadas cilı́ndricas
El segundo caso en complejidad son las coordenadas cilı́ndricas, (q 1 , q 2 , q 3 ) ⇐⇒ (ρ, ϕ, z) . Sus vectores base y
su métrica se construyen a partir de las ecuaciones (5.1), (5.2) y (5.3) expresándolas como función de las nuevas
coordenadas. Esto es
rr
|ri = x(ρ, ϕ) |ex i + y(ρ, ϕ) |ey i + z |ez i ⇐⇒ r = x(ρ, ϕ)i + y(ρ, ϕ)j + zk ,
con: ρ ≥ 0, 0 ≤ ϕ < 2π y −∞ < z < ∞.
Bo
Las componentes de x, y, z del vector posición expresada en las nuevas coordenadas pueden ser identificadas a
partir de las leyes de transformación respecto a las coordenadas cartesianas:

x = x(ρ, ϕ) = ρ cos(ϕ) 




y = y(ρ, ϕ) = ρ sen(ϕ)





z=z
dx = cos(ϕ)dρ − ρ sen(ϕ)dϕ
⇒ dy = sen(ϕ)dρ + ρ cos(ϕ)dϕ
dz = dz .
Por lo que el vector posición en estas coordenadas es: |ri = ρ cos(ϕ) |ex i + ρ sen(ϕ) |ey i + z |ez i , donde es fácil
identificar:
5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS
∂
x (ρ, ϕ) = cos(ϕ) ,
∂ρ
∂
x (ρ, ϕ) = −ρ sen(ϕ) ,
∂ϕ
∂
x(ρ, ϕ) = 0 ,
∂z
303
∂
y (ρ, ϕ) = sen(ϕ) ,
∂ρ
∂
y (ρ, ϕ) = ρ cos(ϕ) ,
∂ϕ
∂
y(ρ, ϕ) = 0 ,
∂z
∂
z=0
∂ρ
∂
z=0
∂ϕ
∂
z = 1,
∂z
∂ [x (ρ, ϕ) |ex i + y(ρ, ϕ) |ey i + z |ez i]
∂x(ρ, ϕ)
∂ |ri
∂y(ρ, ϕ)
=
=
|ex i +
|ey i
∂ρ
∂ρ
∂ρ
∂ρ
= kcos(ϕ) |ex i + sen(ϕ) |ey ik = 1 .
hϕ =
∂ |ri
= ρ;
∂ϕ
hz =
Mientras que los vectores unitarios serán
|eϕ i =
|ez i =
1
k ∂|ri
∂ρ k
1
k
∂|ri
∂ϕ
k
1
k ∂|ri
∂z k
∂|ri
∂ρ
=
∂x(ρ,ϕ)
∂ρ
∂|ri
∂ϕ
=
1
ρ
∂|ri
∂z
=
|ex i +
∂x(ρ,ϕ)
∂ϕ
∂y(ρ,ϕ)
∂ρ
|ex i +
|ey i = cos(ϕ) |ex i + sen(ϕ) |ey i ,
∂y(ρ,ϕ)
∂ϕ
|ey i = −sen(ϕ) |ex i + cos(ϕ) |ey i ,
rP
re
|eρ i =
∂ |ri
= 1.
∂z
lim
Del mismo modo
in
hρ =
ar
y de allı́ calcular los respectivos factores de escala:
∂z
∂z
|ez i = |ez i .
ad
o
Claramente, el sistema de coordenadas, para el caso 2D (z = 0) se reduce al sistema de coordenadas polares que
ilustramos en el cuadrante I de la figura 5.1.
El caso 3D lo ilustramos en la figura 5.2, izquierda y puede apreciarse que el vector unitario |eρ i es un vector
normal a las superficies cilı́ndricas y apunta en la dirección donde crece el radio ρ. El vector unitario |eϕ i es tangente
a las superficies cilı́ndricas, perpendicular a los planos ϕ = constante y apunta en la dirección donde aumenta el
ángulo azimutal ϕ. El vector |ez i es el mismo vector cartesiano |ki.
La expresión para el vector desplazamiento infinitesimal será
d |ri =
∂ |ri
∂ |ri
∂ |ri
dρ +
dϕ +
dz = dρ |eρ i + ρdϕ |eϕ i + dz |ez i .
∂ρ
∂ϕ
∂z
rr
Notemos que en este caso, y a diferencia de las coordenadas cartesianas, si ϕ varı́a en una cantidad dϕ, con ρ y
z constantes, entonces el desplazamiento no será dϕ sino ρdϕ.
El elemento de lı́nea viene definido como
2
2
2
ds2 = h1 dq 1 + h2 dq 2 + h3 dq 3
⇐⇒ ds2 = dρ2 + ρ2 dϕ2 + dz 2 ,
Bo
y el tensor métrico:
5.1.3.
g11 = gρρ = 1;
g22 = gϕϕ = ρ2 ;
g33 = gzz = 1 .
Coordenadas esféricas
Para construir el sistema de coordenadas esféricas tenemos:
(q 1 , q 2 , q 3 ) ⇐⇒ (r, θ, ϕ) ,
|ri = x (r, θ, ϕ) |ii + y (r, θ, ϕ) |ji + z (r, θ, ϕ) |ki ⇐⇒ r = x (r, θ, ϕ) i + y (r, θ, ϕ) j + z (r, θ, ϕ) k .
Con: r ≥ 0, 0 ≤ θ ≤ π y 0 ≤ ϕ < 2π. A r se le denomina la coordenada radial, a θ la coordenada polar y a ϕ la
coordenada azimutal.
Tendremos entonces:
∂ |ri
∂ |ri
∂ |ri
dr +
dθ +
dϕ .
dr ⇒ |dri =
∂r
∂θ
∂ϕ
304
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
Estas cantidades pueden ser identificadas de las leyes de transformación respecto a las coordenadas cartesianas

x = x (r, θ, ϕ) = r cos(ϕ)sen(θ) 
dx = cos(ϕ)sen(θ)dr − r sen(ϕ)sen(θ)dϕ + r cos(ϕ) cos(θ)dθ




y = y (r, θ, ϕ) = r sen(ϕ)sen(θ)
⇒ dy = sen(ϕ)sen(θ)dr + r cos(ϕ)sen(θ)dϕ + r sen(ϕ) cos(θ)dθ





z = z (r, θ, ϕ) = r cos(θ)
dz = cos(θ)dr − r sen(θ)dθ
|ri = r sen(θ) cos(ϕ) |ex i + r sen(θ)sen(ϕ) |ey i + r cos(θ) |ez i .
=
cos(ϕ)sen(θ) ,
=
r cos(ϕ) cos(θ) ,
=
−r sen(ϕ)sen(θ) ,
∂y (r, θ, ϕ)
∂z (r, θ, ϕ)
= sen(ϕ)sen(θ) ,
= cos(θ)
∂r
∂r
∂y (r, θ, ϕ)
∂z (r, θ, ϕ)
= r sen(ϕ) cos(θ) ,
= −r sen(θ)
∂θ
∂θ
∂y (r, θ, ϕ)
∂z (r, θ, ϕ)
= r cos(ϕ)sen(θ) ,
= 0.
∂ϕ
∂ϕ
Los factores de escala son los siguientes:
∂ |ri
= kcos(ϕ)sen(θ) |ex i + sen(ϕ)sen(θ) |ey i + cos(θ) |ez ik
∂r
p
=
cos2 (ϕ)sen2 (θ) + sen2 (ϕ)sen2 (θ) + cos2 (θ) = 1 ,
(5.5)
∂ |ri
= kr cos(ϕ) cos(θ) |ex i + rsen(ϕ) cos(θ) |ey i − rsen(θ) |ez ik
∂θ
q
2
2
2
(r cos(ϕ) cos(θ)) + (rsen(ϕ) cos(θ)) + (rsen(θ)) = r ,
=
(5.6)
∂ |ri
= k−rsen(ϕ)sen(θ) |ex i + r cos(ϕ)sen(θ) |ey ik
∂ϕ
q
2
2
=
(rsen(ϕ)sen(θ)) + (r cos(ϕ)sen(θ)) = r sen(θ) .
(5.7)
=
hθ
rP
re
hr
=
=
ad
o
hϕ
Mientras que para los vectores unitarios tenemos
1 ∂|ri
hr ∂r
= cos(ϕ)sen(θ) |ex i + sen(ϕ)sen(θ) |ey i + cos(θ) |ez i ,
|eθ i =
1 ∂|ri
hθ ∂θ
= cos(ϕ) cos(θ) |ex i + sen(ϕ) cos(θ) |ey i − sen(θ) |ez i ,
|eϕ i =
1 ∂|ri
hϕ ∂ϕ
rr
|er i =
= −sen(ϕ) |ex i + cos(ϕ) |ey i .
Bo
El desplazamiento infinitesimal en estas coordenadas es de la forma
∂ |ri
∂ |ri
∂ |ri
d |ri =
dr +
dθ +
dϕ = dr |er i + rdθ |eθ i + r sen(θ)dϕ |eϕ i .
∂r
∂θ
∂ϕ
Por lo tanto, para el elemento de lı́nea tenemos
2
(5.4)
lim
∂x (r, θ, ϕ)
∂r
∂x (r, θ, ϕ)
∂θ
∂x (r, θ, ϕ)
∂ϕ
in
Derivando:
ar
El vector posición es de la forma
(ds) = h1 dq 1
2
+ h2 dq 2
2
+ h3 dq 3
2
⇐⇒
ds2 = dr2 + r2 dθ2 + r2 sen2 (θ)dϕ2 .
Y para el tensor métrico
g11 = grr = 1;
g22 = gθθ = r2 ;
g33 = gϕϕ = r2 sen2 (θ) .
305
lim
in
ar
5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS
5.1.4.
rP
re
Figura 5.2: Coordenadas cilı́ndricas y esféricas. Para el caso de las coordenadas cilı́ndricas (figura izquierda), el
vector unitario |eρ i es un vector normal a las superficies cilı́ndricas y apunta en la dirección donde crece el radio ρ.
El vector unitario |eϕ i es tangente a las superficies cilı́ndricas, perpendicular a los planos ϕ = constante y apunta
en la dirección donde aumenta el ángulo azimutal ϕ. El vector |ez i es el mismo vector cartesiano |ki.
Otros sistemas coordenados
Por completitud, enumeraremos algunos otros sistemas de coordenadas y dejaremos al lector la labor de calcular
los vectores unitarios y la métrica del espacio expresada en esas coordenadas.
Coordenadas toroidales
q 1 , q 2 , q 3 ⇐⇒ (σ, τ, φ)
|ri = x (σ, τ, φ) |ex i + y (σ, τ, φ) |ey i + z (σ, τ, φ) |ez i ⇐⇒ r = x (σ, τ, φ) i + y (σ, τ, φ) j + z (σ, τ, φ) k .
Con 0 ≤ σ < 2π, 0 ≤ τ < ∞ y 0 ≤ φ < 2π.
ad
o
La transformación de coordenadas está definida de la siguiente forma (con a constante)
x=a
senh(τ )
cos(φ) ,
cosh(τ ) − cos(σ)
y=a
senh(τ )
sen(φ) ,
cosh(τ ) − cos(σ)
z=a
sen(σ)
,
cosh(τ ) − cos(σ)
Las superficies τ constante representan toros alrededor del eje z; las superficies σ constante son esferas con
centro sobre el eje z y finalmente las superficies φ constante son planos que contiene al eje z.
Bo
rr
La métrica en estas coordenadas es:
2
2
2
ds2 = h1 dq 1 + h2 dq 2 + h3 dq 3 ,
2
2
2
a
a
a senh(τ )
=
dσ 2 +
dτ 2 +
dφ2 .
cosh(τ ) − cos(σ)
cosh(τ ) − cos(σ)
cosh(τ ) − cos(σ)
Coordenadas elipsoidales Dados tres números a, b y c, con a > b > c > 0, la ecuación
y2
z2
x2
+
+
= 1,
a2 + α b2 + α c2 + α
representa las superficies cuádricas2 homofocales (es decir, con el mismo foco u origen en (x = 0, y = 0, z = 0)).
Dependiendo del valor del parámetro α, estas ecuaciones representarán superficies
Elipsoides
Hiperboloides de una hoja
Hiperboloides de dos hojas
2 Nótese
si
α > −c2
2
si −c > α > −b2
si −b2 > α > −c2
que la proyección de estas superficies en el plano xy representan curvas cónicas homofocales.
306
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
Esto quiere decir que por cada punto (x, y, z) del espacio, pasan tres superficies cuádricas (dependiendo del
valor de α). Conocidos a, b y c y el punto, (x = x0 , y = y0 , z = z0 ), los valores de α vienen dados por las raı́ces
de la ecuación cúbica
y2
z2
x2
+
+
=1
a2 + α b2 + α c2 + α
⇒ α3 + ∆ α2 + Φ α + Ω = 0 ,
∆ = x20 + y02 + z02 − a2 − b2 − c2 ,
in
Φ = b2 + c2 x20 + a2 + c2 y02 + a2 + b2 z02 − a2 b2 − a2 + b2 c2 ,
ar
con
Ω = x20 b2 c2 + y02 a2 c2 + z02 a2 b2 − a2 b2 c2 .
lim
Las raı́ces de esta ecuación (α1 = λ; α2 = µ; α3 = ν) definen las coordenadas elipsoidales del punto (x, y, z) =
(x (λ, µ, ν) , y (λ, µ, ν) , z (λ, µ, ν)).
Tenemos entonces:
q 1 , q 2 , q 3 ⇐⇒ (λ, µ, ν) ,
|ri = x (λ, µ, ν) |ex i + y (λ, µ, ν) |ey i + z (λ, µ, ν) |ez i ⇐⇒ r = x (λ, µ, ν) i + y (λ, µ, ν) j + z (λ, µ, ν) k .
por cual la métrica será
ds2 =
s
y=
(b2 + λ) (b2 + µ) (b2 + ν)
,
(b2 − a2 ) (b2 − c2 )
s
z=
(c2 + λ) (c2 + µ) (c2 + ν)
,
(c2 − b2 ) (c2 − a2 )
(λ − µ) (λ − ν)
(µ − λ) (µ − ν)
(ν − µ) (ν − λ)
dλ2 +
dµ2 +
dν 2 .
4 (a2 + λ) (b2 + λ) (c2 + λ)
4 (a2 + µ) (b2 + µ) (c2 + µ)
4 (a2 + ν) (b2 + ν) (c2 + ν)
Curvas y parámetros
ad
o
5.1.5.
rP
re
Y la ley de transformación:
s
(a2 + λ) (a2 + µ) (a2 + ν)
,
x=
(a2 − b2 ) (a2 − c2 )
rr
Tal y como se expuso en la sección 1.5, los vectores podrán ser constantes o variables y, esa caracterı́stica se
verificará tanto en las componentes como en la base. En esta sección lo mostramos para el caso de los vectores 3D,
pero el concepto es generalizable a cualquier dimensión. Esto quiere decir que, cuando un vector es variable podrán
variar su módulo, su dirección, su sentido, todo junto o por separado. Obviamente, esta variabilidad del vector
dependerá de la base en la cual se exprese, por lo cual un mismo vector podrá tener una componente constante en
una base y variable en otra, es decir
|ai(t) = ak (t) |ek i(t) = ãk |ẽk i(t) = âk (t) |êk i .
(5.8)
Bo
De esta manera, cuando uno considera un vector variable, |ai(t) ⇐⇒ a(t), podemos establecer un cociente
incremental:
|ai(t+∆t) − |ai(t)
∆ |ai(t)
d |ai(t)
lı́m
= lı́m
=
.
∆t→0
∆t→0
∆t
∆t
dt
La misma propuesta se cumplirá para las formas diferenciales (t) ha|.
Como siempre, las propiedades de esta diferenciación serán:
d |ai(t) + |bi(t)
dt
d α(t) |ai(t)
dt
d (t) ha |bi(t)
dt
=
=
=
d |ai(t)
+
d |bi(t)
,
dt
dt
d |ai(t)
dα(t)
|ai(t) + α(t)
y
dt
dt
d |bi(t)
d((t) ha|)
|bi(t) +(t) ha|
.
dt
dt
5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS
307
Entonces reproducimos aquı́ la ecuación (1.3), de la sección 1.5.2, ahora en notación de Dirac:
|ai(t) = ak (t) |ek i(t)
⇒
d |ai(t)
dt
=
dak (t)
d |ek i(t)
d k
a (t) |ek i(t) =
|ek i(t) + ak (t)
,
dt
dt
dt
(5.9)
lim
in
ar
con lo cual, como dijimos en 1.5.2, hay que tener cuidado al derivar vectores y cerciorarse de la dependencia funcional
de la base y componentes. Habrá sistemas de coordenadas (bases de vectores) que serán constantes y otros con bases
variables.
Podemos generalizar la ecuación (5.9) si consideramos una curva descrita por un radio vector |ri función de un
parámetro λ, de manera que el vector posición, en coordenadas cartesianas, queda escrito como |ri = r(λ) =
r (x(λ), y(λ), z(λ)), donde las funciones: {x(λ), y(λ), z(λ)} son las ecuaciones paramétricas de la curva descrita por
el vector posición r.
Para el vector desplazamiento infinitesimal |dri = (dx(λ), dy(λ), dz(λ)), a lo largo de la curva descrita por el
parámetro λ, resulta:
d (r(λ))
dx ∂r
dy ∂r
dz ∂r
|dri = dr (x(λ), y(λ), z(λ)) =
dλ =
+
+
dλ ,
dλ
dλ ∂x dλ ∂y dλ ∂z
con lo cual podemos hacer la siguiente asociación:
d( )
dλ
⇔
dx ∂ ( ) dy ∂ ( ) dz ∂ ( )
+
+
,
dλ ∂x
dλ ∂y
dλ ∂z
)
como las componentes del vector dr(λ) (y, en general, del operador d(
dλ )
) ∂( ) ∂( )
tangente a la trayectoria parametrizada con λ. Más aún, podemos asociar a las cantidades: ∂(
con los
∂x , ∂y , ∂z
vectores base en esas coordenadas. Este tipo de parametrización es la que hemos usado en los cursos de mecánica,
allı́ el parámetro utilizado ha sido el tiempo.
Otra forma alternativa de parametrizar el vector posición es a través de funciones que representen la curva
espacial:
|ri = r(λ) = r (λ, f (λ), g(λ)) ,
dx dy dz
dλ , dλ , dλ
rP
re
y considerar a las cantidades
Bo
rr
ad
o
o por medio de la intersección de superficies F (x, y, z) = 0 y G(x, y, z) = 0.
Figura 5.3: Vector posición r(t), en R2 , que describe paramétricamente una curva.
Por otro lado, el cuadrado de la distancia infinitesimal recorrida es:
(ds)2 = dr(λ) · dr(λ) =
d (r(λ)) d (r(λ))
·
(dλ)2 = (dx(λ))2 + (dy(λ))2 + (dz(λ))2 ,
dλ
dλ
entonces
ds
dλ
2
=
d (r(λ)) d (r(λ))
·
,
dλ
dλ
308
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
por lo tanto, la longitud de arco entre dos puntos sobre la curva r(λ) será
Z
λ2
s=
λ1
d (r(λ)) d (r(λ))
·
dλ
dλ
1/2
dλ .
por lo tanto
⇒
dr
dq 2 ∂r
dq 3 ∂r
dq 1 ∂r
+
+
,
=
dλ
dλ ∂q 1
dλ ∂q 2
dλ ∂q 3
|{z}
|{z}
|{z}
u1
n
donde: u1 =
o
∂r
∂r
∂r
,
u
=
,
u
=
, son la base del vector
1
2
3
2
3
∂q
∂q
∂q
dr(λ)
dλ
u2
u3
in
dq 1
dq 2
dq 3
∂r
∂r
∂r
dr q i (λ) =
dλ 1 +
dλ 2 +
dλ 3
dλ
∂q
dλ
∂q
dλ
∂q
ar
Consideramos ahora un conjunto de coordenadas generalizadas: q 1 (λ), q 2 (λ), q 3 (λ) , tendremos
|ri = r(λ) = r q 1 (λ), q 2 (λ), q 3 (λ) ,
tangente a la curva descrita por r(λ).
(ds)2 = dr(λ) · dr(λ) =
d (r(λ)) d (r(λ))
dq i ∂ (r(λ)) dq j ∂ (r(λ))
·
(dλ)2 =
·
(dλ)2
dλ
dλ
dλ ∂q i
dλ ∂q j
∂ (r(λ)) ∂ (r(λ)) dq i dq j
∂ (r(λ)) ∂ (r(λ)) i j
·
dλ
dλ =
·
dq dq .
∂q i
∂q j |dλ{z }|dλ{z }
∂q i
∂q j
rP
re
=
lim
Como sabemos, el módulo del vector kdr(λ)k representará la longitud de arco ds para esa curva. Por consiguiente
dq i
Dado que
2
dq j
(ds) = gij dxi dxj = g̃ij dx̃i dx̃j = ḡij dq i dq j =
∂ (r(λ)) ∂ (r(λ)) i j
dq dq ,
·
∂q i
∂q j
{z
}
|
ḡij
identificamos claramente a las componentes del tensor gij :
∂ (r(λ)) ∂ (r(λ))
·
.
∂q i
∂q j
ad
o
gij ≡
Bo
rr
Por otro lado, cuando r(λ) describe una curva Γ en el espacio, en cada punto de ésta curva podemos asociar un
vector dr(λ)/dλ, esto es, un vector que es tangente a la curva Γ en un punto dado y apuntando en la dirección en
la que aumenta λ.
Si el parámetro a utilizar es la propia longitud de arco s, entonces, dr(s)/ds es un vector unitario tangente a la
curva Γ y lo denotaremos por τ̂
dr(s)
τ̂ =
.
ds
Como el vector τ̂ es de magnitud constante, dτ̂ /ds será un vector perpendicular a τ̂ . Al vector unitario en la
dirección perpendicular a τ̂ lo denotaremos n̂.
dτ̂
dτ̂
=
n̂ = κn̂ .
ds
ds
A κ se le denomina la curvatura de la curva Γ y a la cantidad ρ = 1/κ radio de curvatura. De manera intuitiva,
la curvatura nos indica que lejos está una curva de ser una linea recta.
Con este par de vectores coplanares se puede construir un tercero perpendicular tanto a τ̂ como a n̂, que
denominaremos vector binormal a Γ, esto es: b̂ = τ̂ × n̂. Tenemos entonces la trı́ada {τ̂ , n̂, b̂} al que podemos anclar
un sistema de coordenadas cartesiano en cada punto de Γ. Es claro que este conjunto de vectores irá cambiando
a medida que r va cambiando al variar el parámetro. Este sistema de coordenadas, no inercial, estará rotando
constantemente a medida que el observador se mueve a lo largo de la curva en el espacio.
Continuando con el razonamiento anterior, por ser b̂ de magnitud constante, entonces
b̂ ⊥
db̂
ds
∧
db̂
⊥ τ̂
ds
309
ar
5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS
db̂
= −τ n̂
ds
lim
Al ser db̂/ds perpendicular tanto a τ̂ como a b̂, entonces será proporcional a n̂:
in
Figura 5.4: La trı́ada de vectores unitarios {τ̂ , n̂, b̂} para una curva en el plano.
⇒ τ = −n̂ ·
db̂
,
ds
rP
re
esta constante de proporcionalidad se denomina la torsión de la curva Γ en un punto dado, y a 1/τ el radio de
torsión. Intuitivamente, la torsión mide que lejos está una curva de permanecer en un plano.
Para finalizar, a partir del hecho de que n̂ = b̂ × τ̂ :
dn̂
db̂
dτ̂
=
× τ̂ + b̂ ×
= −τ (n̂ × τ̂ ) + κ(b̂ × n̂) = τ b̂ − κτ̂ .
ds
ds
ds
A las ecuaciones
dτ̂
db̂
dn̂
= κn̂ ,
= −τ n̂ ,
= τ b̂ − κτ̂ .
ds
ds
ds
se les conoce como las fórmulas de Frenet-Serret de la geometrı́a diferencial.
Covectores, tensores y coordenadas curvilı́neas
ad
o
5.1.6.
Retomemos los conceptos que expresamos en la sección 3.1.3, de tal forma que podemos expresar vectores y
formas como
|ai = ai |ei i = ax |ex i + ay |ey i + az |ez i ≡ aρ |eρ i + aϕ |eϕ i + az |ez i
y equivalentemente para las 1-formas
rr
ha| = ai hei | = ax hex | + ay hey | + az hez | ≡ aρ heρ | + aϕ heϕ | + az hez | ,
Bo
en ambos casos hemos hecho la comparación entre un sistema de coordenadas cartesiana y uno cilı́ndrico. Lo que
es importante notar es lo que insistimos en la sección 3.1.3, que los vectores y 1-formas, se expresan de forma
equivalente en los distintos sistemas de coordenadas.
Siguiendo la misma lógica argumental que en la sección 3.2.2 construimos tensores en cualquier sistema de
coordenadas curvilı́neo a partir del producto tensorial de vectores y formas:
T = T ij |ei i ⊗ |ẽj i ≡ Tij ei ⊗ |ẽj i ≡ Tij ei ⊗ ẽj .
Es importante recalcar que el tensor T es un objeto geométrico que se expresa en una base (tensorial) particular y
que las base de vectores {|ei i} y 1-formas ẽj , en principio, no necesariamente pueden ser las mismas, vale decir:
T = T xρ |ex ; eρ i + T xϕ |ex ; eϕ i + T xz |ex ; ez i + T yρ |ey ; eρ i + T yϕ |ey ; eϕ i + T yz |ey ; ez i + · · · + T zz |ez ; ez i ,
donde hemos desarrollado el caso particular de un tensor bizarro parte cartesiano y parte cilı́ndrico. Este tipo de
objetos es solo un ejemplo. Nótese que estamos utilizando la notación |ei ; ej i ≡ |ei i ⊗ |e˜j i.
Solo para fijar ideas vamos a extender algunos conceptos que presentamos en la sección 1.2.6:
310
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
Producto escalar
El producto escalar es independiente de la base en la cual se exprese
ha| bi = ai bi = ãj b̃j = gij ai bj = g̃ij ãi b̃j
ar
donde, como es de esperar, las leyes de transformación entre el sistema de coordenadas cartesianas xi = xi (q j ) y
un sistema de coordenadas curvilı́neas q j = q j (xi ) permiten la traducción de las componentes de vectores, formas
y tensores como:
∂q k
∂q k ∂q m
∂xi
ã
,
y
g
=
g̃km
bi = k b̃k , aj =
k
ij
∂q
∂xj
∂xi ∂xj
Producto vectorial
in
El producto vectorial tal y como lo construimos la sección 1.2.6 se expresa como
E
|ci = ci |ei i = |ai × |bi = ijk aj bk |ei i ⇔ |c̃i = c̃i |ẽi i = |ãi × b̃ = ˜ijk ãj b̃k |ẽi i .
∂q i ∂q j ∂q k
√
= J ijk = g ijk
∂xl ∂xm ∂xn
rP
re
˜ijk = lmn
lim
Donde ijk es el tensor de Levi-Civita en coordenadas cartesianas definido en la sección 1.4.1 y que luego generalizamos en la sección 4.3.5. Es decir, queremos construir la versión del producto vectorial que tenga la misma forma
que en el caso cartesiano pero en cualquier sistema de coordenadas. De la relación anterior es claro que, el tensor
de Levi-Civita transformará como un tensor, es decir
donde J es el determinante de la matriz jacobiana, que discutimos en 3.2.9 y g el determinante de la métrica. Por
lo tanto,
n
l
m
n
∂q l
∂q m
∂q
ijk ∂q ∂q ∂q
|ci = |ai × |bi = aj bk ijk |ei i = ijk ãl j
|ẽ
i
=
b̃m k
ãl b̃m |ẽn i ,
n
∂x
∂x
∂xi
∂xj ∂xk ∂xi
con lo cual
|ci = |ai × |bi = aj bk ijk |ei i = ãm b̃n ˜lmn |ẽl i = J lmn ãm b̃n |ẽl i =
| {z }
| {z }
ci
Ejemplos
g lmn ãm b̃n |ẽl i
c̃l
ad
o
5.1.7.
√
1. Velocidades y aceleraciones. Para fijar conceptos repasaremos los cálculos de las expresiones de las
velocidades y las aceleraciones, que expusimos en la sección 1.5.3, solo que ahora los desarrollaremos en
coordenadas generalizadas. Para ello recordamos que los vectores velocidad y aceleración se representan como
|vi = v j |ej i = ẋj |ej i = ṽ j |ẽj i = x̃˙ j |ẽj i
y
¨j |ẽj i ,
|ai = aj |ej i = ẍj |ej i = ãj |ẽj i = x̃
rr
respectivamente.
Bo
Para determinar estos vectores en cualquier sistema de coordenadas, es suficiente con encontrar las expresiones
de sus componentes covariantes o contravariantes. Como sabemos, podremos encontrar una a partir de las
otras con la ayuda de la métrica del sistema de coordenadas.
Entonces, el vector velocidad en la base cartesiana se puede expresar como
|vi = vx |ex i + vy |ey i + vz |ez i = ẋ |ex i + ẏ |ey i + ż |ez i = ẋj |ej i ,
con: |e1 i = |ex i , |e2 i = |ey i
y
|e3 i = |ez i.
Claramente las componentes contravariantes del vector velocidad en un sistema de coordenadas generalizado
son v j = q̇ j .
Recordamos que para cualquier base generalizada de vectores o formas las componentes covariantes se expresan
en término de la base cartesiana (de vectores o formas) como
|ẽj i =
∂xi
|ei i
∂q j
y
ẽi =
∂q i j
e .
∂xj
5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS
311
Entonces, las componentes covariantes del vector velocidad en una base generalizada serán
vm v m
i
∂xm
∂
m
m
2
∂x
∂ ẋ
∂x
∂t
|ei i = ẋm j = ẋm ∂q
= ẋm j =
.
ṽj = hv |ẽj i = (ẋm hẽm |)
j
j
∂q
∂q
∂ q̇
∂ q̇ j
∂t
Resulta fácil expresar las componentes covariantes una vez que conocemos el módulo del vector expresado en
ese sistema de coordenadas, el cual siempre viene escrito a partir del diferencial
⇒
d |ri
.
dt
ar
d |ri
in
Para encontrar la expresión para la aceleración se procede de manera análoga.
i
∂xm
d
∂ ẋm
∂xm
∂x
m
|e
i
=
ẍ
≡
−
ẋ
,
ẋ
ãj = ha |ẽj i = (ẍm hẽ |)
i
m
m
m
∂q j
∂q j
dt
∂q j
∂q j
∂xm
∂ ẋm
=
j
∂q
∂ q̇ j
⇒ ãj =
d
dt
lim
y otra vez
∂ ẋm
∂ ẋm
∂
ẋm ẋm
∂
ẋm ẋm
d
ẋm j − ẋm j =
−
,
∂ q̇
∂q
dt ∂ q̇ j
2
∂q j
2
para finalmente
d
∂
vm v m
∂
vm v m
−
.
dt ∂ q̇ j
2
∂q j
2
rP
re
ãj =
2. Calculemos las componentes cartesianas del vector que, en coordenadas cilı́ndricas, tiene las siguiente componentes: (1, π/3, 3).
ad
o
Ese vector en coordenadas cilı́ndricas se puede escribir como: V = |er i + π3 |eϕ i
componentes de los vectores transforman como


∂ x̃1 (xm ) k 

1


 1


ã =
a 


k


∂x
x̃ = x 



















i
m
2
m
∂ x̃ (x ) k
∂
x̃
(x
)
i
2
k
2
x̃
=
y
y
con
ã =
a
⇒
a 
ã =



∂xk
∂xk













 3




x̃ = z


3
m


∂
x̃
(x
)


3
k
 ã =
a 
∂xk
+ 3 |ez i. En general, las
 1
x =r





x2 = ϕ




 3
x =z











y la ley de transformación entre coordenadas cartesianas y coordenadas cilı́ndricas es
rr
x = x (r, ϕ) = r cos(ϕ);
y = y (r, ϕ) = rsen(ϕ)
y
z = z,
Bo
con lo cual es fácil identificar
∂x(r,ϕ)
∂r
= cos(ϕ)
∂y(r,ϕ)
∂r
= sen(ϕ)
∂z
∂r
=0
∂x(r,ϕ)
∂ϕ
∂y(r,ϕ)
∂ϕ
= −rsen(ϕ)
∂x(r,ϕ)
∂z
=0
= r cos(ϕ)
∂y(r,ϕ)
∂z
=0
∂z
∂ϕ
=0
∂z
∂z
=1
Por lo tanto
ã1 =
∂ x̃1 (xm ) k
∂ x̃1 (xm ) 1 ∂ x̃1 (xm ) 2 ∂ x̃1 (xm ) 3
a =
a +
a +
a
k
∂x
∂x1
∂x2
∂x3
π
π
π π ∂x (r, ϕ)
∂x (r, ϕ) π ã =
(1) +
= cos(ϕ) − rsen(ϕ)
= cos
− (1)sen
=
∂r
∂ϕ
3
3
3
3
3
1
√
3−π
√ ,
2 3
312
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
del mismo modo
π
π
π π ∂y (r, ϕ)
∂y (r, ϕ) π = sen(ϕ) + r cos(ϕ)
= sen
+ (1) cos
=
ã =
(1) +
∂r
∂ϕ
3
3
3
3
3
√
2
27 + π
,
6
ã3 = 3 .
V = |er i +
π
|eϕ i + 3 |ez i =
3
√
3−π
√
|ii +
2 3
√
27 + π
|ji + 3 |ki .
6
ar
Con lo cual
in
3. Dado el siguiente vector en coordenadas cilı́ndricas a = −2 |eρ i + 5 |eϕ̃ i + 4 |ez i. Vamos a ver como queda
expresado en coordenadas esféricas.
La primera forma de hacerlo es transformando las componentes al conocer como transforman las coordenadas.
∂ x̃i
k
Es decir conociendo xi = xi (x̃m ) y x̃j = x̃j (xm ) expresar ãi = ∂x
k a . Dado que
z
ρ cos(ϕ̃) = x (r, ϕ, θ) = r cos(ϕ)sen(θ)
ρsen(ϕ̃) = y (r, ϕ, θ) = rsen(ϕ)sen(θ)
= z = r cos(θ) .
Por lo tanto:
ϕ̃ = ϕ ,
En forma matricial:


∂ x̃ k 

a =

∂xk

i
ãi
=

∂
ρ2 +z 2
∂ρ
∂ x̃2
∂x1
∂ x̃3
∂x1
∂
∂ x̃1
∂x2
∂ x̃1
∂x2
∂ x̃2
∂x2
∂ x̃2
∂x3
∂ x̃3
∂x2
∂ x̃3
∂x3
√
ρ2 +z 2
∂ϕ
0
∂ arctan( ρ
z)
∂ρ
⇒r=
p
ρ2 + z 2 ;
1
∂ arctan( ρ
z)
∂ϕ


 

−2




5 =



4


√
∂
ad
o
=







√
∂ x̃1
∂x1
z = r cos(θ)
θ = arctan
rP
re
ρ = rsen(θ) ,
lim
x (ρ, ϕ̃) =
y (ρ, ϕ̃) =
ρ2 +z 2
∂z
0
∂ arctan( ρ
z)
∂z
∂r
∂ρ
∂r
∂ϕ
∂r
∂z
∂ϕ
∂ρ
∂ϕ
∂ϕ
∂ϕ
∂z
∂θ
∂ρ
∂θ
∂ϕ
∂θ
∂z
ρ
;
ϕ̃ = ϕ .
z
ρ2 +z 2

z



−2


5 


4



  √ ρ

−2
ρ2 +z 2

 5  = 

0


z
4
2

ρ +z 2
0
1
0
√
0
−ρ
ρ2 +z 2

−2

5 .

4
Bo
rr
Resultando, que en esféricas


−2sen(θ) + 4 cos(θ)
 = (−2sen(θ) + 4 cos(θ)) |er i + 5 |eϕ i − 2 cos(θ) + 4sen(θ) |eθ i .
5
a=
r
r
−2 cos(θ)
− 4 sen(θ)
r
r
La otra forma es expresar la base ortonormal cilı́ndrica en términos de la base ortonormal esférica. Otra vez,
utilizamos la base cartesiana como intermediaria. Esto es:


|eρ i = cos(ϕ̃) |ii + sen(ϕ̃) |ji , 
 |ii = cos(ϕ̃) |eρ i − sen(ϕ̃) |eϕ̃ i
|eϕ̃ i = −sen(ϕ̃) |ii + cos(ϕ̃) |ji
|ji = sen(ϕ̃) |eρ i + cos(ϕ̃) |eϕ̃ i
⇔


|ez i = |ki
|ki = |ez i
Mientras que en esféricas, donde
|er i =
cos(ϕ)sen(θ) |ii + sen(ϕ)sen(θ) |ji + cos(θ) |ki
|eϕ i =
−sen(ϕ) |ii + cos(ϕ) |ji
|eθ i =
cos(ϕ) cos(θ) |ii + sen(ϕ) cos(θ) |ji − sen(θ) |ki
5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS
313
y
|ii =
cos(ϕ)sen(θ) |er i + cos(ϕ) cos(θ) |eθ i − sen(ϕ) |eϕ i
|ji =
sen(ϕ)sen(θ) |er i + sen(ϕ) cos(θ) |eθ i + cos(ϕ) |eϕ i
|ki =
cos(θ) |er i − sen(θ) |eθ i
|eρ i =
cos(ϕ) [cos(ϕ)sen(θ) |er i + cos(ϕ) cos(θ) |eθ i − sen(ϕ) |eϕ i]
+
sen(ϕ) [sen(ϕ)sen(θ) |er i + sen(ϕ) cos(θ) |eθ i + cos(ϕ) |eϕ i]
=
sen(θ) |er i + cos(θ) |eθ i
|eϕ i = |eϕ i
cos(θ) |er i − sen(θ) |eθ i
in
|ez i =
ar
Con lo cual
entonces
Finalmente
lim
a = −2 |eρ i + 5 |eϕ i + 4 |ez i = −2 (sen(θ) |er i + cos(θ) |eθ i) + 5 (|eϕ i) + 4 (cos(θ) |er i − sen(θ) |eθ i)
a = (−2sen(θ) + 4 cos(θ)) |er i + 5 |eϕ i − (2 cos(θ) + 4sen(θ)) |eθ i .
4. Dado el sistema de coordenadas parabólicas
y = ξηsen(ϕ);
z=
1 2
η − ξ2
2
rP
re
x = ξη cos(ϕ);
Vamos a calcular el diferencial de volumen dv = dxdydz en estas coordenadas
ad
o
Hay varias maneras de resolver este problema. La más intuitiva es que, dado que las coordenadas parabólicas
son un sistema de coordenadas ortogonales entonces multiplicar largo, por ancho, por alto con las longitudes
de arco en cada una de las direcciones ortogonales. Esto es

2

ds2→1 = g11 dq 1





2
2
n
u
1 2
2 2
3 2
ds = gnu dq dq = g11 dq
+ g22 dq
+ g33 dq
⇒
ds2→2 = g22 dq 2





2

ds2→3 = g33 dq 3
por consiguiente
dv = (ds→1 ) (ds→2 ) (ds→3 ) =
con
=
rr
∂r
h1 =
∂q 1
Bo
∂r
h2 =
∂q 2
h3 =
∂r
∂q 3
=
=
√
√
√
s
g11 =
s
g22 =
s
g11 =
√
√
√
g11 dq 1 g22 dq 2 g33 dq 3 = h1 h2 h3 dq 1 dq 2 dq 3
∂x (q 1 , q 2 , q 3 )
∂q 1
2
∂x (q 1 , q 2 , q 3 )
∂q 2
2
∂x (q 1 , q 2 , q 3 )
∂q 3
2
+
+
+
∂y (q 1 , q 2 , q 3 )
∂q 1
2
∂y (q 1 , q 2 , q 3 )
∂q 2
2
∂y (q 1 , q 2 , q 3 )
∂q 3
2
∂z (q 1 , q 2 , q 3 )
∂q 1
2
∂z (q 1 , q 2 , q 3 )
∂q 2
2
∂z (q 1 , q 2 , q 3 )
∂q 3
2
+
+
+
por lo cual, dado que r = x (η, ξ, ϕ) i + y (η, ξ, ϕ) j + z (η, ξ) k, entonces
q
p
∂r
√
2
2
2
g
=
(η cos(ϕ)) + (ηsen(ϕ)) + (ξ) = (η 2 + ξ 2 )
h1 =
=
11
1
∂q
q
p
∂r
√
2
2
2
h2 =
=
g
=
(ξ cos ϕ) + (ξsen(ϕ)) + (−η) = (η 2 + ξ 2 )
22
2
∂q
q
∂r
√
2
2
2
h1 =
=
g
=
(−ξηsen(ϕ)) + (ξη cos(ϕ)) + (0) = ξη
11
∂q 1
314
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
y finalmente
dv = h1 h2 h3 dξdηdϕ = ξη η 2 + ξ 2 dξdηdϕ .
En general


dv = dq 1 dq 2 dq 3 det

∂x(q 1 ,q 2 ,q 3 )
∂q 1
∂x(q 1 ,q 2 ,q 3 )
∂q 2
∂x(q 1 ,q 2 ,q 3 )
∂q 3
∂y (q 1 ,q 2 ,q 3 )
∂q 1
∂y (q 1 ,q 2 ,q 3 )
∂q 2
∂y (q 1 ,q 2 ,q 3 )
∂q 3
∂z (q 1 ,q 2 ,q 3 )
∂q 1
∂z (q 1 ,q 2 ,q 3 )
∂q 2
∂z (q 1 ,q 2 ,q 3 )
∂q 3





in

ar
La otra forma de resolverlo, también intuitiva, es hacer el producto mixto de los tres vectores ortogonales base
sin normalizar. Esto es
∂r
∂r
∂r
1
2
3
2 ∂r
3 ∂r
1 ∂r
= dq dq dq
.
· dq
× dq
·
× 3
dq
dv =
∂q 1
∂q 2
∂q 3
∂q 1
∂q 2
∂q
Entonces


ξ
−η  = ξη η 2 + ξ 2 dξdηdϕ
0
rP
re
dv = dξdηdϕ det
η cos(ϕ)
η sen(ϕ)
ξ cos(ϕ)
ξ sen(ϕ)
−ξη sen(ϕ) ξη cos(ϕ)
lim
= dq 1 dq 2 dq 3 det J x q 1 , q 2 , q 3 , y q 1 , q 2 , q 3 , z q 1 , q 2 , q 3
donde J x q 1 , q 2 , q 3 , y q 1 , q 2 , q 3 , z q 1 , q 2 , q 3 es la matriz Jacobiana de la transformación.
En general, el diferencial del volumen viene expresado como un producto mixto de la base ortonormal
{|q1 i , |q2 i , |q3 i}
dv = dq 1 |q1 i · dq 2 |q2 i × dq 3 |q3 i = dq 1 dq 2 dq 3 k|q1 i · (|q2 i × |q3 i)k
dv = dqn hqn | 123 dq2 dq3 |q1 i = gnu dq u g22 dq 2 g33 dq 3 hqn |q1 i = g11 dq 1 g22 dq 2 g33 dq 3 .
| {z }
δ1n
ad
o
5. Para una curva en el plano xy dada por y = y(x) y z = 0 podemos escribir
|ri = r(λ) = λ |ex i + y(λ) |ey i
dy
dr
= |ex i +
|ey i
⇒
dλ
dλ
dr dr
⇒
·
=1+
dλ dλ
dy
dλ
2
,
al hacer λ = x se tiene
Z
λ2
rr
s=
λ1
d (r(λ)) d (r(λ))
·
dλ
dλ
1/2
Z
x2
"
dλ =
1+
x1
dy
dx
2 #1/2
dx .
6. Vamos a considerar el siguiente arco de hélice: C(t) = [2 cos(t), 2 sen(t), 4t], con t ∈ [0, 2π].
Bo
Podemos calcular la parametrización en s de la siguiente manera.
Como
Ċ(t) =
d (r(t))
= [−2 sen(t), 2 cos(t), 4]
dt
entonces
1/2
Z tp
Z t √
√
d (r(t)) d (r(t))
·
dt =
4 sen2 (t) + 4 cos2 (t) + 16 dt =
2 5dt = 2 5t .
dt
dt
0
0
0
√
Por lo tanto t = s/2 5 y la curva parametrizada con s es
s
s
s
√
√
C(s) = r(s) = 2 cos
, sen
,√ .
2 5
2 5
5
s=
Z t
5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS
315
Al derivar se tiene que
s
s
dr(s)
1
√
√
√
−sen
, cos
,2
τ̂ =
=
ds
5
2 5
2 5
√
con s ∈ [0, 4 5π].
dτ̂
=
κ=
ds
s
1
cos2
102
s
√
2 5
1
+ 2 sen2
10
s
√
r
=
2 5
1
1
=
,
102
10
ar
La curvatura es simplemente
in
es decir, la curvatura es constante y el radio de curvatura es ρ = 10. El vector normal unitario n̂ que resulta
es
s
1 dτ̂
s
√
√
, −sen
,0 .
n̂ =
= − cos
κ ds
2 5
2 5
Calculemos ahora la torsión
1
db̂
= sen2
ds
5
s
√
2 5
+
1
cos2
5
s
√
2 5
=
1
.
5
rP
re
τ = −n̂ ·
lim
Los vectores τ̂ y n̂ se encuentran en un plano, el plano oscuador, del cual podemos construir el vector unitario
binormal:
1
s
s
√
√
b̂ = τ̂ × n̂ = √ 2 sen
, 2 cos
,1 .
5
2 5
2 5
Dejamos al lector la demostración de que se satisfacen las fórmulas de Frenet-Serret.
ad
o
7. A continuación mostraremos como afectan las transformaciones de coordenadas a los tensores. Tal y como
expresamos en la sección 3.2.9, el mismo esquema de transformación que tienen las componentes de los vectores
(y de las forma) son los que se requieren para transformar a los tensores. Obviamente habrá que cuidar que tipo
de componentes (covariantes o contravariante) del tensor estamos transformando. Consideremos el siguiente
tensor


2 1 3
Tji =  2 3 4  , en la base: {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ey i , |ez i} .
1 2 2
Es decir, es un tensor que hemos expresado en coordenadas cartesianas y queremos ahora pasarlo a cilı́ndricas.
Como recién mencionamos:

∂ x̃k i ∂xj
=
T
∂xi j ∂ x̃m
rr
k
T̃m
⇒
k
T̃m
cos(ϕ)

 sen(ϕ)
=
 − ρ

0
Bo
sustituyendo el tensor y multiplicando las

cos(ϕ) sen(ϕ)
cos(ϕ)
k
T̃m
=  − sen(ϕ)
ρ
ρ
0
0
sen(ϕ)
cos(ϕ)
ρ
0
matrices
 
0
2
0   2
1
1
1
3
2
0


cos(ϕ)
−ρ sen(ϕ)


 i 

0  Tj 
 sen(ϕ)


0
1
ρ cos(ϕ)
0

3
cos(ϕ) −ρ sen(ϕ)
4   sen(ϕ) ρ cos(ϕ)
2
0
0
0



0 
,

1

0
0 ,
1
se obtiene



k
T̃m
=


− cos2 (ϕ) + 3 cos(ϕ)sen(ϕ) + 3
ρ sen(ϕ) cos(ϕ) − 2ρ + 3ρ cos2 (ϕ)
cos(ϕ)sen(ϕ)+3 cos2 (ϕ)−1
ρ
−3 cos(ϕ)sen(ϕ) + cos2 (ϕ) + 2
cos(ϕ) + 2 sen(ϕ)
−ρ sen(ϕ) + 2ρ cos(ϕ)
3 cos(ϕ) + 4 sen(ϕ)
−3
sen(ϕ)
ρ



.
+ 4 cos(ϕ)

ρ

2
316
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
Si suponemos que el origen del sistema de coordenadas cilı́ndrico está en el vector |ai = 3 |ii + 4 |ey i + 3 |ki.
Esto es

p
√
 ρ = x2 + y 2 ⇒ ρ = 3 2 + 4 2 = 5
ϕ = arctan
entonces
k
T̃m
y
x
⇒ ϕ = arctan

102
25
− 11
5


=


14
125
23
25
11
25
2
5
4
3
,



0 
.

2
ar

lim
in
8. Definimos una transformación ortogonal (una transformación de un sistema de coordenadas ortogonales a otro
ortogonal también) si se cumple
k
k
∂ x̃i k
∂xi k
∂x
∂ x̃
i
i
i
i
x̃ =
x +a ;
x =
x + ã ;
donde det
= det
= ±1 .
k
k
l
∂x
∂ x̃
∂ x̃
∂xi
con
∂ x̃k ∂xi
∂xk ∂ x̃i
=
= δlk .
∂xi ∂ x̃l
∂ x̃i ∂xl
rP
re
Vamos a demostrar que las transformaciones de Galileo en 2 dimensiones
1 1 1 x̃
cos(θ) −sen(θ)
x
Voõ t
=
+
2
x̃2
sen(θ) cos(θ)
x2
Voõ
t
1
2
son transformaciones ortogonales. Notemos que Voõ
, y Voõ
son las velocidades en la dirección 1 y 2, respectivamente, del observador Õ con coordenadas x̃i respecto al observador O con coordenadas xi , mientras t es el
tiempo medido por ambos observadores.
Una vez más, identificando
∂ x̃i k
x + ai
x̃ =
∂xk
i
∂ x̃1
∂x22
∂ x̃
∂x1
⇒
∂ x̃1
∂x22
∂ x̃
∂x1
=
ad
o
con lo cual
x̃1
x̃2
= cos(θ)
= sen(θ)
∂ x̃1
∂x22
∂ x̃
∂x2
1
a1 = Voõ
t
2
2
a = Voõ
t
= −sen(θ)
= cos(θ)
det
!
∂ x̃1
∂x22
∂ x̃
∂x2
x1
x2
+
cos(θ) −sen(θ)
sen(θ) cos(θ)
a1
a2
= cos2 θ + sen2 θ2 = 1 .
rr
9. Las transformaciones de Galileo nos permiten relacionar las posiciones de una partı́cula respecto a dos observadores los cuales se encuentran en movimiento, uno respecto al otro. Consideremos entonces el movimiento
de una partı́cula visto desde el sistema de coordenadas xi tal que
y = V0y t − g
x = V0x t;
t2
.
2
Bo
Vamos a expresar el vector velocidad V de esta partı́cula visto del sistema de coordenadas x̃k .
Tendremos que
x1 = x = V0x t


2
x2 = y = V0y t − g t2

V 1 = Vx =
dx1
dt
= V0x
V 2 = Vy =
dx2
dt
= V0x − gt
⇒
por lo cual
Ṽ 1
Ṽ 2
=
cos(θ) −sen(θ)
sen(θ) cos(θ)
Finalmente
V = Ṽ 1 i + Ṽ 2 j con
V1
V2
+
1
Voõ
t
2
Voõ
t
 1
1
t
 Ṽ = V 1 cos(θ) − V 2 sen(θ) + Voõ

2
Ṽ 2 = V 1 sen(θ) + V 1 cos(θ) + Voõ
t
5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS
317
10. Considere ahora la siguiente transformación de coordenadas
β
α
x̃α = Lα
β x +a ;
con γ = p
1
1 − v k vk
;
α, β = 0, 1, 2, 3;
i, j, k = 1, 2, 3
y
L00 = γ ,
Lij = Lji = δji + v i vj
Li0 = L0i = γv i ,
(γ − 1)
.
v k vk
Esto implica
L̃α
β
√ v
1−v 2
√ 1
1−v 2
!
=
√ 1
1−v 2
√ v
1−v 2
√ −v
1−v 2
√ 1
1−v 2
!
=
√ 1
1−v 2
√ −v
1−v 2
⇒
⇒
x̃0
x̃1
x0
x1
=
√ 1
1−v 2
√ v
1−v 2
√ v
1−v 2
√ 1
1−v 2
!
√ 1
1−v 2
√ −v
1−v 2
√ −v
1−v 2
√ 1
1−v 2
!
x0
x1
x̃0
x̃1
lim
Lα
β
in
ar
k
Las Lα
β se denominan impulso (boost) de Lorentz y donde las v son las componentes tridimensionales de la
velocidad relativa entre los observadores Õ y O con coordenadas x̃α y xβ , respectivamente. La coordenada x0
representa el tiempo medido por el observador O mientras que las xj representan las coordenadas espaciales
x, y, z para el mismo observador O con i, j = 1, 2, 3 respectivamente. Nótese que 0 ≤ v k vk < 1. Supongamos,
por facilidad, que el movimiento es en una dimensión: α, β = 0, 1 y i, j = 1.
=
Claramente
rP
re
a) Vamos a mostrar que los tiempos se alargan cuando son medidos por observadores en movimiento.
Tenemos que ∆t = t2 − t1 = x02 − x01 medido por el observador en reposo y equivalentemente: ∆t̃ =
t̃2 − t̃1 = x̃02 − x̃01 medido por el observador en movimiento.
∆t̃ = t̃2 − t̃1 = x̃02 − x̃01 = L0β xβ2 + a0 − L0β xβ1 + a0 = L0β xβ2 − L0β xβ1 = L0β xβ2 − xβ1
x02 − x01
∆t
0
0
0
0
1
1
=√
.
= L0 x2 − x1 + L1 x2 − x1 = √
2
1−v
1 − v2
lı́m ∆t̃ = ∞
ad
o
v→1
Nótese que hemos supuesto que el reloj que marca el ∆t y que está en reposo respecto al sistema xβ se
encuentra en la misma posición espacial x02 = x01 .
rr
b) Demostremos ahora como las distancias se acortan cuando son medidas por observadores en movimiento.
Igualmente la distancia entre dos puntos espaciales será
l = x12 − x11 = L̃1β x̃β2 + a1 − L̃1β x̃β1 + a1 = L1β x̃β2 − x̃β1 = L̃10 x̃02 − x̃01 + L̃11 x̃12 − x̃11
Bo
Si suponemos que la distancia en el sistema en movimiento x̃β la medimos en el mismo tiempo, entonces
x̃02 = x̃01 con lo cual
p
p
˜l
x̃12 − x̃11
1
1
1
√
l = L̃1 x̃2 − x̃1 =
=√
⇒ ˜l = 1 − v 2 l ⇒ lı́m 1 − v 2 l = 0 .
v→1
1 − v2
1 − v2
5.1.8.
Practicando con Maxima
El paquete ctensor dispone de herramientas para manipular componentes de tensores. El uso de esta librerı́a
permite que los objetos geométricos tensoriales se representen como arreglos o matrices. Para poder hacer uso de
ctensor es necesario cargarlo previamente en memoria ejecutando load(ctensor).
Con la función ct coordsys(sistema coordenadas) se prepara un sistema de coordenadas predefinido y una
métrica.
(%i1) load(ctensor)$
318
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
(%i2) ct_coordsys([r*sin(theta)*cos(phi),r*sin(theta)*sin(phi),r*cos(theta),
[r,theta,phi]])$
O de manera equivalente escribiendo el nombre de las coordenadas a utilizar. Ver el manual de Maxima para
la lista completa con los nombres de las coordenadas disponibles.
La métrica se almacena en el sistema como la matriz lg y se obtiene de manera sencilla:
in
(%i4) trigsimp(lg);


1 0
0

0
( %o4) 0 r2
0 0 r2 sin2 θ
ar
(%i3) ct_coordsys(spherical)$
lim
Aquı́ utilizamos trigsimp para simplificar. La métrica inversa se almacena en la matriz ug y se obtiene escribiendo
(%i5) cmetric()$
0
1
r2
0

0
0
1
r 2 sin2 θ

rP
re
(%i6) ug;

1
( %o6) 0
0
Si cframe flag vale false, la función cmetric() calcula la métrica inversa ug a partir de la métrica lg definida
por el usuario. Pero si cframe flag toma el valor true, la función espera a que los valores de fri (la matriz del
sistema de referencia inverso) o lfg (la matriz de la métrica del sistema de referencia) estén definidos. A partir de
ellos, se calculan la matriz del sistema de referencia fr y su métrica inversa ufg.
La función init ctensor reinicia el paquete ctensor. De esta manera se borran todos los arreglos y matrices
utilizadas.
(%i7) init_ctensor()$
ad
o
(%i8) cframe_flag:true$
(%i9) ct_coordsys([r*sin(theta)*cos(phi),r*sin(theta)*sin(phi),r*cos(theta),[r,theta,phi]])$
La matriz de transformación, ecuaciones (5.4), se obtiene ası́:
cos ϕ r cos θ
sin ϕ r cos θ
−r sin θ
rr
(%i10)fri;

cos ϕ sin θ
( %o10)  sin ϕ sin θ
cos θ

− sin ϕ r sin θ
cos ϕ r sin θ 
0
Bo
La matriz del sistema de referencia se calcula de la siguiente manera (nuevamente usaremos el comando trigsimp
para que se realicen las simplificaciones trigonométricas que correspondan)
(%i11)cmetric()$
(%i12)trigsimp(fr);

cos ϕ sin θ cos ϕrcos θ
( %o12)  sin ϕ sin θ sin ϕrcos θ
cos θ
− sinr θ
La métrica:
(%i13)trigsimp(lg);
ϕ
− rsin
sin θ
cos ϕ
r sin θ
0


5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS

1
( %o13) 0
0
0
r2
0
319

0

0
2
2
r sin θ
Para finalizar, veamos a continuación como obtener la métrica y los factores de escala para las coordenadas
toroidales. (Ver 5.1.4)
(%i14)init_ctensor()$
ar
(%i15)x:a*sinh(tau)*cos(phi)/(cosh(tau)-cos(sigma));
a cos ϕ sinh τ
cosh τ − cos σ
(%i16)y:a*sinh(tau)*sin(phi)/(cosh(tau)-cos(sigma));
in
( %o15)
a sin ϕ sinh τ
cosh τ − cos σ
(%i17)z:a*sin(sigma)/(cosh(tau)-cos(sigma));
a sin σ
cosh τ − cos σ
(%i18)ct_coordsys([x,y,z,[sigma,tau,phi]])$
( %o17)
0

0



rP
re
(%i19)lg:factor(trigsimp(lg));

a2
0
(cosh τ −cos σ)2

2
a
0
( %o19) 
(cosh τ −cos σ)2

0
0
lim
( %o16)
a2 (cosh τ −1) (cosh τ +1)
(cosh τ −cos σ)2
Los factores de escala son entonces
(%i20)radexpand:all$
(%i21)h1:sqrt(lg[1,1]);
a
cosh τ − cos σ
(%i22)h2:sqrt(lg[2,2]);
( %o22)
ad
o
( %o21)
a
cosh τ − cos σ
Maxima no logra simplificar en su conjunto la expresión para la tercera componente, pero sin embargo podemos
simplificar el numerador por separado. Aquı́ num nos permite aislar el numerador y denom el denominador.
rr
(%i23)h3:sqrt(trigsimp(num(lg[3,3]))/denom(lg[3,3]));
a sinh τ
cosh τ − cos σ
Dado el segmento de la hélice
Bo
( %o23)
C(t) = [2 cos(t), 2 sen(t), 4t]
(%i1) load(vect)$
(%i2) C(t):=[2*cos(t), 2*sin(t),4*t];
( %o2) C(t) := [2 cos(t), 2 sin(t), 4t]
(%i3) dC: diff(C(t),t);
( %o3) [−2 sin t, 2 cos t, 4]
Buscamos la relación entre los parámetros s y t
320
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
(%i4) ’integrate(sqrt(dC.dC),t,0,t)=integrate(sqrt(dC.dC),t,0,t);
Is t positive, negative or zero?p;
Z tp
√
( %o4)
4 sin2 t + 4 cos2 t + 16 dt = 2 5 t
0
(%i5) r(s):=[2*cos(s/(2*sqrt(5))), 2*sin(s/(2*sqrt(5))),2*s/sqrt(5)];
s
2s
s
√
√
, 2 sin
,√ ]
( %o5) r(s) := [2 cos
2 5
2 5
5
La curvatura:
lim
(%i6) tau: diff(r(s),s);


s
s
√
sin 2 √
cos
2
5
2 5
√
√
( %o6) −
,
,√ 
5
5
5
in
El vector tangente a la curva es
1
10
El vector normal es
rP
re
(%i7) kappa:trigsimp(sqrt(diff(tau,s).diff(tau,s)));
( %o7)
(%i8) n:1/kappa*diff(tau,s);
s
s
√
√
( %o8) − cos
, − sin
,0
2 5
2 5
Y el binormal:
ad
o
(%i9) b:trigsimp(express(tau~n));


s
s
√
2 sin 2 √
2
cos
1
5
2 5
√
√
( %o9) 
,−
,√ 
5
5
5
La torsión:
(%i10)tor: trigsimp(-n.diff(b,s));
1
5
rr
( %o10)
Bo
Podemos comprobar que cada uno de los vectores es unitario.
(%i11)trigsimp(sqrt(tau.tau));trigsimp(sqrt(n.n));trigsimp(sqrt(b.b));
( %o11) 1
( %o12) 1
( %o13) 1
Y que se satisfacen las fórmulas de de Frenet-Serret.
(%i14)diff(tau,s)-kappa*n;
( %o14) [0, 0, 0]
(%i15)diff(b,s)+tor*n;
ar
Por lo tanto, en función del parámetro s el vector posición es:
5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS
321
( %o15) [0, 0, 0]
(%i16)diff(n,s)-tor*b+kappa*tau;
ar
( %o16) [0, 0, 0]
Consideremos el siguiente tensor en coordenadas cartesianas


2 1 3
Tji =  2 3 4 
1 2 2
y nuestro deseo es escribirlo en coordenadas cilı́ndricas. Escribamos el jacobiano de la transformación
in
(%i1) x:rho*cos(phi)$y:rho*sin(phi)$
rP
re
lim
(%i2) J:jacobian([x,y,z], [rho,phi,z]);


cos ϕ − sin ϕ ρ 0
( %o2)  sin ϕ cos ϕ ρ 0
0
0
1
(%i3) T:matrix([2,1,3],[2,3,4],[1,2,2]);


2 1 3
( %o3) 2 3 4
1 2 2
(%i4) trigsimp(invert(J).T.J);

3 cos ϕ sin ϕ − cos2 ϕ + 3
cos2 ϕ−1
( %o4)  cos ϕ sin ϕ+3
ρ
2 sin ϕ + cos ϕ

cos ϕ sin ϕ + 3 cos2 ϕ − 2 ρ 4 sin ϕ + 3 cos ϕ
cos ϕ 
−3 cos ϕ sin ϕ + cos2 ϕ + 2
− 3 sin ϕ−4
ρ
(2 cos ϕ − sin ϕ) ρ
2
Podemos evaluar el resultado anterior para algún punto en particular
ad
o
(%i5) ev(%,rho=5, phi=atan(4/3));
 102

− 11
5
25
5
23
14
0
( %o5)  125
25
11
2
2
5
Dado un sistema genérico de coordenadas oblicuas
|e1 i = a |ii + b |ji ;
|e2 i = c |ii + d |ji
Para una base genérica, {|ei i} la métrica viene definida por
rr
gij ≡ gji = g [|ei i , |ej i] ≡ ei |ej i
Podemos introducir la métrica como una matriz
(%i6) load(ctensor)$
Bo
(%i7) lg:matrix([a^2+b^2,a*c+b*d],[a*c+b*d,c^2+d^2]);
2
b + a2 b d + a c
( %o7)
b d + a c d2 + c2
Recordemos que calcular la métrica inversa es un proceso sencillo
(%i8) cmetric()$
(%i9) factor(ug);
( %o9)
d2 +c2
(a d−b c)2
d+a c
− (abd−b
c)2
d+a c
− (abd−b
c)2
b2 +a2
(a d−b c)2
!
322
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
En este caso, la matriz que permite la transformación de componentes del sistema de coordenadas oblicuo al
cartesiano es
(%i10)L:matrix([d/(a*d-b*c),-c/(a*d-b*c)],[-b/(a*d-b*c),a/(a*d-b*c)]);
c
d
− a d−b
a
d−b
c
c
( %o10)
b
a
− a d−b
c
a d−b c
Es claro que
in
ar
(%i11)Linv:factor(invert(L));
a c
( %o11)
b d
(%i12)T:matrix([4,2],[1,4]);
4 2
( %o12)
1 4
La transformación de coordenadas es entonces
∂ x̃k m ∂xn
T
∂xm n ∂ x̃j
rP
re
T̃ij = gik T̃jk = gik
lim
Si tenemos el tensor
(%i13)Tnue:factor(lg.L.T.Linv);
4 b2 + 3 a b + 4 a2
4bd + 2ad + bc + 4ac
( %o13)
4bd + ad + 2bc + 4ac
4 d2 + 3 c d + 4 c2
√
√
Para el caso particular a = 1, b = 0, c = 2/2, d = 2/2, resulta
(%i14)factor(ev(Tnue,a=1,b=0,c=sqrt(2)/2,d=sqrt(2)/2));
√ 2
2
3 2
( %o14) √5
11
2
5.1.9.
ad
o
2
Ejercicios
1. Exprese el vector
r = yzi − yj + xz 2 k
rr
en coordenadas cilı́ndricas.
Nota: Antes, se deben expresar los vectores base {i, j, k} en términos de los vectores base {ξ ρ , ξ ϕ , ξ z }.
Bo
2. Exprese los vectores base {i, j, k} en término de los vectores base {ξ r , ξ θ , ξ ϕ }.
3. Encuentre las componentes de la velocidad y aceleración, en coordenadas esféricas, de una partı́cula en movimiento.
4. Las coordenadas cilı́ndricas parabólicas (u, v, ϕ) están definidas por
x = uv cos(ϕ) ,
y = uv sen(ϕ) ,
z=
u2 − v 2
.
2
Diga si este sistema de coordenas es ortogonal. Calcule los factores de escala y la métrica.
5. Encuentre los factores de escala y la métrica para las coordenadas hiperbólicas (u, v, ϕ) definidas por
x = cosh(u) cos(v) cos(ϕ) ,
y = cosh(u) cos(v)sen(ϕ) ,
z = senh(u)sen(v) .
5.2. CAMPOS TENSORIALES
323
6. Demuestre que la aceleración de una partı́cula que se mueve siguiendo la trayectoria r(t) viene dada por
a(t) =
dv
v2
τ̂ + n̂.
dt
ρ
¿Cuál es el significado del término v 2 /ρ?
7. La siguiente curva: F (x, y, z) = y 3 + 27axz − 81a2 y = 0 viene parametrizada por
y = 3au2 ,
z = au(3 + u2 ) .
ar
x = au(3 − u2 ) ,
Encuentre
in
a) ds/du, si s es la distancia sobre la curva medida desde el origen.
b) La longitud de la curva desde el origen al punto cartesiano (2a, 3a, 4a).
c) El radio de curvatura en el punto u.
lim
d ) La torsión y la curvatura para todo punto de la curva.
e) Escriba las expresiones que resultan de usar las fórmulas de Frenet-Serret.
rP
re
8. El siguiente tensor está expresado en coordenadas cartesianas.


2 1 3
 2 3 4 
1 2 2
Escriba sus componentes en coordenadas esféricas.
9. Escriba el siguiente vector en coordenadas esféricas
|ai = 2xy |ii − x |ey i + 3x |ki .
Encuentre las componentes covariantes y contravariantes del vector |ai en términos de: r, θ, ϕ.
10. Diga si la siguiente transformación de coordenadas es ortogonal
y = u2 − v 2 ,
z = w.
ad
o
x = 2uv ,
5.2.
Campos tensoriales
En la sección 5.1.5, cuando avanzamos en la derivación de vectores vimos vectores que dependı́an de un parámetro. Ahora podemos generalizar este concepto a tensores que dependen de una variable escalar3
rr
esto es:
mn···l
T [◦, ◦, · · · ; •, •, · · · ](t) = Tij···k
(t) ,
Bo
mn···l
Tij···k
(t) wi (1) ⊗ uj (2) ⊗ · · · ⊗ v k (m) ⊗ |xm (1)i ⊗ |yn (2)i ⊗ · · · ⊗ |zl (n)i
mn···l
Ťij···k
⇓
i
w̌ (1)
j
(t)
⊗ ǔ (2)
k
(t)
⊗ · · · ⊗ v̌ (m)
(t)
⊗ |x̌m (1)i(t) ⊗ |y̌n (2)i(t) ⊗ · · · ⊗ |žl (n)i(t) ,
y al igual que los vectores, la dependencia funcional de los tensores variará con la base en la cual se exprese.
Ası́, tendremos tensores cuyas componentes, en una determinada base, serán variables y en otra no. Mientras
que una de las bases puede ser variable y otra no. Igualmente, recurriremos al cociente incremental para conocer la
velocidad de variación:
lı́m
∆t→0
3 Por
T [◦, · · · ; •, · · · ](t+∆t) − T [◦, · · · ; •, · · · ](t)
∆t
= lı́m
∆t→0
∆T [◦, · · · ; •, · · · ](t)
∆t
=
d T [◦, · · · ; •, · · · ](t)
dt
simplicidad y, desviaciones profesionales de fı́sico utilizaremos un parámetro t que nos recuerda al tiempo
324
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
Si la base es constante, la dependencia funcional y su variación (derivada) recae sobre sus componentes. Ası́
podemos construir la derivada de las componentes como
mn···l
mn···l
mn···l
mn···l
d Tij···k
(t)
(t)
∆Tij···k
Tij···k
(t + ∆t) − Tij···k
(t)
= lı́m
=
.
lı́m
∆t→0
∆t→0
∆t
∆t
dt
ar
Siguiendo con el proceso de generalización, podemos pensar en una dependencia funcional multilineal. Esto es
que el argumento de la “función” tensorial es otro tensor,
T [◦, ◦, · · · ; •, •, · · · ] = T [◦, ◦, · · · ; •, •, · · · ]G[◦,◦,··· ;•,•,··· ] .
in
A ese objeto se le llama Campo Tensorial, pero vamos con calma y analicemos lo casos más simples que son los
verdaderamente útiles.
Como era de esperarse, tendremos varios casos que se pueden construir a partir de esta idea:
Función
lim
Campos homogéneos:
: ϕ = ϕ(t)
⇐⇒
ri (t)
Vector
: |ri(t)
Tensor
: T = T [◦, ◦, · · · , ◦; •, •, · · · , •](t)
r = r(t)
rP
re
Campos constantes o estacionarios r 6= r(t)
mn···l
Tij···k
(t)
Campo Escalar
:
ϕ = ϕ (r)
⇐⇒
ai (r)
Campo Vectorial
: |ai(|ri)
Campo Tensorial
: T = T [◦, ◦, · · · , ◦; •, •, · · · , •](|ri)
a = a (r)
mn···l
Tij···k
(r)
Campos variables o no estacionarios
Campo Escalar Variable
ϕ = ϕ (r(t), t)
: |ai(|ri)
⇐⇒
a = a (r(t), t)
ai (r(t), t)
: T = T [◦, ◦, · · · , ◦; •, •, · · · , •](|ri)
ad
o
Campo Vectorial
:
Campo Tensorial
Bo
rr
La idea de los campos escalares, vectoriales, tensoriales, con argumento vectorial, es la de asociar
un valor de la componente (escalar, vectorial o
tensorial) a cada punto del espacio (si el vector
está en R3 ). Obviamente, los campos escalares
asocian un número a cada posición y los campos
vectoriales, además del número (módulo) asocian
una dirección y un sentido.
Ejemplos de campos escalares serán las distribuciones de densidad ρ (r(t)), presiones P (r(t))
y temperaturas T (r(t)) de la atmósfera terrestre, o la distribución de intensidades del campo
eléctrico en una superficie.
Podemos, por ejemplo, considerar el potencial
eléctrico:
mn···l
Tij···k
(r(t), )
Figura 5.5: Ejemplo de campo escalar φ = φ (r)
2
2
φ (r) = φ(x, y) = ln (x + 1) + y 2 − ln (x − 1) + y 2 .
La representación de este campo escalar se puede apreciar en la figura 5.5.
5.2. CAMPOS TENSORIALES
325
Por lo tanto, por un campo escalar entenderemos
a toda función escalar de argumento vectorial,
es decir, la función que asociará cada punto del
espacio con un número. Esto es:
φ : Rn → R
φ = φ (r)
⇒ φ = φ xi = φ x̃i .
in
Figura 5.6: Campo escalar T = T (x, y)
Campos escalares y superficies
lim
5.2.1.
ar
Estamos enfatizando el hecho que un campo escalar no variará bajo cambios de las coordenadas
en su argumento. Adicionalmente recalcamos que
es indistinto hablar de vectores φ = φ (r) o sus
coordenadas φ = φ xi .
En la figura 5.6 se ilustra el campo escalar de temperaturas para la siguiente función:
2
T = T (x, y) = 70 + 180e−(x−3)
/10−(y−2)2 /10
.
rr
ad
o
rP
re
En un mapa o diagrama de temperaturas, es posible unir los diferentes puntos con igual temperatura, y ası́
tendremos las curvas isotermas, tal y como se observa
en la figura 5.7.
1
2
Por otra parte, un campo
escalar
φ
=
φ
x
,
x
definirá diferentes superficies si la representamos en R3 de
3
1
2
la forma: x = φ x , x . De esta manera tendremos curvas de nivel o isocurvas las cuales se corresponden a las
soluciones de φ = φ xi = cte. Tal y como se ilustra en la figura 5.8, los diferentes planos para z = cte, cortan la
superficie dada por la función z y definen las diferentes curvas de nivel g (x, y) = k.
Bo
Figura 5.7: Curvas Isotermas T = T (x, y) = cte.
5.2.2.
Figura 5.8: Curvas de nivel para una función z =
g (x, y) = cte.
Campos vectoriales y curvas integrales
Consideremos ahora un campo vectorial A (r) y estudiemos su representación, y lo que es más importante, su
variación. Los campos vectoriales vienen a ser funciones vectoriales de varias variables en la que a cada punto del
espacio o dominio se le asigna el vector, es decir: A (r) : Rn → Rn .
Tal y como hemos dicho y volvemos a representar en la figura 5.9, los campos vectoriales asocian un vector (con
su módulo dirección y sentido) a cada punto del espacio. Comúnmente, nos referimos a campos vectoriales según
el caso: campos de fuerza (el vector del campo es una fuerza), campo de velocidades (el vector del campo es una
velocidad).
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
in
ar
326
lim
Figura 5.9: Campos vectoriales
rP
re
Del mismo modo, a aquellas lı́neas a las cuales los vectores son tangentes se les dominan lı́neas de campo, curvas
integrales o simplemente lı́neas de flujo o de corriente. A las trayectorias ortogonales a estas lı́neas, vale decir, a
aquellas lı́neas cuyos vectores tangentes son ortogonales al campo, se les denominarán lı́neas equipotenciales.
El ejemplo más emblemático lo constituye el gradiente de un campo escalar ∇φ (x, y). Las lı́neas equipotenciales
las define el campo escalar mismo, φ(x, y) = z = cte (curva de nivel) y construimos un campo vectorial con su
gradiente, ∇φ (x, y). Como el gradiente es perpendicular a la curva de nivel tendremos que las curvas integrales,
(lı́neas de flujo o lı́neas de corriente) del campo vectorial ∇φ(x, y) serán trayectorias ortogonales a las curvas
equipotenciales.
Consideremos el caso bidimensional4 en coordenadas cartesianas, y tomemos el desplazamiento diferencial dr en
la dirección del campo vectorial A, es fácil convencerse que:
dr ∝ A(x, y) = Ax (x, y) i + Ay (x, y)j
⇒
dx
dy
=
,
Ax (x, y)
Ay (x, y)
ad
o
con lo cual encontramos las lı́neas de flujo o curvas integrales y (x) del campo A (x, y)
Z
dy
Ay (x, y)
Ay (x, y)
=
⇒ y (x) =
dx .
dx
Ax (x, y)
Ax (x, y)
Otra forma, equivalente de ver lo anterior es que si A = a (x(t), y(t), z(t), t), entonces:
⇒ dr × A = 0
rr
dr ∝ A
⇒
i
dx
Ax
j
dy
Ay
k
dz
Az
= 0.
Bo
Por lo cual [Az dy − Ay dz] i + [Ax dz − Az dx] j + [Ay dx − Ax dy] k = 0 , para que finalmente
dy
dz
dx
=
=
.
Ax (x(t), y(t), z(t), t)
Ay (x (t) , y(t), z(t), t)
Az (x(t), y(t), z (t) , t)
La integral de estas ecuaciones definirán las lı́neas de flujo o curvas integrales.
Trayectorias ortogonales a las lı́neas de flujo
Para encontrar las trayectorias ortogonales al campo vectorial o las lı́neas equipotenciales construimos un campo
vectorial A⊥ (x, y) que sea ortogonal en todo punto a A(x, y)
A⊥ (x, y) · A(x, y) = 0
4 El
⊥
⇒ Ax (x, y)A⊥
x (x, y) + Ay (x, y)Ay (x, y) = 0
caso tridimensional sólo añade complicaciones técnicas y no riqueza conceptual.
⇒
A⊥
Ax (x, y)
y (x, y)
=− ⊥
,
Ay (x, y)
Ax (x, y)
5.2. CAMPOS TENSORIALES
327
⊥
donde A⊥ (x, y) = A⊥
x (x, y) i + Ay (x, y) j , y ahora procedemos del mismo modo pero con el campo vectorial
A⊥ (x, y)
Z ⊥
A⊥
Ay (x, y)
dy
y (x, y)
=− ⊥
⇒ y (x) = −
dx .
dx
Ax (x, y)
A⊥
x (x, y)
5.2.3.
Flujo de campos vectoriales
s
s
s
ar
Podemos también imaginar flujo de campos vectoriales. Para ello, consideramos una superficie infinitesimal
dS = kdSk n̂s , con n̂s el vector unitario normal esa superficie S. Entonces, la cantidad
ZZ
ZZ
ZZ
dF = A · dS = A · n̂s dS ⇒ F =
A · dS =
A · n̂s dS =
An̂ dS ,
lim
in
representará el flujo diferencial del campo vectorial a través de
RR la superficie dS. Hemos denotado An̂ como la
componente de A a lo largo de n̂s . Hay que hacer notar que F = s A·dS, el flujo total, es un escalar independiente
del sistema de coordenadas y que en coordenadas cartesianas puede expresarse como
3 ,
2 + A3 cos n̂
1 + A2 cos n̂
\
\
\
dF = A · n̂s dS = A1 cos n̂
s A
s A
s A
rP
re
donde A1 , A2 , A3 son las componentes cartesianas del vector A. El flujo será máximo cuando el campo es paralelo
a dS y, obviamente nulo cuando el campo es paralelo a dS.
La idea que esta cantidad representa un flujo puede tenerse si pensamos en un fluido incompresible que fluye con
un campo de velocidades v = v (r). El volumen que atraviesa una determinada superficie
en
un intervalo de tiempo
[
v
dt, ya que la altura no
dt. Ası́, dS definirá la base de un tubo de fluido y tendrá como “altura” a kvk cos n̂
s
tiene por qué ser perpendicular a la base5 . Por lo tanto, la cantidad de fluido que atraviesa la superficie por unidad
de tiempo viene dada por
ZZ
ZZ
ZZ
[
dS = v · n̂s dS = v · dS ⇒ F =
v · dS =
v · n̂s dS =
vn̂ dS .
dF = kvk cos n̂
s v
s
s
s
Más adelante estudiaremos las técnicas para calcular el flujo de un campo vectorial a través de una superficie
cerrada que encierran un volumen V .
Ejemplos
ad
o
5.2.4.
1. Dado el siguiente campo vectorial
A = −xi + yj
dy
y
⇒
=−
dx
x
Z
⇒
dy
=−
y
Z
dx
+C
x
⇒ y (x) =
1
C,
x
esto es, las hipérbolas yx = C.
rr
2. Las trayectorias ortogonales al campo del ejemplo anterior son la siguientes curvas:
⇒ A⊥ = yi + xj
⇒
Bo
A = −xi + yj
5.2.5.
dy
x
=
dx
y
⇒ y (x) =
p
C 2 + x2 .
Practicando con Maxima
En esta sección aprovecharemos la ocasión para mostrar algunas opciones que tienen que ver con los comandos
para graficar curvas de nivel. Es recomendable consultar el manual de Maxima para tener acceso al resto de
posibilidades.
La función contour plot(funcion, xrange, yrange, options) muestra un gráfico con curvas de nivel de la función
en el rectángulo xrange-yrange. Los argumentos para las opciones son los mismos que se usan en plot3d, como por
ejemplo, la opción legend con un valor false, para eliminar la leyenda.
2
2
Dado el campo de temperaturas T = T (x, y) = 70 + 180e−(x−3) /10−(y−2) /10 , mostraremos en este módulo
algunas de las posibilidades utilizando como herramienta adicional la librerı́a draw.
5 De
d
serlo, cos n̂
v = 1 porque la velocidad es paralela a la normal.
328
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
(%i1) load(draw)$
Dado el siguiente campo escalar:
ar
(%i2) T(x,y):=70+180*exp(-(x-3)^2/10-(y-2)^2/10);
!
2
2
(y − 2)
(x − 3)
−
( %o2) T (x, y) := 70 + 180exp −
10
10
El gráfico más simple que podemos realizar es el siguiente
(%i3) wxcontour_plot(T(x,y),[x,-2,10],[y,-4,10],[legend,false]);
Bo
rr
( %o4)
(%i4) wxplot3d(T(x,y),[x,-2,10],[y,-4,10],[gnuplot_preamble,"set contour"]);
ad
o
Otra perspectiva es
rP
re
lim
in
( %o3)
(%i5) wxplot3d(T(x,y),[x,-2,10],[y,-4,10],[gnuplot_preamble,"set pm3d at b"]);
( %o5)
329
lim
in
ar
5.2. CAMPOS TENSORIALES
(%i6) wxdraw3d(enhanced3d=true,explicit(T(x,y),x,-2,10,y,-4,10),
contour_levels=8,contour=surface);
rr
ad
o
rP
re
( %o6)
(%i7) wxdraw3d(enhanced3d=true,explicit(T(x,y),x,-2,10,y, -4,10),
contour_levels=8,contour=map);
Bo
( %o7)
5.2.6.
Ejercicios
1. Encuentre las curvas integrales y las trayectorias ortogonales de los siguientes campos vectoriales
a) F(x, y) = − x2 i − y2 j,
b) F(x, y) = xyi + 2xj,
c) F(x, y) = x2 i − yj.
RR
2. El vector área para una superficie S se define como S = s dS , encuentre el vector área de la superficie:
x2 + y 2 + z 2 = a2 con z ≤ 0. Utilice el hecho de que en coordenadas esféricas dS = a2 sen(θ)dθdϕ êr .
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
5.3.
lim
in
ar
330
La fauna de los operadores vectoriales
5.3.1.
rP
re
A partir del concepto de campo escalar, presentaremos ahora una variedad de objetos diferenciales en el espacio
tridimensional. Salvo que se diga lo contrario, utilizaremos el sistema de coordenadas cartesianas, que discutimos
en la sección 5.1.1 en la página 301.
Derivada direccional, diferencial total y gradiente
Derivada direccional de campos escalares
Para analizar los cambios en los campos escalares requerimos comparar dos “instantes de tiempo”, para ello,
parametrizamos las componentes del vector: z = φ (r(t)) = g (x(t), y(t)) , por lo tanto:
dφ (x(t), y(t))
∂φ (x(t), y(t)) dx(t) ∂φ (x(t), y(t)) dy(t)
dr(t)
=
+
= ∇φ (x(t), y(t)) ·
;
dt
∂x
dt
∂y
dt
dt
∂φ (x, y)
∂φ (x, y)
i+
j
∂x
∂y
ad
o
donde hemos representado
∇φ (x(t), y(t)) =
y
dr(t)
dx(t)
dy(t)
=
i+
j.
dt
dt
dt
A ∇φ xi (t) lo llamaremos el gradiente del campo escalar φ xi (t) , y también son muy comunes otras notaciones
para el gradiente:
∇φ (x(t), y(t)) = φx (x, y) i + φy (x, y)j = ∂ i φ (x, y) ii = φ,i (x, y) ii ,
Bo
rr
El gradiente de un campo escalar es uno de los objetos más útiles del cálculo vectorial, el cual lo hemos utilizado
de manera operacional y no nos hemos detenido a reflexionar sobre sus propiedades.
Es claro que cuando se tienen curvas de nivel g (x, y) = z = φ (r(t)) = k = cte , obtenemos
dk
dφ (x(t), y(t))
=
=0
dt
dt
⇒
dφ (x(t), y(t))
dr(t)
= 0 = ∇φ (x(t), y(t)) ·
,
dt
dt
con lo cual, dado que dr(t)
dt es la tangente a la curva, entonces, el gradiente es perpendicular a la curva, tal y como
se muestra en la figura 5.11.
Si se da el caso que la función dependa de manera explı́cita del parámetro t, φ = φ xi (t), t tendremos que
dr(t)
∂φ xi (t), t
dφ
φ = φ (x(t), y(t), z(t), t) ⇒
=
= ∇φ xi (t), t ·
,
dt
∂t
dt
y, en el caso particular en que el parámetro es la longitud de arco s a lo largo de la curva, la derivada total de φ
con respecto a s a lo largo de la curva vendrá dada por
dφ
= ∇φ xi (t), t · τ̂ ,
ds
(5.10)
331
Figura 5.10: Derivada direccional
in
ar
5.3. LA FAUNA DE LOS OPERADORES VECTORIALES
rP
re
lim
donde τ̂ es el vector unitario tangente a la curva en el punto dado. Además, cuando φ xi (t), t = k, entonces, al
ser τ̂ tangente a esta superficie en algún punto, es claro que dφ/ds = 0 en esa dirección y ∇φ · τ̂ = 0. Por lo tanto,
∇φ será normal a la superficie φ xi (t), t = k.
Por otro lado, la derivada direccional indicará la tasa de cambio del campo escalar en la dirección que apuntemos.
Es una generalización de la idea que surge de parametrizar la curva o de la derivada total respecto al tiempo. Dados
−−−→
dos puntos M y M 0 definiremos la derivada en la dirección de un vector unitario û ↔ M 0 M como se muestra a
continuación:
φ (M 0 ) − φ (M )
dφ
Dû φ ≡ lı́m
=
= ∇φ (x, y) · û .
(5.11)
−−−
→
M 0 →M
0
dλ
MM
Tal y como se puede apreciar en la figura 5.10 la derivada direccional está representada por la pendiente de la
recta tangente a la curva que surge como intersección entre la superficie φ (x, y) = z = k = cte, el plano vertical
formado por el eje z y el vector unitario û.
En este punto, varias reflexiones se pueden derivar del concepto de derivada total.
La primera es que dado que, la derivada direccional a lo largo de û es
ad
o
\û) ,
Dû φ = ∇φ · û = |∇φ| cos (∇φ,
\û como el ángulo que forman los vectores ∇φ y û), el valor máximo de la
(donde hemos denotado por ∇φ,
derivada direccional será
s
r
2 2 2
p
∂φ
∂φ
∂φ
∂φ
∂φ
i
Dû φmáx = |∇φ| = ∂ φ∂i φ ≡
≡
+
+
.
∂xi ∂xi
∂x1
∂x2
∂x3
Bo
rr
Es decir, cuando û apunta en la dirección del gradiente o, lo que es lo mismo, en la dirección de la mayor tasa
de cambio; el valor máximo lo indica la dirección del gradiente. O dicho de otro modo, en un determinado
punto M de las superficie φ (x, y) = z el vector ∇φ apunta en la dirección de la máxima tasa de cambio, tal
y como podemos apreciar en la figura 5.11.
La segunda reflexión es dado que el gradiente es ortogonal a la superficie, los vectores perpendiculares a él
conformarán el plano tangente a la superficie en un determinado punto.
La tercera emerge de la misma definición (5.11), es claro que la derivada direccional es un escalar, por lo
tanto, como û es un vector, ∇φ (x, y) debe ser una 1−forma. Vale decir, como veremos con mas detalle en las
secciones 5.3.1 y 5.3.2
grad φ = ∇φ =
Donde denotamos hĩ =
∂hr|
∂q i
ei ∂φ
ei
1 ∂φ 1
1 ∂φ 2
1 ∂φ 3
+
+
=
e
e
e
=
∂i φ .
h1 ∂q 1
h2 ∂q 2
h3 ∂q 3
hĩ ∂q i
hĩ
=
√
gii los factores de escala que acompaña a la base ei generalizada.
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
in
ar
332
lim
Figura 5.11: Dirección de máxima variación en una función. Gradiante y tangente de una función.
Gradiente y flujo de un campo vectorial
rP
re
Podemos utilizar la idea de flujo de un campo vectorial y generalizar la definición de gradiente para que sea
independiente de las coordenadas.
ZZ
ZZ
1
1
∇φ = grad φ = lı́m
φ(x, y, z)dS = lı́m
φ(x, y, z) n̂s dS .
V →0 V
V →0 V
s
s
Supongamos que construimos un campo vectorial de la forma siguiente
a (x, y, z) = c φ (x, y, z) ,
con lo cual
ZZ
F =
con c = cte ,
ZZ
c φ(x, y, z) · dS =
c φ(x, y, z) · n̂s dS .
s
s
ad
o
Es claro que esta expresión vale para todos los sistemas de coordenadas. En particular, para un sistema de
coordenadas cartesianas construimos un cubo diferencial con aristas que coincidan con los ejes coordenados. Entonces
se tiene que las caras del cubo serán
dSx+ = (dy dz) i ;
dSx− = − (dy dz) i ;
dSy+ = (dx dz) j ;
dSz+ = (dx dy) k ;
dSz− = − (dx dy) k ,
dSy− = − (dx dz) j ;
rr
con lo cual, el flujo por las seis caras es
dF
= c φ(x, y, z) · dSx+ + c φ(x, y, z) · dSx− + c φ(x, y, z) · dSy+
Bo
+ c φ(x, y, z) · dSy− + c φ(x, y, z) · dSz+ + c φ (x, y, z) · dSz− ,
por lo tanto
dF
= c [φ (x + dx, y, z) dy dz − φ(x, y, z)dy dz + φ (x, y + dy, z) dx dz − φ (x, y, z) dx dz
+
φ (x, y, z + dz) dx dy − φ(x, y, z)dx dy]
= c [{φ (x + dx, y, z) − φ (x, y, z)} dy dz + {φ (x, y + dy, z) − φ(x, y, z)} dx dz+
+
{φ (x, y, z + dz) − φ (x, y, z)} dx dy] .
Como estamos considerando un “cubo diferencial” podemos desarrollar por Taylor hasta primer orden, por lo
que:
∂φ (x, y, z)
∂φ (x, y, z)
φ (x + dx, y, z) ≈ φ (x, y, z) +
dx , φ (x, y + dy, z) ≈ φ (x, y, z) +
dy ,
∂x
∂y
5.3. LA FAUNA DE LOS OPERADORES VECTORIALES
333
φ (x, y, z + dz) ≈ φ (x, y, z) +
∂φ (x, y, z)
dz .
∂z
Con lo cual
∂φ (x, y, z)
∂φ(x, y, z)
∂φ(x, y, z)
dx dy dz +
dy dx dz +
dz dx dy
∂x
∂y
∂z
∂φ (x, y, z) ∂φ (x, y, z) ∂φ (x, y, z)
=
+
+
dV ⇒ dF = grad φ dV ,
∂x
∂y
∂z
=
ar
dF
entonces
ZZ
ZZ
1
V →0 V
φ (x, y, z) dS = lı́m
s
Nótese que hemos supuesto que ∆V ≡ V2 ≡ V y que F2 =
con lo cual el flujo a través de un punto se anula, F1 ∼ 0.
RR
s
Gradiente y coordenadas curvilı́neas
φ (x, y, z) n̂ dS .
s
in
F2 − F1
dF
1
= lı́m
= lı́m
∆V →0 V2 − V1
V →0 V
dV
φ(x, y, z)dS. Que quiere decir que tanto V1 ∼ 0
lim
grad φ =
La generalización de la expresión del gradiente en coordenadas curvilı́neas es inmediata a partir de diferencial
total de una función φ(q 1 , q 2 , q 3 ). Esto es
con
grad φ q i =
y
hdr| =
⇒ dφ =
∂φ(q 1 , q 2 , q 3 ) j
dq
∂q j
rP
re
φ(q 1 , q 2 , q 3 ) = φ q j
1
∂hr|
∂q 1
∂φ 1
e +
∂q 1
∂ hr| 1 ∂ hr| 2 ∂ hr| 3
∂ hr|
dq +
dq +
dq ≡
∂q 1
∂q 2
∂q 3
∂q 1
1
∂hr|
∂q 2
∂φ 2
e +
∂q 2
e1 dq 1 +
1
∂φ 3
e ,
∂q 3
∂hr|
∂q 3
∂ hr|
∂q 2
∂ hr|
∂q 3
e2 dq 2 +
e3 dq 3 ,
ya que, al igual que en el caso de los vectores, la base del espacio dual se construye como
1
∂hr|
∂q 1
∂ hr|
;
∂q 1
e2 =
ad
o
e1 =
1
∂hr|
∂q 2
∂ hr|
;
∂q 2
y
e3 =
1
∂hr|
∂q 3
∂ hr|
.
∂q 3
Es decir, la forma general del gradiente para un sistema de coordenadas curvilı́neas ortogonales es
grad φ = ∇φ =
∂hr|
∂q i
rr
Donde denotamos hĩ =
=
ei ∂φ
ei
1 ∂φ 1
1 ∂φ 2
1 ∂φ 3
e +
e +
e =
=
∂i φ .
1
2
3
i
h1 ∂q
h2 ∂q
h3 ∂q
hĩ ∂q
hĩ
√
gii el factor de escala que acompaña a la base
ei
y debe quedar claro que
Bo
en el lado derecho de la ecuación (5.3.1) la suma es únicamente sobre los ı́ndices de |ei i y ∂i . La tilde en el indice ĩ
es para indicar que simplemente replica el valor que toma el ı́ndice i.
5.3.2.
Divergencia y flujo en campos vectoriales
Revisando con un poco más de cuidado la expresión para el gradiente podemos ver que
he1 | ∂
he2 | ∂
he3 | ∂
grad φ =
+
+
φ,
h1 ∂q 1
h2 ∂q 2
h3 ∂q 3
es decir, con esta inspiración podemos construir un funcional lineal
∇≡
he1 | ∂
he2 | ∂
he3 | ∂
+
+
,
H ∂q 1
F ∂q 2
G ∂q 3
donde: H = H(h1 , h2 , h3 ), F = F(h1 , h2 , h3 ) y G = G(h1 , h2 , h3 ).
334
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
ar
Con lo cual, si cuidamos el orden de operación, podremos realizar un “producto interno entre una 1-forma, ∇
y un vector a” de la forma
he2 | ∂
he3 | ∂
he1 | ∂
+
+
· a1 |e1 i + a2 |e2 i + a2 |e3 i
∇·a ≡
1
2
3
H ∂q
F ∂q
G ∂q
he1 | ∂ a1 |e1 i + a2 |e2 i + a2 |e3 i
he2 | ∂ a1 |e1 i + a2 |e2 i + a2 |e3 i
=
+
·
·
H
∂q 1
F
∂q 2
1
he3 | ∂ a |e1 i + a2 |e2 i + a2 |e3 i
+
.
·
G
∂q 3
in
Aquı́ es importante tener cuidado
con la posible variación de los vectores base. Notemos que si consideremos el
caso de coordenadas cartesianas: q i → (x, y, z), donde la base {|ei i} → {|ex i , |ey i , |ez i} es constante, entonces
tendremos de forma inmediata:
∂ax (x, y, z) ∂ay (x, y, z) ∂az (x, y, z)
∂ai xj
≡ ∂i ai xj =
+
+
.
∇·a=
i
∂x
∂x
∂y
∂z
lim
Divergencia como medida de flujo
El significado fı́sico de la divergencia puede comprenderse si consideramos la siguiente definición, independiente
del sistema de coordenadas
ZZ
ZZ
ZZ
dF
1
1
1
div a =
= lı́m
a · dS ≡ lı́m
a · n̂s dS = lı́m
an̂ dS .
V →0 V
V →0 V
V →0 V
dV
s
s
s
rP
re
Es decir, el flujo por unidad de volumen. Otra vez, para un sistema de coordenadas cartesianas construimos un
cubo diferencial con aristas que coincidan con los ejes coordenados. Entonces se tiene que las caras del cubo son
como las describimos anteriormente, ver ecuaciones (5.3.1). El flujo por las seis caras será
dF = a · dSx+ + a · dSx− + a · dSy+ + a · dSy− + a · dSz+ + a · dSz−
con lo cual
dF
= ax (x + dx, y, z) dy dz − ax (x, y, z)dy dz + ay (x, y + dy, z) dx dz − ay (x, y, z) dx dz
+ az (x, y, z + dz) dx dy − az (x, y, z) dx dy
=
[ax (x + dx, y, z) − ax (x, y, z)] dydz + [ay (x, y + dy, z) − ay (x, y, z)] dxdz
+
[az (x, y, z + dz) − az (x, y, z)] dxdy .
ad
o
Desarrollando por Taylor otra vez, tendremos
ax (x + dx, y, z) ≈ ax (x, y, z) +
∂ax (x, y, z)
dx ;
∂x
ay (x, y + dy, z) ≈ ay (x, y, z) +
az (x, y, z + dz) ≈ az (x, y, z) +
∂az (x, y, z)
dz .
∂z
∂ay (x, y, z)
∂az (x, y, z)
∂ax (x, y, z)
dx dy dz +
dy dx dz +
dz dx dy
∂x
∂y
∂z
∂ax (x, y, z) ∂ay (x, y, z) ∂az (x, y, z)
= a · dS =
+
+
dV .
∂x
∂y
∂z
rr
Para obtener
∂ay (x, y, z)
dy ;
∂y
Bo
dF
=
Consecuentemente
ZZ
ZZZ ZZZ
∂ax (x, y, z) ∂ay (x, y, z) ∂az (x, y, z)
F =
a · dS =
+
+
dV ≡
(∇ · a) dV .
∂x
∂y
∂z
S
V
V
La primera conclusión es que podemos convertir una integral de superficie cerrada de un campo vectorial, en
una integral de volumen encerrada por
RR esa misma superficie. Lo hemos demostrado para el caso de coordenadas
cartesianas, pero como el flujo F = S a · dS es un escalar, esta afirmación vale para cualquier sistema de
coordenadas.
Esto se conoce como el Teorema de la Divergencia el cual veremos más adelante (ver sección 5.5.1 en la página
370). A partir de este teorema tenemos que si la divergencia de un campo vectorial en positiva lo interpretaremos
como flujo hacia afuera (saliente) del volumen V encerrado por la superficie, S, y si la divergencia del campo es
negativa tendremos flujo entrante. Como ilustración puede ver el ejemplo de la página 350.
5.3. LA FAUNA DE LOS OPERADORES VECTORIALES
335
Divergencia y coordenadas curvilı́neas
Para encontrar la expresión para la divergencia en coordenadas curvilı́neas generalizadas, q i = (q 1 , q 2 , q 3 ),
partimos de la definición invariante de sistema de coordenadas
ZZ
ZZ
ZZ
1
1
1
a · dS ≡ lı́m
a · n̂s dS = lı́m
an̂ dS .
div a = lı́m
V →0 V
V →0 V
V →0 V
s
s
s
|e1 i , dSq1 − = − ds→q2 ds→q3 |e1 i ,
ds→q1 dq2 |e2 i , dSq2 − = − ds→q3 ds→q1 |e2 i ,
ds→q2 dq3 |e3 i , dSq3 − = − ds→q1 ds→q2 |e3 i ,
dSq2 + = ds→q3
dSq3 + = ds→q1
dq 1
in
dSq1 + = ds→q2 ds→q3
ar
Al igual que procedimos en coordenadas cartesianas, ahora consideraremos un “paralelepı́pedo curvilı́neo” con tres
de sus aristas alineadas con el sistema ortogonal curvilı́neo. Las caras de este “paralelepı́pedo curvilı́neo podrán ser
representadas como
ds→qi =
√
gii dq i = hi dq i ,
lim
donde denotamos ds→qi el arco de curva a lo largo de la coordenadas curvilı́neas generalizada q i . Los paréntesis
(·)dqi indican que esta superficie es evaluada en q i + dq i . Adicionalmente, es de hacer notar que
aquı́ los ı́ndices repetidos NO indican suma.
rP
re
Ahora bien, dado que |ai ≡ a = ai (q j ) |ei i, el flujo por las seis caras será
dF = a · dSq1 + + a · dSq1 − + a · dSq2 + + a · dSq2 − + a · dSq3 + + a · dSq3 − .
Para comenzar vemos que es el flujo del campo vectorial, ai (q j ), lo que está siendo evaluado en dos puntos
distintos:
a · dSq1 − = a1 (q i ) h2 h3 dq 2 dq 3 ,
a · dSq2 − = a2 (q i ) h3 h1 dq 3 dq 1 ,
a · dSq3 − = a3 (q i ) h1 h2 dq 1 dq 2 .
Con lo cual es el flujo lo que debemos desarrollar por Taylor.
1
a
1
2
3
1
i
ad
o
a2
∂ a1 (q i )h2 h3
q + dq , q , q h2 h3 = a (q )h2 h3 +
dq 1 ,
∂q 1
∂ a2 (q i )h3 h1
1 2
2 3
2 i
q , q + dq , q h3 h1 = a (q )h3 h1 +
dq 2 ,
∂q 2
∂ a3 (q i )h1 h2
1 2 3
3
3 i
dq 3 .
q , q , q + dq h1 h2 = a (q )h1 h2 +
∂q 3
1
a3
rr
Nótese que el caso cartesiano no se hizo explı́cito este hecho por cuanto h3 = h2 = h1 = 1. Entonces el flujo
diferencial para el caso de coordenadas curvilı́neas será
∂ a1 (q i )h2 h3
∂ a2 (q i )h3 h1
∂ a3 (q i )h1 h2
1
2
3
2
3
1
dF =
dq dq dq +
dq dq dq +
dq 3 dq 1 dq 2 .
∂q 1
∂q 2
∂q 3
Bo
Recordamos que el diferencial de volumen es
√
√
√
dV = ds→q1 ds→q2 ds→q3 = g11 dq 1 g22 dq 2 g33 dq 3 = h1 h2 h3 dq 1 dq 2 dq 3 ,
donde denotamos a ds→qi como el arco de curva a lo largo de la coordenadas curvilı́neas generalizada q i .
Con lo cual identificamos la forma genérica de la divergencia en coordenadas curvilı́neas ortogonales
"
#
∂ a1 (q i )h2 h3
∂ a2 (q i )h3 h1
∂ a3 (q i )h1 h2
1
dF
div a = ∇ · a =
=
+
+
.
dV
h1 h2 h3
∂q 1
∂q 2
∂q 3
Si hacemos h = h1 h2 h3 , entonces podemos escribir la divergencia de manera más compacta
1 ∂ ai (q j )h
div a = ∇ · a =
.
h ∂q i
hı̂
336
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
pero siempre teniendo en cuenta que la suma es sobre los indices de ai y ∂/∂q i , por lo que queda indicado que
el indice ı̂ simplemente replica el valor que tome el indice i.
Consideremos con más cuidado el caso en el cual la superficie S contiene el origen de coordenadas.
Es claro que si el volumen contenido entre dos esferas de distintos radio r̃ < r, centradas en el origen y con
superficies S̃ y S respectivamente no contiene al origen entonces el flujo será nulo
ZZZ
ZZ
ZZ
F =
div a dV = 0 =
a · n̂s dS +
a · n̂s̃ dS̃ .
s
s
ar
V
El campo vectorial sobre la superficie S̃ de la esfera de radio r̃ es
ZZ
ZZ
a · n̂s̃ dS̃ =
s̃
s̃
q
êr · (−êr ) dS̃ = −
r̃2
es decir,
ZZ
ZZ
a · n̂s dS =
s
s̃
y n̂s̃ ≡ −êr ,
q
ds→θ ds→ϕ =
r̃2
ZZ
s̃
ZZ
s̃
q
ds→θ ds→ϕ ,
r̃2
lim
con lo cual
q
êr ,
r̃2
in
a=
q 2
r̃ sen(θ)dθ dϕ = q
r̃2
Z
π
Z
sen(θ)dθ
0
2π
dϕ = 4πq ,
0
5.3.3.
rP
re
ya que: dS̃ = hθ dθ hϕ dϕ ≡ r̃dθ r̃sen(θ)dϕ.
Tenemos entonces que el flujo de un campo singular en un punto (el origen de coordenadas), digamos: a (r) =
q
ê
r 2 r , a través de una superficie que encierra ese punto singular, no es nulo y es igual a 4πq.
El campo vectorial a (r), se denominará campo de una partı́cula fuente si q > 0 y campo de un sumidero si
q < 0.
Rotores, lı́neas de torbellino y circulación
Del mismo modo como hemos venido procediendo, haremos otra operación vectorial con el operador nabla ∇.
Tendremos entonces el rotor o rotacional actuando u operando sobre un campo vectorial ∇ × a. En coordenadas
cartesianas podremos expresar esta operación como
=
∂ak
ii = (∂2 a3 − ∂3 a2 ) i1 + (∂3 a1 − ∂1 a3 ) i2 + (∂1 a2 − ∂2 a1 ) i3
∂xj
i
j
k
(∂y az − ∂z ay ) i + (∂z ax − ∂x az ) j + (∂x ay − ∂y ax ) k ≡ ∂x ∂y ∂z .
ax ay az
εijk ∂j ak ii ≡ εijk
ad
o
∇×a
=
(5.12)
rr
El rotor de un campo vectorial genera otro campo (pseudo) vectorial llamado campo rotor del campo vectorial. Por razones que serán evidentes enseguida, las curvas integrales de este campo rotor se denominan lı́neas de
torbellino.
Lı́neas de torbellino
Bo
Tal y como se detalló en la sección 5.2.2 de la página 325 las lı́neas de flujo se construyen a partir de un vector
diferencial paralelo a campo vectorial en cada punto. Esto es, si
b=∇×a=
i
∂x
ax
j
∂y
ay
k
∂z
az
= (∂y az − ∂z ay ) i + (∂z ax − ∂x az ) j + (∂x ay − ∂y ax ) k ,
tendremos que dr ∝ b = ∇ × a implica que
dy
dz
dx
dy
dz
dx
=
=
= dλ =
=
=
,
bx (x, y, z)
by (x, y.z)
bz (x, y.z)
(∂y az − ∂z ay )
(∂z ax − ∂x az )
(∂x ay − ∂y ax )
donde hemos parametrizado la curva con λ.
337
in
ar
5.3. LA FAUNA DE LOS OPERADORES VECTORIALES
Figura 5.12: Rotores de un campo vectorial, lı́neas de torbellino
lim
Lı́neas de campo ortogonales a superficies
Hemos visto como la condición dr ∝ b = ∇ × a encuentra lı́neas (de torbellino) perpendiculares al campo
a (x, y, z). Uno también puede plantearse encontrar el conjunto de superficies para las cuales las lı́neas de flujo
del campo vectorial, a (x, y, z), sean perpendiculares. Para ello suponemos que existen estas superficies y que se
representan, matemáticamente, como un función ϕ = ϕ (x, y, z). Por lo tanto:
⇒ ∇ × [ϕa] = ∇ϕ × a + ϕ∇ × a = 0 ,
rP
re
∇ϕ ∝ a
es decir, ∇ϕ es proporcional al campo a (x, y, z) y al aplicar el rotor a ambos miembros se anula. Más aún, al
proyectar sobre el mismo vector a la ecuación de la derecha nos queda
a · [∇ϕ × a] + a · [ϕ∇ × a] = 0 ,
ambos sumandos se anulan por definición de producto vectorial, pero el segundo sumando
a · [∇ × a] = 0 ,
ad
o
impone una condición sobre el campo independiente de la función de proporcionalidad.
Por lo tanto, la condición necesaria y suficiente para que las lı́neas de flujo de un campo vectorial a (x, y, z) sean
perpendiculares a un conjunto de superficies ϕ = ϕ (x, y, z) es
a · [∇ × a] = 0 .
rr
Si a (x, y, z) fuese un campo de fuerza, digamos para el caso de un fluido en equilibrio estático
∇p = ρF ,
Bo
entonces, esta ecuación nos permite determinar como estarı́a estratificada la presión en el fluido. Al tomar
∇ × [ρF]
⇒ F · [∇ × F] = 0 ,
por lo tanto, F será siempre ortogonal al rotor de la fuerza en todo punto del campo, es decir, el equilibrio sólo es
posible si las lineas de fuerza F de siempre son ortogonales a las trayectorias de ∇ × F.
Circulación de un campo vectorial
La concepto (y el nombre de rotor ) surge de la idea de rotación (¿circulación?) que este operador descubre al
ser “aplicado” a un campo vectorial. Como se muestra en la figura 5.13, la idea intuitiva es colocar un “detector”
de rotación inmerso en el campo. En este caso es un par de aspas e imaginamos que el campo vectorial representa
un campo de velocidades de un fluido. Si el fluido hace girar las aspas en sentido horario (tirabuzón o sacacorchos
derecho hacia arriba) diremos que el campo tiene una “circulación” positiva y el rotor del campo siempre será
positivo en esa región. Si es a la inversa, diremos que el campo tiene una “circulación” negativa y el rotor también
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
lim
Figura 5.13: Idea sobre el significado fı́sico del rotor
in
ar
338
lo será en esa región. Finalmente, si el par de aspas no rota, el campo tendrá una circulación nula o no tendrá
circulación y su rotor será también nulo en esa región.
La idea de circulación se puede generalizar si tomamos un campo vectorial genérico
a = ax (x, y, z)i+ay (x, y, z) j+az (x, y, z)k ,
rP
re
con lo cual, la integral de lı́nea cerrada, a lo largo de una circunferencia de radio, r, en el plano xy será
I
Z 2π
Γ = a · dr =
[ax (x, y, z)i+ay (x, y, z) j+az (x, y, z)k] · [−rsen(ϕ)i + r cos(ϕ)j] dϕ ,
0
y suponiendo r 1 podemos desarrollar por Taylor las componentes del campo vectorial en al plano xy alrededor
del origen de coordenadas rx,y ∼ 0. Esto es
∂ax
∂x r=0
+y
ay (x, y, 0) = ay |r=0 + x
∂ay
∂x
+y
∂ax
∂y
∂ay
∂y
r=0
ad
o
ax (x, y, 0) = ax |r=0 + x
r=0
r=0
+ · · · = ax |r=0 + r cos(ϕ)
∂ax
∂x r=0
+ rsen(ϕ)
+ · · · = ay |r=0 + r cos(ϕ)
∂ay
∂x
+ rsen(ϕ)
r=0
∂ax
∂y
∂ay
∂y
+ ···
r=0
+ ···
r=0
Por lo tanto, la integral de lı́nea nos queda como
I
Γ=
Z
a · dr =
∂ax
∂ax
− ax |r=0 + r cos(ϕ)
+ rsen(ϕ)
rsen(ϕ)dϕ+
∂x r=0
∂y r=0
Z 2π ∂ay
∂ay
+ rsen(ϕ)
+
ay |r=0 + r cos(ϕ)
∂x
∂y
0
r=0
rr
0
2π
con los cual
I
Bo
Γ=
a · dr = πr2
∂ay
∂x
−
r=0
∂ax
∂y
r cos(ϕ)dϕ ,
r=0
+ O r3 .
r=0
Finalmente vemos que la componente del rotor en el origen del plano xy es igual al lı́mite de la circulación a lo
largo de una curva cerrada, dividida entre el área de la superficie que encierra la curva cerrada.
∂ay
∂x
−
r=0
∂ax
∂y
= lı́m
r=0
r→0
Γ
.
πr2
Rotores y velocidades angulares
Considere un cuerpo rı́gido que gira alrededor de un eje con velocidad angular ω. Entonces la velocidad tangencial
de un punto P , con una posición r medida a un origen O situado en ese eje, siempre es
v = ω × r = i (ωy z − ωz y) + j (ωz x − ωx z) + k (ωx y − ωy x) ,
5.3. LA FAUNA DE LOS OPERADORES VECTORIALES
339
y su rotor será
∇ × v = (∂y vz − ∂z vy ) i + (∂z vx − ∂x vz ) j + (∂x vy − ∂y vx ) k ≡
i
∂x
vx
j
∂y
vy
k
∂z
vz
,
3ω i − ω i = 2ω i .
in
=
ar
es decir, por ser un cuerpo rı́gido la velocidad angular ω es independiente de r; o lo que es lo mismo, todo el cuerpo
rı́gido tiene la misma velocidad angular. Con ello tendremos que
j
i j
(∇ × v)i = εijk ∂j (ω × r)k = εijk ∂j εklm ω l rm = εijk εlmk ∂j (ω l rm ) = δli δm
− δm
δl ∂j ω l rm
j
i j
j
i j
j l m
i j l m
=
δli δm
− δm
δl ω l ∂j rm = δli δm
− δm
δl ω l δjm = δli δm
ω δj − δm
δl ω δj
por lo tanto
Si no hubiésemos utilizado la notación de ı́ndices tendrı́amos
lim
∇ × v = 2ω
(∇ × v)x = (∂y vz − ∂z vy ) = ∂y (ωx y − ωy x) − ∂z (ωz x − ωx z) = 2ωx ,
(∇ × v)y = (∂z vx − ∂x vz ) = ∂z (ωy z − ωz y) − ∂x (ωx y − ωy x) = 2ωy ,
rP
re
(∇ × v)z = (∂x vy − ∂y vx ) = ∂x (ωz x − ωx z) − ∂y (ωy z − ωz y) = 2ωz .
Otra vez, el rotor de un campo de velocidades de un cuerpo (que rota) “detecta” su velocidad angular.
Rotores y coordenadas curvilı́neas
Una vez más recurrimos a una definición para el rotor independiente del sistemas de coordenadas
ZZ
ZZ
1
1
dS × a = lı́m
n̂s × a dS ,
∇ × a = rot a = lı́m
V →0 V
V →0 V
ad
o
y del mismo modo que calculamos el flujo a través de las distintas capas de un volumen podremos (no lo haremos
y se lo dejaremos al lector) demostrar que para un sistema de coordenadas ortogonal:
"
"
"
#
#
#
∂ h2 a2
∂ h3 a3
∂ h1 a1
|e1 i ∂ h3 a3
|e2 i ∂ h1 a1
|e3 i ∂ h2 a2
∇×a=
−
+
−
+
−
.
h2 h3
∂q 2
∂q 3
h1 h3
∂q 3
∂q 1
h1 h2
∂q 1
∂q 2
de manera más compacta
rr
1 ijk ∂ hk̂ ak
1
rot a = ∇ × a = [∇ × a] |ei i =
ε
|ei i =
h̂ hk̃
∂q j
h
i
h1 |e1 i h2 |e2 i h3 |e3 i
∂
∂q 1
h1 a1
∂
∂q 2
h2 a2
∂
∂q 3
h3 a3
,
Bo
donde los ı́ndices repetidos i, j, k indican suma; mientras que los ı́ndices ̂ y k̂ no indican suma sino que replican los
valores de los ı́ndices j, k y h = h1 h2 h3 .
5.3.4.
Formulario del operador nabla, ∇
El operador nabla, ∇, en las fórmulas anteriores actúa como un funcional lineal, esto es, dadas ϕ (r), χ (r) y
ψ (r) funciones escalares de variable vectorial o, a y b dos campos vectoriales cualesquiera, se puede generar el
siguiente formulario, el cual deberá ser demostrado por el lector
∇ (ϕ + χψ) = ∇ϕ + ∇ (χψ) = ∇ϕ + ψ∇χ + χ∇ψ
∇ · (a + ϕb) = ∇ · a + ϕ∇ · b + ∇ϕ · b
∇ × (a + ϕb) = ∇ × a + ∇ × (ϕb) = ∇ × a + ∇ϕ × b + ϕ∇ × b ,
340
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
y también, si consideramos las cantidades a · b y a × b tendremos
∇ (a · b) = ∂ i aj bj ei = (∇ · a) b + (∇ · b) a
∇ · (a × b) = ∂ i εijk aj bk = εijk ∂ i aj bk + εijk ∂ i bk aj = (∇ × a) · b − a · (∇ × b)
∇ × (a × b) = (b · ∇) a − b (∇ · a) + a (∇ · b) − (a · ∇) b
es claro que
aj ∂ i bi =
6 bi (∂ i aj ) ,
⇐⇒
ar
a (∇ · b) 6= (b · ∇) a
y a = a (χ (r)) .
En este caso, tendremos
∇ψ (χ (r)) =
dψ
∇χ;
dχ
∇ · a (χ (r)) = ∇χ ·
da
;
dχ
lim
ψ = ψ (χ (r))
in
por cuanto en las partes izquierdas las derivadas actúan sobre las componentes de b, mientras que en las partes
derechas es sobre las componentes de a.
Otros casos importantes se presentan cuando los campos escalares y/o vectoriales son a su vez funciones de un
campo escalar. Es decir, funciones compuestas. Esto es
∇ × a (χ (r)) = (∇χ) ×
da
.
dχ
a = a (r0 ) +
rP
re
da
Para demostrar, por ejemplo, ∇ · a (χ (r)) = ∇χ · dχ
, utilizamos la estrategia de Taylor y expandimos el campo
vectorial alrededor de un determinado punto, digamos r = r0 arbitrario. Esto es
da
dχ
(χ (r) − χ (r0 )) +
r0
1 d2 a
2 dχ2
M
aplicando la divergencia a ambos miembros queda como
"
#
2
da
1
d a
∇ · a = ∇ · [a (r0 )] + ∇ ·
(χ (r) − χ (r0 )) + ∇ ·
dχ r0
2
dχ2
∇·a=
ad
o
con lo cual
da
dχ
· ∇χ (r) + (χ (r) − χ (r0 ))
r0
d2 a
dχ2
· ∇χ (r) +
r0
2
(χ (r) − χ (r0 )) + · · ·
(χ (r) − χ (r0 ))
2
+ ···
M
3
1
2 d a
(χ (r) − χ (r0 ))
2
dχ3
· ∇χ (r) + · · ·
r0
Esta relación vale para todo r, en particular para r = r0 . Con lo cual
da
dχ
· ∇χ (r0 )
=⇒
∇·a=
r0
da
· ∇χ (r) ,
dχ
rr
∇ · a|r0 =
ya que r0 es arbitrario, con lo cual queda demostrado.
Nabla dos veces y el laplaciano
Bo
5.3.5.
Considerando a Nabla, ∇, como un funcional surge la pregunta de su aplicación repetida sobre distintos objetos.
Consideremos primero las siguientes expresiones en coordenadas cartesianas. Esto es
∇ · ∇φ =
∇ × ∇φ =
∇ (∇ · a)
=
∇ × (∇ · a)
=
∇ × (∇ × a)
=
=
∇2 φ = ∆φ = ∂ i ∂i φ
ijk
ε ∂j ∂k φ ii = 0
i j ∂ ∂ aj ii = ∂ j ∂ i aj ii
∇ · (∇ × a) = 0
h
i
ijk
j
i j
ε ∂j εklm ∂ l am ii = δli δm
− δm
δl ∂j ∂ l am ii
i
∂ ∂j aj ii − ∂j ∂ j ai ii = ∇ (∇ · a) − ∆a .
(5.13)
(5.14)
(5.15)
(5.16)
(5.17)
5.3. LA FAUNA DE LOS OPERADORES VECTORIALES
341
Laplaciano y campos escalares
Más allá de la gimnasia de ı́ndices para determinar la expresión de la relación vectorial, quizá la más importante
de las aplicaciones es el laplaciano, ∇2 ≡ ∆, el cual en R3 y en coordenadas cartesianas puede expresarse como:
∇ · ∇φ = ∇2 φ = ∆φ = ∂ i ∂i φ = ∂xx φ + ∂yy φ + ∂zz φ .
ar
La importancia el laplaciano reside en que la mayor parte (casi todas) las ecuaciones de la fı́sica matemática
son ecuaciones diferenciales (ordinarias y parciales) de segundo orden y el laplaciano las genera en el espacio, como
la solución a la ecuación armónica, o ecuación e Laplace:
∆φ = ∂ i ∂i φ = ∂xx φ + ∂yy φ + ∂zz φ = 0 ,
∆ (φ + Cψ) = ∆φ + C∆ψ ,
in
que es de gran importancia en varias áreas de la Fı́sica: electrostática, electrodinámica, teorı́a de la gravitación,
ondas, mecánica de fluı́dos, mecánica cuántica; por citar algunas.
Se puede demostrar fácilmente que el laplaciano cumple con
∆ (φψ) = φ∆ψ + ψ∆φ + 2∇ψ · ∇φ .
lim
Laplaciano y campos vectoriales
Inspirado en la forma que toma un campo vectorial en coordenadas cartesianas, definiremos el laplaciano de un
campo vectorial como la relación
∆ a = ∇ (∇ · a) − ∇× (∇×a) .
rP
re
Desarrollando esta expresión en coordenadas cartesianas tendremos que
∆ a = ∂ i ∂ j aj − ∂ i ∂j aj − ∂j ∂ j ai ii =⇒ ∆a = ∂j ∂ j ai ii ≡ ∆ai ii .
Es decir, que el laplaciano de un campo vectorial, expresado en coordenadas cartesianas, es igual al vector cuyas
componentes son los laplacianos de las componentes del campo original. Es importante resaltar que la expresión
∆a = ∆ai ii se cumple únicamente en coordenadas cartesianas pero la definición que hemos propuesto en la
ecuación (5.3.5) es una ecuación vectorial y es, por lo tanto, válida en cualquier sistema de coordenadas.
El laplaciano de campos vectoriales no lleva construir un formulario de relaciones fácilmente demostrables
∆ (∇φ) = ∇ (∆φ) ;
∇ · (∆a) = ∆ (∇ · a) ;
∇× (∆ a) = ∆ (∇×a) .
Un campo vectorial a = a(r) de denomina un campo laplaciano si es
ad
o
irrotacional: ∇ × a = 0
y
solenoidal: ∇ · a = 0 .
en todo punto del campo. De esta manera, un campo laplaciano es un potencial, es decir:
∇×a=0
⇒ a = ∇φ
Este campo queda completamente determinado por el potencial escalar que satisface la ecuación de Laplace
∇ · a = ∇ · ∇φ = ∆φ = 0 .
rr
A las soluciones de esta ecuación se les denomina soluciones armónicas.
Laplaciano y coordenadas curvilı́neas
Bo
Considerando las expresiones para el gradiente y la divergencia en coordenadas curvilı́neas
grad φ = ∇φ =
1 ∂φ 1
1 ∂φ 2
1 ∂φ 3
e +
e +
e ,
1
2
h1 ∂q
h2 ∂q
h3 ∂q 3
y
1
div a = ∇ · a =
h1 h2 h3
"
#
∂ a1 (q i )h2 h3
∂ a2 (q i )h3 h1
∂ a3 (q i )h1 h2
+
+
,
∂q 1
∂q 2
∂q 3
respectivamente, es fácil llegar a la expresión para el laplaciano en coordenadas curvilı́neas
1
∂
h2 h3 ∂φ
∂
h1 h3 ∂φ
∂
h2 h1 ∂φ
∇2 φ ≡ ∆φ =
+
+
.
h1 h2 h3 ∂q 1
h1 ∂q 1
∂q 2
h2 ∂q 2
∂q 3
h3 ∂q 3
Antes de continuar con la siguiente sección, consideremos estos dos puntos importantes:
342
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
De la divergencia (5.3.2) y el rotor (5.3.3) tenemos
=
=
ar
∇·∇×a
"
"
#
#
k
h
1 ∂
1 ∂
h 1 ijk ∂ hk̃ ak
1 ∂
i
ijk ∂ hk̃ a
[∇ × a] =
ε
=
ε
h ∂q i hĩ
h ∂q i hĩ hj̃ hk̃
∂q j
h ∂q i
∂q j
1 ijk ∂ 2 hk̃ ak
=0
ε
h
∂q i ∂q j
debido a la simetrı́a para i y j en la segunda derivada y la antisimetrı́a del Levi-Civita cuando se intercambia
i por j.
Por lo tanto:
in
∇ · ∇ × a = 0.
Del gradiente (5.3.1) y el rotor (5.3.3) tenemos
2 1 ijk ∂ 1 ijk
∂ φ
k
h
[∇φ]
|e
i
=
|ei i = 0 .
ε
ε
i
k̃
hj̃ hk̃
∂q j
hj̃ hk̃
∂q j ∂q k
lim
∇ × ∇φ =
Por la misma razón del caso anterior.
Entonces se tiene que
∇ × ∇φ = 0 .
rP
re
A los campos vectoriales con rotor nulo se les denominan campos irrotacionales. Por (5.3.5) se tiene entonces
que el gradiente es irrotacional. Estos campos se pueden expresar siempre como el gradiente de una función
escalar. Por ejemplo, para el campo electrostático, el hecho de que ∇ × E = 0 implica que E = −∇φ.
Por otro lado, cuando un campo vectorial tiene divergencia nula, ecuación (5.3.5), este campo puede siempre
expresarse como el rotacional de otro campo vectorial y se denominan campos solenoidales. Por ejemplo, el
campo magnético por cumplir con ∇ · B = 0 entonces también cumple con B = ∇ × A.
5.3.6.
Derivadas direccionales de campos vectoriales
ad
o
Formalmente y como siempre presentamos la idea de derivada como cociente incremental. Dados dos puntos P1
y P2 y un vector u que los une (va de P1 → P2 ), entonces por definición
D|ui |ai ≡
da
a (P2 ) − a (P1 )
= lı́m
du P2 →P1
P2 − P1
⇒
da
du
i
=
dai
du
= lı́m
P2 →P1
ai (P2 ) − ai (P1 )
,
P2 − P1
rr
por consiguiente, si a tiene por componentes cartesianas
cualquier sistema de coordenadas ortogonales)
(en general dax day daz
(ax , ay , az ) las componentes del vector derivado serán du , du , du .
De modo que inspirados en la derivada direccional de un campo escalar que presentamos en la sección 5.3.1,
da
podemos construir la expresión para la derivada direccional de cada una de las componentes del vector du
, esto es
Bo
dϕ
= D|ui φ = ∇φ · u = ui ∂i ϕ
du
⇒
dai
= u · ∇ai = uj ∂j ai
du
⇒ D|ui |ai ≡
da
= (u · ∇) a .
du
Otra vez, en coordenadas cartesianas se tiene que
D|ui a = (u · ∇) a = ui ∂i aj ej
⇒ D|ui (◦) ≡
d (◦)
= (u · ∇) (◦) ≡ ui ∂i (◦) .
du
El campo de aceleraciones de un fluido
El ejemplo más estándar es la descripción del campo de aceleraciones de un fluido en movimiento. El campo de
aceleraciones de un fluido, como de costumbre, es la variación del campo de velocidades respecto al tiempo. Esto
es, a = dv
dt . Para escribir la expresión de este campo de aceleraciones, supongamos que un fluido se mueve y registra
un campo de velocidades v = v (r, t) el cual, en general, será inhomogéneo y no estacionario. Identificamos una
343
in
ar
5.3. LA FAUNA DE LOS OPERADORES VECTORIALES
Figura 5.14: Contribuciones a la variación de la velocidad en un fluido.
v (P1 ) ≡ v (r, t)
lim
porción del fluido (partı́cula) cualquiera y observamos que en un intervalo de tiempo dt esa porción identificada se
mueve de P1 → P2 y registra un incremento en su velocidad de v en P1 a v + dv en P2 :
v (P2 ) ≡ v (r + dr, t + dt) .
y
rP
re
Tal y como ejemplificamos en la figura 5.14, este incremento proviene de dos contribuciones. Una, llamada local,
debido a el cambio en la variable temporal y otra, por la comparación del vector velocidad, v, en dos posiciones
(traslación espacial o contribución convectiva).
dvt =
∂v
dt
∂t
y
dvu =
dv
du ,
du
Visto de otro modo un poco más informal, dado que el campo es función de dos variables y una de ellas vectorial
v = v (r, t)
⇒a=
dv
∂v ∂v
=
+
.
dt
∂r
∂t
ad
o
De la discusión anterior es claro que dv
du es la derivada direccional del campo de velocidades a lo largo del vector
unitario u que apunta de P1 → P2 . Ahora bien, para este caso tenemos que:
du = kdrk ,
du = kvk dt
y
u=
v
,
kvk
con lo cual la derivada direccional queda como
dv
1
=
(v · ∇) v ,
du
kvk
rr
y finalmente la aceleración como
1
∂v
dv
=
(v · ∇) v +
dt
kvk
∂t
⇒ ai =
1
∂v i
(v · ∇) v i +
,
kvk
∂t
Bo
a=
donde hemos representado las componentes cartesianas de los vectores velocidad y aceleración como v i y ai , respectivamente.
Es importante hacer una reflexión un poco más fı́sica de las contribuciones. La contribución local proviene
de la variación del vector (por la dependencia temporal) alrededor del punto, sin importar la dirección que sigue
al partı́cula y la contribución convectiva proviene de la inhomogeneidad del campo de velocidades. Esto es de la
variación del campo de velocidades según la dirección que siga la partı́cula.
5.3.7.
La derivada covariante
En un sistema de coordenadas generalizadas {q i }, las bases locales {ei } son funciones de las coordenadas, es
decir
ei = ei (q 1 , q 2 , q 3 ) , ei = ei (q 1 , q 2 , q 3 ) ,
344
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
por lo que el diferencial de cualquier campo vectorial A = A(r) viene a ser:
dA = d Ai ei = ei dAi + Ai dei , dA = d Ai ei = ei dAi + Ai dei ,
por lo tanto, las bases de las coordenadas generalizadas también cambian punto a punto. Entonces resulta que
dA =
∂A j
dq
∂q j
⇒
∂A
∂Ak k
∂ek
∂Ak
∂ek
=
e
+
A
=
ek + Ak j .
k
j
j
j
j
∂q
∂q
∂q
∂q
∂q
∂A i
·e .
∂q j
lim
Ai;j ≡
in
ar
∂A
Las componentes covariantes o contravariantes del vector ∂q
j vienen a ser las componentes de un tensor de
segundo orden llamado la derivada covariante del vector dado. De esta manera, la derivada covariante de un vector
covariante tiene como componentes:
∂A
Ai;j ≡ j · ei ,
∂q
mientras que la derivada covariante de un vector contravariante tiene componentes
Hemos utilizado el punto y coma, (; ), para indicar la derivada covariantes, de manera que la coma sola (, ) la
dejamos para la derivada normal ∂i .
Notemos que si el campo vectorial es homogéneo, es decir, tiene magnitud y dirección constante, entonces
podemos ver lo siguiente:
⇒ ei dAi + Ai dei + dAi dei = 0 ,
rP
re
A = Ai ei = (Ai + dAi )(ei + dei )
si nos quedamos sólo con los términos a primer orden:
dA = ei dAi + Ai dei = 0 ,
esto significa que:
ad
o
∂A j
dq = 0 ⇒ Ai;j dq j = 0 ⇒ Ai;j = 0 .
∂q j
La derivada covariante de un campo vectorial homogéneo es cero.
Desde un punto de vista geométrico, un campo vectorial homogéneo se puede interpretar como el resultado de
desplazar al vector A paralelo a si mismo por todos los puntos del espacio, esto significa que la condición Ai,j = 0
podrı́a ser considerara como la condición del desplazamiento paralelo.
Por otra parte, notemos que según lo visto anteriormente, ecuaciones (5.3.7)
Ai;j =
∂Ai
∂ek
∂A
·
e
=
+
A
· ei ,
i
k
∂q j
∂q j
∂q j
y
Ai;j =
∂A i
∂Ai
∂ek
·
e
=
+ Ak j · ei
∂q j
∂q j
∂q
Bo
rr
donde hemos usado el hecho de que ei · ek = δik .
∂e
Por otro lado, las cantidades ∂qkj se pueden escribir como una combinación lineal de los vectores base
∂ej
=
∂q k
∂ej
∂q k
i
i ∂ej
ei = e · k ei ≡ Γijk ei ,
∂q
donde hemos introducido la siguiente notación:
Γijk = ei ·
∂ej
∂q k
y de manera equivalente:
Γjik = ei ·
∂ej
.
∂q k
Estas cantidades se denominan Sı́mbolos de Christoffel del segundo tipo y en realidad viene a ser un objeto
representado por 27 componentes. Estos objetos son simétricos bajo el cambio de los dos indices inferiores
Γijk = Γikj .
También es posible definir Sı́mbolos de Christoffel del primer tipo:
Γijk ≡ ei ·
∂ej
,
∂q k
5.3. LA FAUNA DE LOS OPERADORES VECTORIALES
345
con Γijk = Γikj .
Por lo tanto, podemos escribir ahora
Ai;j =
∂Ai
− Γkji Ak = ∂j Ai − Γkji Ak ,
∂q j
y
Ai;j =
∂Ai
+ Γijk Ak = ∂j Ai + Γijk Ak .
∂q j
El signo menos en la primera ecuación es debido a que
⇒ ej ·
∂ei
∂ej
=
−e
·
.
i
∂q k
∂q k
ar
∂(ei · ej )
=0
∂q k
En conclusión:
o
∂A
≡ Ai;j ei .
∂q j
in
∂A
≡ Ai;j ei
∂q j
rP
re
lim
Tenemos entonces que la derivada covariante de un campo vectorial toma en cuenta no sólo el cambio en el
campo mismo, a medida que nos movemos a lo largo de las curvas coordenadas, sino que también da cuenta de
como cambian las bases. Por lo tanto, si las bases no varı́an al pasar de un punto a otro (bases rectangulares
cartesianas) los Sı́mbolos de Christoffel se anulan y la derivada covariante no es más que la derivada normal.
Los Sı́mbolos de Christoffel pueden calcularse a partir del tensor métrico y de su propiedad de simetrı́a.
1
∂ej
1
∂ek
1 i
i
i ∂ej
il
i ∂ek
il
i
Γ + Γkj =
e · j +e · k =
(g el ) · j + (g el ) · k
Γjk =
2 jk
2
∂q
∂q
2
∂q
∂q
∂
∂el
∂el
∂glj
∂ej
∂ek
1 il ∂
1 il ∂glk
g
(el · ek ) + k (el · ej ) − ek · j − ej · k = g
+
− ek · l − ej ·
=
2
∂q j
∂q
∂q
∂q
2
∂q j
∂q k
∂q
∂q l
∂glk
1 il ∂glk
∂glj
∂(ej · ek )
1
∂glj
∂gjk
g
=
+
−
= g il
+
−
.
j
k
l
j
k
2
∂q
∂q
∂q
2
∂q
∂q
∂q l
Hemos llegado entonces a la siguiente e importante relación:
∂glj
∂gjk
1
∂glk
+
−
Γijk = g il
.
2
∂q j
∂q k
∂q l
rr
esto es
ad
o
Es importante tener en cuenta que la derivada covariante es un tensor, a pesar de que la derivada parcial y los
Sı́mbolos de Christoffel que conforman la suma no lo son, es decir, la combinación de estos dos objetos que no son
tensores forman un tensor.
Los Sı́mbolos de Christoffel de primer tipo también pueden obtenerse a partir del tensor métrico
1
∂gmk
∂gmj
∂gjk
∂gmj
∂gjk
1 m ∂gmk
+
−
+
−
=
,
Γijk ≡ gil Γljk = gil g lm
δ
2
∂q j
∂q k
∂q m
2 i
∂q j
∂q k
∂q m
Γijk ≡ gil Γljk =
∂gij
∂gjk
∂ej
1 ∂gik
+
−
= ei · k .
2 ∂q j
∂q k
∂q i
∂q
Bo
A estas alturas, debe quedar claro que en el caso de utilizar coordenadas cartesianas todos los Sı́mbolos de
Christoffel son iguales a cero ya que todas las componentes del tensor métrico son constantes, además se puede
apreciar que en estas coordenadas las componentes covariantes y contravariantes de un vector son iguales, y al hacer
la siguiente contracción
Ai;i = ∂i Ai + Γiik Ak
⇒ Ai;i = ∂i Ai =
X
∂i Ai
⇒ un escalar.
i
Revisemos ahora como transforman los Sı́mbolos de Christoffel del primer tipo bajo un cambio de coordenadas.
Recordemos que un tensor debe trasformar de la siguiente manera (usaremos una notación ligeramente diferente a
la usada anteriormente)
∂q l
Ti0 j 0 k0 = αil0 αjm0 αkn0 Tlmn , con αil0 = i0 .
∂q
346
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
Por lo tanto:
Γ i0 j 0 k 0
∂q m
∂
∂ej 0
n
l
(α
=
α
0 en )
0 el ·
0
j
i
∂q k
∂q m
∂q k0
∂αjn0
∂en
= αil0 αkm0 αjn0 el · m + αil0 αkm0 (el · en ) m
∂q
∂q
n
∂αj 0
= αil0 αkm0 αjn0 Γlnm + αil0 αkm0 gln m ,
∂q
= ei0 ·
Tij;k
≡
i
Tj;k
≡
∂T ij
+ Γikl T lj + Γjkl T il = T ij,k + Γikl T lj + Γjkl T il ,
∂q k
∂Tij
− Γlik Tlj − Γljk Til = Tij,k − Γlik Tlj − Γljk Til ,
∂q k
∂Tji
i
+ Γikl Tjl − Γljk Tli = Tj,k
+ Γikl Tjl − Γljk Tli .
∂q k
in
≡
lim
T ij;k
ar
es decir, no transforma como un tensor.
Como una extensión de todo lo anterior, podemos escribir las derivadas covariantes de tensores de rango mayor,
por ejemplo:6
= gij,k − Γlik glj − Γljk gil = gij,k − Γjik − Γijk
∂gji
∂gik
∂gij
∂gjk
1 ∂gjk
1 ∂gik
+
−
+
−
= gij,k −
−
2 ∂q i
∂q k
∂q j
2 ∂q j
∂q k
∂q i
1
= gij,k − [gjk,i + gji,k − gik,j + gik,j + gij,k − gjk,i ] = 0 .
2
ad
o
gij;k
rP
re
Es claro que si calculamos la derivada covariante de “una componente contravariante” escribimos un signo mas
y si lo que estamos es calculando la derivada covariante de una “componente covariante” podemos poner un signo
menos.
Para el caso de un tensor de orden cero, es decir, un escalar, la derivada covariante se reduce a la derivada
parcial con respecto a las coordenadas
∂φ
φ;i = i ,
∂q
esto significa que la derivada covariante de un escalar es un vector covariante que tiene como componentes las
componentes covariantes del gradiente de φ.
Podemos averiguar ahora sobre la acción de la derivada covariante sobre el tensor métrico:
De este último resultado de obtiene la siguiente igualdad
gij,k = Γjik + Γijk .
Bo
rr
Se dice que el tensor métrico es transparente a la derivada covariante, lo que se conoce como el Teorema de
Ricci. Esto significa que el tensor métrico es constante para la derivada covariante, por ejemplo:
gil Al ;j = gil Al ;j = Ai;j ,
gil T lj;k = gil T lj ;k = T ji;k .
Volviendo a tema del operador diferencial en coordenadas generalizadas tenemos entonces, y a modo de repaso
lo siguiente:
Si tenemos un campo escalar φ = φ(q 1 , q 2 , q 3 ), por gradiente entendemos a un vector cuyas componentes
covariantes son
∂φ
∂φ
⇒ grad φ = i ei .
i
∂q
∂q
En el caso particular de la la derivada direccional de φ en la dirección del vector s se tiene
∂φ
= s · grad φ ,
∂s
6 Las
derivadas parciales las indicaremos con una coma:
∂T ij
∂q k
con s = si ei .
= ∂k T ij ≡ T ij
,k .
5.3. LA FAUNA DE LOS OPERADORES VECTORIALES
347
Si tenemos un campo vectorial A = A(q 1 , q 2 , q 3 ), para la divergencia de A tendremos que es la contracción
de la derivada covariante de A, esto es:
div A ≡ Ai ;i = ∂i Ai + Γiij Aj .
ar
Para el caso de las componentes covariantes de A, tenemos
div A ≡ Ai ;i = g ij Aj ;i = g ij Aj;i .
El cálculo de los diferentes Sı́mbolos de Christoffel suele ser un trabajo laborioso, pero se puede buscar otros
caminos como veremos a continuación. Podemos ver que:
1
1
1 il
g [∂i glk + ∂k gli − ∂l gik ] = g il [∂i glk − ∂l gik ] + g il ∂k gli .
2
2
2
in
Γiik =
g il ∂i glk = g li ∂l gik = g il ∂l gik
lim
Los términos entre corchetes del lado derecho son antisimétricos para i y l cuando se contraen con g il el cual es
simétrico, por lo tanto esa resta se hace cero
⇒ Γiik =
1 il
g ∂k gil .
2
rP
re
Si recurrimos a la representación matricial del tensor métrico, donde [g ij ] el la matriz inversa de [gij ] y si
denotamos al determinante de la métrica por G ≡ det[gij ] y por Gij la matriz cofactor de los elementos de [gij ]
entonces
Gij
g ij =
G
De la definición del determinante se tiene
G = gij Gij ,
(no hay suma sobre i)
Como Gij es independiente de gij se tiene que
∂G
= Gij ,
∂gij
Por lo tanto,
ad
o
Al depender la métrica de las coordenadas el determinante de la métrica también dependerá de las coordenadas, y
por la regla de la cadena
∂G ∂gij
∂gij
∂gij
∂G
=
= Gij k = Gg ij k .
k
k
∂q
∂gij ∂q
∂q
∂q
Γiik
√
1 il
1 ∂G
∂k G
= g ∂k gil =
= √
.
2
2G ∂q k
G
Bo
rr
Podemos entonces obtener una expresión general para la divergencia:
√
√
i
∂
GA
i
∂i G
√
div A ≡ Ai ;i = ∂i Ai + √ Ai =
.
G
G
Se define el Laplaciano de un campo escalar φ = φ(r) como la divergencia del gradiente
h√
i
h√
i
h√
i
∂i
G(grad φ)i
∂i
Gg ij (grad φ)j
∂i
Gg ij ∂j φ
√
√
√
∆φ = div · grad φ =
=
=
.
G
G
G
√
Notemos que si se trata de un sistema de coordenadas ortogonal, entonces: h1 h2 h3 = G, g ij = 1/h2i si i = j,
en caso contrario g ij = 0. Por lo tanto, de la ecuación (5.3.7) resulta
"
#
1
h1 h2 h3
∆φ =
∂i
∂i φ
h1 h2 h3
h2j
348
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
Para finalizar, recordemos que podemos construir a partir de un tensor de segundo rango un tensor antisimétrico,
por ejemplo, de Ai;j tenemos el tensor Ai;j − Aj;i . Ahora bien, de:
Ai;j = ∂j Ai − Γkij Ak
y
Aj;i = ∂i Aj − Γkji Ak ,
resulta
Ai;j − Aj;i = ∂j Ai − ∂i Aj ,
ar
por la simetrı́a de los Sı́mbolos de Christoffel. Aunque las derivadas parciales de un vector no son tensores, por eso fue
que definimos la derivada covariante, la diferencia antisimétrica si que es un tensor. Los tensores antisimétricos como
el de la ecuación (5.3.7) tienen únicamente tres componentes independientes (en todos los sistemas de coordenadas)
y en este caso, serán las componentes de un vector relacionado con el rotor del vector A.
in
(rot A)ij ≡ ∂j Ai − ∂i Aj .
Para el caso de tres dimensiones, a este tensor de segundo orden antisimétrico le podemos asociar un vector con
componentes contravariantes, de la siguiente forma
lim
1
1
1
i
(rot A) = − √ εijk (rot A)jk = − √ εijk [∂k Aj − ∂j Ak ] = √ εijk ∂j Ak ,
2 G
2 G
G
con i, j, k una permutación cı́clica de 1, 2, 3. Lo que concuerda perfectamente con nuestra definición de rotor vista
anteriormente:
5.3.8.
e2
∂2
A2
e3
∂3
A3
rP
re
e1
1
rot A = √ det ∂1
G
A1
Derivadas absolutas y geodésicas
En las secciones anteriores discutimos como es el proceso de derivar tensores con respecto a las coordenadas,
esto nos llevo a al concepto de la derivada covariante. El problema puede tener un enfoque diferente si consideramos
el cálculo de la derivada de tensores a lo largo de una curva parametrizada por alguna variable.
Consideremos entonces el problema de encontrar la derivada de un tensor a lo largo de una curva r(λ) que varı́a
respecto al parámetro λ. Para un sistema de coordenadas arbitrario {q i } con vectores base {ei } un vector genérico
se puede escribir como a = ai ei . De manera que:
ad
o
dai
dai
dai
da
dei
∂ei dq j
dq j
=
ei + ai
=
ei + ai j
=
ei + Γkij ai
ek
dλ
dλ
dλ
dλ
∂q dλ
dλ
dλ
intercambiando los indices mudos i y k, resulta:
i
da
da
dq j
=
+ Γikj ak
ei .
dλ
dλ
dλ
Bo
rr
La expresión que está dentro de los corchetes suele denominarse la derivada absoluta o intrı́nseca de las componentes del vector a, a lo largo de la curva descrita por el radio vector r(λ). Usualmente se denota por
dai
dq j
dq j
δai
≡
+ Γikj ak
= ai;j
.
δλ
dλ
dλ
dλ
De manera que
da
δai
dq j
=
ei = ai;j
ei .
dλ
δλ
dλ
Por supuesto, se puede repetir los cálculos anteriores para obtener la derivada absoluta de las componentes
covariantes:
δai
dq j
≡ ai;j
.
δλ
dλ
También se deriva de manera absoluta tensores de segundo orden, o orden superior, por ejemplo
δTij
dq k
≡ Tij;k
,
δλ
dλ
k
δT ij
ij dq
≡ T;k
,
δλ
dλ
k
δTji
i dq
≡ Tj;k
.
δλ
dλ
5.3. LA FAUNA DE LOS OPERADORES VECTORIALES
349
Si consideramos que el parámetro es la longitud de arco s, y si adicionalmente exigimos que el vector tangente
τ = dr(s)/ds a la curva descrita por el vector r(s) siempre apunte en la misma dirección7 , entonces,
dτ
= 0.
ds
in
ar
Al introducir un sistema de coordenadas {q i } junto con una base {ei }, entonces τ = τ i ei , con i = 1, 2, 3.
Por lo tanto
dτ
dq j
= τ;ji
ei ,
ds
ds
lo que significa que
i
j
dτ
i
k dq
+ Γkj τ
ei = 0 ,
ds
ds
como τ i = dq j /ds, entonces:
k
j
d2 q i
i dq dq
+
Γ
= 0.
kj
ds2
ds ds
5.3.9.
rP
re
lim
La ecuación (5.3.8) es la ecuación de la geodésica en el espacio tridimensional real, donde, como sabemos, la
distancia mas corta entre dos puntos es una linea recta.
En resumen, una curva cuyo vector tangente es transportado paralelamente a lo lardo de la curva se denomina
curva geodésica y viene a estar representada por un conjunto de ecuaciones diferenciales de segundo orden llamadas
ecuaciones de la geodésica. La solución de este conjunto de ecuaciones da como resultado la ecuación paramétrica
de la geodésica.
Ejemplos
1. Para el campo escalar φ = x2 y + yz, en el punto M = (−1, 2, 1), tenemos que el gradiente es
∇φ = 2xyi + x2 + z j + yk ⇒ ∇φ(−1, 2, 1) = −4i + 2j + 2k .
en ese punto, la taza de cambio en la dirección del vector u = i + 2j + 3k será:
ad
o
1
dφ
= ∇φ · û = 2xyi + x2 + z j + yk · √ (i + 2j + 3k)
ds
14
M
6
=√ .
14
Por lo tanto, en el punto M = (−1, 2, √
1) la taza de cambio dφ/ds máxima se produce en la dirección ∇φ =
−4i + 2j + 2k con un valor de |∇φ| = 24.
2. Para las coordenadas cilı́ndricas (q 1 , q 2 , q 3 ) = (ρ, ϕ, z), vimos que los factores de escala son
rr
h1 = hρ = 1 ,
h2 = hϕ = ρ ,
h3 = hz = 1 ,
por lo tanto:
1 ∂φ
∂φ
∂φ
|eρ i +
|eϕ i +
|ez i .
∂ρ
ρ ∂ϕ
∂z
Bo
grad φ = ∇φ =
Mientras que para la divergencia de un campo vectorial tendremos
∂ (Aϕ ) ∂ (Az ρ)
1 ∂ (Aρ ρ)
1 ∂Aϕ
∂Az
1 ∂ (Aρ ρ)
+
+
=
+
+
div A = ∇ · A =
ρ
∂ρ
∂ϕ
∂z
ρ ∂ρ
ρ ∂ϕ
∂z
donde: Aρ = A · êρ , Aϕ = a · êϕ y Az = A · êz .
3. La ecuación de continuidad
Consideremos una superficie cerrada S que encierra un volumen V . Esta superficie está inmersa en un fluido,
de densidad ρ (r, t) que fluye con un campo de velocidades v (r, t). Supondremos además que el volumen V
7 Lo
que se conoce en la geometrı́a diferencial como transporte paralelo de un vector
350
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
que encierra la superficie S no cambia de posición, con lo cual, la variación de masa del fluido contenido en
este volumen es
ZZZ
ZZZ
∂
∂ρ (r, t)
ρ (r, t) dV =
dV .
∂t
∂t
V
V
V
∂ρ (r, t)
+ ∇ · (v (r, t) ρ (r, t)) dV = 0
∂t
⇔
∂ρ (r, t)
+ ∇ · (v (r, t) ρ (r, t)) = 0 ,
∂t
in
con lo cual
ZZZ ar
Entonces, la variación de la cantidad de fluido encerrada por la superficie S será igual a la cantidad de fluido
que escapa (o ingresa) a través de esa superficie. Esto es
ZZ
ZZZ
ZZZ
∂ρ (r, t)
dV = −
ρ (r, t) v (r, t) · n̂s dS = −
∇ · (v (r, t) ρ (r, t)) dV ,
∂t
s
V
V
y esta última representa la ecuación de continuidad en dinámica de fluidos.
lim
4. Fuentes y sumideros
Consideremos un campo vectorial de la forma
A (r) = q
q
r
≡ 2 êr .
r3
r
rP
re
La divergencia, en coordenas esféricas (hr = 1, hθ = r, hϕ = r sen(θ)), es:
1
∂ (Ar (r, θ, ϕ) hθ hϕ ) ∂ (Aθ (r, θ, ϕ) hϕ hr ) ∂ (Aϕ (r, θ, ϕ) hr hθ )
∇·A=
+
+
hr hθ hϕ
∂r
∂θ
∂ϕ
i
∂ hq 2
1
r sen(θ) = 0 .
= 2
r sen(θ) ∂r r2
Nótese que el origen del sistema coordenado (el punto r = 0) no está definido porque no lo estaba en el campo
vectorial original A (r) = rq2 êr . Con lo cual, se tiene que si la superficie S no encierra a r = 0, entonces el
flujo a través de esa superficie será nulo
ZZ
ZZZ
F =
A · dS =
div A dV = 0 .
V
ad
o
S
Es decir, todo lo que entra sale. Sin embargo, si el volumen contiene al origen de coordenadas no podemos
decir nada por cuanto hay una indeterminación en la expresión de la divergencia.
5. Consideremos el siguiente campo vectorial en coordenadas cilı́ndricas para z ≥ 0
A = z êϕ = z [−sen(ϕ) i + cos(ϕ) j] = − p
zy
x2
+
y2
i+ p
zx
x2 + y 2
j,
rr
con lo cual el campo rotor del campo vectorial A será
"
Bo
B = ∇ × A = ∇ × −p
= −p
x
x2 + y 2
i− p
zy
zx
#
i+ p
j =
x2 + y 2
x2 + y 2
y
x2 + y 2
j+ p
z
x2 + y 2
i
∂x
− √ z2 y
x +y 2
j
∂y
√ z2 x
x +y 2
k
∂z
0
k.
Es claro que el campo vectorial y su campo rotor son ortogonales
"
# "
#
zx
x
y
z
zy
−p
i+ p
j · −p
i− p
j+ p
k = 0.
x2 + y 2
x2 + y 2
x2 + y 2
x2 + y 2
x2 + y 2
Por lo tanto
dλ = −
p
p
p
x2 + y 2
x2 + y 2
x2 + y 2
dx = −
dy =
dz .
x
y
z
5.3. LA FAUNA DE LOS OPERADORES VECTORIALES
351
Las dos primeras ecuaciones proveen
⇒ y (x) = xC1
con
C1 = cte ;
C̃1 = − q
⇒
1
dx
dλ
= −√



dy
dλ
= −√
= cte ;
2
1 + (C1 )
x
x2 +y 2
= C̃1
⇒ x(λ) = λC̃1
y
x2 +y 2
= C̃2
⇒ y(λ) = λC̃2
C1
C̃2 = − q
= C1 C̃1 = cte .
2
1 + (C1 )
ar
dy
y
=
dx
x




Finalmente,
x2 + y 2
dz = dλ
z
⇒
z
z
dz
z
z
q
=
=− ,
=p
= q
2
2
dλ
λ
2
2
x +y
x 1 + (C1 )
λC̃1 1 + (C1 )
con lo cual
1
C̃3 .
λ
lim
dz
z
=−
dλ
λ
in
p
⇒ z(λ) =
6. Supongamos una circunferencia con radio r = 2, la cual viene descrita paramétricamente por el radio vector
r (ϕ) = 2 cos(ϕ)i + 2 sin(ϕ)j
⇒ dr = 2 [−sen(ϕ)i + cos(ϕ)j] dϕ ,
rP
re
y nos planteamos “hacer circular el campo” A = z (−sen(ϕ)i + cos(ϕ)j) a lo largo de la esa trayectoria. Esto
es, realizar la siguiente integral
I
Z 2π
Γ = A · dr =
z (−sen(ϕ)i + cos(ϕ)j) · 2 (−sen(ϕ)i + cos(ϕ)j) dϕ = 4πz ,
0
primero el producto A · dr y luego se integra. El campo vectorial A está representado en la figura 5.12.
H
Hemos utilizado el sı́mbolo para denotar la integral de lı́nea en un circuito cerrado. Es la primera idea de
integrales de campos vectoriales que veremos con más detalles en las sección 5.4.
ad
o
Es interesante comparar este resultado con el flujo del campo de rotores a través de la superficie que delimita
la circunferencia de radio r = 2. Vale decir
!
ZZ
ZZ
−x
y
z
p
(∇ × A) · n̂s dS =
i− p
j+ p
k · k dx dy
x2 + y 2
x2 + y 2
x2 + y 2
ZZ
dx dy
p
=z
x2 + y 2
ZZ
dr rdθ
=z
r
Z
2
Z
dr
0
2π
dθ = 4πz .
0
rr
=z
Bo
Esta “coincidencia” no es tal, corresponde a otro teorema integral para campos vectoriales, el Teorema de
Stokes (sección 5.5.2, página 374) mediante el cual se convierte una integral cerrada de lı́nea de un campo
vectorial en el flujo del campo de rotores. Este teorema lo estudiaremos con detalle en la sección 5.5.2.
7. En coordenadas cilı́ndricas (q 1 , q 2 , q 3 ) = (ρ, ϕ, z), donde
h1 = hρ = 1 ,
h2 = hϕ = ρ ,
se tiene
1 ∂
∇ φ ≡ ∆φ =
ρ ∂ρ
2
∂φ
ρ
∂ρ
+
h3 = hz = 1 ,
1 ∂2φ ∂2φ
+ 2.
ρ2 ∂ϕ2
∂z
Y para el rotor resulta:
rot A = ∇ × A =
1 ∂Az
∂Aϕ
∂Aρ
∂Az
1 ∂ (ρAϕ ) ∂Aρ
−
−
−
|eρ i +
|eϕ i +
|ez i .
ρ ∂ϕ
∂z
∂z
∂ρ
ρ
∂ρ
∂ϕ
352
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
Podemos ver
.
in
∂A
F = q (E + v × B) = q −∇φ −
+ v × (∇ × A)
∂t
ar
8. La fuerza de Lorentz F = q (E + v × B) es la fuerza sobre una partı́cula con carga q que se mueve con una
velocidad v en un campo eléctrico E, y una inducción magnética B. Queremos mostrar que

F = q (E + v × B) 





dA
∂A
+ ∇ (A · v) .
⇒ F = q −∇φ −
E = −∇φ −
dt
∂t 





∇×A=B
Entonces
= jkl v k lmn ∂m An ej = jkl mnl v k ∂m An ej = δjm δkn − δkm δjn v k ∂m An ej
= v k ∂j Ak − v k ∂k Aj ej ,
lim
v × (∇ × A)
con lo cual
∂A
∂A
k j
k
j
j
k
j
j
k
j k
j
+ v ∂ Ak − v ∂k A = q −∂ φ −
− v ∂k A + ∂ v Ak − Ak ∂ v
F = q −∂ φ −
∂t
∂t
∂A
dA
j
j
k
j
j
k
F = q −∂ φ −
− v ∂ k A + ∂ v Ak
+ ∇ (A · v)
= q −∇φ −
∂t
dt
rP
re
j
ya que
dAj
∂Aj dxi
∂Aj
∂Aj
=
+
= v i ∂i Aj +
;
i
dt
∂x dt
∂t
∂t
∂ j vk =
∂v k
=0
∂xj
y
v k = v k (t) .
9. Las fuerzas de mareas corresponden a la atracción de la luna sobre las partı́culas (el agua) en la superficie de
la tierra ¿Cuál es el potencial que corresponde a las fuerzas de marea?
Recordemos que la fuerza gravitacional que produce las mareas es
ad
o
F=G
Mm
r,
3
rM
m
donde rM m es la distancia (fija) entre los centros Luna y Tierra, y r es el radio vector del centro de la Luna
a la partı́cula que se ve afectada.
Si ubicamos la Tierra en el centro de coordenadas y la Luna en el eje z tendremos:
rr
F=G
donde:
Bo
−G
Mm
Mm
r = G 3 (−xi − yj + 2zk) = −∇φ
3
rM
r
m
Mm
Mm
∂φ
x=−
,
3
rM m
∂x
−G
Mm
∂φ
y=−
,
3
rM m
∂y
G
Mm
∂φ
2z = −
3
rM m
∂z
integrando nos queda
φ=G
M m x2
+ G (y, z)
3
rM
m 2
φ=G
M m x2
M m y2
+G 3
+ K (z)
3
rM m 2
rM m 2
⇒−
∂φ
∂G (y, z)
Mm
=−
= −G 3 y
∂y
∂y
rM m
⇒−
Por lo tanto:
φ=G
⇒ G (y, z) = G
∂φ
∂K (z)
Mm
=
= G 3 2z
∂z
∂z
rM m
M m x2
y2
2
+
−
z
.
3
rM
2
2
m
M m y2
+ K (z)
3
rM
m 2
⇒ K (z) = −G
Mm 2
z
3
rM
m
5.3. LA FAUNA DE LOS OPERADORES VECTORIALES
353
10. En coordenadas cilı́ndricas un vector tiene por componentes (0, sen(ϕ), z). Calculemos:
a) La divergencia en coordenadas esféricas.
Una vez más x̃1 , x̃2 , x̃3
(r, θ, ϕ) y x1 , x2 , x3
Ã1 =
∂ x̃1 (xm ) k
A ;
∂xk
Ã2 =
(ρ, ϕ, z)
∂ x̃2 (xm ) k
A ;
∂xk
Ã3 =
∂ x̃3 (xm ) k
A
∂xk
con
p
z 2 + ρ2 ;
θ = arctan
ρ
z
;
ϕ=ϕ
⇐⇒
ρ = rsen(θ) ;
ϕ = ϕ;
z = r cos(θ)
ar
r=
con lo cual
ρ
z
z =:
in
∂ arctan
à =
∂z
2
p
2
z 2 + ρ2
(r cos(θ))
z2
=q
= r cos2 θ
z=p
2
2
∂z
2
2
(z + ρ )
(r cos(θ)) + (rsen(θ))
−r2 sen (θ) cos (θ)
−ρz
=
2
2 = −sen(θ) cos(θ)
z 2 + ρ2
(r cos(θ)) + (rsen(θ))
Ã2 = sen(ϕ)
de modo que el campo vectorial, en esféricas es
lim
∂ x̃1 (xm ) k
∂
à =
A =
∂xk
1
r cos2 θ, −sen(θ) cos(θ), sen(ϕ)
rP
re
(0, sen(ϕ), z)
y la divergencia
"
#
∂ r2 sen(θ) r cos2 (θ)
1
∂ (rsen(θ) (−sen(θ) cos(θ))) ∂ (r (sen(ϕ)))
∇·A= 2
+
+
r sen(θ)
∂r
∂θ
∂ϕ
∇·A=
3rsen(θ) cos2 (θ) − 3sen(θ) cos2 (θ) + sen(θ) + cos(ϕ)
.
rsen(θ)
ad
o
b) El rotor en coordenadas cartesianas.
Ahora x̃1 , x̃2 , x̃3
(x, y, z) y x1 , x2 , x3
x = ρ cos(ϕ) ;
y = ρsen(ϕ) ;
z=z
(ρ, ϕ, z), con
p
⇐⇒ ρ = x2 + y 2 ;
de allı́ se siguen para las componentes cilı́ndricas A
ϕ = arctan
y
x
;
z=z
(0, sen(ϕ), z)
rr
h
y i
p
2x2 + y 2
∂ (ρ cos(ϕ))
sen(ϕ) = −ρ 1 + cos2 (ϕ) = − x2 + y 2 1 + cos2 arctan
= −p
∂ϕ
x
x2 + y 2
p
∂ρsen(ϕ)
y
y
xy
Ãy =
sen(ϕ) = ρ cos(ϕ)sen(ϕ) = x2 + y 2 cos arctan
sen arctan
=p
∂ϕ
x
x
x2 + y 2
Bo
Ãx =
Ãz = z .
Y el rotor
∇×A=i
∂ Ãy
∂ Ãz
−
∂y
∂z
!
+j
∂ Ãx
∂ Ãz
−
∂z
∂x
!
+k
∂ Ãy
∂ Ãx
−
∂x
∂y

 2
2
xy
2x
+y
√ 2 2
∂ −√ 2 2 
3
∂
(x +y )
x +y
 = 2y k .
∇×A=k 
−
3
p


∂x
∂y
x2 + y 2
!
354
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
11. Demostremos la relación
∆A ≡ (∇ · ∇) A = ∇ (∇ · A) − ∇ × (∇ × A)
y a partir de ella encontraremos las componentes del Laplaciano ∆A en coordenadas cilı́ndricas.
ar
Veamos. En coordenadas cartesianas tendremos que
h
i
j
i
(∇ · ∇) A = ∂ i ∂ j Aj ei − εijk ∂j εklm ∂ l Am ei = ∂ i ∂ j Aj − δli δm
− δlj δm
∂j ∂ l Am ei
= ∂ i ∂ j Aj − ∂j ∂ i Aj + ∂j ∂ j Ai ei = ∂j ∂ j Ai ei .
Para encontrar la expresión del Laplaciano de un vector en coordenadas cilı́ndricas tenemos que
∆A = ∆Ax i + ∆Ay j + ∆Az k = ∆Ax (cos(ϕ)ẽr − sen(ϕ)ẽϕ ) + ∆Ay (sen(ϕ)ẽr + cos(ϕ)ẽϕ ) + ∆Az ẽz
in
= (∆Ax cos(ϕ) + ∆Ay sen(ϕ)) ẽr + (∆Ay cos(ϕ) − ∆Ax sen(ϕ)) ẽϕ + ∆Az ẽz ,
ya que
Notemos que
∆Ax = ∂j ∂ j Ax =
∂ 2 Ax
∂ 2 Ax
∂ 2 Ax
+
+
,
2
2
∂x
∂y
∂z 2
y = rsen(ϕ) ,
z = z.
∆Ay = ∂j ∂ j Ay =
∂ 2 Ay
∂ 2 Ay
∂ 2 Ay
+
+
,
2
2
∂x
∂y
∂z 2
∂ 2 Az
∂ 2 Az
∂ 2 Az
+
+
∂x2
∂y 2
∂z 2
rP
re
∆Az = ∂j ∂ j Az =
x = r cos(ϕ) ,
lim
i = cos(ϕ)ẽr − sen(ϕ)ẽϕ , j =sen(ϕ)ẽr + cos(ϕ)ẽϕ , k =ẽz ;
son las componentes cartesianas.
12. Demostremos que
∇ (A · B) = (A · ∇) B + (B · ∇) A + A × (∇ × B) + B × (∇ × A) .
ad
o
El resultado es un gradiente porque (A · B) es una función escalar. El lado izquierdo de la expresión será
i
(∇ (A · B)) = ∂ i (A · B) = ∂ i Aj B j = ∂ i Aj B j + ∂ i Bj Aj ,
mientras que el lado derecho
Bo
rr
i
(∇ (A · B)) = Aj ∂ j B i +
= Aj ∂ j B i +
= Aj ∂ j B i +
= Aj ∂ j B i +
Bj ∂ j Ai + εijk Aj (∇ × B)k + εijk Bj (∇ × A)k
Bj ∂ j Ai + εijk Aj εkmn ∂ m B n + εijk Bj εkmn ∂ m An
Bj ∂ j Ai + εijk εmnk Aj ∂ m B n + εijk εmnk Bj ∂ m An
i j
j i
B j ∂ j Ai + δ m
δn − δm
δ n Aj ∂ m B n +
i j
j i
+ δm
δn − δm
δn Bj ∂ m An
i j
j i
= Aj ∂ j B i + B j ∂ j Ai + δ m
δ n Aj ∂ m B n − δ m
δ n Aj ∂ m B n +
i j
j i
+ δm
δ n B j ∂ m An − δ m
δ n B j ∂ m An
= Aj ∂ j B i + B j ∂ j Ai + An ∂ i B n − Am ∂ m B i + B n ∂ i An − B m ∂ m Ai
= Aj ∂ j B i − Am ∂ m B i + B j ∂ j Ai − B m ∂ m Ai + An ∂ i B n + B n ∂ i An
|
{z
} |
{z
}
=0
=0
= An ∂ i B n + Bn ∂ i An = ∂ i Aj B j = ∂ i (A · B) .
13. El cálculo de los Sı́mbolos de Christoffel puede ser un trabajo tedioso, pero si el tensor métrico únicamente
tiene elementos en la diagonal muchas de las combinaciones que aparecen en la ecuación (5.3.7) se anulan.
Consideremos nuevamente coordenadas cilı́ndricas (q 1 , q 2 , q 3 ) = (ρ, ϕ, z), y donde las únicas componentes del
tensor métrico diferentes de cero son:
g 11 = g11 = 1 ,
g22 = ρ2 ,
g 22 = 1/ρ2 ,
g 33 = g33 = 1 .
5.3. LA FAUNA DE LOS OPERADORES VECTORIALES
355
ar
El cálculo de Γρρρ se hace de la siguiente manera
∂gl1
∂g11
1 1l ∂gl1
+
−
Γ111 =
g
2
∂q 1
∂q 1
∂q l
1
∂g11
∂g11
∂g21
∂g11
∂g31
∂g11
∂g11
12 ∂g21
13 ∂g31
=
+
−
+
g
+
−
+
g
+
−
g 11
2
∂q 1
∂q 1
∂q 1
∂q 1
∂q 1
∂q 2
∂q 1
∂q 1
∂q 3
1 ∂g11
∂g11
∂g11
=
+
−
= 0.
2 ∂ρ
∂ρ
∂ρ
Para Γρϕϕ , resulta
∂gl2
∂g22
1 1l ∂gl2
+
−
g
2
∂q 2
∂q 2
∂q l
1
∂g12
∂g22
∂g22
∂g22
∂g32
∂g22
12 ∂g22
13 ∂g32
11 ∂g12
+
−
+g
+
−
+g
+
−
g
2
∂q 2
∂q 2
∂q 1
∂q 2
∂q 2
∂q 2
∂q 2
∂q 2
∂q 3
2
1
∂ρ
1
−
= [−2ρ] = −ρ .
2
∂ρ
2
in
=
=
=
ϕ
Y los últimos dos diferentes de cero son Γϕ
ρϕ = Γϕρ
∂gl1
∂g12
1 2l ∂gl2
g
+
−
2
∂q 1
∂q 2
∂q l
∂g12
∂g11
∂g12
∂g21
∂g12
∂g31
∂g12
1
22 ∂g22
23 ∂g32
+
−
+
−
+
−
g 21
+
g
+
g
2
∂q 1
∂q 2
∂q 1
∂q 1
∂q 2
∂q 2
∂q 1
∂q 2
∂q 3
2
1 1 ∂ρ
1 1
1
=
[2ρ] = = Γ221 .
2 ρ2 ∂ρ
2 ρ2
ρ
=
=
=
rP
re
Γ212
lim
Γ122
Por lo tanto, si tenemos el siguiente vector A =
=
Aρ;ϕ
=
Aρ;z
=
∂ ρz2
1
1
∂A
2z
∂A
+ Γ11k Ak =
+ Γ111 A1 + Γ112 A2 + Γ113 A3 =
=− 3
A1;1 =
1
1
∂q
∂q
∂ρ
ρ
1
1
∂A
∂A
A1;2 =
+ Γ12k Ak =
+ Γ121 A1 + Γ122 A2 + Γ123 A3 = 0
∂q 2
∂q 2
z
∂
1
1
ρ2
∂A
∂A
1
1
1
k
1
1
1
2
1
3
A;3 =
+ Γ3k A =
+ Γ31 A + Γ32 A + Γ33 A =
= 2.
∂q 3
∂q 3
∂z
ρ
rr
ad
o
Aρ;ρ
z
êρ , entonces, según (5.3.7)
ρ2
Bo
Y las derivadas del vector A, ecuación (5.3.7) son
∂A
∂q 1
∂A
∂q 2
∂A
∂q 3
=
Ai;1 ei = A1;1 e1 + A2;1 e2 + A3;1 e3
=
Ai;2 ei = A1;2 e1 + A2;2 e2 + A3;2 e3
=
Ai;3 ei = A1;3 e1 + A2;3 e2 + A3;3 e3
2z
∂A
= − 3 êρ
∂ρ
ρ
∂A
=0
⇒
∂ϕ
∂A
1
⇒
= 2 êρ .
∂z
ρ
⇒
14. En coordenadas cilı́ndricas, (q 1 , q 2 , q 3 ) = (ρ, ϕ, z), y para el campo vectorial A =
z
êρ , se tiene que según
ρ2
(5.3.7) la divergencia es
div A ≡ Ai ;i
∂i Ai + Γiij Aj = ∂1 A1 + Γ11j Aj + ∂2 A2 + Γ22j Aj + ∂3 A3 + Γ33j Aj
z
1 z
2z
z
z
ρ
+
=− 3 + 3 =− 3.
= ∂1 A1 + Γ221 A1 = ∂ρ Aρ + Γϕ
A
=
∂
ρ
ϕρ
ρ2
ρ ρ2
ρ
ρ
ρ
=
356
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
Y para las componentes del rotor de A, con: G = ρ2 y Ai = gij Aj , tenemos:
1
=
(rot A)
2
=
(rot A)
3
=
1 √ ε123 ∂2 A3 + ε132 ∂3 A2 = 0
G
1
1 213
1
√ ε ∂1 A3 + ε231 ∂3 A1 = [∂z Aρ ] = 3
ρ
ρ
G
1 √ ε312 ∂1 A2 + ε321 ∂2 A1 = 0 .
G
ar
(rot A)
15. En el caso de coordenadas cilı́ndricas, se tiene que los únicos sı́mbolos de Christoffel diferentes de cero son:
Γ212 = Γ221 =
1
,
ρ
En esas coordenadas las ecuaciones (5.3.8) resultan ser
es decir:
d2 ρ
−ρ
ds2
dφ
ds
2
= 0,
Practicando con Maxima
d2 q 3
= 0,
ds2
d2 φ 2 dρ dφ
+
= 0,
ds2
ρ ds ds
d2 z
= 0.
ds2
rP
re
5.3.10.
d2 q 2
dq 1 dq 2
+ 2Γ212
= 0,
2
ds
ds ds
lim
d2 q 1
dq 2 dq 2
+ Γ122
= 0,
2
ds
ds ds
in
Γ122 = −ρ ,
1. Consideremos el siguiente campo escalar en coordenadas cartesianas:
f = 3x2 y + xz 3 − yz ,
para calcular el gradiente primeros cargamos la librerı́a vect y luego hacemos los siguientes pasos.
(%i1) load(vect)$
(%i2) f:3*x^2*y+x*z^3-y*z;
ad
o
( %o2) x z 3 − y z + 3 x2 y
(%i3) grad(f);
( %o3) grad x z 3 − y z + 3 x2 y
(%i4) express(%);
d
d
d
x z 3 − y z + 3 x2 y ,
x z 3 − y z + 3 x2 y ,
x z 3 − y z + 3 x2 y
dx
dy
dz
rr
( %o4)
Bo
(%i5) gf:ev(%, diff);
( %o5)
3
z + 6 x y, 3 x2 − z, 3 x z 2 − y
Podemos ahora calcular el rotor del gradiente:
(%i6) express(curl(gf));
( %o6)
d
d
d
d
d
d
3 x z2 − y −
3 x2 − z ,
z3 + 6 x y −
3 x z2 − y ,
3 x2 − z −
z3 + 6 x y
dy
dz
dz
dx
dx
dy
(%i7) rotgf:ev (%, diff);
5.3. LA FAUNA DE LOS OPERADORES VECTORIALES
357
( %o7) [0, 0, 0]
Esto significa que el gradiente de la función f es un campo irrotacional.
Para el laplaciano de f podemos hacer
(%i8) ev(express(laplacian(f)),diff);
ar
( %o8) 6 x z + 6 y
También podemos hacer cálculos en otros sistemas de coordenadas, por ejemplo, esféricas:
( %o9) [[cos ϕ r sin θ, sin ϕ r sin θ, r cos θ] , r, θ, ϕ]
lim
Si queremos calcular el laplaciano del siguiente campo escalar
in
(%i9) spherical;
f = r cos2 (ϕ) cos(θ)sen2 (θ) ,
primero le decimos al programa que calcule las factores de escala:
(%i10)scalefactors(spherical)$
rP
re
luego procedemos a calcular el laplaciano
(%i11)f:r*cos(phi)^2*cos(theta)*sin(theta)^2;
( %o11) cos2 ϕ r cos θ sin2 θ
(%i12)express(laplacian(f))$
(%i13)trigsimp(ev(%,diff));
10 cos2 ϕ cos θ sin2 θ − 2 cos θ
r
ad
o
( %o13) −
Si queremos demostrar la siguiente identidad:
∇ · [∇f × ∇g] = 0
rr
podemos proceder como se muestra a continuación. Pero primero limpiamos la memoria y cargamos nuevamente la librerı́a
(%i14)kill(all)$ load(vect)$
Bo
(%i2) depends ([f, g], [x,y,z]);
( %o2) [f (x, y, z) , g (x, y, z)]
(%i3) div(grad(f)~grad(g));
( %o3) div(grad(f ) ∼ grad(g))
(%i4) express(%)$
(%i5) ev(%,diff);
( %o5) 0
358
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
2. Es posible manipular expresiones vectoriales. Aquı́ es importante declarar las cantidades que no serán consideradas como escalares. El programa entenderá que las otras cantidades son escalares. Recordemos también
que el sistema de coordenadas cartesiano es el que se asume por omisión. Consideremos la ecuación
2∇2 (f + g) = 3∇ · (f (A × B))
(%i6) declare([A,B],nonscalar)$ assume(r>0)$
ar
(%i8) ecu:laplacian(2*(f+g))=3*div(f*(A~B));
( %o8) 2 laplacian (g + f ) = 3 div (f (A ∼ B))
in
(%i9) ev(vectorsimp(ecu),expandall);
( %o9) 2 laplacian (g) + 2 laplacian (f ) = 3 f div ((A ∼ B)) − 3 A · (grad (f ) ∼ B)
lim
(%i10)polarcylindrical;
( %o10) [[r cos(θ), r sin(θ), z] , r, θ, z]
(%i11)scalefactors(polarcylindrical)$
2
( %o12)
d
dz
d
dz
(g + f ) r +
rP
re
(%i12)express(ecu);
d
dr
d
dr
(g + f ) r +
d
dθ
d
dθ
(g+f )
r
=
r
3
d
dr
(f r (Aθ Bz − Bθ Az )) +
d
dθ
(f (Br Az − Ar Bz )) +
r
d
dz
(f r (Ar Bθ − Br Aθ ))
3. En este ejercicio veremos como calcular los sı́mbolos de Christoffel con ayuda de la librerı́a ctensor
ad
o
(%i1) load(ctensor)$
A partir del sistema de coordenadas, el tensor métrico puede obtenerse especificando el sistema de coordenadas
que queremos utilizar
(%i2) ct_coordsys(spherical)$
rr
El tensor métrico se almacena automáticamente como una matriz denominada lg.
(%i3) lg;
Bo

1
( %o3) 0
0
0
r2
0

0

0
r2 sin2 (θ)
Si queremos ver la matriz inversa, que se almacena como ug, escribimos los siguientes comandos
(%i4) cmetric()$
(%i5) ug;

1
( %o5) 0
0
0
1
r2
0
0
0
1
r 2 sin2 (θ)


5.3. LA FAUNA DE LOS OPERADORES VECTORIALES
359
La función christof ( ) es una función del paquete ctensor que calcula los sı́mbolos de Christoffel de ambos
tipos. Los sı́mbolos de Christoffel de primer y segundo tipo se almacenan en los arreglos lcs[i, j, k] y mcs[i, j, k],
respectivamente, y se definen simétricos en sus dos primeros ı́ndices. Si el argumento de la función es lcs o mcs
entonces se muestran únicamente los valores no nulos. Si el argumento es all entonces se mostrarán los valores
no nulos también. El arreglo mcs[i, j, k] está definido de tal modo que el último ı́ndice es el contravariante:
mcs[i, j, k] = Γkij .
ar
(%i6) christof(mcs);
1
r
1
=
r
= −r
( %t7) mcs1,3,3
( %t8) mcs2,2,1
( %t9) mcs2,3,3 =
in
( %t6) mcs1,2,2 =
cos(θ)
sin(θ)
lim
( %t10) mcs3,3,1 = −r sin2 (θ)
( %t11) mcs3,3,2 = − cos(θ) sin(θ)
5.3.11.
rP
re
Los ı́ndices [1, 2, 3] se corresponden a las coordenadas [r, θ, ϕ], respectivamente.
Ejercicios
1. Dado el campo escalar ϕ = x2 y + yz. Encuentre la taza de cambio con la distancia en la dirección del vector
i + 2j + 3k en el punto (1, −2, 1). ¿En este mismo punto ¿cuál es la dirección de la máxima tasa de cambio?
2. Encuentre el plano tangente y la linea normal a la superficie ϕ = x2 + y 2 + z 2 = a2 en el punto (0, 0, a).
3. Encuentre el laplaciano de la función
ad
o
ϕ=
zx2
,
x2 + y 2 + z 2
en coordenadas cartesianas y en coordenadas esféricas. Luego, a partir de la expresión para el laplaciano
obtenida en coordenadas cartesianas, escriba el laplaciano en esféricas realizando un cambio de coordenadas.
Demuestre que el resultado es el mismo.
4. Demuestre que:
r
,
r
c
c
b) ∇ = − 3 r ,
r
r
rr
a) ∇r =
c) ∇ · r = 3 ,
d) ∇ ·
r
= 0,
r3
d) ∇ × r = 0 .
5. Una partı́cula se mueve siguiendo el radio vector
Bo
r = a cos(ωt) + b sen(ωt) ,
donde a, b
y
ω
son constantes .
Demuestre que la fuerza que actúa sobre la partı́cula es una fuerza central.
6. Encuentre el rotor del campo vectorial
F = (2xz)i + (2yz 2 )j + (x2 + 2y 2 z − 1)k ,
Deducir la forma de φ para que F = ∇φ.
7. Muestre que
a) ∇ [∇ϕ (x, y, z) × ∇φ(x, y, z)] = 0 .
b) ∇ × [ϕ(x, y, z)∇φ(x, y, z)] = 0
360
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
c) Si x = rsen(θ) cos(φ) , y = rsen(θ)sen(φ) , x = r cos(θ). Encuentre, en este nuevo sistema de coordenadas (r, θ, φ), las expresiones para: ∇f ; ∆ = ∇ · ∇f y ∇ × v.
∂(◦)
∂(◦)
Considerando: ∇ =i ∂(◦)
∂x +j ∂y +k ∂z .
8. Muestre que se cumple la siguiente la relación
∆A ≡ (∇ · ∇) A = ∇ (∇ · A) − ∇ × (∇ × A)
ar
y a partir de ella encuentre las componentes del laplaciano ∆A en coordenadas cilı́ndricas y en coordenadas
esféricas.
9. Encuentre el vector normal a la superficie
z=
p
x2 + y 2 +
p
3
x2 + y 2
in
en un punto cualquiera (x, y, z) 6= (0, 0, 0) , luego encuentre la expresión para el ángulo que forma este vector
con el eje. Encuentre el lı́mite al cual tiende este ángulo cuando (x, y, z) → (0, 0, 0).
10. La ecuación de equilibrio hidrostático en simetria esférica es
lim
∇P (r) + ρ(r)∇ϕ(r) = 0
donde P (r) es la presión, ρ(r) la densidad y ϕ(r) el potencial gravitacional. Muestre que las normales a las
superficies isóbaras y las normales a las superficies equipotenciales, son paralelas.
11. Dado r = x i+y j+z k con krk = r = cte, f (r) un campo escalar bien comportado y a y c vectores constantes,
muestre que
rP
re
a) ∇r = ûr ≡ rr ; ∇ (a · rf (r)) = af (r) + (a · r) f 0 (r)ûr
b) ∇ · (rf (r)) = 3f (r) + rf 0 (r); ∇ · ((a · r) r) = 4 (a · r)
∇ · ((a · r) c) = ∇ · ((c · r) a) = (a · c) ; ∇ · ((r × a) × c) = −2 (a · c)
c) Encuentre los enteros n tales que ∇ · (rn r) = 0.
d ) ∇ × r = ∇ × (f (r)r) = 0; ∇ × (c × r) = 2c; ∇ × (c (a · r)) = a × c
∇ × ((c × r) a) = a × c
2
f (r)
e) (r × ∇) · (r × ∇) f (r) = r2 ∆f (r) − r2 ∂ ∂r
− 2r ∂f∂r(r) con ∆f (r) ≡ (∇ · ∇) f (r)
2
ad
o
12. Encuentre la expresión para la divergencia y el rotor de la velocidad v y la aceleración a de un cuerpo rı́gido
alrededor de un punto (x, y, z)
v =ω×r
a = × r + ω × (ω × r)
donde ω es la velocidad angular y es un vector constante.
13. Encuentre el rotor y el flujo para el campo vectorial
a = x2 + y − 4 i + 3xyj+ 2xz + z 2 k
a través del hemisferio x2 + y 2 + z 2 = 16 con z > 0.
rr
14. Muesre que el vector a (r) es solución a la ecuación
⇒ ∇ + k2 a = 0
con la condición solenoidal ∇ · a = 0. La ecuación ∇ + k 2 a = 0 se conoce como la ecuación de Helmholtz.
Bo
∇ × (∇ × a) − k 2 a = 0
15. Pruebe que el campo de velocidades v (r) de un disco que rota alrededor de su centro con una velocidad
angular ω cumple con la relación ∇ × v = 2ω.
16. Demuestre que
17. Demuestre que
0
0
0
Γij 0 k0 = αli αjm0 αkn0 Γlmn + αni αkm0
0
0
Ai ;j 0 = αli αjm0 Al ;m .
18. Demuestre que
Ai0 ;j 0 = αil0 αjm0 Al;m .
∂αjn0
.
∂q m
5.4. INTEGRALES Y CAMPOS VECTORIALES
5.4.
361
Integrales y campos vectoriales
5.4.1.
ar
En la sección 1.5.6 vimos algunas de las integrales de campos escalares y vectoriales, en coordenadas cartesianas, que suelen aparecer en los
problemas de Fı́sica-Matemática. Miremos este
asunto de la integración con más detalle.
Integrales de lı́nea
C
C
in
Dentro del grupo de las integrales de lı́nea encontraremos los siguientes tipos de integrales:
Z
Z
Z
φ dr,
A · dr y
A × dr .
C
lim
Estas integrales requieren que se especifique
explı́citamente la curva C, la trayectoria, a lo
largo de la cual se llevará a cabo la integración.
Figura 5.15: Trayectorias de integración y campos
vectoriales.
Para las integrales del tipo
rP
re
Esas trayectorias serán abiertas o cerradas dependiendo de la curva que se siga en el proceso de integración. La
curva puede también estar representada en forma paramétrica y el valor de la integral puede depender no sólo de
los extremos sino del camino tomado para ir de un extremos al otro.
Z
φ(r)dr
C
vimos que en coordenadas cartesianas, resulta
Z
Z
φ(x, y, z) dr =
φ(x, y, z) (dxi + dyj+dzk)
C
C
Z
Z
Z
=i
φ (x, y (x) , z (x)) dx + j
φ (x (y) , y, z (y)) dy + k
φ (x (z) , y (z) , z) dz
C
ad
o
C
C
Tal y como indicamos anteriormente, las tres integrales se podrán realizar si conocemos, en cada caso, la
expresión del integrando en término de la variable de integración. Esa es la razón por la cual hay que especificar la curva C que define la trayectoria de integración. Es importante señalar también que en coordenadas
cartesianas los vectores base, por ser constantes, pueden salir del argumento de la integral.
rr
La segunda familia de integrales es
Z
A · dr
C
Bo
también se reduce a integrales escalares. Cuando el campo vectorial está en coordenadas cartesianas se tiene
Z
Z
A · dr =
[Ax (x, y, z)i + Ay (x, y, z)j + Az (x, y, z)k] · [dxi + dyj + dzk]
C
ZC
=
Ax (x, y, z)dx + Ay (x, y, z)dy + Az (x, y, z)dz
ZC
Z
Z
=
Ax (x, y, z)dx +
Ax (x, y, z)dy +
Ax (x, y, z)dz .
C
C
C
Un caso de particular interés aparece cuando la integral se hace sobre un contorno cerrado, entonces, a la la
integral
I
A · dr ,
C
se le denomina la circulación del campo vectorial A alrededor del contorno C.
362
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
Algo similar ocurre con las integrales que contienen el producto vectorial.
Z
A × dr ,
C
ar
que en coordenadas cartesianas serı́a
Z
Z
A × dr =
[Ax (x, y, z)i + Ay (x, y, z)j + Az (x, y, z)k] × [dxi + dyj + dzk]
C
ZC
Z
= i
[Ay (x, y, z)dz − Az (x, y, z)dy] + j
[Az (x, y, z)dx − Ax (x, y, z)dz]
C
ZC
+ k
[Ax (x, y, z)dy − Ay (x, y, z)dx] .
C
dιi =
i=1
3
X
hi êi dq i ,
i=1
donde, como ya hemos visto
lim
dr =
3
X
in
En coordenadas generalizadas, el elemento diferencial de lı́nea a lo largo de una curva q i es:
∂r
1 ∂r
,
, hi =
i
hi ∂q
∂q i
recordemos también que aquı́ no hay sumas en el ı́ndice i.
Notemos que al vector: dιi = hi êi dq i es lo que hemos denominado el elemento de lı́nea a lo largo de la curva q i .
Esto significa que el elemento de lı́nea siempre lo podremos descomponer en una suma vectorial. Por ejemplo, en
coordenadas esféricas es:
dιr = êr dr , dιθ = êθ rdθ , dιϕ = êϕ r sen(θ)dϕ ,
rP
re
êi =
y en cilı́ndricas
dιρ = êρ dρ ,
dιϕ = êϕ ρdϕ ,
dιz = êz dz ,
Un método generalizado para calcular integrales de linea consiste en especificar la curva a través de un parámetro,
como vimos en el ejemplo anterior. Si el conjunto de coordenadas es el cartesiano
x = f (λ) ,
y = g(λ) ,
ad
o
entonces, las componentes de un campo vectorial A se
 1
 A (x, y, z) =
A2 (x, y, z) =
A(xi ) ⇒
 3
A (x, y, z) =
z = h(λ) ,
convertirán en funciones de un único parámetro:
Ax (f (λ), g(λ), h(λ)) ≡
Ay (f (λ), g(λ), h(λ)) ≡
Az (f (λ), g(λ), h(λ)) ≡
F (λ)
G(λ)
H(λ)
mientras que para el dr se tiene
dx = f 0 (λ)dλ ,
rr
por lo tanto:
dy = g 0 (λ)dλ ,
Z
Z
A · dr =
λ2
C
[F (λ)f 0 (λ) + G(λ)g 0 (λ) + H(λ)h0 (λ)] dλ .
λ1
Bo
C
Z
Ax dx + Ay dy + Az dz =
dz = h0 (λ)dλ ,
Debe quedar claro que éste método puede aplicarse para otros sistemas de coordenadas.
La aplicación más común para las integrales de lı́nea aparece en la expresión para el trabajo total realizado por
una fuerza cuando mueve una partı́cula a través de un camino. Si una fuerza F mueve una partı́cula una pequeña
distancia dr a lo largo de una curva C, entonces el trabajo infinitesimal realizado por esta fuerza será dW = F · dr.
De manera que el trabajo total realizado al completar la trayectoria es
Z
W =
F · dr .
C
Integrales de camino aparecen también en la ley de Ampere, que asocia el campo magnético B con la corriente
I que circula por una circuito cerrado C:
I
B · dr = µ0 I .
C
5.4. INTEGRALES Y CAMPOS VECTORIALES
5.4.2.
363
Integrales de superficie
Otros objetos que ya nos hemos encontrado con anterioridad son las integrales de superficie, que pueden ser
Z
Z
Z
φ dS,
A · dS y
A × dS .
s
s
s
s
s
ar
Por ejemplo, cuando evaluamos el flujo de un campo vectorial y lo relacionamos con la divergencia interpretamos
ZZ
ZZ
ZZ
A · dS ≡
A · n̂s dS =
An̂ dS ,
s
≡
div A
≡
rot A
≡
1
V →0 V
lı́m
lı́m
1
V
lı́m
1
V
V →0
V →0
ZZ
ZZ
1
φ q i dS = lı́m
φ q i n̂s dS ,
V →0 V
s
s
ZZ
ZZ
ZZ
1
1
A · dS = lı́m
A · n̂s dS = lı́m
An̂ dS ,
V →0 V
V →0 V
s
s
s
ZZ
ZZ
1
dS × A = lı́m
n̂s × A dS .
V →0 V
rP
re
grad φ
lim
in
como el flujo de las lı́neas de campo a través del diferencial de superficie dS. Es costumbre que se separen el
módulo, dS, de la dirección y el sentido, n̂s el cual es el vector normal (sentido positivo) a la superficie. Otra vez,
las superficies podrán ser abiertas (cuando disponen de una curva que limita sus fronteras) y cerradas cuando no.
Un cı́rculo será una superficie abierta y una esfera cerrada. Por convención supondremos que el vector normal a
una superficie cerrada tendrá sentido positivo saliendo.
La utilización de integrales de superficie nos ha permitido definir, de manera invariante (independiente del
sistema de coordenadas) las expresiones para los operadores diferenciales. Ası́ hemos podido definir:
(5.18)
(5.19)
(5.20)
esto es:
ad
o
Para evaluar este tipo de integrales es necesario poder escribir el diferencial de área dS en términos de los
diferentes diferenciales coordenados una vez que hemos seleccionado el sistema de coordenadas, pero esto muchas
veces puede resultar ser un trabajo arduo. En todo caso, en coordenadas generalizadas, los elementos diferenciales
de superficie son vectores perpendiculares al área diferencial y orientadas según la regla de la mano derecha, de
manera que
dS1 = dι2 × dι3 , dS2 = dι3 × dι1 , dS3 = dι1 × dι2 .
dS1
= h2 dq 2 ê2 × h3 dq 3 ê3 = h2 h3 dq 2 dq 3 ê1 = dS1 ê1 ,
dS2
= h3 dq 3 ê3 × h1 dq 1 ê1 = h1 h3 dq 1 dq 3 ê2 = dS2 ê2 ,
dS3
= h1 dq 1 ê1 × h2 dq 2 ê2 = h1 h2 dq 1 dq 2 ê3 = dS3 ê3 .
Bo
rr
Por ejemplo, en coordenadas esféricas serı́a:
dSr
= hθ hϕ dθdϕ êr = r2 sen(θ)dθdϕ êr ,
dSθ
= hr hϕ drdϕ êθ = r sen(θ)drdϕ êθ ,
dSϕ
= hr hθ drdθ êϕ = r drdθ êϕ .
Mientras que en cilı́ndricas:
dSρ
= hϕ hz dϕdz êρ = ρ dϕdz êρ ,
dSϕ
= hρ hz dρdz êϕ = dρ dz êϕ ,
dSz
= hρ hϕ dρdϕ êz = ρ dρ dϕ êz .
Debido a que muchas veces no es posible representar de manera simple las superficies en determinados sistemas
de coordenadas, lo que se hace es trabajar en coordenadas cartesianas y proyectar las superficies en los planos
cartesianos.
364
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
Si la superficie se representa por una ecuación del
tipo f (x, y, z) = 0, entonces un vector unitario
perpendicular, en todo punto, a la superficie es
n̂s =
∇f
|∇f |
|∇f |dA
|∇f |dA
dA
=
=
|n̂s · k|
∇f · k
∂f /∂z
in
dS =
ar
La superficie S puede ser proyectada en una región R del plano xy de manera que un diferencial
de superficie de área dS se proyecta como un diferencial de superficie dA en el plano.
lim
Figura 5.16: La semiesfera x2 + y 2 + z 2 = a2 .
Densidad de flujo
rP
re
Existe una conexión entre el flujo y la intensidad de la fuente de un campo vectorial. La variación en la intensidad
de la fuente de un campo vectorial se mide por la densidad de la fuente, por ejemplo, la variación en la intensidad
(concentración de las lineas de campo) de la fuente de un campo gravitacional es medido como la densidad de masa.
Al ser las densidades cantidades fı́sicas tratadas de manera local, los flujos locales requiere que se introduzca la
noción de densidad de flujo. Podemos hablar entonces de la densidad de flujo, o divergencia, de un campo vectorial en
un punto P cuando tomamos un volumen infinitesimal al rededor de P , evaluamos el flujo total del campo vectorial
a través de las superficies que conforman el volumen y dividimos el resultado por el volumen. Matemáticamente es
ZZ
∆F
1
ρF = div A = lı́m
= lı́m
A · dS .
∆V →0 ∆V
V →0 V
s
Volveremos a este tema más adelante.
5.4.3.
Integrales de volumen
ad
o
Esta familia de integrales
Z
Z
φ(r) dV ,
V
A(r) dV
V
rr
son las más simples de evaluar por el hecho de que el elemento de volumen dV es una cantidad escalar. Hemos
manejado estas integrales en los cursos básicos cuando, por ejemplo, calculamos la masa total de un fluido contenido
en un volumen
Z
M=
ρ(r)dV
V
Bo
Mientras que el segundo tipo de integral es simplemente:
Z
Z
Z
Z
A(xi ) dV = i
Ax (xj ) + j
Ay (xj ) + k
Az (xj ) ,
V
V
V
V
en coordenadas cartesianas.
Para coordenadas generalizadas, el diferencial de volumen de un paralelepı́pedo curvilı́neo es:
dV = dι1 · dι2 × dι3 = h1 h2 h3 ê1 · ê2 × ê3 dq 1 dq 2 dq 3 = h1 h2 h3 dq 1 dq 2 dq 3 .
Por ejemplo, en coordenadas cilı́ndricas y esféricas serı́a:
respectivamente.
dV
= hρ hϕ hz dρdϕdz = ρ dρdϕdz ,
dV
= hr hθ hϕ drdθdϕ = r2 sen(θ)drdθdϕ ,
5.4. INTEGRALES Y CAMPOS VECTORIALES
5.4.4.
365
Ejemplos
1. Un problema que suele aparecer en las integrales sobre curvas es que la función con la que se describe la
curva C no es uni-valuada y por lo tanto es necesario dividir la curva en segmentos más pequeños para que la
función sea uni-valuada.
Si queremos evaluar la integral
I
x dy ,
C
−a
C
a
in
ar
dondepC es el cı́rculo: x2 + y 2 = a2 , z = 0, debemos dividir el camino en dos segmentos yapque la función
F = a2 − y 2 no es uni-valuada. Podemos dividir entonces la curva en dos partes: x = ± a2 − y 2 donde
cada parte es un semi-cı́rculo que permite realizar la integración por separado.
Z −a p
Z ap
I
Z ap
2
2
2
2
a − y dy +
− a −y
dy = 4
a2 − y 2 dy = a2 π .
x dy =
0
C
lim
También pudimos hacer uso de la parametrización: x = a cos(θ) y y = asen(θ), donde el parámetro θ varı́a de
0 a 2π. En este caso la integral se puede evaluar sobre el cı́rculo entero
I
Z 2π
2
x dy = a
cos(θ)2 dθ = a2 π .
0
2. Calculemos
Z
A · dr
rP
re
C
donde A = (2x + y)i + (y − 2x)j y C la parábola y 2 = 2x, desde el punto (0, 0) a (4, 2).
La curva se encuentra en el plano, es decir, dr = dxi + dyj:
Z
Z
Z
A · dr =
[(2x + y)i + (y − 2x)j] · [dxi + dyj] =
(2x + y)dx + (y − 2x)dy
C
C
C
Por otro lado, y 2 = 2x ⇒ ydy = dx y
Z
Z
Z
A · dr =
(2x + y)dx + (y − 2x)dy =
C
2
(y + y)y + (y − y 2 ) dy = 6
0
ad
o
C
2
Notemos que pudimos haber escrito la integral en función de la variable x y el resultado serı́a el mismo.
Si el camino estuviese en términos de un parámetro, digamos x = 2λ2 +2λ, y = λ+1, entonces, dx = (4λ+2)dλ
y dy = dλ. Por lo tanto, tomando los mismos puntos de partida y de llegada se tiene:
Z
Z 1
2
(2x + y)dx + (y − 2x)dy =
(4λ + 5λ + 1)(4λ + 2) + (−4λ2 − 3λ + 1) dλ = 22
−1
rr
C
3. Dado el siguiente campo vectorial en coordenadas cilı́ndricas
Bo
A(r) = (κ1 zϕ) êρ + (κ2 zρ) êϕ + (κ3 ρϕ) êz ,
donde κ1 , κ2 y κ3 son constantes.
Queremos calcular la integral del campo A(r), desde z = 0 hasta dar una vuelta, siguiendo la ruta de una
hélice de radio a y cuyas espiras están separadas por una distancia constante b.
Lo que debemos tener entonces es la ecuación paramétrica de una hélice en coordenadas cilı́ndricas:
ρ = f (λ) = a ,
ϕ = g(λ) = λ ,
z = h(λ) =
b
λ,
2π
Notemos que a medida que ϕ = λ cambia en 2π, la altura cambia en b, es decir, damos una vuelta.
Por lo tanto
A(r) =
κ1
b 2
ab
λ êρ + κ2 λ êϕ + (κ3 aλ) êz ,
2π
2π
366
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
igualmente para dr = dρ êρ + ρ dϕ êϕ + dz êz ,
dr = (f 0 (λ)dλ) êρ + (f (λ)g 0 (λ)dλ) êϕ + (h0 (λ)dλ) êz = (adλ) êϕ +
b
dλ êz ,
2π
Al sustituir resulta
λ2
Z
A · dr
=
C
λ1
Z 2π
=
0
[F (λ)f 0 (λ) + G(λ)f (λ)g 0 (λ) + H(λ)h0 (λ)] dλ
a2 b
ab
κ2
λ + κ3 λ dλ = ab(κ3 + aκ2 )π .
2π
2π
ar
Z
in
4. Dado el campo vectorial A = yj y la semiesfera S : x2 + y 2 + z 2 = a2 , con z ≥ 0, (figura 5.16) y queremos
evaluar la integral, es decir, el flujo de A
Z
A · dS
S
Integrando
Z
A · dS = a3
S
Z
π/2
sen3 (θ) dθ
0
lim
Podemos evaluar esta integral de dos maneras. La primera valiéndonos del hecho de tener simetrı́a esférica, lo
que hace que el elemento escalar de superficie se pueda representar de manera sencilla dS = a2 sen(θ)dθdϕ y
con el vector unitario a la superficie n̂s = êr = sen(θ) cos(ϕ)i + sen(θ)sen(ϕ)j + cos(θ)k. De manera que sobre
la superficie y = a sen(θ)sen(ϕ). Ası́:
A · dS = y [j · êr ] dS = [a sen(θ)sen(ϕ)] [sen(θ)sen(ϕ)] a2 sen(θ)dθdϕ
2π
Z
sen2 (ϕ)dϕ =
rP
re
0
2πa3
.
3
La segunda posibilidad es proyectar la semiesfera sobre el plano xy, esta proyección es simplemente una región
R compuesta de un cı́rculo de radio a centrado en el origen de coordenadas8 . La ecuación de este hemisferio
superior es f (x, y) = x2 + y 2 + z 2 − a2 = 0, por lo tanto
Z
Z
Z
|∇f |dA
A · dS =
y [j · êr ] dS =
y [j · êr ]
.
∂f /∂z
S
S
R
Sobre la superficie se tiene
∇f = 2xi + 2yj + 2zk = 2r
y además
ad
o
p
∂f
= 2z = 2 a2 − x2 − y 2 ,
∂z
⇒ |∇f | = 2|r| = 2a
j · êr =
y
,
a
y
dA = dxdy .
Con estos ingredientes
Z
y [j · êr ]
R
|∇f |dA
=
∂f /∂z
ZZ
R
y2
2πa3
p
dxdy =
.
3
a2 − x2 − y 2
rr
Si lo deseamos, podemos calcular el vector de área S de la superficie, ya que
Z
ZZ
S=
dS =
a2 sen(θ)dθdϕ êr ,
S
S
Bo
por el hecho de que êr no es constante, resulta conveniente ir a las coordenadas cartesianas
ZZ
2
S =
a sen(θ)dθdϕ [sen(θ) cos(ϕ)i + sen(θ)sen(ϕ)j + cos(θ)k]
Z ZS
ZZ
ZZ
= i
a2 sen2 (θ) cos(ϕ)dθdϕ + j
a2 sen2 (θ)sen(ϕ)dθdϕ + k
a2 sen(θ) cos(θ)dθdϕ
S
S
"SZ
#
"Z
#
Z
Z
=
2π
a2
π/2
0
+
2
"Z
a
0
2π
Z
dϕ
0
8 Es
2π
sen2 (θ)dθ i + a2
cos(ϕ)dϕ
π/2
π/2
sen2 (θ)dθ j
sen(ϕ)dϕ
0
0
#
sen(θ) cos(θ)dθ k = a2 πk .
0
importante tener en cuenta que toda linea recta paralela al eje z debe interceptar la superficie S sólo una vez, de no ser ası́ la
superficie debe dividirse en superficies más pequeñas para que cumpla con esta condición.
5.4. INTEGRALES Y CAMPOS VECTORIALES
367
Notemos que la magnitud de S es el valor del área proyectada en el plano xy y no el de la superficie de la
semiesfera.
5.4.5.
Practicando con Maxima
ar
Los métodos de integración con Maxima básicamente consisten en el cálculo de la primitiva: integrate(expr,x)
y el cálculo de integrales definidas: integrate(expr,x,a,b) en el intervalo (a, b).
Por ejemplo
(%i1) f(x):=1/(1+x^2)^3;
( %o1) f (x) := 1/(1 + x2 )3
in
(%i2) integrate(f(x),x);
3 arctan x
3 x3 + 5 x
+
4
8
8 x + 16 x2 + 8
(%i3) integrate(f(x),x,0,1);
( %o3)
3π + 8
32
Es posible realizar cambios de variable
3θ
3 tan3 θ + 5 tan θ
+
4
2
8
8 tan θ + 16 tan θ + 8
Otro ejemplo
ad
o
( %o6)
rP
re
(%i4) ’integrate(f(x),x);
Z
1
( %o4)
3 dx
(x2 + 1)
(%i5) changevar(%,x=tan(theta),theta,x);
Z
sec2 θ
( %o5)
dθ
tan6 θ + 3 tan4 θ + 3 tan2 θ + 1
(%i6) ev(%,integrate);
lim
( %o2)
(%i7) ’integrate(cos(x)^3,x)=integrate(cos(x)^3,x);
sin3 x
3
(%i8) changevar(’integrate(cos(x)^3,x),t=sin(x),t,x);
Z
( %o8)
1 − t2 dt
Z
cos3 x dx = sin x −
rr
( %o7)
Bo
(%i9) ev(%,integrate);
( %o9) t −
t3
3
Puede suceder que al integrar una función, por ejemplo
(%i10)integrate(exp(x^3+2*x), x, 0, 1);
Z
( %o10)
1
ex
3
+2 x
dx
0
El programa nos devuelve la integral sin resolver, en este caso Maxima nos está indicando que fue incapaz
de realizar el cálculo de manera algebraica. Ahora bien, podemos disponer de rutinas numéricas y existen dos
posibilidades: quad qags que nos mostrará una lista con el valor numérico de la integral, el error absoluto estimado
368
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
de la aproximación, el número de evaluaciones del integrando y el código de error (que puede ir desde 0 hasta 6,
ver manual). Y romberg que nos muestra simplemente el resultado numérico.
(%i11)quad_qags(exp(x^3+x), x, 0, 1);
( %o11) 2,505246759202014, 2,781382634433632 × 10−14 , 21, 0
(%i12)romberg(exp(x^3+x), x, 0, 1);
ar
( %o12) 2,505246763921738
C
in
Ahora veamos la manera de calcular integrales del tipo
Z
f (x, y, z)dr ,
pero donde la curva C viene dada por medio de algún parámetro τ , es decir que la integral se puede escribir como
b
f (r(τ ))|r0 (τ )|dτ .
lim
Z
a
Dada la función f = x2 + y 2
(%i13)f(x,y):=x^2 + y^2;
rP
re
( %o13) f (x, y) := x2 + y 2
Vamos a integrar siguiendo el camino dado por la curva parametrizada con: x = cos(τ ), y = sen(2τ )
(%i14)[x,y]:[cos(tau),sin(3*tau)];
( %o14) [cos(τ ), sin (3 τ )]
(%i15)dr: diff([x,y], tau);
( %o15) [− sin(τ ), 3 cos (3 τ )]
Z
( %o16)
0
2
ad
o
(%i16)integrate(f(x,y)*sqrt(dr.dr),tau,0,2);
q
9 cos2 (3 τ ) + sin2 (τ ) sin2 (3 τ ) + cos2 (τ ) dτ
(%i17)romberg(f(x,y)*sqrt(dr.dr),tau,0,2);
( %o17) 3,264369711231565
rr
Queremos ahora evaluar la integral
I
x dy ,
C
Bo
donde C es el cı́rculo: x2 + y 2 = a2 , z = 0. Con: x = a cos(θ), y = asen(θ), y el parámetro θ variando de 0 a 2π.
(%i18)f(x):=x;
( %o18) f (x) := x
(%i19)[x,y]:[a*cos(tau),a*sin(tau)];
( %o19) [a cos(τ ), a sin(τ )]
(%i20)dr: diff([x,y], tau);
( %o20) [−a sin(τ ), a cos(τ )]
(%i21)integrate(f(x)*dr[2],tau,0,2*%pi);
5.4. INTEGRALES Y CAMPOS VECTORIALES
369
( %o21) πa2
Calculemos la integral
Z
A · dr
C
donde A = (2x + y)i + (y − 2x)j y C en términos de un parámetro es x = 2λ2 + 2λ, y = λ + 1.
ar
(%i22)A(x,y):=[2*x+y,y-2*x];
( %o22) A(x, y) := [2x + y, y − 2x]
in
(%i23)[x,y]:[2*lambda^2+2*lambda,lambda+1];
( %o23) 2 λ2 + 2 λ, λ + 1
(%i24)dr: diff([x,y], lambda);
lim
( %o24) [4 λ + 2, 1]
(%i25)integrate(A(x,y).dr,lambda,-1,1);
5.4.6.
Ejercicios
1. Evalúe la integral de lı́nea de
rP
re
( %o25) 22
A = x2 i + y 2 j + z 2 k ,
a lo largo de la curva C: x = aλ2 , y = bλ, z = c sen (πλ/2), desde el origen al punto (a, b, c).
2. Evalúe la integral de lı́nea de
ad
o
A = xi +
y2
z2
j − k,
b
c
a lo largo de la curva C: x = a cos (πλ/2), , y = b sen (πλ/2), z = cλ, desde el punto (a, 0, 0) al punto (0, b, c).
3. Evalúe la siguiente integral
H
C
y 4x2 + y 2 dx + x 2x2 + 3y 2 dy alrededor de la elipse x2 /a2 + y 2 /b2 = 1.
rr
4. Encuentre la circulación alrededor de una circunferencia de radio unidad centrada en el origen para los
siguientes campos.
a) A =
1
2
(−y i + x j).
1 2
2x
+ x + 2 j.
Bo
b) A = (xy + 1) i +
5. Encuentre el flujo del campo A = κx2 k a través de la porción de una esfera de radio a centrada en el origen
y el primer cuadrante del sistema de coordenadas cartesianos.
6. Encuentre el flujo del campo A = yi + 3zj − 2xk a través de la porción del plano x + 2y − 3z = 5 y el primer
cuadrante del sistema de coordenadas cartesianos.
7. Encuentre el vector de área S de la parte de la superficie curva del hiperbolóide de revolución
x2
y2 + z2
−
=1
a2
b2
que pertenece a la región: z ≥ 0 y a ≤ x ≤ λa.
370
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
5.5.
Campos vectoriales y teoremas integrales
5.5.1.
ar
En esta sección presentaremos un conjunto de teoremas que relacionan las variaciones de un campo vectorial con
las fuentes que lo producen. En términos técnicos (matemáticos) resultan fundamentales cuando queremos convertir
un tipo de integral (lı́nea, superficie o volumen) en otra.
El primer teorema, el Teorema de Gauss permite expresar el valor de una integral de volumen V encerrado por
una determinada superficie S (cerrada) en términos de una integral sobre esa misma superficie. El otro teorema
importante es el Teorema de Stokes, el cual permite relacionar el valor de una integral de superficie con la integral
de lı́nea sobre la curva que delimita esa superficie.
Teorema de Gauss
in
Presentación y demostración
s
lim
La primera relación que presentaremos entre una integral de superficie de un campo vectorial, A, y una de
volumen de su derivada es el teorema de Gauss (o de la divergencia) el cual se expresa de forma vectorial como
ZZ
ZZ
Z
A · dS ≡
A · n̂s dS =
∇ · A dV ,
s
V
ad
o
rP
re
donde A = A xi es el campo vectorial, dS ≡ n̂s dS es el diferencial de área y dV el diferencial de volumen. Debe
quedar claro que la superficie cerrada S contiene al volumen V .
Tal y como vimos en su oportunidad el término ∇ · A es interpretado como el flujo del campo A por unidad
de volumen, por lo tanto, el lado derecho de la ecuación es la tasa de flujo neto que sale del volumen sobre el cual
estamos integrando.
La demostración del teorema de Gauss es como sigue. Supongamos un volumen encerrado por una superficie
convexa S, como se muestra en la figura 5.17 en los cuadrantes I, II y III. Supongamos además que orientamos
el sistema de coordenada de tal forma que una lı́nea paralela a uno de los ejes toca la superficie en dos puntos
(figura 5.17, cuadrante I). De este modo podemos trazar una superficie (perpendicular a esa lı́nea) tal que divida la
superficie S en dos superficies S1 y S2 cada una de las cuales está bordeada por la curva C, (figura 5.17, cuadrante
II).
Al evaluar la integral
Z
Z
Z
ZZ
Ax i · dS =
Ax i · dS +
Ax i · dS =
[Ax (x2 , y, z) − Ax (x1 , y, z)] dS 0 ,
S
S1
s0
S2
ya que las componentes x de los vectores normales a las dos superficies que contribuyen (figura 5.17, cuadrante III)
tienen signos opuestos
dS2x = i · dS2 = −i · dS1 = −dS1x = dydz = dS 0 .
rr
Ahora bien, dado que
Ax (x2 , y, z) − Ax (x1 , y, z)
∂Ax
= lı́m
x2 →x1
∂x
x2 − x1
Bo
con lo cual
Z Z Z
Z
x2
Ax i · dS =
S
s0
x1
Z
x2
⇒ Ax (x2 , y, z) − Ax (x1 , y, z) =
x1
∂Ax
dx ,
∂x
Z
∂Ax
∂Ax
dx dydz =
dV .
∂x
V ∂x
Equivalentemente, al hacerlo en las direcciones j y k, obtendremos
Z
Z
Z
Z
∂Ay
∂Az
Ay j · dS =
dV
y
Az k · dS =
dV .
∂y
S
V
S
V ∂z
Finalmente hemos demostrado el teorema de la divergencia o teorema de Gauss
ZZ
ZZ
Z Z
Z
∂Ax
∂Ay
∂Az
+
+
∂i Ai dV =
A · dS ≡
A · n̂s dS =
dV =
(∇ · A) dV .
∂x
∂y
∂z
s
s
V
V
V
371
lim
in
ar
5.5. CAMPOS VECTORIALES Y TEOREMAS INTEGRALES
rP
re
Figura 5.17: Teoremas de Gauss
Expresiones equivalentes para el teorema de Gauss
Si bien la expresión estándar es la que hemos presentado, existen algunas variantes que se derivan de ella. Por
ejemplo si consideramos un campo escalar, φ (x, y, z), el teorema de Gauss nos conduce a
ZZ
ZZZ
ZZ
ZZZ
i
i
i
φ x dS =
∇φ x dV y
dS × B x =
∇ × B xi dV .
s
V
s
V
ad
o
donde B (x, y, z) es un campo vectorial.
Para comprobar la primera de estas dos relaciones consideramos un vector c constante y construyamos un campo
vectorial: A (x, y, z) = c φ (x, y, z), entonces
ZZ
ZZZ
ZZ
ZZZ
A · dS =
∇ · A dV
⇒ c·
φ xi dS = c ·
∇φ xi dV
s
V
s
Z Z
ZZZ V
0
=
c·
φ xi dS −
∇φ xi dV ,
s
V
rr
es decir, para todo vector c siempre se cumple que
ZZ
ZZZ
φ xi dS =
∇φ xi dV .
s
V
Bo
Esa misma metodologı́a se puede aplicar para demostrar la segunda relación si consideramos un campo vectorial
A (x, y, z) = c × B (x, y, z), con c vector constante y se procede de una manera similar.
Version 2D del teorema de Gauss
Si estamos en el plano xy podemos considerar una región R acotada por una curva cerrada C. En cada punto
de la curva el vector dr = dxi + dyj será un vector tangente a la curva y el vector n̂ds = dyi − dxj un vector normal
a C e indicando hacia el exterior de R. Si existe un campo vectorial A(x, y), continuo y diferenciable en todo R,
entonces el teorema de la divergencia en coordenadas cartesianas es:
I
ZZ I
∂Ay
∂Ax
+
dxdy =
[Ax dy − Ay dx] .
A · n̂ds =
∂x
∂y
C
R
Podemos generalizar esta idea si suponemos dos funciones P (x, y) y Q(x, y) con sus derivadas finitas y continuas
dentro y sobre el contorno cerrado C que contiene una región simplemente conectada R. Entonces, existe una
372
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
relación entre la integral de lı́nea alrededor de C y una doble integral sobre la región encerrada R, esta relación se
conoce como el teorema de Green en el plano, o teorema de la divergencia en dos dimensiones:
I
ZZ ∂Q ∂P
−
dxdy .
[P dx + Qdy] =
∂y
C
R ∂x
Ley de Gauss y campo eléctrico
in
ar
La aplicación más emblemática del teorema de Gauss lo constituyen el cálculo de la divergencia del campo
eléctrico E y su relación con las distribuciones de cargas existentes. Desde siempre sabemos que el campo eléctrico
producido por una carga Qi viene dado por
ZZ
Qi
1 Qi
ρ (r)
u
⇒
Ei · dSi =
Ei (r) =
⇔ ∇·E=
.
r
i
2
4π0 ri
0
0
Si
S
i
lim
En definitiva la “deducción” de una de las ecuaciones de Maxwell.
Si calculamos el flujo del campo eléctrico en una región sin cargas todas las lı́neas del campo E (r) atraviesan el
volumen: todas entran y todas salen. Sin embargo si tenemos un conjunto de cargas discretas distribuidas dentro
de la región encerrada por la superficie S, (ver figura 5.17, cuadrante IVa) podemos encerrar cada una de las cargas
con superficies esféricas Si . Por lo tanto
Z
ZZ
ZZ
X ZZ
X ZZ
E · dSi .
E · dSi =
∇ · EdV = 0 ⇒
E · dS = −
E·d S+
V
Si
S
i
Si
rP
re
Con lo cual hemos definido una superficie con “huecos” alrededor de cada una de las cargas y llegamos a la
conclusión que lo que entra sale. Por su parte, el campo eléctrico medido para cada superficie esférica interior Si
será
1 Qi
ur + E0 ,
E|Si =
4π0 ri2 i
ad
o
donde E0 es el campo de todas las otras cargas presentes en el volumen encerrado por S. Es claro que este campo
E0 tiene flujo cero neto sobre cada esfera de superficie Si . Por lo tanto
P
ZZ
X Z Z 1 Qi
X 1 Qi Z Z
Qi
Q
0
E · dS = −
· nSi dSi =
dSi = i
=
,
2 uri + E
2
4π
r
4π
r
0 i
0 i
0
0
S
Si
Si
i
i
donde hemos utilizado:
Z
X ZZ
(∇ · E0 ) dVi = 0 =
Vi
i
E0 · n̂si dSi ,
ZZ
uri · n̂si = −1
dSi = Si = 4πri2 .
y
Si
Si
rr
Finalmente encontramos una de las leyes de Maxwell si reescribimos la integral de superficie utilizando la ley de
Gauss
ZZ
Z
ZZ
Z
Z
Q
1
1
E · dS =
=
ρ (r) dV
⇒
E · dS =
(∇ · E) dV =
ρ (r) dV ,
0
0 V
0 V
S
S
V
Bo
con lo cual
Z ρ (r)
∇·E−
dV
0
V
⇒∇·E=
ρ (r)
.
0
Discontinuidades y densidades superficiales de carga
Normalmente, siempre consideramos que los campos vectoriales A = A (x, y, z) son campos continuos (y, más
aún, con todas sus derivadas continuas). Sin embargo, encontramos en la naturaleza situaciones en la cuales el campo
varı́a mucho en una distancia muy corta (infinitesimal). En estas situaciones podemos simular esta rápida variación
como una discontinuidad en el campo. Existe formas de aplicar el teorema de Gauss para algunas situaciones en
las cuales tratamos con campos discontinuos. La manera apropiada de tratar (derivadas e integrales de) funciones
discontinuas es considerándolas no funciones sino distribuciones. Este tipo de tratamiento está fuera del alcance de
este formulario y será considerado en otros cursos.
Supongamos el caso que ilustra la figura 5.17, cuadrante IVb. Una región R delimitada por una superficie S,
dentro de la cual, una superficie de discontinuidad, S̄, separa dos subregiones R1 y R2 a través de la cual un campo
373
in
ar
5.5. CAMPOS VECTORIALES Y TEOREMAS INTEGRALES
lim
Figura 5.18: Discontinuidad del Vector Desplazamiento
vectorial, A = A (x, y, z), es discontinuo. Ahora bien, el campo vectorial es continuo en las subregiones, por lo cual
el flujo del campo atraviesa las superficies S1 y S̄ que delimitan el volumen V1 de la región R1 . Entonces el teorema
de Gauss para cada región queda expresado como
ZZ
ZZ
ZZ
Z
ZZ
Z
A · dS −
A− · n̂s̄ dS̄ ,
(∇ · A) dV =
A · dS +
A+ · n̂s̄ dS̄ y
(∇ · A) dV =
V2
rP
re
S̄
S1
V1
S2
S̄
donde n̂s̄ es el vector normal a la superficie S̄, de separación de las dos regiones. Adicionalmente hemos denotado,
A+ y A− el campo A evaluado del lado de R1 y R2 , respectivamente.
Si ahora consideramos el teorema de Gauss en toda la región
Z
Z
Z
(∇ · A) dV .
(∇ · A) dV +
(∇ · A) dV ≡
V1 +V2
V2
V1
ad
o
Claramente si el campo es continuo dentro de la región R entonces nos queda la formulación estándar del teorema
de Gauss
Z
ZZ
(∇ · A) dV =
A · dS .
V1 +V2
S
Por el contrario si el campo es discontinuo, entonces debe tomarse en cuenta la discontinuidad del campo y la
relación que surge de sumar el flujo a través de las dos regiones es
Z
ZZ
ZZ
(∇ · A) dV =
A · dS −
(A2 − A1 ) · n̂s̄ dS̄
V1 +V2
S
S̄
Bo
rr
con n̂s̄ el vector unitario, normal a la superficie S̄ y que apunta de R1 → R2 . Es claro que la discontinuidad que
cuenta es la de la componente del campo perpendicular a la superficie (ver figura 5.18).
Este tipo de discontinuidad en campos irrotacionales es generado por la presencia de fuentes, las cuales, en este
caso son densidades superficiales de carga.
Quizá el ejemplo tı́pico para la aplicación de las anteriores consideraciones es la aplicación de las ecuaciones de
Maxwell en el caso del vector desplazamiento eléctrico D, a través de una superficie S̄, que separa dos medios. Este
caso se ilustra en la figura 5.17, cuadrante IVc y en la figura 5.18, sólo que en este último caso el vector normal está
definido a la inversa: la región 2 corresponde a la región 1 de la figura 5.17, cuadrante IVc. La ecuación de Maxwell
correspondiente será
∇·E=
ρ (r)
0
⇒ ∇ · D = ρ (r)
⇒ (D2 − D1 ) · n̂s̄ = σ ,
con D = 0 E ,
donde n̂s̄ es el vector normal a la superficie (ver figura 5.17, cuadrante IVc) y σ es la densidad superficial de carga
en la superficie S. Para comprobar esta relación construimos un volumen cilı́ndrico infinitesimal que encierra la
superficie de discontinuidad, de tal forma que ∆S2 corresponde con la “tapa” del cilindro y ∆S1 con su “base”
(figura 5.17 cuadrante IVc).
374
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
Adicionalmente, como ∆l ∼ 0, no sólo podremos trabajar sin las integrales, el flujo a través de las “paredes”
del cilindro será despreciable y ∆S2 ≈ ∆S1 , sino que además, al encerrar la discontinuidad no tomamos en cuenta
la contribución de la superficie ∆S3 (o S̄, en el cuadrante IVb de la figura 5.17). Ası́
(∇ · D) dV = D2 · ∆S2 − D1 · ∆S1
⇒ ρ (r) (∆S2 ∆l) = (D2 − D1 ) · n̂s2 ∆S2 ,
con lo cual
ρ (r) ∆l ≡ σ = (D2 − D1 ) · n̂s2 .
ar
Teoremas de Green
s
ZZ
ζ xi ∇ξ xi · dS =
ZZZ
s
lim
es decir
V
in
Cuando consideramos campos vectoriales muy particulares el teorema de Gauss nos lleva a un par de identidades
vectoriales conocidas como las identidades o teoremas de Green
Supongamos que tenemos dos campos escalares: ζ (x, y, z) y ξ (x, y, z) entonces y con ellos construimos un campo
vectorial
ZZ
ZZZ
A xi = ζ xi ∇ξ xi
⇒
A · dS =
(∇ · A) dV ,
∇ · ζ xi ∇ξ xi dV ,
V
con lo cual arribamos a la primera identidad de Green, primer teorema de Green o teorema escalar de Green:
ZZ
ZZZ
ζ xi ∇ξ xi · dS =
ζ xi ∇ · ∇ξ xi + ∇ζ xi · ∇ξ xi dV .
s
V
rP
re
Si ahora, consideramos los siguientes campos vectoriales
∇ · ζ xi ∇ξ xi
= ∇ζ xi · ∇ξ xi + ζ xi ∇ · ∇ξ xi
∇ · ξ xi ∇ζ xi
= ∇ξ xi · ∇ζ xi + ξ xi ∇ · ∇ζ xi
Restando ambas expresiones tendremos que
∇ · ζ xi ∇ξ xi − ξ xi ∇ζ xi = ζ xi ∇ · ∇ξ xi − ξ xi ∇ · ∇ζ xi ,
y al integrar sobre un volumen V obtendremos la formulación del teorema simétrico de Green, la segunda identidad
ZZZ
ZZ
ζ xi ∇ · ∇ξ xi − ξ xi ∇ · ∇ζ xi dV =
ζ xi ∇ξ xi − ξ xi ∇ζ xi · dS .
s
ad
o
V
La utilidad de estas relaciones las veremos en el desarrollo de la teorı́a del Potencial en la sección 5.6 en la
página 385.
5.5.2.
Teorema de Stokes
Presentación y demostración
Bo
rr
El teorema de Stokes relaciona una integral de lı́nea escalar de un campo vectorial, A = A (x, y, z), a lo largo
de una curva cerrada C, con una integral del rotor del campo sobre la superficie encerrada por la misma curva C.
Es decir
I
ZZ
ZZ
A · dr =
(∇ × A) · dS ≡
(∇ × A) · n̂s dS .
S
S
Tal y como hemos mencionado antes la superficie la define su vector normal, y éste lo define el “sentido” de
circulación de la curva que bordea la superficie (ver figura 5.19 cuadrantes I y III). No haremos una demostración
formal del teorema de Stokes como lo hicimos para el Gauss. Nos convenceremos de que es correcta la relación a
partir de algunas situaciones sencillas.
Cualquier superficie la podremos dividir en pequeñas cuadrı́culas diferenciales, las cuales sumadas constituyen
la superficie (ver figura 5.19 cuadrante II). Es fácil convencerse que la circulación9 por el borde de una cuadrı́cula
diferencial (por ejemplo en el plano xy) nos lleva a
I
Z
Z
Z
Z
Γ1234 =
A · dr = Ax (x, y) dx + Ay (x, y) dy + Ax (x, y) (−dx) + Ay (x, y) (−dy) ,
1234
9 Pueden
1
2
consultar otro ejemplo de circulación en la sección 5.3.3.
3
4
375
lim
in
ar
5.5. CAMPOS VECTORIALES Y TEOREMAS INTEGRALES
rP
re
Figura 5.19: Teorema de Stokes
donde hemos denotado la trayectoria a lo largo del perı́metro de la cuadrı́cula por 1234. De la figura 5.20 podemos
intuir
Z
Z
Z
Z
Γ1234 = Ax (x0 , y0 ) dx + Ay (x0 + dx, y0 ) dy + Ax (x0 , y0 + dy) (−dx) + Ay (x0 , y0 ) (−dy) ,
y de allı́ el desarrollo por Taylor que nos conduce a
Z
Z "
ad
o
Γ1234
#
#
Z "
∂Ay
∂Ax
dx dy −
Ax (x0 , y0 ) +
dy dx
=
Ax (x0 , y0 ) dx +
Ay (x0 , y0 ) +
∂x x0
∂y y0
#
Z
Z "
ZZ
ZZ
∂Ax
∂Ay
+
Ay (x0 , y0 ) dy =
−
dxdy =
∇ × A|z dSz ≡
(∇ × A) · dS .
∂x x0
∂y y0
S
S
rr
Esto vale para todos los puntos (x0 , y0 ) y se puede aplicar para las otras superficies, con lo cual es fácil convencerse
que esta técnica se puede utilizar para cada cuadrı́cula en las que hemos dividido la superficie (ver figura 5.19
cuadrante II). Más aún, las circulaciones a lo largo de los perı́metros de las cuadrı́culas interiores se anulan (ver
figura 5.19 cuadrante III) y sólo sobrevive la circulación a lo largo del perı́metro exterior de la superficie. Con ello
I
ZZ
X
X
A · dr ≡
(∇ × A) · dS ⇒ A · dr =
(∇ × A) · dS .
S
Bo
cuadricula
Version 2D del teorema de Stokes
En el plano xy, si consideramos una región R en el que está definido un campo vectorial A = Ax i+Ay j, entonces
∂Ax
∂Ay
−
k.
∇×A=
∂x
∂y
Por el teorema de Stokes
Z R
I
∂Ax
∂Ay
−
dxdy =
[Ax dx + Ay dy] .
∂x
∂y
C
Si ponemos Ax = P y Ay = Q recobramos el teorema de Green en plano, ecuación (5.5.1).
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
in
ar
376
lim
Figura 5.20: Circulación en una cuadrı́cula del plano x, y
Teorema de Stokes y Campo Magnetico
rP
re
De la ley de Ampere para una densidad de corriente J
I
Z
B · dr = µ0
J · dS ,
C
S
donde el circuito C es el borde de la superficie S, resulta que al aplicar el teorema de Stokes a la integral de superficie
I
Z
Z
Z
B · dr =
∇ × B · dS = µ0
J · dS ⇒
[∇ × B − µ0 J] · dS = 0 ,
C
S
S
S
para cualquier superficie S. La ecuación anterior no es más que una de las ecuaciones de Maxwell
ad
o
∇ × B − µ0 J = 0
⇒ ∇ × B = µ0 J ,
De manera similar, de la ley de inducción electromagnética de Faraday se puede obtener
∇×E=−
∂B
.
∂t
Expresiones equivalentes para el teorema de Stokes
rr
Del mismo modo que hicimos en la sección 5.5.1 con el teorema de Gauss, podemos hacerlo para el teorema de
Stokes y tendremos
I
ZZ
I
ZZ
φ (x, y, z) dr =
dS × ∇φ (x, y, z) y
dr × B (x, y, z) =
(dS × ∇) × B (x, y, z) ,
S
Bo
S
donde φ (x, y, z) es un campo escalar y B (x, y, z) un campo vectorial.
Otra vez, la metodologı́a para proceder a la demostración se fundamenta en considerar un par de campos
vectoriales, uno de la forma A (x, y, z) = φ (x, y, z) c y el otro de la forma b (x, y, z) = c × B (x, y, z), luego
desarrollar un álgebra vectorial mı́nima.
Teorema de Stokes y fuerzas conservativas
El teorema de Stokes nos permite identificar que campos vectoriales irrotacionales generan integrales de lı́nea
las cuales son independientes de la trayectoria. Esto es
ZZ
I
∇ × F (x, y, z) = 0 ⇒
(∇ × A) · dS = A · dr = 0 ,
S
5.5. CAMPOS VECTORIALES Y TEOREMAS INTEGRALES
377
con lo cual, lo que se está señalando es que toda trayectoria cerrada se puede fraccionar en dos trayectorias abiertas
que se unen en los extremos, entonces
I
Z
Z
Z P2
Z P2
A · dr = 0 =
A · dr +
A · dr ⇒
A · dr ≡
A · dr ,
C1
C2
P1
curva C1
P1
curva C2
∇ × F (x, y, z) = 0
ar
y lo que nos dice es que vamos de un punto (de corte de la curva cerrada) P1 a otro punto P2 por dos trayectorias
distintas y la integral de lı́nea es la misma. Más adelante veremos que a los campos vectoriales irrotacionales les
está asociado un potencial tal que
⇒ F (x, y, z) ∝ ∇φ (x, y, z) .
in
Teorema de Stokes y discontinuidades del campo vectorial
I
Z
P1
A · dr =
A · dr +
P2
curva C2
C2 +C̄
S1
P2
curva C̄
Z P2
rP
re
P1
curva C1
C1 +C̄
lim
Al igual que el teorema de Gauss puede ser considerado para manejar funciones discontinuas, el teorema de
Stokes también tiene una expresión cuando se consideran campos discontinuos (continuo a trozos o continuos por
segmentos)
Consideremos el caso más simple, el de un campo vectorial A (x, y, z) que es discontinuo sobre una superficie
S̄, que divide R en dos subregiones R1 y R2 (ver otra vez 5.17, cuadrante IVb). En este caso la superficie S, será
abierta y estará delimitada por una curva C2 . La intersección de las superficies S y S̄ será una curva C̄, la cual
dividirá a S en dos superficies S1 y S2 (ver figura 5.19 cuadrante IV). Entonces, aplicando el teorema de Stokes se
obtiene:
Z P1
ZZ
I
Z P2
(∇ × A) · dS ,
A · dr +
A · dr =
A · dr =
ZZ
A · dr =
P1
curva C̄
Ahora bien, si las sumamos obtendremos
ZZ
ZZ
I
(∇ × A) · dS +
(∇ × A) · dS =
A · dr +
S1
S2
C
ad
o
S
Z
P1
Z
P2
A · dr ,
A · dr +
P2
curva C̄ en S1
la cual puede ser reescrito como
I
ZZ
Z
A · dr =
(∇ × A) · dS −
C
(∇ × A) · dS .
S2
P1
curvaC̄ en S2
P2
P1
curva C̄
A|S2 − A|S1 · dr ,
Ejemplos
Bo
5.5.3.
rr
donde hemos denotado A|S2 como el campo vectorial evaluado sobre la curva C̄ “del lado” de las superficie S2 .
Es importante señalar que el término que incorpora la contribución de la discontinuidad del campo sólo encierra
componentes tangenciales a la superficie. Esto es claro del producto escalar con el vector dr tangente a la curva C̄
(y también a la superficie S).
1. Queremos evaluar la integral
Z
Z
A · dS =
S
(y + 2x)i + x2 zj + (z + x2 )k · dS ,
S
donde S es la superficie abierta del hemisferio x2 + y 2 + z 2 = a2 , z ≥ 0, pero sin resolver la integral de
superficie directamente, sino utilizando el teorema de Gauss.
Consideremos la superficie cerrada S̄ = S + Sc , donde Sc es el área cuando z = 0, es decir, el área del cı́rculo
x2 + y 2 ≤ a2 . Por lo tanto S̄ encierra el volumen V del hemisferio superior de la esfera centrada en el origen
de coordenadas. Tenemos entonces que
Z
I
Z
Z
∇ · AdV =
A · dS =
A · dS +
A · dS .
V
S̄
S
Sc
378
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
Esto es:
Z
Z
Z
A · dS =
∇ · AdV −
S
V
A · dS .
Sc
Ahora bien, ∇ · A = 2 + 0 + 1 = 3, y para la superficie Sc es bueno recordar que el vector normal es un vector
que apunta hacia el exterior, por lo tanto dS = −k dxdy, además, sobre esa superfie el campo toma la forma
A|Sc = (y + 2x)i + x2 k.
Entonces
Z
A · dS = 3
Z
2π
+
(y + 2x)i + x2 k · [−k dxdy] = 3
3
Sc
dV −
S
V
ZZ
x2 dxdy .
ar
Z
R
Utilizando coordenadas polares
ZZ
ρ2 cos2 (ϕ)ρ dρdϕ = 2π +
A · dS = 2π +
S
Z
2π
cos2 (ϕ)dϕ
ρ3 dρ = 2π +
0
0
R
a
Z
πa4
.
4
in
Z
es decir
I
1
2
[xdy − ydx] .
rP
re
A=
lim
2. Cuando tenemos un área encerrada por una curva cerrada C, podemos ver que si hacemos P = −y y Q = x,
entonces por el teorema anterior resulta que para el área A de la región R
ZZ
ZZ
I
ZZ ∂Q ∂P
−
dxdy =
[1 + 1] dxdy = 2
dxdy = 2A
[−ydx + xdy] =
∂y
R
R
C
R ∂x
C
Por ejemplo, si consideramos la elipse: x = a cos(α), y = b sen(α), el area de la elipse será:
A=
1
2
I
C
2π
Z
1
2
[xdy − ydx] = A =
0
ab
ab cos2 (α) + sen2 (α) dα =
2
2π
Z
dα = abπ .
0
3. Dado el siguiente campo vectorial A = −yi + xj + 3zk y la superficie S : x2 + y 2 + z 2 = a2 , z ≥ 0.
Z
ad
o
Entonces, para evaluar
∇ × A · dS ,
S
sobre ese hemisferio, vemos que ∇ × A = 2k. Mientras que el elemento de superficie en coordenadas esféricas
es dS = a2 sen(θ)dθdϕ êr . Por lo tanto:
Z
Z
∇ × A · dS
=
rr
S
Bo
2π
Z
2
2a sen(θ) êr · k dθ = 2a2
dϕ
0
=
π/2
0
2a2
Z
Z
dϕ
0
2π
0
π/2
z
sen(θ)dθ
a
π/2
Z
sen(θ) cos(θ)dθ = 2a2 π .
dϕ
0
2π
Z
0
Para comprobar la igualdad del teorema de Stokes, vamos a evaluar la integral sobre el cı́rculo x2 + y 2 = a2 ,
que se encuentra en el plano z = 0.
I
I
A · dr = [−yi + xj + 3zk] · [dxi + dyj + dzk] =
[−ydx + xdy] ,
C
C
en coordenadas polares: x = a cos(ϕ), y = a sen(ϕ)
I
I
[−ydx + xdy] =
(−a sen(ϕ))(−a sen(ϕ)dϕ) + (a cos(ϕ))(a cos(ϕ)dϕ)
C
C
= a2
Z
0
2π
2
sen (ϕ) + cos(ϕ)2 dϕ = a2
Z
0
2π
dϕ) = 2a2 π .
5.5. CAMPOS VECTORIALES Y TEOREMAS INTEGRALES
379
4. La Ley de Ampere se puede derivar de la ecuación de Maxwell ∇ × H = J donde H es el campo magnético y
J la densidad de corriente. Si el campo eléctrico es nulo (E = 0), mostremos que
I
H · dr = I
con I la corriente neta que atraviesa la circulación del campo magnético.
Podemos ver que
ZZ
ZZ
H · dr =
(∇ × H) · dS =
J · dS = I
S
ar
I
S
5. Consideremos el siguiente campo de fuerza:
n
(xi + yj + zk) .
in
F = x2 + y 2 + z 2
lim
R
a) Calculemos en trabajo F · dr a lo largo de un arco de circunferencia unitaria, colocado en el plano xy:
primero girando en sentido antihorario de 0 → π y luego en sentido horario 0 → −π ¿Qué puede concluir
del campo de fuerzas?
Lo podemos resolver de varias maneras.
La forma elegante es expresando el campo de fuerza F en coordenadas esféricas. Esto es
n
F = x2 + y 2 + z 2 (xi + yj + zk) ≡ r2n r ≡ r2n+1 ûr
rP
re
luego recordamos que dr es siempre tangente a la trayectoria, y en este caso la trayectoria es una
circunferencia unitaria ubicada en el plano xy, entonces
dr ∝ ûφ
⇒ F · dr = 0
en todo punto
con lo cual esta fuerza es conservativa porque
I
F · dr = 0 ∀
(x, y)
⇒
F · dr = 0 .
ad
o
La otra forma es con el empleo de la fuerza bruta, cartesiana
Z
Z
n
F · dr =
x2 + y 2 + z 2 (xi + yj + zk) · (dxi + dyj + dzk) ,
rr
√
como la trayectoria es una circunferencia unitaria ubicada en el plano xy, entonces y = 1 − x2 ,
z = 0, con x variando entre 1 y −1, tanto en el caso de circular en sentido antihorario de 0 → π o
en sentido horario 0 → −π.
Z
Z −1
Z 0
n
n
F · dr =
x2 + y 2 x dx +
x2 + y 2 y dy
1
Z
0
−1
=
x2 + 1 − x
2 n
−1
Z
x dx =
1
x dx = 0 .
Bo
1
No es suficiente, pero podemos sospechar que la fuerza es conservativa, por cuanto dos circulaciones
distintas nos dieron el mismo valor de la integral.
b) ¿Ese campo vectorial tendrá un potencial ϕ (x, y, z) asociado, tal que F = −∇ϕ (x, y, z)?
Otra vez, planteamos la ecuación F = −∇ϕ (x, y, z) en esféricas. Esto es
∂ϕ (r, θ, φ)
1 ∂ϕ (r, θ, φ)
1
∂ϕ (r, θ, φ)
2n+1
F=r
ûr = −
ûr +
ûθ +
ûφ ,
∂r
r
∂θ
rsen(θ)
∂φ
con lo cual tienen que cumplirse las siguientes ecuaciones
r2n+1 =
∂ϕ (r, θ, φ)
;
∂r
0=
∂ϕ (r, θ, φ)
;
∂θ
0=
∂ϕ (r, θ, φ)
.
∂φ
380
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
Las dos últimas ecuaciones, válidas para r 6= 0, implican que ϕ no depende ni de θ, ni de φ. La primera
puede ser integrada y nos queda como
Z
dϕ(r)
−r2n+2
2n+1
r
=
⇒ r2n+1 d r = ϕ(r) ⇒ ϕ(r) =
+C
dr
2n + 2
ar
resultado que claramente diverge para n = −1, tanto cuando r → 0 como cuando r → ∞.
Obviamente, valı́da también al hacerlo en cartesianas
∂ϕ (x, y, z)
∂ϕ (x, y, z)
∂ϕ (x, y, z)
2
2
2 n
(xi + yj + zk) = −
i+
j+
k ,
F= x +y +z
∂x
∂y
∂z
con lo cual
x =
n
z
x2 + y 2 + z 2
−
Integrando la primera de esas ecuaciones
Z
2
ϕ(x, y, z) = −
2
x +y +z
2 n
x2 + y 2 + z 2
n
y=−
∂ϕ (x, y, z)
∂y
in
∂ϕ (x, y, z)
,
∂x
∂ϕ (x, y, z)
= −
.
∂z
n
lim
x2 + y 2 + z 2
1 x2 + y 2 + z 2
x dx = −
2
n+1
n+1
+ C (y, z) .
rP
re
Donde C (y, z) es una función que tendremos que ir descubriendo poco a poco.
Ahora bien, sustituyendo esa forma de ϕ (x, y, z) en la segunda ecuación, tendremos que
!
n+1
n
∂
1 x2 + y 2 + z 2
∂C (y, z)
2
2
2 n
x +y +z
y=−
−
+ C (y, z) = x2 + y 2 + z 2 y −
,
∂y
2
n+1
∂y
con lo cual concluimos que C es independiente de y.
∂ (C (y, z))
0=
∂y
⇒ C = C (z)
1 x2 + y 2 + z 2
⇒ ϕ(x, y, z) = −
2
n+1
n+1
+ C (z) ,
ad
o
y ahora se sustituye esta nueva forma de la función ϕ (x, y, z) en la tercera ecuación
!
n+1
n
∂
1 x2 + y 2 + z 2
∂C (z)
2
2
2 n
x +y +z
z=−
−
+ C (z) = x2 + y 2 + z 2 z −
,
∂z
2
n+1
∂z
rr
entonces C también es independiente de z. Finalmente se determina que
n+1
1 x2 + y 2 + z 2
ϕ(x, y, z) = −
.
2
n+1
Obviamente es el mismo resultado cuando recordamos que: r2 = x2 + y 2 + z 2 y tiene el mismo comportamiento para n = −1.
Bo
6. Dado el siguiente campo vectorial
2A cos(θ)
Asen(θ)
ûr +
ûθ
3
r
r3
con A = constante y {ûr , ûθ } vectores unitarios base en coordenadas esféricas.
F=
a) Calculemos ∇ × F.
El rotor en coordenadas esféricas viene dado por

ûr
r ûθ
rsen(θ) ûφ


1
∂
∂
∂

∇×F= 2
∂r
∂θ
∂φ
r sen(θ) 

2A cos(θ)
r3
r
Asen(θ)
r3
0

h
i
 h Asen(θ) i
2A cos(θ)

∂
2
3
 ûφ ∂
r
r
=

=0
−

r
∂r
∂θ

5.5. CAMPOS VECTORIALES Y TEOREMAS INTEGRALES
381
H
b) Calculemos en trabajo F · dr a lo largo de una circunferencia unitaria en el plano θ =
Por el teorema de Stokes el trabajo en un circuito cerrado se anula
I
ZZ
F · dr =
∇ × F · dS = 0 .
π
2
Se puede entonces concluir que la fuerza es conservativa.
con lo cual, también una vez más
1 ∂ϕ (r, θ, φ)
Asen(θ)
=−
,
r3
r
∂θ
0=
∂ϕ (r, θ, φ)
.
∂φ
lim
2A cos(θ)
∂ϕ (r, θ, φ)
=−
,
r3
∂r
in
ar
c) ¿Ese campo vectorial tendrá un potencial asociado tal que F = −∇ϕ?
Una vez más
2A cos(θ)
Asen(θ)
∂ϕ (r, θ, φ)
1 ∂ϕ (r, θ, φ)
1
∂ϕ (r, θ, φ)
ûr +
ûθ = −
ûr +
ûθ +
ûφ ,
r3
r3
∂r
r
∂θ
rsen(θ)
∂φ
La última ecuación indica que ϕ no depende de φ. Ahora bien, integrando la primera de estas ecuaciones,
tendremos
Z
∂ϕ (r, θ, φ)
2A cos(θ)
cos(θ)
2A cos(θ)
=
−
⇒
ϕ
(r,
θ)
=
−
dr + C (θ) = A 2 + C (θ) ,
3
3
r
∂r
r
r
rP
re
al sustituir la forma del potencial en la segunda ecuación tendremos
∂
∂C (θ)
cos(θ)
Asen(θ)
=
−
+
C
(θ)
⇒
= 0.
A
r2
∂θ
r2
∂θ
De esta forma
ϕ (r, θ) = A
7. Para
cos(θ)
.
r2
F = x2 i + y 2 j + z 2 k
ad
o
evaluemos las siguientes integrales:
H
a) F · dr a lo largo de una circunferencia unitaria.
Por el Teorema de Stokes
I
ZZ
F · dr =
(∇ × F) · dS
c
S
rr
con lo cual
i
j
k
∂
∂x
2
∂
∂y
2
∂
∂z
2
x
y
I
=0
⇒
F · dr = 0
c
z
HH
F · dS a lo largo de una esfera unitaria.
Utilizando el teorema de la divergencia
I I
ZZZ
F · dS =
(∇ · F) dV ,
Bo
b)
∇×F=
v
por consiguiente
ZZZ
(∇ · F) dV =
V
ZZZ ∂
∂
∂
i
+j
+k
· x2 i + y 2 j + z 2 k dx dy dz
∂x
∂y
∂z
V
ZZZ
=
(2x + 2y + 2z) dx dy dz
V
382
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
Si ahora transformamos a coordenadas esféricas tendremos que
x = rsen(θ) cos(ϕ);
y = rsen(θ)sen(ϕ);
z = r cos(θ);
con dV = r2 sen(θ)dr dθ dϕ
con lo cual
ZZZ
ZZZ
(2x + 2y + 2z) dxdydz =
(2rsen(θ) cos(ϕ) + 2rsen(θ)sen(ϕ) + 2r cos(θ)) r2 sen(θ)drdθdϕ
V
V
V
5.5.4.
1
(∇ · F) dV = − π .
4
ar
ZZZ
Practicando con Maxima
Z
d
Z
lim
(%i1) integrate(integrate(f(u,v),v,a(u),b(u) ), u, c,d );
b(u)
f (u, v) dv du
( %o1)
c
in
El programa no dispone de una función para el cálculo de integrales múltiples de manera directa, pero esto no
significa que no podamos integrar aplicando varias veces la función integrate
a(u)
1. Si quisiéramos calcular el área de una elipse
rP
re
y2
x2
+
= 1,
a2
b2
podrı́amosp
hacer lo siguiente. Calculamos el área en el √
primer cuadrante determinado por 0 ≤ x ≤ X, donde
X = (a/b) b2 − y 2 y donde 0 ≤ y ≤ Y , con X = (b/a) a2 − x2 . Por lo tanto, el área es
#
Z "Z
b
X
A=4
dx dy
0
donde dA = dxdy.
0
ad
o
(%i2) assume(a > 0, b > 0, x > 0, x < a, y > 0,y < b )$
(%i3) [X:(a/b)*sqrt(b^2-y^2),Y:(b/a)*sqrt(a^2-x^2)];
#
" p
√
a b2 − y 2 b a2 − x2
,
( %o3)
b
a
rr
(%i4) 4*integrate(integrate(1,x,0,X),y,0,b);
( %o4) π a b
Bo
2. Consideremos ahora un elipsoide
x2
y2
z2
+ 2 + 2 = 1,
2
a
b
c
y su volumen. Como p
en el caso anterior, podemos calcular
p el volumen en el primer octante: dV = dxdydz
donde: 0 ≤ z ≤ Z = c 1 − x2 /a2 − y 2 /b2 , 0 ≤ y ≤ Y = b 1 − x2 /a2 y x fijo.
Z
V =8
(%i6) assume(x>0,x<a,y>0,y<b,z>0,z<c)$
Z
dx
0
(%i5) assume(a>0,b>0,c>0,a>b,a>c,b>c)$
a
Y
Z
dy
0
Z
dz .
0
5.5. CAMPOS VECTORIALES Y TEOREMAS INTEGRALES
383
(%i7) [Z:c*sqrt(1-x^2/a^2-y^2/b^2),Y:b*sqrt(1-x^2/a^2)];
" r
( %o7)
c
y2
x2
− 2 − 2 + 1, b
b
a
r
x2
1− 2
a
#
(%i8) 8*integrate(integrate(integrate(1,z,0,Z),y,0,Y),x,0,a);
4πabc
3
ar
( %o8)
F(x, y, z) = x2 i + y 2 j + z 2 k .
lim
(%i9) load(vect)$
in
3. Consideremos ahora el siguiente campo vectorial
(%i10)F(x,y,z):=[x^2,y^2,z^2];
( %o10) F (x, y, z) := [x2 , y 2 , z 2 ]
rP
re
El rotor de F es
(%i11)ev(express(curl(F(x,y,z))),diff);
( %o11) [0, 0, 0]
Podemos calcular el potencial de la siguiente manera
(%i12)PF:potential(F(x,y,z));
z 3 + y 3 + x3
3
ad
o
( %o12)
Por lo tanto existe una función φ(x, y, z)
(%i13)define(phi(x,y,z), PF);
z 3 + y 3 + x3
3
rr
( %o13) φ(x, y, z) :=
Tal que ∇φ = F
Bo
(%i14)ev(express(grad(phi(x,y,z))),diff);
( %o14) x2 , y 2 , z 2
4. Realicemos ahora un cálculo en coordenadas esféricas. Dado el siguiente campo vectorial
F=
2A cos(θ)
Asen(θ)
ûr +
ûθ ,
3
r
r3
(%i15)spherical;
( %o15) [[cos(φ) r sin(θ), sin(φ) r sin(θ), r cos(θ)] , r, θ, φ]
384
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
(%i16)scalefactors(spherical)$
(%i17)assume(r>0)$
(%i18)F(r,theta,phi):=[2*A*cos(theta)/r^3,A*sin(theta)/r^3,0];
2A cos(θ) A sin(θ)
,
, 0]
r3
r3
ar
( %o18) F (r, θ, φ) := [
(%i19)ev(express(curl(F(r,theta,phi))),diff),factor;
in
( %o19) [0, 0, 0]
( %o20)
cos(θ) A
r2
(%i21)define(g(r,theta),f);
( %o21) g(r, θ) :=
cos(θ)A
r2
rP
re
(%i22)ev(express(grad(g(r,theta))),diff),factor;
lim
(%i20)f:-integrate(2*A*cos(theta)/r^3,r);
2 cos(θ) A sin(θ) A
,
−
,
0
( %o22) −
r3
r3
(%i23)kill(all);
5.5.5.
Ejercicios
ad
o
1. Dado el campo vectorial
A = 3x2 (y + z) + y 3 + z 3 i + 3y 2 (x + z) + x3 + z 3 j + 3z 2 (x + y) + x3 + y 3 k
a) Calcule ∇ × A.
b) Evalúe la integral
Z
A · dr ,
rr
C
a lo largo de cualquier linea que conecte el punto (1, −1, 1) con el punto (2,1,2).
Bo
2. A partir de la siguiente parametrización x = a cosn (θ) y y = a senn (θ), encuentre el área acotada por las
curvas
x2/5 + y 2/5 = a2/5 y x2/3 + y 2/3 = a2/3 .
3. Evalúe la siguiente integral
I
y(4x2 + y 2 )dx + x(2x2 + 3y 2 )dy ,
C
alrededor de la elipse x2 /a2 + y 2 /b2 = 2.
R
4. Evalúe la integral r · dS, donde r es el vector posición, sobre la superficie z = a2 − x2 − y 2 , z ≥ 0, como se
indica a continuación
a) Parametrice la superficie con: x = a sen(θ) cos(ϕ), y = a sen(θ)sen(ϕ), z = a2 cos2 (θ), demuestre que:
r · dS = a4 2 sen3 (θ) cos(ϕ) + cos3 (ϕ)sen(θ) dθdϕ .
5.6. TEORÍA DE POTENCIAL
385
b) Aplique el teorema de Gauss al volumen acotado por la superficie y el plano z = 0.
5. Demuestre la validez del teorema de Gauss
a) Calculando el flujo del campo vectorial
A=
√
αr
,
+ a2 )(3/2)
3a.
ar
a través de la superficie |r| =
(r2
b) Demostrando que
3αa2
,
(r2 + a2 )(5/2)
√
in
∇·A=
y evaluando la integral de volumen de ∇ · A sobre el interior de la esfera |r| =
3a.
lim
6. Un campo vectorial, en coordenadas cilı́ndricas, viene representado por
x cos(λz)
y cos(λz)
F0 ρ
F = F0
i+
j + sen(λz)k ≡
cos(λz)êρ + F0 sen(λz)k ,
a
a
a
a) Calcule el flujo de F a través de la superficie acotada por los cilindros ρ = a, ρ = 2a y los planos
z = ±aπ/2.
5.6.
rP
re
b) Evaluando la integral anterior pero utilizando el teorema de la divergencia.
Teorı́a de Potencial
Los campos vectoriales conservativos resultan ser de gran importancia en diferentes áreas de la Fı́sica. Estos
campos vectoriales tienen la propiedad de que su integral de lı́nea, alrededor de cualquier trayectoria que encierre
una superficie, se anula. Es decir, la integral de lı́nea de un campo vectorial conservativo, entre dos puntos arbitrarios
del espacio, es independiente del camino tomado para realizar la integral.
C1
ad
o
Entre dos puntos del espacio P1 y P2 podemos
trazar dos trayectorias por dos caminos diferentes C1 y C2 y también formar un lazo entre ellos.
Si asumimos de entrada que A es un campo vectorial conservativo, podemos escribir
Z
Z
A · dr +
A · dr = 0 ,
−C2
rr
como la segunda integral es el negativo de la integral a lo largo de C2 , entonces
Z
Z
A · dr −
A · dr = 0 .
Bo
C1
Figura 5.21: Trayectoria de integración para ir de P1
a P2 y el lazo formado por los caminos.
C2
Lo que implica que
Z
Z
A · dr =
C1
A · dr ,
C2
como lo habı́amos afirmado.
Si tomamos un punto arbitrario P0 y lo conectamos por trayectorias arbitrarias con todos los puntos del espacio,
entonces, para cada punto P con coordenadas (x, y, z) podemos definir el campo escalar
φ(xi ) = −
Z
P
Z
A · dr = −
P0
A · dr ,
C
donde C es cualquier camino que va de P0 a P . El signo menos es por razones históricas.
386
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
El campo escalar φ(x, y, z) es una función bien definida porque su valor no dependerá de la trayectoria C y se
le suele denominar el potencial asociado al campo vectorial A. Notemos que el potencial en P0 es cero y se conoce
como el punto de referencia potencial.
Consideremos ahora dos puntos arbitrarios P1 = (x1 , y1 , z1 ) y P2 = (x2 , y2 , z2 ) conectados por algún camino
C. Es claro que también podemos conectar estos dos puntos por un camino diferente que pase por el punto P0 , es
decir, escoger un camino que tome la ruta: P1 → P0 → P2 . Si A es un campo conservativo, entonces
Z P2
Z P0
Z P2
A · dr =
A · dr +
A · dr = φ(x1 , y1 , z1 ) − φ(x2 , y2 , z2 ) ,
P1
P0
ar
P1
de manera equivalente
Z
P2
A · dr .
φ(x2 , y2 , z2 ) − φ(x1 , y1 , z1 ) = −
in
P1
Lo que se conoce como la diferencia de potencial entre dos puntos.
Si P1 y P2 se conectan de manera infinitesimal por dr, entonces el potencial infinitesimal es
⇒ dφ(xi ) = ∂i φ(xj )dxi = ∇φ · dr ,
de manera que
∇φ · dr = −A · dr
lim
dφ(xi ) = −A · dr
⇒ A = −∇φ .
En palabras: un campo vectorial conservativo siempre puede escribirse como el negativo del gradiente del campo
escalar potencial definido por la ecuación (5.6).
Potenciales escalares
rP
re
5.6.1.
Si un campo vectorial F (x, y, z) en una determinada región R puede asociarse con un gradiente de un potencial
φ (x, y, z) tendremos que
I
i
i
i
F x = −∇φ x
⇔ ∇×F x =0 ⇔
F xi · dr = 0 .
ad
o
La ventaja que un campo derive de un potencial es, por un la lado, la simplicidad y la cantidad de información
que sobre el campo podemos tener: describimos la interacción por una función y no con tres (las componentes del
campo) y sabremos que el campo es irrotacional y conservativo. Pero además, la función que describe el campo es
escalar, con lo cual es independiente del sistema de coordenadas.
Cualquiera de las afirmaciones siguientes implica las otras dos, con lo que podremos elegir cualquier de ellas
para demostrar las otras dos. Veamos:
rr
Un campo que derive de un potencial es conservativo e irrotacional

 −∇ × ∇φ xi = 0
F xi = −∇φ xi
⇒
H
 H
− ∇φ xi · dr = − dφ = φ xi0 − φ xi0 = 0
Bo
donde hemos utilizado la definición de diferencial total
∂φ xi
∂φ xi
∂φ xi
dφ =
dx +
dy +
dz = ∇φ xi · dr .
∂x
∂y
∂z
Un campo conservativo es irrotacional y deriva de un potencial.
RP
Un campo conservativo implica que el trabajo ( P12 F xi · dr) es independiente de la trayectoria entre P1 y
P2 . Por eso llamamos a la fuerza conservativa por cuanto se conserva la energı́a y por lo tanto, ésta depende
únicamente de la posición
I
Z P2
i
F xi · dr = φ xi2 − φ xi1
F x · dr = 0 ⇒
P1
⇓
F xi · dr = dφ = −∇φ xi · dr
⇒ F xi = −∇φ xi ,
5.6. TEORÍA DE POTENCIAL
387
con lo cual hemos demostrado que el campo vectorial deriva de un potencial. El signo menos (−) es una
convención tradicional del oficio del Fı́sico y proviene de nuestra intuición de flujo de los acontecimientos: “El
agua siempre fluye hacia abajo”.
Ahora bien, utilizando el teorema de Stokes tendremos:
I
ZZ
F xi = −∇φ xi
⇒ F · dr =
(∇ × F) · dS = 0
⇒ ∇ × F xi = 0 .
Es fácil demostrar que el campo también es irrotacional.
ar
S2
Un campo de fuerzas irrotacional implica que el campo deriva de un potencial y que el campo es conservativo.
in
Otra vez, por el teorema de Stokes si el campo es irrotacional es conservativo
ZZ
I
∇ × F xi = 0 ⇒
(∇ × F) · d S = F · dr = 0 ,
y si es conservativo deriva de un potencial
F xi · dr = dφ = −∇φ xi · dr
lim
S2
⇒ F xi = −∇φ xi .
5.6.2.
rP
re
En definitiva, si cualquiera de las condiciones se cumple: conservativo, irrotacional o potencial, las otras también
se cumplirán.
Es bueno aclarar que el hecho de que ∇ × F 6= 0 implica siempre que F es NO conservativo, pero que ∇ × F = 0
no necesariamente implica que F sea conservativo, al menos que la región involucrada en el proceso de integración
sea una región simplemente conectada.
Potenciales vectoriales y calibres
Claramente
ad
o
Al igual que derivamos un campo vectorial F (x, y, z) a partir de un potencial escalar φ (x, y, z) y asociamos su
existencia a su condición de irrotacionalidad, ∇ × F (x, y, z) = 0, podemos pensar que un campo sin divergencia
(solenoidal o transverso) conlleva a la existencia de un potencial vectorial. Esto es
∇ · F xi = 0 ⇒ F xi = ∇ × A xi .
∇ · F xi = ∂i F i = ∂i εijk ∂j Ak = 0 .
rr
El campo vectorial A = A (x, y, z) se conoce con el nombre de potencial vectorial del campo F. Ahora bien, el
campo solenoidal, F, no queda unı́vocamente determinado a partir de su potencial vectorial. Existe una arbitrariedad
de un campo escalar, llamado de calibre χ = χ (x, y, z) (gauge en inglés) de forma tal que
A0 = A + ∇χ xi
⇒ F = ∇ × A0 = ∇ × (A + ∇χ) = ∇ × A + ∇ × (∇χ) = ∇ × A ,
Bo
de manera que varios potenciales vectoriales A0 y A generan el mismo campo vectorial F. Esta arbitrariedad nos
permite particularizar el calibre según nos convenga. Existen varios calibres en el mercado, los cuales son utilizados
según el problema fı́sico al cual tratemos. Entre ellos podemos mencionar un par de ellos:
El calibre de Lorentz : Esta selección proviene de requerir que el campo de calibre χ = χ (x, y, z, t) satisfaga
la ecuación de onda
∂ 2 χ xi
2
i
∇ χ x −a
=0
∂t2
donde a es una constante. Nótese que hemos supuesto que el campo de calibre puede depender del tiempo. El
calibre del Lorentz se escoge porque (entre otras cosas) permite que la solución a la ecuación de onda para el
potencial vectorial A (x, y, z, t)
∂ 2 A xi
2
i
∇ A x −a
= 0,
∂t2
quede unı́vocamente determinada.
388
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
El calibre de Coulomb, de radiación o transverso: La selección de este calibre χ (x, y, z, t) impone que
el potencial vectorial A (x, y, z, t) satisfaga la ecuación
∇ · A = 0 ⇒ ∇ · A0 xi = ∇ · A xi + ∇χ xi = 0 ⇒ ∇2 χ xi = 0 .
5.6.3.
ar
El nombre de calibre de Coulomb, de radiación o transverso proviene de las consecuencias de su utilización en
las ecuaciones de Maxwell. Nótese que si el campo (y el calibre) es independiente del tiempo, A = A (x, y, z),
ambos calibres coinciden.
Teorema de Green y potenciales
como H es irrotacional entonces
∇×H=0
rP
re
lim
in
Si el rotor y la divergencia de un campo vectorial F(x, y, z), decente (continuo y continuamente diferenciable)
están especificados en una región del espacio delimitada por una superficie cerrada S, y las componentes del campo
normales a esa superficie n̂s · F, también se conocen, entonces el teorema de Green nos garantiza que ese campo
F(x, y, z) que cumple con esas condiciones es único10 .
Esa demostración procede ası́. Supongamos que existe otro campo vectorial que cumple con las mismas condiciones que el campo F(x, y, z). Esto es


∇·F=∇·G 

 ∇·H=0







∇×H=0
∇×F=∇×G
⇒H=F−G ⇒










n̂s · H = 0
n̂s · F = n̂s · G
⇒ H = ∇φ xi
⇒ ∇ · H = ∇ · ∇φ xi = 0 ,
y el teorema de Green nos garantiza que
I
ZZ
ZZZ
φ∇φ · dS =
φ (∇φ · n̂s̄ ) dS̄ =
[φ (∇ · ∇φ) + ∇φ · ∇φ] dV ,
S̄
con lo cual
ZZ
V
ZZ
ZZZ
φ (H · n̂s̄ ) dS̄ =
ad
o
φ (∇φ · n̂s̄ ) dS̄ =
S̄
S̄
[H · H] dV
⇒ H = 0,
V
de donde se deduce que F = G, es decir, que el campo F es único.
5.6.4.
Teorema de Helmholtz
Bo
rr
El teorema de Helmholtz11 afirma que todo campo vectorial F, continuo, continuamente diferenciable (al menos a
trozos), y regular en infinito se puede expresar como una suma de dos “componentes”: una longitudinal o irrotacional
Fl y otra transversa o solenoidal Ft . Esto es

 ∇ × Fl = 0
F = Fl + Ft , con

∇ · Ft = 0 .
En general dado que el campo F puede ser discontinuo, tendremos que suponer que


∇ · F = ρ (r) 
∇ · F = ∇ · (Fl + Ft ) = ∇ · Fl = ρ (r)

y como F = Fl + Ft ⇒


∇ × F = J (r)
∇ × F = ∇ × (Fl + Ft ) = ∇ × Ft = J (r) ,
dado que ∇ · (◦) y ∇ × (◦) son lineales. Esta separación del campo vectorial F = Fl + Ft es completamente general
y siempre puede hacerse para cualquier campo vectorial.
10 Esta
11 O
afirmación también se conoce como primer teorema de Helmholtz.
segundo teorema de Helmholtz.
5.6. TEORÍA DE POTENCIAL
389
Supondremos además, que la solución a la ecuación de Poisson ∇2 φ (x, y, z) = −ρ (x, y, z) existe y es única12 .
Tendremos que
∇ × Fl = 0 ⇒ Fl = −∇φ xi
⇒ ∇ · F = ∇ · Fl = −∇2 φ xi = ρ (r) ,
y la solución existe y es única. Es decir, podemos expresar de manera unı́voca al campo vectorial
F (a través de su
“componente” longitudinal Fl ) en términos de un campo escalar (función potencial) φ xi .
Por otra parte
⇒ Ft = ∇ × A
⇒ ∇ × F = ∇ × Ft = ∇ × (∇ × A) = ∇ (∇ · A) − ∇2 A = J (r) .
ar
∇ · Ft = 0
La cual al seleccionar el calibre de Coulomb ∇ · A = 0 se convierte en
⇔
in
⇒ ∂ i ∂i Ak = −J k (r)
lim
∇ × (∇ × A) = ∇2 A = ∂ i ∂i A = −J (r)
 2
∇ Ax = −Jx (r)





∇2 Ay = −Jy (r)





∇2 Az = −Jz (r)
Una vez más nos topamos con la solución a la ecuación de Poisson, esta vez para cada componente. Esto se
cumple siempre, porque hemos supuesto que la solución para la ecuación de Poisson existe y es única.
Un corolario del teorema de Helmholtz nos indica que un campo vectorial queda unı́vocamente determinado si
conocemos su rotor y su divergencia.
Teoremas integrales para campos tensoriales
rP
re
5.6.5.
ad
o
A este nivel del curso, es perfectamente válido preguntarse si los teoremas integrales anteriormente aplicados
a campos escalares y vectoriales pueden aplicarse a campos tensoriales en general. La respuesta a esta pregunta
es si. Recordemos, nuevamente, que los escalares son cantidades que quedan completamente determinados por un
sólo número en el espacio tridimensional, es decir, no contienen direcciones. Mientras que los vectores son formas
lineales en sus vectores bases A = Ai ei , es decir, se especifica por las tres cantidades Ai en R3 .
En la sección 8 estudiamos los tensores de esfuerzos y de inercia como ejemplos de cantidades fı́sicas que deben
especificarse por más de tres números. En el caso del tensor de esfuerzos, vimos, por ejemplo, que si consideramos
el plano xy, el vector de superficie es: dS3 = dSz , y si sobre la dirección z (dirección 3) ejercemos algún tipo de
presión, aparecerán esfuerzos en las direcciones x (dirección 1) y y (dirección 2). Las cantidades que usamos para
describir los esfuerzos lo denotamos por σij , donde el primer ı́ndice indica la dirección de la fuerza y el segundo la
dirección de la normal de la superficie donde está aplicada. Hablamos entonces de 9 cantidades involucradas para
especificar al tensor.
Estas cantidades de dos indices, o formas bilineales en los vectores base {ei }
D = Dij ei ej ,
rr
que nos permiten describir cantidades fı́sicas en dos direcciones distintas suelen denominarse dı́adas.
Ya hemos operado con estas cantidades, por ejemplo, si multiplicamos una dı́ada por un vector
D · A = Dij ei ej · Ak ek = Dij Ak [ei ej ] · ek = Dij Ak ei [ej · ek ] = Dij Ak ei δjk = Dij Aj ei ,
Bo
el resultado es un vector de componentes B i = Dij Aj .
Ya discutimos que el teorema de Gauss para un campo vectorial A es:
Z
I
∇ · A dV =
A · n̂dS .
V
S
Este teorema también funciona para dı́adas, ya que si hacemos la siguiente sustitución A = D · c, con c un
vector constante y en coordenadas cartesianas, se puede demostrar de la ecuación anterior que
Z
I
∇ · D dV =
D · n̂dS .
V
12 Esta
S
suposición es indispensable. Las condiciones sobre el potencial φ (x, y, z) que la implican serán consideradas en otros cursos de
métodos matemáticos. En este curso, supondremos que existe y es única.
390
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
Lo anterior también es cierto para el teorema de Stokes
Z
I
[∇ × D] · n̂ dS =
D · dr .
S
C
Si nos vamos directamente a la notación de ı́ndices, podemos ver que el teorema de Gauss para campos vectoriales
se escribe como
Z
I
∂i Ai dV =
Ai n̂i dS ,
V
S
V
S
C
S
C
Ejemplos
lim
por lo tanto, para un campo tensorial serı́a:
Z
I
ijk
ε (∂j Tij...k...s ) n̂i dS =
Tij...k...s dxk .
in
S
En cuanto al teorema de Stokes para un campo vectorial
Z
I
ijk
ε (∂j Ak ) n̂i dS =
Ak dxk .
5.6.6.
ar
con lo que nos podemos tomar la libertad de extendernos, sin probarlo de manera rigurosa, a tensores de rango
superior.
Z
I
ij...k...s
∂k T
dV =
T ij...k...s n̂k dS .
con κ constante.
rP
re
1. Consideremos el siguiente campo vectorial en el plano
F = κ xy 2 i + x2 yj ,
Es fácil comprobar que ∇ × F = 0, de manera que F es conservativo.
Si queremos encontrar el campo potencial asociado al campo vectorial F podemos tomar un punto P genérico,
en este caso del plano xy, y escoger un camino de integración desde el origen al punto P (x1 , y1 ). Vamos a
tomar la recta parametrizada por: x = x1 τ , y = y1 τ con 0 ≤ τ ≤ 1. De manera que
Z (x1 ,y1 )
Z 1
2
φ(x1 , y1 ) = −κ
xy i + x2 yj · [dxi + dyj] = −κ
x1 τ (y1 τ )2 i + (x1 τ )2 y1 τ j · [x1 dτ i + y1 dτ j]
(0,0)
0
1
κx2 y 2
τ 3 dτ = − 1 1 .
2
ad
o
=
−2κx21 y12
Z
0
Por lo tanto, el potencial será
κ
φ(x, y) = − x21 y12 .
2
Se deja como ejercicio comprobar que F = −∇φ.
rr
2. Consideremos el siguiente campo vectorial
F=
x2
κx
κy
i− 2
j,
2
+y
x + y2
Bo
con κ constante.
De nuevo, es fácil ver que
∇ × F = [∂x Fy − ∂y Fx ] k = 0 .
La integral de lı́nea de F(x, y) la llevaremos a cabo sobre un cı́rculo C de radio a centrado en el origen, curva
parametrizada por: x = a cos(τ ), y = a sen(τ ), con 0 ≤ τ ≤ 2π.
κx
κy
dx − 2
dy
F xi · dr = Fx dx + Fy dy = 2
x + y2
x + y2
κ(a sen(τ ))(−a sen(τ )dτ )
κ(a cos(τ ))(a cos(τ )dτ )
−
=
(a cos(τ ))2 + (a sen(τ ))
(a cos(τ ))2 + (a sen(τ ))2
κa2 sen2 (τ )dτ
κa2 cos2 (τ )dτ
= − 2
− 2
= −κdτ ,
2
2
a (cos (τ ) + sen (τ )) a (cos2 (τ ) + sen2 (τ ))
5.6. TEORÍA DE POTENCIAL
391
para la integral
I
F xi · dr = −κ
C
2π
Z
dτ = −2πκ 6= 0 .
0
Como podemos ver, el rotor del campo se anula pero la integral de lı́nea cerrada, alrededor del cı́rculo que
contiene el origen de coordenadas, es diferente de cero. En el origen el campo vectorial F contiene una
singularidad.
1
r 2 ûr .
Encontremos algún posible campo vectorial A tal que ∇ × A = F.
Tenemos
1
r2 sen(θ)
r ûθ
rsen(θ) ûφ
∂
∂r
∂
∂θ
∂
∂φ
=−
1
ûr
r2
in
∇×A=
ûr
ar
3. Si F =
Ar (r, θ, φ) r Aθ (r, θ, φ) rsen(θ) Aφ (r, θ, φ)
con lo cual
∂ (rsen(θ) Aφ (r, θ, φ)) ∂ (r Aθ (r, θ, φ))
−
∂θ
∂φ
∂ (rsen(θ) Aφ (r, θ)) ∂Ar (r, θ, φ)
−
∂r
∂φ
,
0=
∂ (r Aθ (r, θ, φ)) ∂Ar (r, θ, φ)
−
∂r
∂θ
rP
re
0=
lim
1
1
= 2
2
r
r sen(θ)
Ahora hay que hacer algún tipo de suposición para que podamos encontrar, fácilmente algún potencial vectorial. Supongamos pues que


∂(rsen(θ) Aφ (r,θ,φ))

sen(θ) =
Ar (r, θ, φ) = cte 

∂θ








(r,θ,φ)
Aφ (r, θ, φ)
⇒
0 = ∂Ar∂φ











(r,θ,φ)
(r,θ,φ)
Aθ (r, θ, φ) = 0
0 = Aθ (r, θ, φ) + r ∂Aθ ∂r
− ∂Ar ∂θ
ad
o
Integrando la primera obtendremos
sen(θ) =
∂ (rsen(θ) Aφ (r, θ, φ))
∂θ
⇒ Aφ (r, θ, φ) = −
cos(θ)
+ C1 (r, θ)
rsen(θ)
rr
de la segunda concluimos que Ar = Ar (r, θ), es decir, Ar es independiente de φ. Finalmente, de la tercera
ecuación concluimos que podemos hacer adicionalmente Ar = Ar (r) y C1 (r, θ) = 0. Resumiendo
F=−
1
ûr
r2
∧
∇×A=F
⇒ A = Ar (r)ûr −
cos(θ)
ûφ .
rsen(θ)
Bo
4. Dado el siguiente campo vectorial A = 4xy i − y 2 j + z k.
a) Calculemos el flujo de A a través de un cubo unitario: x = 0, x = 1, y = 0, y = 1, z = 0, z = 1.
Tenemos que el flujo del campo vectorial es
Z
Z
A · dS =
S
Z
(∇ · A) dV =
Z
(2y + 1) dV =
1
Z
dx
0
1
Z
dz
0
1
(2y + 1) dy = 2 .
0
b) Calculemos el flujo del rotor de ese campo a través de una semi esfera: x2 + y 2 + z 2 = 16 con z ≥ 0.
El flujo del rotor será
Z
I
I
Z
Z
(∇ × A) · dS =
A · dr =
4xy i − y 2 j + z k · (dx i + dy j) = 4xy dx − y 2 dy ,
S
392
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
como el circuito será una circunferencia de radio r = 4 en el plano z = 0 entonces al pasar a polares nos
queda
x = 4 cos(θ) ⇒ dx = −4 sen(θ) dθ ; y = 4 sen(θ) ⇒ dy = 4 cos(θ) dθ ,
con lo cual
I
2π
Z
42 cos(θ) sen2 (θ)dθ = 0 .
A · dr = −5
0
c) Consideremos ahora un cilindro x2 + y 2 = 16 con −1 ≤ z ≤ 1
S
S+
Sc
in
ar
Calculemos el flujo del campo a través de esa superficie.
R
Como siempre, para
R encontrar el flujo del campo podemos hacerlo directamente S A · dS, o a través
de su divergencia, (∇ · A) dV
El flujo de este campo a través de la superficie que encierra el cilindro serı́a
Z
Z
Z
Z
A · dS =
A · dS +
A · dS +
A · dS .
S−
lim
Con dS± las dos tapas del cilindro (z = 1 y x = −1), mientras que dSc representa la superficie
~ =
del cilindro. Una forma de resolverlo serı́a: se transforma el campo a cilı́ndricas, ya que dS
dSc ûr + dS± ûz .
Esto es:
y acomodando
rP
re
A = 4(4 cos(θ))(4 sen(θ))(cos(θ) ûr − sen(θ) ûθ ) + (4 sen(θ))2 (sen(θ) ûr + cos(θ) ûθ ) + z k̂ ,
A = 16sen(θ) (cos(2θ) ûr − sen(2θ) ûθ ) + z k .
Entonces, el flujo en las “tapas” es
Z
Z
A · dS =
A · dS = 16π .
S+
S−
mientras que en las superficie cilı́ndrica será:
Z
Z
Z
A · dS =
4dθ dz (16sen(θ) cos(2θ)) = 64
Finalmente
2π
Z
dz
dθ (sen(θ) cos(2θ)) = 0 .
−1
Sd
ad
o
Sc
1
0
Z
A · dS = 32π .
S
rr
Hubiera sido inmediato si hubiéramos utilizado el teorema de la divergencia y reutilizado los resultados del volumen anterior. Ası́
Z
Z
Z
(∇ · A) dV =
(2y + 1) dV =
(2 (ρ sen(θ)) + 1) ρ dθ dρ dz
Bo
con y = ρ sen(θ) y el diferencial de volumen dV = ρ dθ dρ dz.
Entonces, finalmente,
Z
Z 1
Z 4
Z 2π
Z
(∇ · A) dV =
dz
dρ 2ρ2
dθ sen(θ) +
−1
0
0
1
−1
Z
dz
4
dρ 2ρ2
Z
0
para que, otra vez
Z
A · dS = 32π ,
S
porque el primer término de la suma se anula.
Encontremos el flujo del rotor de ese campo para el caso z ≥ 0.
El flujo del rotor será exactamente el mismo que en caso de las semiesfera. Esto es
Z
I
(∇ × A) · dS =
A · dr = 0
S
2π
dθ
0
5.6. TEORÍA DE POTENCIAL
393
d ) Calculemos alguna de las componentes longitudinales y transversales del campo.
Todo campo vectorial A se puede separar en una componente longitudinal Al , y otra transversal At .
Esto es:



 ∇ × Al = 0 
 ∇ × Al = 0
l
t
A = A + A con
⇒



∇ · At = 0
∇ · Al = ∇ · A = 2y + 1
∂y Alz − ∂z Aly = 0 ,
∂z Alx − ∂x Alz = 0 ,
∂x Aly − ∂y Alx = 0
y
∂x Alx + ∂y Aly + ∂z Alz = 2y + 1
∂z Aly = 0
y
∂z Alx = 0
∂x Aly − ∂y Alx = 0
⇒ Alx = Alx (x, y)
y
y
in
Para empezar a acotar la solución, supongamos que Alz = Alz (x, y, z) = 0
ar
con lo cual tenemos
Aly = Aly (x, y)
∂x Alx + ∂y Aly = 2y + 1 .
lim
Otro par de suposiciones salvadoras son: Alx = Alx (x, y) = f (x) y Aly = Aly (x, y) = g(x). Estas nos
garantizan que se cumple la ecuación ∂x Aly − ∂y Alx = 0. Es claro entonces que podemos encontrar una
solución de la forma Alx = f (x) = x y Aly = g(y) = y 2 , que satisfaga ∂x Alx + ∂y Aly = 2y + 1. Con lo cual
Al = x i + y 2 j
⇒ At = A − Al = x(4y − 1) i − 2y 2 j + z k .
rP
re
Claramente, las suposiciones
Alz = Alz (x, y, z) = 0,
Alx = Alx (x, y) = f (x)
y
Aly = Aly (x, y) = g(x) ,
ad
o
son arbitrarias y otras suposiciones pueden ser hechas y, tendremos resultados distintos.
e) Encontremos los potenciales escalar y vectorial asociados con este campo vectorial A, a través de las
componentes longitudinal Al y transversal At .
El potencial escalar, φ = φ(x, y, z), está asociado a la componente longitudinal, Al , del campo. Esto es

 x = −∂x φ(x, y, z) ⇒ φ(x, y, z) = − x2 + χ(y, z)
l
l
∇ × A = 0 ⇒ A = −∇φ ⇒

y 2 = −∂y φ(x, y, z) ⇒ y 2 = −∂y χ(y, z)
Con lo cual
x y3
+
+ ϕ(z)
2
3
El potencial vectorial para un campo vectorial, Ψ = Ψ(x, y, z), está asociado a la componente transversa
At del campo. Esto es

 x(4y − 1) = ∂y Ψz − ∂z Ψy
−2y 2
= ∂z Ψx − ∂x Ψz
∇ · At = 0 ⇒ At = ∇ × Ψ ⇒

z
= ∂x Ψy − ∂y Ψx
rr
φ(x, y, z) =
Bo
Una vez más, y de forma arbitraria, suponemos Ψz = 0. Entonces las ecuaciones anteriores se convierten
en
x(4y − 1) = −∂z Ψy ; −2y 2 = ∂z Ψx ; y z = ∂x Ψy − ∂y Ψx
con lo cual
x(4y − 1) = −∂z Ψy
2
−2y = ∂z Ψx
⇒ Ψy = −x(4y − 1)z + f (x, y)
⇒ Ψx = −2y 2 z + g(x, y)
y con estos resultados debemos satisfacer
z = ∂x Ψy − ∂y Ψx
⇒ z = −(4y − 1)z + ∂x f (x, y) + 4yz − ∂y g(x, y)
con lo cual es inmediato que una posible solución surge de f (x, y) = g(x, y) = 0, para que finalmente el
potencial vectorial lo podamos expresar como
Ψ = −x(4y − 1)z i − 2y 2 z j .
394
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
5. Demostremos que
Si un campo de velocidades es potencial, el campo de aceleraciones también lo será.
Esto es: Si
v(r(t), t) = ∇ϕ entonces a(r(t), t) = ∇Φ
a(r(t), t) =
dv(r(t), t)
∂v(r(t), t)
=
+ (v(r(t), t) · ∇) v(r(t), t)
dt
∂t
ar
con
Adaptando la relación vectorial del primer problema obtenemos
con lo cual
a=
1 ∂
2
∇ϕ + ∇ (∇ϕ) = ∇
∂t
2
∂ϕ 1
2
+ (∇ϕ)
∂t
2
in
∇ (v · v) = (v · ∇) v + (v · ∇) v + v × (∇ × v) + v × (∇ × v) ⇒ ∇ v 2 = 2 (v · ∇) v
⇒ a = ∇Φ
Φ=
∂ϕ 1
∂ϕ 1 2
2
+ v ≡
+ (∇ϕ) .
∂t
2
∂t
2
Practicando con Maxima
rP
re
5.6.7.
lim
Encontremos la forma del potencial del campo de aceleraciones en términos del campo de velocidades y
su potencial.
Arriba notamos claramente que
1. Como sabemos, una partı́cula que se mueve en un campo de fuerzas estará sujeta en cada punto a esta fuerza
F(r) de manera que el cambio de energı́a potencial es
Z r
U (r) − U (r0 ) = −
F(r) · dr .
r0
Sea el siguiente campo de fuerzas
F1 (r) = 3xy 3 i + 3x2 y 2 j .
ad
o
En primer lugar, consideremos que la partı́cula se mueve desde el punto (0, 0) al punto (a, b) siguiendo las
lineas rectas: (0, 0) → (a, 0) → (a, b). Calculemos el trabajo realizado sobre la partı́cula
(%i1) load(vect)$ declare([a,b],constant)$
(%i3) F1(x,y,z):=[3*x*y^3,3*x^2*y^2,0];
rr
( %o3) F 1(x, y, z) := [3xy 3 , 3x2 y 2 , 0]
(%i4) dr:[1,1,1]$
Bo
(%i5) integrate(F1(x,0,z)[1],x,0,a)+integrate(F1(a,y,z)[2],y,0,b);
( %o5) a2 b3
Supongamos ahora que la partı́cula se mueve siguiendo la trayectoria y = bx3 /a3 .
(%i6) y2:b*x^3/a^3$
(%i7) dr:diff([x,y2,0],x);
( %o7)
3 b x2
1, 3 , 0
a
5.6. TEORÍA DE POTENCIAL
395
(%i8) F1:sublis([y=y2], F1(x,y,z));
( %o8)
3 b3 x10 3 b2 x8
,
,0
a9
a6
(%i9) integrate(F1.dr,x,0,a);
12 a2 b3
11
ar
( %o9)
El resultado es diferente, el campo de fuerzas no es conservativo
in
(%i10)ev(express(curl(F1(x,y,z))),diff),factor;
( %o10) 0, 0, −3 x y 2
(%i11)F2(x,y,z):=[2*x*y^3,3*x^2*y^2,0];
rP
re
( %o11) F 2(x, y, z) := [2xy 3 , 3x2 y 2 , 0]
lim
Consideremos ahora el siguiente campo F2 (r) = 2xy 3 i + 3x2 y 2 j, ligeramente diferente al anterior y repitamos
los cálculos.
Trayectoria (0, 0) → (a, 0) → (a, b)
(%i12)integrate(F2(x,0,z)[1],x,0,a)+integrate(F2(a,y,z)[2],y,0,b);
( %o12) a2 b3
Trayectoria y = bx3 /a3 .
ad
o
(%i13)F2:sublis([y=y2], F2(x,y,z));
2 b3 x10 3 b2 x8
,
,0
( %o13)
a9
a6
(%i14)integrate(F2.dr,x,0,a);
( %o14) a2 b3
rr
El trabajo es el mismo ya que el campo es conservativo
Bo
(%i15)ev(express(curl(F2(x,y,z))),diff),factor;
( %o15) [0, 0, 0]
El potencial asociado a campo se puede calcular ahora
(%i16)PF2:-potential(F2(x,y,z))$ define(U(x,y),PF2);
( %o17) U (x, y) := −x2 y 3
Por lo tanto
(%i18)U(a,b)-U(0,0);
396
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
( %o18) − a2 b3
2. Consideremos el siguiente campo vectorial en el plano
F = κ xy 2 i + x2 yj ,
con κ constante.
ar
Es fácil comprobar que ∇ × F = 0, de manera que F es conservativo.
(%i19)kill(y2)$
(%i20)F(x,y,z):=[k*x*y^2,k*x^2*y,0];
in
( %o20) F (x, y, z) := [kxy 2 , kx2 y, 0]
lim
(%i21)ev(express(curl(F(x,y,z))),diff),factor;
( %o21) [0, 0, 0]
(%i22)[x,y,z]:[x1*tau,y2*tau,0];
( %o22) [τ x1 , τ y2 , 0]
( %o23) [x1 , y2 , 0]
rP
re
(%i23)dr: diff([x,y,z], tau);
(%i24)’integrate(F(x,y,z).dr,tau,0,1)=integrate(F(x,y,z).dr,tau,0,1);
Z
( %o24) 2 k
1
τ 3 dτ x1 2 y2 2 =
0
(%i25)kill(x,y,z)$
k x 1 2 y2 2
2
ad
o
(%i26)-potential(F(x,y,z))$ define(U(x,y),%);
( %o27) U (x, y) := −
kx2 y 2
2
(%i28)ev(express(-grad(U(x,y))),diff),factor;
rr
( %o28) k x y 2 , k x2 y, 0
Bo
3. Consideremos el siguiente campo vectorial
F=
κy
κx
i− 2
j,
x2 + y 2
x + y2
con κ constante.
De nuevo, es fácil ver que
∇ × F = [∂x Fy − ∂y Fx ] k = 0 .
(%i29)F(x,y,z):=[k*y/(x^2+y^2),-k*x/(x^2+y^2),0];
( %o29) F (x, y, z) := [
kx
ky
,− 2
, 0]
x2 + y 2
x + y2
(%i30)ev(express(curl(F(x,y,z))),diff),factor;
5.6. TEORÍA DE POTENCIAL
397
( %o30) [0, 0, 0]
(%i31)[x,y,z]:[a*cos(tau),a*sin(tau),0];
( %o31) [a cos(τ ), a sin(τ ), 0]
(%i32)dr: diff([x,y,z], tau);
ar
( %o32) [−a sin(τ ), a cos(τ ), 0]
2π
−
( %o33)
0
5.6.8.
a2 k cos2 (τ )
a2 k sin2 (τ )
−
dτ = −2 π k
a2 sin2 (τ ) + a2 cos2 (τ ) a2 sin2 (τ ) + a2 cos2 (τ )
Ejercicios
1. Evalúe la integral
lim
Z
in
(%i33)’integrate(F(x,y,z).dr,tau,0,2*%pi)=integrate(F(x,y,z).dr,tau,0,2*%pi);
A = x2 i + y 2 j − z 2 k ,
2. Calcule la integral de lı́nea
rP
re
a lo largo del camino: x = aτ 2 , y = bτ , z = c sen(πτ /2).
A = x2 + 3y i + y 2 + 2x j ,
desde el origen al punto P = (1, 2):
a) a lo largo de la linea recta que une los dos puntos.
b) a lo largo de la parábola que pasa por los dos puntos y por el punto Q = (−1, 2).
c) Diga si A es conservativo o no.
3. Diga si el campo vectorial
ad
o
2
1 2
A = xex cos(y)i − ex sen(y)j ,
2
es un campo vectorial conservativo. De ser conservativo encuentre el campo potencial asociado.
4. Un campo vectorial es dado por
φ0 h x
xy i (x+z)/b
i
+
xj
+
k e
,
y
1
+
b2
b
b
rr
A=
donde φ0 y b son constantes.
Bo
Diga si A es o no conservativo. De ser conservativo encuentre el campo potencial.
5. El siguiente campo vectorial
F = −GM m
x
y
z
i − GM m 3 j + 2GM m 3 k ,
a3
a
a
es la fuerza de marea ejercida por la luna sobre una partı́cula que se encuentra el la superficie de la tierra.
Consideremos para este problema el origen de coordenadas cartesianas en el centro de la tierra, la luna sobre
el eje z y la distancia a es la distancia desde el centro de la tierra al centro de la luna. M y m las masas de la
tierra y luna respectivamente, G la constante de gravitación universal. Encuentre el potencial para esta fuerza
de marea.
6. Dado el campo de fuerzas F = rn r. Verifique si existe una función escalar ϕ (x, y, z) tal que F = −∇ϕ(x, y, z).
En el caso de que sea posible, encuentre esa función ϕ (x, y, z).
398
CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES
7. El campo magnético generado por una corriente I es
x
µ0 I
−y
i+ 2
j
B=
2π x2 + y 2
x + y2
Encuentre un vector potencial magnético, A, tal que ∇ × A = B.
ar
8. Si un campo vectorial tiene la forma B = ∇φ × ∇ϕ, entonces B es solenoidal y su potencial vectorial es:
A = 21 (φ∇ϕ − ϕ∇φ).
con m = mr ûr + mϕ ûϕ + mz ûz .
lim
in
9. Dados el potencial vectorial A (r) del momento magnético dipolar m y la fuerza F = ∇×(B × m) que registra
un momento magnético dipolar m, sometido a un campo magnético externo, B. Muestre que la fuerza ejercida
por un dipolo magnético sobre otro viene dada por:

µ 0

Am (r) =
m
×
r

µ0
2m1r m2r − m1ϕ m2ϕ − m1z m2z
4πr3
⇒ Fm1 →m2 =
∇

4π
r3

Fm (r) = ∇ × (B × m)
10. Desarrolle el teorema de Gauss para el caso bidimensional. Esto es, suponga una lı́nea de carga orientada en
la dirección del eje z genera un potencial
ln(ρ)
;
2π0
E = −∇ϕ con ρ =
p
x2 + y 2
rP
re
ϕ (ρ) = −q
11. Pruebe la generalización del teorema de Green
ZZZ
ZZ
{ζ (r) Lξ (r) − ξ (r) Lζ (r)} dV = p (r)
{ζ (r) ∇ξ (r) − ξ (r) ∇ζ (r)} · d S
V
s
donde L es el operador autoadjunto definido por L ⇒ ∇ · (p (r) ∇) + q (r).
12. Considere una esfera de radio r = a y carga Q. Grafı́que su potencial electrostático para 0 < r < ∞.
ad
o
13. Considere una esfera de densidad uniforme ρ0 , radio r = a y masa M .
a) Muestre que la fuerza gravitacional por unidad de masa es F = −
4πGρ0
3r
ûr para 0 < r ≤ a.
b) Encuentre el potencial gravitacional asociado a esta fuerza
c) Imagine un túnel que atraviesa la esfera pasando por su centro. Encuentre la ecuación de movimiento y
la expresión del perı́odo para una partı́cula de masa m, que se deja caer por ese túnel.
rr
14. Dado un vector potencial magnético A tal que ∇ × A = B. Muestre que
ZZ
I
B · dS = A · dr es invariante de calibre: A (r) → A (r) + ∇χ (r)
Bo
s
15. La fuerza de Lorentz para una partı́cula con carga q que se mueve con una velocidad v en un campo eléctrico
E y magnético B es: F = q (E + v × B). Muestre que

F = q (E + v × B) 





dA
∂A
+ ∇ (A · v) .
⇒ F = −∇φ −
E = −∇φ −
dt
∂t 





∇×A=B
ar
Bibliografı́a
in
[1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición (Academic
Press, Nueva York)
[2] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva York)
lim
[3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York)
[4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:)
[5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition, London:
[6] Hauser, W (1971) Introduction to Principles of Electromagnetism (Addison-Wesley Pub Co Reading)
rP
re
[7] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Engineering
(Cambridge University Press)
[8] Santaló, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires)
[9] Schutz, B. (1980) Geometrical Methods in Mathematical Physics (Cambridge University Press, Londres)
Bo
rr
ad
o
[10] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York )
399
ad
o
rr
Bo
lim
rP
re
ar
in
400
BIBLIOGRAFÍA
ar
Capı́tulo 6
Bo
rr
ad
o
rP
re
lim
in
Apéndice
401
402
CAPÍTULO 6. APÉNDICE
6.1.
Introducción a los CAS
Los sistemas algebraicos computacionales o sistemas de álgebra computacional (CAS: Computer Algebra System)
son sistemas o calculadoras avanzadas, que permiten realizar operaciones de manera simbólica. Esto significa que el
computador puede efectuar operaciones con ecuaciones y fórmulas simbólicamente, es decir, a + b = c se interpreta
como la suma de variables y no como la suma de números previamente asignados.
Estos sistemas permiten operar de manera exacta con sı́mbolos que representan objetos matemáticos tales como:
ar
Números (Enteros, racionales, reales, complejos...)
Polinómios, Funciones Racionales, Sistemas de Ecuaciones.
Grupos, Anillos, Algebras . . .
FORTRAN, Basic, C, C++, Java => Precisión fija (Punto Flotante)
in
A diferencia de los sistemas tradicionales de computación numérica:
Input : solve(problema);
Output : respuesta
Los CAS se pueden clasificar en dos grandes grupos:1
lim
Otra caracterı́stica principal radica en el hecho de que son interactivos (interpretados o ejecutados al momento de
proveer una instrucción), es decir, trabajan de la forma:
rP
re
Sistemas de Propósito Especial (Creados para hacer cálculos en un área especı́fica): FORM, GAP, CAMAL,
SHEEP, STENSOR, LiE, KANT.
Sistemas de Propósito General (¡Especies de navajas suizas!): Axiom, Derive, Reduce, Maple, MatLab, Mathematica, Maxima, MuPAD. Recientemente, lenguajes como Python comienzan a incorporar bibliotecas que
permiten generar formas de cálculo simbólico2 que ofrecen una perspectiva interesante para integrar ambientes
algebráicos-numéricos-visuales.
Los CAS modernos de propósito general son ambientes completamente integrados de computación para la
investigación y la educación conformados por:
Interfaz gráfica (worksheet) o ambiente interactivo:
ad
o
Procesador de texto, de fórmulas y de gráficas.
Con salidas en Latex, RTF, HTML, FORTRAN y C; o hyperlinks a otros documentos.
Manuales en lı́nea.
Enlaces a otros programas y bibliotecas
Capacidades para cálculo numérico
rr
Capacidades para visualización, con salidas gráficas en diferentes formatos: PostScript, GIF,JPG, . . .
Pensado para usuarios no especializados en computación
Bo
La principal ventaja de estos programas radica en la enorme capacidad para realizar cálculos algebraicos largos
y tediosos. Por ejemplo, se puede demostrar que la función:
√
nz x2 +y 2 +z 2
√
sen
y 2 +z 2
p
f=
2
x + y2 + z2
es solución de la ecuación diferencial:
2
∂4f
∂4f
∂4f
∂2f
2 ∂ f
+ 2 2 + 2 2 +n
+ 2 =0
∂x4
∂y x
∂z x
∂x2
∂y
y la realización de éste cálculo le puede tomar a un PC estándar un tiempo de CPU relativamente corto:
1 Una
comparación de los diferentes CAS puede verse en: https://en.wikipedia.org/wiki/List_of_computer_algebra_systems
2 http://docs.sympy.org/
403
lim
in
ar
6.2. MAXIMA: SINTAXIS BÁSICA
rP
re
Figura 6.1: Ventana gráfica de vxMaxima
tiempo de cpu =
1,065 seg
Un ejemplo de un CAS es Maxima que básicamente consta de una hoja de trabajo (worksheet) que es una
interfaz tipo procesador de textos. Las hojas de trabajo constan de dos modos básicos de funcionamiento: el modo
texto y el modo cálculo. Maxima opera en la celda de cálculos de la manera siguiente:
Input (Instrucción de entrada)
Output (respuesta del programa)
[ -->
ad
o
Existe la posibilidad de introducir textos de la misma manera que en un procesador de textos estándar y de
generar gráficas en 2D y 3D a través de los respectivos comandos.
La interacción con la hoja de trabajo se hace a través de lo que denominamos la celda del Input, que aparece
señalado por un aviso de espera o PROMPT
Bo
rr
El código fuente de Maxima, código de software libre, puede ser compilado sobre diferentes sistemas operativos:
Windows, Linux, MacOS X y Android, y puede obtenerse en: http://sourceforge.net/projects/wxmaxima o en
http://andrejv.github.io/wxmaxima, con la respectiva documentación.
Utilizaremos la versión gráfica wxMaxima para los fines pedagógicos del desarrollo de estas notas. También
existe una versión que funciona sólo en modo texto para ser ejecutada en una consola o terminal.
En la Figura 6.1 se puede apreciar el despliegue de una hoja de cálculo con algunos instrucciones sencillas,
notemos que cada instrucción (en azul) termina con un punto y coma, de esta manera se le dice al programa la
finalización del comando a ejecutar. Luego de escribir la instrucción y presionar la tecla Enter el Output aparecerá
a continuación en color negro.
6.2.
Maxima: Sintaxis básica
Es necesario familiarizarse con los comandos básicos del programa, para ello iremos desarrollando algunos cálculos
sencillos a manera de conocer la filosofı́a de cómo funciona Maxima, y durante el transcurso de este curso iremos
haciendo un despliegue de las aplicaciones del programa para cálculos más especı́ficos.
(%i1) 3!+3^5;
404
CAPÍTULO 6. APÉNDICE
( %o1) 249
Veamos ahora la diferencia entre el igual = y los dos puntos :
(%i2) a=b+c;
( %o2) c+b
(%i3) a;
ar
( %o3) a
(%i4) a:b+c;
in
( %o4) c+b
(%i5) a;
lim
( %o5) c+b
Al usar “=”no asignamos a la variable lo que está del lado derecho mientras que con “:”si le asignamos el objeto
a la nueva variable.
Los cálculos se pueden hacer tanto con números enteros como en Punto Flotante:
(%i6) 15+5^(50);
(%i7) 15.0+5^(50);
( %o7) 8,881784197001253 × 1034
rP
re
( %o6) 88817841970012523233890533447265640
Pero el énfasis radica en los cálculos exactos:
ad
o
(%i8) cos(%pi/12)^2 + log(2/3+5)/7;
π log 17 2
3
( %o8) cos
+
12
7
y si queremos el valor numérico podemos escribir
(%i9) float(%);
( %o9) 1,180812852661949
rr
Aquı́ hemos hecho uso de varios sı́mbolos nuevos. Las constantes matemáticas en Maxima se escriben de la
siguiente manera:
La unidad imaginaria i: %i
Bo
El número π: %pi.
El sı́mbolo ∞: inf.
El número e: %e.
En cuanto a los logaritmos:
ex = exp(x).
log(x): la función logaritmo en base e
log(x)/log(b) el logaritmo de x en base b.
6.2. MAXIMA: SINTAXIS BÁSICA
405
Para las funciones trigonométricas es lo estándar: sin(x), asin(x), cos(x), acos(x), tan(x), atan(x), csc(x), sec(x),
cot(x).
También hemos utilizado % para introducir la última salida en la siguiente instrucción, veamos nuevamente
como funciona, pero ahora pondremos al final del comando el sı́mbolo $ en lugar de ; para decirle al programa que
ejecute la instrucción sin escribir la salida.
(%i10)3^12$
ar
(%i11)%;
( %o11) 531441
Veamos otro ejemplo:
in
(%i12)alpha;
( %o12) α
lim
(%i13)%+sqrt(beta);
p
( %o13) β + α
(%i14)%o12+2*gamma^2;
rP
re
( %o14) 2 γ 2 + α
Es importante tener cuidado a la hora de poner los paréntesis en las expresiones:
(%i15)1+2*3^2;
( %o15) 19
(%i16)(1+2)*3^2;
( %o16) 27
ad
o
El volumen de un cilindro V = π(radio)2 × altura
(%i17)radio:5$
(%i18)altura:50$
(%i19)area:%pi*radio^2;
( %o19) 25 π
rr
(%i20)volumen:area*altura;
Bo
( %o20) 1250 π
Para limpiar la memoria del programa de todas las variables utilizadas se puede usar el comando kill(all)
(Existen otras opciones que veremos más adelante). Esta es una manera de reiniciar la hoja de trabajo.
(%i21)volumen;
( %o21) 1250 π
(%i22)kill(all);
( %o22) done
(%i23)volumen;
( %o23) volumen
406
CAPÍTULO 6. APÉNDICE
6.2.1.
Cálculos elementales
Se puede definir, evaluar y derivar funciones abstractas utilizando := como se muestra a continuación
ar
(%i1) f(x,y):=exp(x^2+y^2)/(x-y);
exp y 2 + x2
( %o1) f (x, y) :=
x−y
(%i2) f(2,3);
( %o2) − e13
(%i3) %,numer;
in
( %o3) − 442413,3920089205
( %o4) √
eβ+α
√
α− β
Derivando respecto a x y y;
(%i5) diff(f(x,y),x) + diff(f(x,y),y);
2
2
2
rP
re
2
2 x ey +x
2 y ey +x
+
( %o5)
x−y
x−y
lim
(%i4) f(alpha^(1/2),beta^(1/2));
Aquı́ es bueno acotar que una expresión NO es una función:
(%i6) f(x):=3*sin(x+1)+2*sqrt(x);
√
( %o6) f (x) := 3 sin (x + 1) + 2 x
(%i7) F:3*sin(x+1)+2*sqrt(x);
ad
o
√
( %o7) 3 sin (x + 1) + 2 x
(%i8) f(8); F(8);
5
( %o8) 3 sin 9 + 2 2
√ ( %o9) 3 sin (x + 1) + 2 x (8)
rr
Por lo tanto, F es únicamente una expresión que no puede ser evaluada como la función f . Pero se le puede dar
la vuelta para evaluarla con ev()
(%i10)ev(F,x=8);
5
Bo
( %o10) 3 sin 9 + 2 2
Consideremos los siguientes cálculos básicos:
(%i11)kill(all)$
(%i1) sigma(x):=2*x/sqrt(x^2+1);
( %o1) σ (x) := √
2x
x2 + 1
La primera derivada:
(%i2) diff(sigma(x),x);
6.2. MAXIMA: SINTAXIS BÁSICA
( %o2) √
2
x2 + 1
407
2 x2
−
3
(x2 + 1) 2
La cuarta derivada:
(%i3) diff(sigma(x),x,4);
5
−
(x2 + 1) 2
300 x3
7
210 x5
+
(x2 + 1) 2
9
(x2 + 1) 2
ar
90 x
( %o3)
Si queremos reutilizar la derivada para definir una nueva función, en este caso la función derivada, lo podemos
hacer utilizando dos apóstrofos ” (No es la doble comilla)
( %o4) dsigma (x) := √
2
x2 + 1
in
(%i4) dsigma(x):=’’ %o2;
2 x2
−
3
(x2 + 1) 2
( %o5)
2
3
rP
re
52
(%i6) integrate(sigma(x),x);
p
( %o6) 2 x2 + 1
lim
(%i5) dsigma(2);
La misma integral, pero definida para x entre 0 y 1.
(%i7) integrate(sigma(x),x,0,1);
√
2−1
( %o7) 2
Lı́mites:
(%i8) limit(sigma(x),x,1/2);
( %o9) 2
Sumatorias:
ad
o
2
( %o8) √
5
(%i9) limit(sigma(x),x,inf);
rr
(%i10)sum(sigma(i),i,0,6);
Bo
√
12
10
8
6
4
( %o10) √ + √ + √ + √ + √ + 2
37
26
17
10
5
Podemos calcular series de Taylor, digamos, alrededor de x = 1 y hasta orden 4.
(%i11)taylor(sigma(x),x,1,4);
( %o11)
1
−1 1 1 1
−1 1 1 1
4
3
2
5 2 2 (x − 1) +
3 2 2 (x − 1) +
3 2 2 (x − 1) + 2 2 (x − 1) + 2 2 + · · ·
128
16
8
2
Al rededor de x = 0 es más simple todo:
(%i12)taylor(sigma(x),x,0,6);
( %o12)
3 5
x + (−1) x3 + 2 x + · · ·
4
408
CAPÍTULO 6. APÉNDICE
Y por supuesto, también podemos hacer una gráfica de la función. Para ello utilizaremos el comando wxplot2d
que nos generará un gráfico embebido dentro de la misma hoja de trabajo.
(%i13)wxplot2d(sigma(x),[x,-10,10]);
rP
re
lim
in
ar
( %o13)
Los cálculos anteriores se pueden repetir para que queden de una manera más elegante usando una camilla, esto
hará que no se efectúe la evaluación de las operaciones.
(%i14)’diff(sigma(x),x)=diff(sigma(x),x);
d
2x
2
2 x2
√
( %o14)
=√
−
3
dx
x2 + 1
x2 + 1 (x2 + 1) 2
(%i15)’integrate(sigma(x),x,0,1)=integrate(sigma(x),x,0,1);
1
( %o15) 2
x
√
2−1
ad
o
Z
√
dx = 2
x2 + 1
(%i16)’limit(sigma(x),x,inf)=limit(sigma(x),x,inf);
x
( %o16) 2 lı́m √
=2
x→∞
x2 + 1
(%i17)’sum(sigma(i),i,0,6)=sum(sigma(i),i,0,6);
rr
0
( %o17) 2
6
X
√
i=0
i
i2
√
12
10
8
6
4
=√ +√ +√ +√ +√ + 2
37
26
17
10
5
+1
Bo
Anteriormente mencionamos que uno de las ventajas de los programas de manipulación simbólica es la gran
capacidad de llevar a cabo cálculos largos y tediosos, veamos entonces como se hace para demostrar que la función
antes mencionada:
(%i18)f(x,y,z):=sin(n*z*sqrt(x^2+y^2+z^2)/sqrt(y^2+z^2))/sqrt(x^2+y^2+z^2);
√
n z z 2 +y 2 +x2
√ 2 2
sin
z +y
p
( %o18) f (x, y, z) :=
2
z + y 2 + x2
es solución de la ecuación diferencial
2
∂4f
∂4f
∂4f
∂2f
2 ∂ f
+
+
+
n
+
=0
∂x4
∂y 2 x2
∂z 2 x2
∂x2
∂y 2
6.2. MAXIMA: SINTAXIS BÁSICA
409
(%i19)diff(f(x,y,z),x,4)+diff(diff(f(x,y,z),x,2),y,2)+diff(diff(f(x,y,z),x,2),z,
2)+n^2*(diff(f(x,y,z),x,2)+diff(f(x,y,z),y,2));
( %o19) (( Expression too long to display! ))
ar
Aquı́ Maxima no hace un despliegue en la pantalla de los cálculos porque la expresión matemática es muy
larga. Existen opciones para que muestre en pantalla los que nos interese que iremos viendo más adelante.
Necesitamos entonces decirle al programa que la expresión anterior sea simplificada, es decir, que minimice la
expresión a su valor más simple. Para simplificar expresiones que contienen radicales, exponenciales o logaritmos
es conveniente utilizar el comando ratsimp. También existe la opción fullratsimp
in
(%i20)ratsimp(%);
( %o20) 0
lim
En la mayorı́a de los casos Maxima no factoriza ni desarrolla automáticamente las expresiones, por lo tanto,
debemos indicarle al programa que haga las respectivas simplificaciones. Veamos un ejemplo con polinomios:
(%i21)kill(all)$
(%i1) p:(x+2)*(x-1);
(%i2) q:(x-3)^2;
2
( %o2) (x − 3)
(%i3) p-q;
( %o3) (x − 1) (x + 2) − (x − 3)
(%i4) expand(p-q);
ad
o
( %o4) 7 x − 11
2
rP
re
( %o1) (x − 1) (x + 2)
(%i5) expand(p/q);
( %o5)
x
2
x2
+
−
x2 − 6 x + 9 x2 − 6 x + 9 x2 − 6 x + 9
Si queremos dividir usando fracciones simples podemos hacer lo siguiente:
rr
(%i6) partfrac(p/q,x);
( %o6)
7
10
+
+1
x − 3 (x − 3)2
Bo
Las funciones logexpand y radexpand permiten controlar si queremos simplificar logaritmos y radicales
cuando contienen productos. Veamos:
(%i7) log(x*y);
( %o7) log (x y)
(%i8) sqrt(x*y);
√
( %o8) x y
(%i9) sqrt(x^2);
( %o9) |x|
410
CAPÍTULO 6. APÉNDICE
(%i10)radexpand:all$ logexpand:all$
(%i11)log(x*y); sqrt(x*y); sqrt(x^2);
( %o11) √
log y + log x
√
( %o12) x y
( %o13) x
ar
Lo inverso a la expansión de expresiones es la factorización:
(%i14)factor(200);
in
( %o14) 23 52
(%i15)factor(x^2+x-2);
( %o15) (x − 1) (x + 2)
lim
(%i16)p:x^3-1;
( %o16) x3 − 1
(%i17)factor(%);
rP
re
( %o17) (x − 1) x2 + x + 1
La evaluación de expresiones se realiza de la manera siguiente
(%i18)ev(p,x=8);
( %o18) 511
O también
(%i19)p,x=%pi;
ad
o
( %o19) π 3 − 1
(%i20)ev(x+(x+y)^2-3*(x+y)^3,x+y=t);
( %o20) x − 3 t3 + t2
Para finalizar con esta guı́a rápida de Maxima veamos el uso de uno de los comandos más comunes de estos
programas, y que tiene que ver con la solución de ecuaciones.
rr
(%i21)ecu:3*x^2+2*x+x^3-x^2=2*x^2;
( %o21) x3 + 2 x2 + 2 x = 2 x2
Bo
(%i22)sol:solve(ecu,x);
i
h
√
√
( %o22) x = − 2 %i, x = 2 %i, x = 0
Recordemos que %i es la notación para el imaginario i.
Si necesitamos aislar una de las soluciones usamos el comando rhs (de right-hand side):
(%i23)rhs(part(sol,1)); rhs(part(sol,2));
√
( %o23) √
− 2 %i
( %o24) 2 %i
Para un sistema de ecuaciones, digamos, dos ecuaciones con dos incógnitas:
6.2. MAXIMA: SINTAXIS BÁSICA
411
(%i25)ecu1:x^2+y^2=1;
( %o25) y 2 + x2 = 1
(%i26)ecu2:(x-2)^2+(y-1)^2=4;
2
2
( %o26) (y − 1) + (x − 2) = 4
ar
(%i27)solve([ecu1,ecu2],[x,y]);
4
3
( %o27) x = , y = − , [x = 0, y = 1]
5
5
in
Cuando el sistema no tiene solución Maxima responde de la siguiente manera
(%i28)solve([x+y=0,x+y=1],[x,y]);
lim
( %o28) [ ]
En el caso de un sistema que tiene más incógnitas que ecuaciones el programa utiliza los sı́mbolos %r1 , %r2 ...
para indicar los parámetros arbitrarios
rP
re
(%i29)solve([x+y+z=9,x-y=2*z],[x,y,z]);
3 %r1 − 9
%r1 + 9
,y = −
, z = %r1
( %o29) x =
2
2
En lugar de solve se puede recurrir a un comando diferente que hace lo mismo, pero que es más eficiente desde
el punto de vista de los recursos usados por el computador, el comando es linsolve para ecuaciones lineales.
(%i30)ecus:[x+y+z+w=1,x-y+z-w=-2,x+y-w=0];
( %o30) [z + y + x + w = 1, z − y + x − w = −2, y + x − w = 0]
ad
o
(%i31)linsolve(ecus,[x,y,z]);
2w − 3
4w − 3
,y = −
,z = 1 − 2w
( %o31) x =
2
2
En el caso de polinómios de orden superior el resultado estará dado de forma aproximada:
(%i32)ec:x^7+x^5-x^3+x-2;
( %o32) x7 + x5 − x3 + x − 2
rr
(%i33)allroots(ec);
Bo
[ x=0.766414088337633 %i+0.5507199727230275 ,
x=0.5507199727230275-0.766414088337633 %i ,
x=0.4922671445862202 %i - 0.9637112977011089 ,
x=-0.4922671445862202 %i -0.9637112977011089 ,
x=1.381985877916414 %i -0.08700867502191806 ,
x=-1.381985877916414 %i -0.08700867502191806 ,
x=0.9999999999999988 ]
(%i34)realroots(ec);
( %o34) [x = 1]
Otro tipo de ecuaciones a resolver son las ecuaciones diferenciales. Veamos como funciona con la ecuaciones
diferenciales ordinarias
412
CAPÍTULO 6. APÉNDICE
(%i35)ecd:(2*x+1)*’diff(y,x)+y*(x-1)=0;
d
y + (x − 1) y = 0
( %o35) (2 x + 1)
dx
(%i36)ode2(ecd,y,x);
3 log(2 x+1)
−x
4
2
ar
( %o36) y = %c e
Por ser una ecuación diferencial de primer orden debe aparecer una constante en la solución. La constante aquı́
es denotada por “ %c”.
lim
( %o38) y = %k1 e2 x + %k2 ex +
in
(%i37)ecd2:’diff(y,x,2)-3*’diff(y,x)+2*y=x;
d2
d
( %o37)
y
−
3
y
+ 2y = x
d x2
dx
(%i38)ode2(ecd2,y,x);
2x + 3
4
Para el caso de que se tengan condiciones iniciales utilizamos ic2 para indicar las condiciones
( %o39) y =
2x + 3
5 e2 x
− 2 ex +
4
4
Y para valores de contorno bc2
rP
re
(%i39)ic2(%o38,x=0,y=0,diff(y,x)=1);
(%i40)bc2(%o38,x=0,y=0,x=1,y=0);
3 e2 − 5 ex
(3 e − 5) e2 x
2x + 3
( %o40) y =
−
+
4 e2 − 4 e
4 e2 − 4 e
4
ad
o
Existe el comando desolve para resolver también ecuaciones o sistemas de ecuaciones diferenciales ordinarias
lineales utilizando transformadas de Laplace. Trabaja de manera parecida a ode2 pero se necesita especificar la
dependencia de las funciones con las variables independientes.
(%i41)ecd3:’diff(y(x),x,2)-y(x)=2*x;
d2
y (x) − y (x) = 2 x
d x2
(%i42)desolve(ecd3,[y(x)]);
rr
( %o41)
( %o42) y (x) =
ex
d
dx
y (x)
x=0
+ y (0) + 2
2
−
e−x
d
dx
y (x)
x=0
− y (0) + 2
2
Bo
Si tenemos condiciones iniciales en x = 0 entonces podemos escribir:
(%i43)atvalue(y(x),x=0,1); atvalue(diff(y(x),x),x=0,2);
( %o43) 1
( %o44) 2
(%i45)desolve(ecd3,[y(x)]);
( %o45) y (x) =
3 e−x
5 ex
−
− 2x
2
2
Si desolve no encuentra una solución, entonces devuelve “false”.
Veamos un ejemplo de un sistema de ecuaciones diferenciales
− 2x
6.2. MAXIMA: SINTAXIS BÁSICA
413
(%i46)ecd_1: ’diff(f(x),x)=’diff(g(x),x)+sin(x);
d
d
f (x) =
g (x) + sin x
dx
dx
(%i47)ecd_2: ’diff(g(x),x,2)=’diff(f(x),x)-cos(x);
( %o46)
d2
d
g (x) =
f (x) − cos x
d x2
dx
(%i48)atvalue(’diff(g(x),x),x=0,a)$ atvalue(f(x),x=0,b)$ atvalue(g(x),x=0,c)$
ar
( %o47)
(%i51)desolve([ecd_1, ecd_2], [f(x),g(x)]);
in
( %o51) [f (x) = a ex + b − a, g (x) = cos x + a ex + c − a − 1]
(%i52)kill(all)$
lim
Operaciones básicas con matrices:
rP
re
(%i1) A:matrix([1,2,3],[4,5,6],[7,8,9]);B:matrix([9,8,7],[6,5,4],[3,2,1]);


1 2 3
( %o1) 4 5 6
7 8 9


9 8 7
( %o2) 6 5 4
3 2 1
(%i3) A+B;


10 10 10
( %o3) 10 10 10
10 10 10
El producto ordinario de matrices:

18
54
90
24
69
114
ad
o
(%i4) A.B;

30
( %o4)  84
138
El producto elemento a elemento
rr
(%i5) A*B;


9 16 21
( %o5) 24 25 24
21 16 9
Bo
El cociente elemento a elemento
(%i6) A/B;
1
( %o6)
9
2
3
7
3
1
4
1
4
3
7
3
2

9
El producto por un escalar:
(%i7) n*A;

n 2n
( %o7) 4 n 5 n
7n 8n

3n
6 n
9n
414
CAPÍTULO 6. APÉNDICE
Podemos generar matrices de muchas maneras
(%i8) a[i,j]:=i^2 + j^2$
ar
(%i9) A:genmatrix(a,4,4);


2
5 10 17
5
8 13 20

( %o9) 
10 13 18 25
17 20 25 32
También de manera interactiva:
(%i11)M:entermatrix(n,n)$
0
4
(x − y)
0
4. General
lim
(%i12)M;

3
(y + x)
( %o12) 
0
0
3. Antisymmetric
rP
re
Is the matrix 1. Diagonal 2. Symmetric
Answer 1, 2, 3 or 4 : 1;
Row 1 Column 1: (x+y)^n$
Row 2 Column 2: (x-y)^(n+1)$
Row 3 Column 3: (x.y)^(n-1)$
Matrix entered.
in
(%i10)n:3$

0
0 
2
(x · y)
La matriz identidad de tamaño n x n usamos el comando ident(n), como mostramos a continuación
6.2.2.

0
0

0
1
ad
o
(%i13)ident(4);

1 0 0
0 1 0
( %o13) 
0 0 1
0 0 0
Bibliotecas
rr
No todos los comandos están disponibles en la memoria cuando el programa es iniciado. Sólo los comandos
estándar son cargados automáticamente. Pero podemos contar con funciones adicionales para trabajar cargando
al programa los diferentes paquetes, módulos o librerı́as que dispone Maxima. Por ejemplo, el paquete vect nos
permite introducir vectores y operar con ellos.
El paquete vect debe entonces ser previamente cargado y se hace de la manera siguiente:
Bo
(%i1) load(vect)$
Las operaciones básicas de suma, resta, multiplicación y multiplicación por escalares de vectores las podemos
ver a continuación, pero primero debemos saber como introducir los vectores al programa.
Por ejemplo, para los vectores a = 2i + 4j + 6k, b = 5i + 7j + 9k y c = i + 3j, tenemos:
(%i2) a:[2,4,6];
( %o2) [2, 4, 6]
(%i3) b:[5,7,9];
( %o3) [5, 7, 9]
(%i4) c:[1,3,0];
6.2. MAXIMA: SINTAXIS BÁSICA
415
( %o4) [1, 3, 0]
(%i5) a+b+c;
( %o5) [8, 14, 15]
(%i6) 3*a+5*b-c;
( %o6) [30, 44, 63]
ar
Si queremos calcular el módulo de los vectores podemos hacerlo definiendo una función: la función módulo, como
mostramos a continuación:
(%i11)a.b;
( %11) 92
rP
re
Para el producto escalar usamos un punto
lim
(%i8) modulo(a); modulo(b); modulo(c);
√
( %o8) 2√ 14
( %o9) √155
( %10) 10
in
(%i7) modulo(a):=sqrt(a.a);
√
( %o7) modulo(a) := a.a
Mientras que para el producto vectorial debemos usar la tilde ∼ y escribir lo siguiente
(%i12)express(a~b);
( %o12) [−6, 12, −6]
(%i13)express(b~a);
ad
o
( %o13) [6, −12, 6]
De manera que el producto triple lo podemos calcular asi:
(%i14)c.(express(a~b));
( %o14) 30
rr
Otra librerı́a que podemos explorar es plotdf que nos permite realizar gráficos del tipo y 0 = f (x, y) y hacernos
una idea de cómo es la solución de ésta ecuación diferencial.
Bo
(%i1) load(plotdf)$
La librerı́a plotdf nos permite estudiar los campos de direcciones y las curvas integrales a través del estudio de
las pendientes. Veamos la siguiente ecuación diferencial
y 0 = −x + e−y
su solución, de manera gráfica, es decir los campos de direcciones lo podemos obtener escribiendo el siguiente
comando.
(%i2) plotdf(-x+exp(-y));
La gráfica que resulta puede verse en la Figura 6.2 y cada curva integral (curvas en rojo) se obtiene haciendo
un “click”sobre un punto de la gráfica, esto generará la curva integral que pasa por ese punto.
CAPÍTULO 6. APÉNDICE
lim
in
ar
416
rP
re
Figura 6.2: Curvas integrales para y 0 = −x + e−y
Por otra parte, existen varias opciones para el comando plotdf. Supongamos que queremos la trayectoria que
pase por el punto especı́fico (2, 3). Para tal fin escribimos
(%i3) plotdf(-x+exp(-y),[trajectory_at,2,3]);
ad
o
Y la gráfica obtenida puede verse en la Figura 6.3.
También nos podemos encontrar con que la ecuación diferencial depende de algún parámetro, digamos κ. Por
ejemplo
y 0 = −x + κe−y
y nos gustarı́a obtener una gráfica para algún valor del parámetro en partı́cular, digamos κ = −0,5. Entonces
podemos escribir
(%i4) plotdf(-x+exp(-kappa*y),[parameters,"kappa=-0.5"]);
rr
O, si queremos recorrer, en una misma figura, los diferentes valores del parámetro usamos la opción sliders,
como se muestra a continuación
(%i5) plotdf(-x+exp(-kappa*y),[parameters,"kappa=-0.5"],[sliders,"kappa=-3:3"]);
Bo
La gráfica que se obtiene se muestra en la Figura 6.4, y como se puede ver, en la parte inferior aparece un botón
deslizante y el valor del parámetro κ. Al deslizar el botón, estaremos cambiando el valor del parámetro que en
este caso variará entre −3 y 3, podremos apreciar entonces como los campos de direcciones y las curvas integrales
seleccionadas cambian.
417
lim
in
ar
6.2. MAXIMA: SINTAXIS BÁSICA
6.2.3.
rP
re
Figura 6.3: Curva integrales para y 0 = −x + e−y y que pasa por el punto (2, 3)
Maxima en modo texto
ad
o
Es posible utilizar Maxima en un computador que funcione bajo alguno de los diferentes versiones de sistemas
operativos tipo UNIX, como por ejemplo Linux, esto lo podemos hacer cuando no queremos utilizar el ambiente
gráfico. Podemos recurrir al ambiente de texto escribiendo el comando maxima en un terminal de nuestro computador, esto hará que entremos en un ambiente de cálculo que funcionará exclusivamente en modo texto y aparecerá,
luego de una bienvenida, el aviso de espera o prompt. Para finalizar una sesión en Maxima se utiliza el comando
quit().
Esta posibilidad que ofrece el programa es muy conveniente a la hora de realizar grandes cálculos ya que podemos
dejar el proceso en modo “background” y utilizar el computador en otra actividad.
Al entrar en este modo al programa tendremos un mensaje como el que se muestra a continuación y donde
aprovecharemos de hacer un par de cálculos a modo de ejemplo.
Bo
rr
Obatala%maxima
Maxima 5.36.1 http://maxima.sourceforge.net
using Lisp SBCL 1.2.10
Distributed under the GNU Public License. See the file COPYING.
Dedicated to the memory of William Schelter.
The function bug_report() provides bug reporting information.
(%i1) integrate( tan(x), x );
(%o1)
log(sec(x))
(%i2) float(sqrt(%pi));
(%o2)
1.772453850905516
(%i3) quit();
Sobre UNIX podemos utilizar los archivos de entradas y salidas estándar para leer e imprimir información en el
terminal: <, >, |.
Obatala% maxima < archimax.txt
Con esta instrucción Maxima ejecutará todos los comandos que se encuentran en el archivo de texto archimax.txt e irá mostrando los resultados en pantalla
En la siguiente instrucción Maxima ejecutará todos los comandos que se encuentran en el archivo de texto
archimax.txt pero escribirá los resultados en el archivo de salida llamado archimax.out
CAPÍTULO 6. APÉNDICE
lim
in
ar
418
rP
re
Figura 6.4: Curva integrales para y 0 = −x + κe−y y para diferentes valores de κ.
Obatala% maxima < archimax.txt > archimax.out
También se puede hacer que todos los comandos del archivo sean ejecutados para luego ser enviados al terminal
pero paginados.
Obatala% maxima < archimax.txt | more
ad
o
Maxima puede ser detenido temporalmente con el comando “Control Z” de manera que para poner procesos
en “background” se procede de la manera usual:
Obatala% maxima < archimax.txt > archimax.out
^Z
Suspended
Obatala%> bg
[2] maxima < archimax.txt > archimax.out &
rr
Obatala%
O si lo preferimos, y de manera equivalente, podemos escribir la instrucción pero ponemos al final &
< archimax.txt > archimax.out &
Bo
Obatala% maxima
[1] 5114
6.2.4.
Invocando la ayuda
El ambiente wxMaxima permite acceder al manual de ayuda fácilmente visible en la barra de herramientas,
parte superior de la ventana. Pero también si conocemos el comando podemos escribir, por ejemplo:
(%i1) describe(diff);
0: diff (Functions and Variables for Differentiation)
1: diff <1> (Functions and Variables for Differentiation)
2: diff <2> (Functions and Variables for itensor)
Enter space-separated numbers, ‘all’ or ‘none’:
6.2. MAXIMA: SINTAXIS BÁSICA
419
rP
re
lim
in
-- Function: diff
diff (<expr>, <x_1>, <n_1>, ..., <x_m>, <n_m>)
diff (<expr>, <x>, <n>)
diff (<expr>, <x>)
diff (<expr>)
Returns the derivative or differential of <expr> with respect to
some or all variables in <expr>.
’diff (<expr>, <x>, <n>)’ returns the <n>’th derivative of <expr>
with respect to <x>.
’diff (<expr>, <x_1>, <n_1>, ..., <x_m>, <n_m>)’ returns the mixed
partial derivative of <expr> with respect to <x_1>, ..., <x_m>. It
is equivalent to ’diff (... (diff (<expr>, <x_m>, <n_m>) ...),
<x_1>, <n_1>)’.
’diff (<expr>, <x>)’ returns the first derivative of <expr> with
respect to the variable <x>.
’diff (<expr>)’ returns the total differential of <expr>, that is,
the sum of the derivatives of <expr> with respect to each its
variables times the differential ’del’ of each variable. No
further simplification of ’del’ is offered.
The noun form of ’diff’ is required in some contexts, such as
stating a differential equation. In these cases, ’diff’ may be
quoted (as ’’diff’) to yield the noun form instead of carrying out
the differentiation.....
ar
Al seleccionar una de las opciones, por ejemplo si escribimos 1 después de los dos puntos, aparecerá la descripción
completa del comando:
There are also some inexact matches for ‘diff’.
Try ‘?? diff’ to see them.
También podemos utilizar:
(%i2) apropos("diff");
ad
o
[covdiff,diff,maxtaydiff,pdiff_diff_var_names,pdiff_prime_limit...]
O pedirle al programa algunos ejemplos
(%i3) example(diff);
rr
kill(f,g,h,x,y)
done
diff(sin(x)+x^3+2*x^2,x)
cos(x)+3*x^2+4*x
diff(sin(x)*cos(x),x)
cos(x)^2-sin(x)^2
diff(sin(x)*cos(x),x,2)
-4*cos(x)*sin(x)
Bo
(%i4)
(%o4)
(%i5)
(%o5)
(%i6)
(%o6)
(%i7)
(%o7)
.
.
.
Las ayudas completas de Maxima se pueden consultar en: http://maxima.sourceforge.net/es/
6.2.5.
Ejercicios
1. Calcule:
a) los 70 primeros decimales del número e
420
CAPÍTULO 6. APÉNDICE
b) el arco coseno hiperbólico de 1
c) la expansión de sin(2 arctan(x))
2. Para la siguiente función
(x + 1)3
f (x) = √
x2 − 1
Calcule
∂f (x) ∂f (x)
∂x , ∂x2
ar
a)
b)
Z
4
Z
f (x)dx
f (x)dx ,
c)
lı́m f (x) ,
x→−∞
d ) Haga un gráfico de f (x) para valores de x ∈ [−5, 5].
3. Encuentre las raı́ces de
lı́m f (x)
x→0
lim
lı́m f (x) ,
x→∞
in
2
p = x7 + x5 + 2x + x
4. Resuelva la siguiente ecuación diferencial
dy(x)
= y(x) ln(xy(x)) − y(x);
dx
rP
re
x
y haga una gráfica del campo de direcciones que muestre algunas curvas integrales.
5. Resuelva la siguiente ecuación diferencial
dy(t)
d2 y(t)
− 1 − y(t)2
+ y(t) = 0 ,
2
d t
dt
con: y(0) = 0 ,
dy(t)
= −0,1
dt
6. Realice los ejercicios de la sección 1.2.4 con la ayuda de la librerı́a vect de Maxima.
ad
o
7. En un archivo de texto escriba las siguientes instrucciones que tienen que ver con operaciones de números
complejos:
Bo
rr
z_1=1+2%i;
z_2=3+4%i;
z_1+z_2;
z_1*z_2;
expand(%);
z_1/z_2;
rectform(%);
polarform(%);
guarde el archivo con el nombre pruebamax.txt y en un terminal de su computador, y en el mismo directorio
donde está el archivo escriba:
localhost%
maxima < pruebamax.txt > pruebamax.out &
y verifique que en el archivo pruebamax.out se haya realizado los cálculos.
Álgebra de números complejos, 60
Álgebra de vectores 3D, 4
Álgebra vectorial
Aplicaciones, 22
Índices
Álgebra de vectores, 30
Convención de Einstein, 29
Ejemplos cálculos vectoriales, 34
draw, 25
gr3d, 25
vect, 19
wxdraw3d, 25
in
Bases recı́procas, 141
Bases recı́procas de vectores, 138
Biyectivo
Operador, 223
lim
Cambios de Base
Representación matricial de operadores, 233
Campo, 80
vectorial, flujo de, 327
de fuerza, 326
Escalar, derivada direccional, 330
Lineas de, 326
Campos
Escalares, 325
Vectoriales, 325
Campos Tensoriales, 323
Campos vectoriales
Comienzos de derivación/integración, 37
Cartesianas
Coordenadas, 168, 301
Cauchy-Schwarz
Desigualdad, 92
Componentes
Tensores, 151
Componentes de Vectores, 14
Componentes vectores 3D, 14
Composición de Operadores Lineales, 215
Conjunto Completo de Observables que conmutan, 282
Conjuntos con Maxima, 85
Contracción de Tensores, 152
Convención de Einstein, 29
Coordenadas
Rotación de, 31
cartesianas, 168, 301
cilı́ndricas, 302
elipsoidales, 305
esfericas, 303
polares, 168
toroidales, 305
Transformaciones, 156
Coordenadas
Sistemas de, 14
Coordenadas curvilı́neas
Producto escalar, 310
Producto vectorial, 310
Tensores, 309
Coordenadas Generalizadas
rr
ad
o
rP
re
Abelianos
Grupos , 77
Algebra de Matrices, 232
Algebra vectorial con ı́ndices, 28
Algebra vectorial y coordenadas, 16
Angulo de fase de un autovector, 265
Aplicaciones
Álgebra vectorial, 22
Aproximación de funciones, 116
Autoespacios, 280
Autovalores
Matrices reales, 268
Multiplicidad algebraica, 267
Autovalores degenerados, 269, 270
Matrices Hermı́ticas, 280
Autovalores y Autovectores
Matrices unitarias, 281
Polinomio caraterı́stico, 266
Autovalores y autovectores, 265
Independencia lineal, 265
Autovalores y autovectores de operadores similares, 281
Autovector
Angulo de fase, 265
Autovectores
Matrices reales, 268
Multiplicidad geométrica, 267
Bo
ar
Índice alfabético
Banach
Espacios Vectoriales Normados, 91
Stefan Banach, 91
Bases
Ejemplos bases ortogonales, 107
Ejemplos de Bases de espacios vectoriales, 106
Bases ortogonales, 106
Bases para Espacios vectoriales lineales, 104
421
422
ÍNDICE ALFABÉTICO
Bo
in
lim
rP
re
rr
ad
o
De Moivre
Fórmulas de, 63
Delta de Kronecker, 30
Dependencia lineal, 104
Ejemplos de, 109
Vectores 3D, 16
Derivación
Campos vectoriales, 37
Derivación vectores 3D, 38
Derivada
Direccional, 330
Direccional, Campo escalar, 330
Descomposición ortogonal, 116
Desigualdad
Cauchy-Schwarz, 92, 152
Desigualdad de Cauchy-Schwarz
Vectores 3D, 7
Determinante, 234
Diferenciación
Operadores, 237
Diferenciación de Operadores, 226
Dirac
Notación, 83
Distancia
Espacios vectoriales lineales, 89
Norma, 91
Producto interno, 92
Divergencia, 333
Dual
Espacios Vectoriales, 136
Ejemplos Tensores, 158
Elemento de lı́nea, 155
Elipsoidales
coordenadas, 305
Equipotenciales
Lı́neas, 326
Escalar
Producto, 7, 17
Escalares
Campos, 325
Esfuerzo
Tensor de, 171
Espacio
Imagen, 221
Nulo, 221
Espacio tensorial, 149
Espacio vectorial
Operadores lineales, 214
Espacios
Minkowskianos, 181
Espacios vectoriales con Maxima, 96
Espacios vectoriales duales, 136
Espacios vectoriales lineales, 80
Bases de, 104
Distancia, 89
Ejemplos de , 81
Ejemplos de Bases de espacios vectoriales, 106
Hilbert, 91
Métricos, 89
Norma, 90
Normados, 90
Producto interno, 91
Espacios vectoriales pseudo-euclidianos, 180
Espectro de un operador, 265
Euler
Fórmulas de , 63
Exterior
Producto, 148
ar
Gradiente, 333
Coordenadas generalizadas, 300, 308
Coseno
Teorema del, 93
Cosenos Directores, 14
Cosenos directores, 15
Covector, 136
Coordenadas curvilı́neas, 309
Covectores, 138
Cuaternión, 100
Curvas
integrales, 326
Curvas parametrizadas, 306
Curvatura, 308
Ecuaciones Lineales
Sistema de, 256
Einstein
Convención de, 29
Ejemplos cálculos vectoriales con ı́ndices, 34
Ejemplos de Bases de espacios vectoriales, 106
Ejemplos de bases ortogonales, 107
Ejemplos de dependencia/independencia lineal, 109
Ejemplos de espacios vectoriales lineales, 81
Ejemplos de grupos, 78
Ejemplos de ortogonalizacion, 110
Fórmula
de Glauber, 227
Fórmulas de De Moivre, 63
Identidades trigonométricas, 66
Logaritmos y potencias de números complejos, 67
Raı́ces de polinomios, 66
Fórmulas de Euler, 63
Factores de escala, 301
coordenadas esféricas, 303
Flujo
Campos Vectorial, 327
Campos vectoriales, 333
Fourier
Transformada de, 214
Frenet-Serret
Fórmulas de, 309
Funcionales lineales, 136
Funciones de Operadores, 225
ÍNDICE ALFABÉTICO
423
Glauber
Fórmula de, 227
Gradiente
Coordenadas generalizadas, 333
Gram
Determinante, 106
Jorgen Pedersen Gram, 106
Gram-Schmidt
Método Ortogonalización, 109
Grupo de Permutaciones, 83
Grupos, 77
Grupos isomorfos, 79
Leyes de Transformación para vectores, 138
Lineal
Operador, 212
ar
Método de mı́nimos cuadrados, 118
Métrica, 89
Tensor, 154
Métricos
Espacios vectoriales lineales, 89
Mı́nimos Cuadrados, 120
Mı́nimos cuadrados
Método de, 118
Matrices
Algebra de, 232
Matrices similares, 233
Matrices Unitarias
Autovalores y Autovectores, 281
Matriz
Jacobiana, 156, 310
Maxima
draw, 25
gr3d, 25
linsolve, 20
vect, 19
wxdraw3d, 25
Bases para espacios vectoriales, 112
Bases recı́procas, 141
Conjuntos, 85
Independencia lineal, 112
Mı́nimos Cuadrados, 120
Ortogonalización, 114
Polinomios ortogonales, 127
Series de Fourier, 123
Vectores con, 19
MaximaEspaciosVectoriales, 96
Mellin
Transformada de, 214
Minkowski
Espacios vectoriales, 181
Modelos en Fı́sica, 3
ad
o
rP
re
Independencia Lineal, 104
Autovalores y autovectores, 265
Ejemplos de, 109
Vectores 3D, 6
Independencia lineal
Maxima, 112
Vectores 3D, 16
Index
Operador, 223
Integración
Campos vectoriales, 37
Integración vectores 3D, 44
Integral
Transformada, 214
Interno
Producto, 91, 92
Interpolación polinomial puntos experimentales, 119
Isomorfos
Grupos, 79
lim
in
Hankel
Transformada de, 214
Hermı́ticos
Operadores, 225
Hilbert
David Hilbert, 91
Espacios vectoriales lineales, 91
rr
Jacobiano, 156, 310, 314
Bo
Kronecker
Delta de, 30
Leopold Kronecker, 30
Lı́neas
de campo, 326
de corriente, 326
de flujo, 326
Equipotenciales, 326
Laplace
Transformada de, 214
Levi-Civita
Tensor, 30, 310
Tensor generalizado, 234
Tullio Levi-Civita, 30
Números complejos
Álgebra, 60
Aplicaciones fórmulas de Euler y De Moivre, 65
Fórmulas de Euler y De Moivre, 63
Vectores 2D, 60
Norma
Distancia, 91
Espacios vectoriales lineales, 90
Producto interno, 92
Normados
Espacios vectoriales lineales, 90
Notación
Dirac, 83
Nulo
Espacio, 221
ÍNDICE ALFABÉTICO
Productos de Vectores 3D, 7
Proyectores
Autovalores y autovectores, 268
Pseudo-escalares, 32
Pseudo-euclidianos
Espacios Vectoriales, 180
Pseudo-vectores, 32
Puntos Experimentales
Interpolación polinomial, 119
lim
in
Recı́procas
Bases de vectores, 138
Rectas y vectores, 22
Representación matricial de operadores
Cambios de Base, 233
Representación matricial de operadores adjuntos y hermı́ticos, 232
Rotación de coordenadas, 31
rr
ad
o
Permutaciones
Grupos de, 83
Pitágoras
Teorema de, 93
Planos y vectores, 23
Polares
Coordenadas, 168
Polinomial
Interpolación de puntos experimentales, 119
Polinomio caracterı́stico, 266
Polinomios ortogonales, 127
Producto
escalar, 7
Exterior, 148
Tensorial, 148
Tensorial de tensores, 152
Vectores 3D, 7
Producto escalar, 7, 17
Coordenadas curvilı́neas, 310
Producto interno, 92
Distancia, 92
Espacios vectoriales lineales, 91
Norma, 92
Producto Mixto, 9
Producto Triple, 9
Producto vectorial, 8, 18
Coordenadas curvilı́neas, 310
Producto vectorial mixto, 18
Bo
Schmidt
Erhard Schmidt, 109
Series de Fourier, 123
Simetrización de tensores, 153
Similares
Matrices, 233
Sistemas de coordenadas, 14
Sistemas de ecuaciones lineales, 256
Subgrupos, 79
rP
re
Operador
Biyectivo, 223
Determinante de un, 234
Diferenciación de, 237
Funciones de, 225
Inverso, 223
Vectorial, 330
Operador Lineal, 212
Composición, 215
Operador lineal
Espacio vectorial, 214
Operadores adjuntos
Representación matricial, 232
Operadores Hermı́ticos, 225
Autovalores degenerados, 280
Operadores hermı́ticos
Representación matricial, 232
Operadores Unitarios, 225
Ortogonal
Complemento, 116
Descomposición, 116
Ortogonales
Ejemplos de bases, 107
Ortogonalidad, 106
Ortogonalización, 110, 114
Método Gram-Schmidt, 109
Ortogonalizacion
Ejemplos de, 110
ar
424
Taylor
Brook Taylor, 63
Tensor, 147
Bases, 150
Combinaciones Lineales, 152
Componentes, 151
Componentes de, 151
Contracción, 152
Coordenadas curvilı́neas, 309
de esfuerzos, 171
definicion, 147
Esfuerzo 2D, 171
Esfuerzo 3D, 173
Espacio tensorial, 149
Levi-Civita, 30, 234, 310
Métrico, 154
Producto, 148
Producto tensorial de, 152
Simetrización, 153
Stress, 171
Transformación, 156
Tensores
Ejemplos, 158
Tensoriales
Campos, 323
Teorema de
Pitágoras, 93
Teorema del
ÍNDICE ALFABÉTICO
425
lim
in
ar
Coseno, 93
Toroidales
coordenadas, 305
Torsión, 309
Transformación
Coordenadas, 156
Tensor, 156
Vector, 156
Transformaciones Unitarias, 233
Transformada
Fourier, 214
Hankel, 214
Integral, 214
Laplace, 214
Mellin, 214
Trayectorias
ortogonales, 326
Triple producto vectorial, 18
Bo
rr
ad
o
Variedades lineales, 104
Vector
Transformación, 156
Vectores
Espacios vectoriales lineales, 80
Leyes de Transformación, 138
Vectores 2D
Números complejos, 60
Vectores 3D, 4
Álgebra, 4
Álgebra con ı́ndices, 30
Componentes, 14
Dependencia lineal, 16
Derivación, 38
Derivación/integración, 37
Independencia lineal, 16
Integración, 44
Planos, 23
Producto escalar, 17
Producto vectorial, 18
Producto vectorial mixto, 18
Productos, 7
Rectas, 22
Suma/resta, 16
Velocidades/Aceleraciones, 39
Vectores con Maxima, 19
Vectorial
Flujo de campo, 327
Operador, 330
Producto, 18
Vectoriales
Campos, 325
rP
re
Unitarias
Transformaciones, 233
Unitarios
Operadores, 225
View publication stats
Descargar