See discussions, stats, and author profiles for this publication at: https://www.researchgate.net/publication/326829698 Matemáticas Avanzadas: de los espacios lineales al análisis vectorial, con aplicaciones en MAXIMA Preprint · August 2018 DOI: 10.13140/RG.2.2.16232.37129 CITATIONS READS 0 424 2 authors: Héctor Hernández Luis Nunez University of the Andes (Venezuela) Industrial University of Santander 23 PUBLICATIONS 359 CITATIONS 247 PUBLICATIONS 4,340 CITATIONS SEE PROFILE Some of the authors of this publication are also working on these related projects: Caracterización de SiPMs View project Water Cherenkov Detector at Universidad Industrial de Santander View project All content following this page was uploaded by Héctor Hernández on 04 August 2018. The user has requested enhancement of the downloaded file. SEE PROFILE ad o rr Bo lim rP re ar in ar in rP re lim Matemáticas Avanzadas: de los espacios lineales al análisis vectorial, con aplicaciones en Maxima H. Hernández Departamento de Fı́sica, Facultad de Ciencias, Universidad de Los Andes, Mérida-Venezuela ad o L. A. Núñez Escuela de Fı́sica, Facultad de Ciencias, Universidad Industrial de Santander, Bucaramanga-Colombia Bo rr 4 de agosto de 2018 ad o rr Bo lim rP re ar in ii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . rP re ad o rr Bo iii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . in . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . lim 1. Los vectores de siempre 1.1. Vectores geométricos . . . . . . . . . . . . . . . . . . . . . . 1.1.1. Escalares y vectores . . . . . . . . . . . . . . . . . . 1.1.2. Álgebra de vectores . . . . . . . . . . . . . . . . . . 1.1.3. Vectores linealmente independientes . . . . . . . . . 1.1.4. Productos de vectores . . . . . . . . . . . . . . . . . 1.1.5. Producto triple o mixto . . . . . . . . . . . . . . . . 1.1.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . 1.1.7. Practicando con Maxima . . . . . . . . . . . . . . . 1.1.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . 1.2. Vectores en componentes . . . . . . . . . . . . . . . . . . . . 1.2.1. Bases y componentes . . . . . . . . . . . . . . . . . . 1.2.2. Cosenos directores . . . . . . . . . . . . . . . . . . . 1.2.3. Una división fallida . . . . . . . . . . . . . . . . . . . 1.2.4. Algebra vectorial en componentes . . . . . . . . . . . 1.2.5. Dependencia e independencia lineal . . . . . . . . . . 1.2.6. Productos de vectores en componentes . . . . . . . . 1.2.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . 1.2.8. Practicando con Maxima . . . . . . . . . . . . . . . 1.2.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . 1.3. Aplicaciones del álgebra vectorial . . . . . . . . . . . . . . . 1.3.1. Rectas y vectores . . . . . . . . . . . . . . . . . . . . 1.3.2. Planos y vectores . . . . . . . . . . . . . . . . . . . . 1.3.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . 1.3.4. Practicando con Maxima . . . . . . . . . . . . . . . 1.3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . 1.4. Álgebra vectorial con ı́ndices . . . . . . . . . . . . . . . . . 1.4.1. Convención de Einstein . . . . . . . . . . . . . . . . 1.4.2. Vectores e ı́ndices . . . . . . . . . . . . . . . . . . . . 1.4.3. Rotación de coordenadas . . . . . . . . . . . . . . . 1.4.4. Escalares, pseudoescalares, vectores y pseudovectores 1.4.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . 1.4.6. Practicando con Maxima . . . . . . . . . . . . . . . 1.4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . 1.5. Un comienzo a la derivación e integración de vectores . . . 1.5.1. Vectores variables . . . . . . . . . . . . . . . . . . . 1.5.2. Derivación . . . . . . . . . . . . . . . . . . . . . . . . 1.5.3. Velocidades y aceleraciones . . . . . . . . . . . . . . 1.5.4. Vectores y funciones . . . . . . . . . . . . . . . . . . 1.5.5. El operador ∇ . . . . . . . . . . . . . . . . . . . . . 1.5.6. Integración . . . . . . . . . . . . . . . . . . . . . . . 1.5.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . 1.5.8. Practicando con Maxima . . . . . . . . . . . . . . . 1.5.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . 1.6. Vectores y números complejos . . . . . . . . . . . . . . . . . ar Índice general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 3 4 4 6 7 9 9 11 13 14 14 15 16 16 16 17 18 19 21 22 22 23 24 25 26 28 29 30 31 32 34 35 37 37 37 38 39 41 43 44 45 51 58 60 ÍNDICE GENERAL iv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Espacios vectoriales lineales 2.1. Grupos, campos y espacios vectoriales . . . . . . . . . . . . . 2.1.1. Grupos . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.2. Campo . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.3. Espacios vectoriales lineales . . . . . . . . . . . . . . . 2.1.4. Algunos espacios vectoriales . . . . . . . . . . . . . . . 2.1.5. La importancia de la notación . . . . . . . . . . . . . . 2.1.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.7. Practicando con Maxima . . . . . . . . . . . . . . . . 2.1.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . 2.2. Espacios métricos, normados y con producto interno . . . . . 2.2.1. Métricas y espacios métricos . . . . . . . . . . . . . . 2.2.2. Normas y espacios normados . . . . . . . . . . . . . . 2.2.3. Espacios euclidianos . . . . . . . . . . . . . . . . . . . 2.2.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.5. Practicando con Maxima . . . . . . . . . . . . . . . . 2.2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1. Dependencia/Independencia lineal . . . . . . . . . . . 2.3.2. Bases de un espacio vectorial . . . . . . . . . . . . . . 2.3.3. El determinante de Gram . . . . . . . . . . . . . . . . 2.3.4. Ortogonalidad y bases ortogonales . . . . . . . . . . . 2.3.5. Ortogonalización . . . . . . . . . . . . . . . . . . . . . 2.3.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.7. Practicando con Maxima . . . . . . . . . . . . . . . . 2.3.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . 2.4. Aproximación de funciones . . . . . . . . . . . . . . . . . . . 2.4.1. Complementos ortogonales y descomposición ortogonal 2.4.2. Condiciones para la aproximación de funciones . . . . 2.4.3. El método de mı́nimos cuadrados . . . . . . . . . . . . 2.4.4. Interpolación polinomial de puntos experimentales . . 2.4.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . 2.4.6. Practicando con Maxima . . . . . . . . . . . . . . . . 2.4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 77 77 80 80 81 83 83 85 87 89 89 90 91 95 96 99 104 104 104 106 106 109 109 112 115 116 116 117 118 119 119 123 130 3. Vectores duales y tensores 3.1. Funcionales lineales . . . . . . . . . . . . . . . . . . . . 3.1.1. Espacio vectorial dual . . . . . . . . . . . . . . 3.1.2. Espacios duales y bases recı́procas . . . . . . . 3.1.3. Vectores, formas y leyes de transformación . . 3.1.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . 3.1.5. Practicando con Maxima . . . . . . . . . . . . 3.1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . 3.2. Tensores y producto tensorial . . . . . . . . . . . . . . 3.2.1. Tensores, una definición funcional . . . . . . . 3.2.2. Producto tensorial . . . . . . . . . . . . . . . . 3.2.3. Espacios tensoriales . . . . . . . . . . . . . . . 3.2.4. Bases para un producto tensorial . . . . . . . . 3.2.5. Tensores, sus componentes y sus contracciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 136 136 137 138 139 141 146 147 147 148 149 150 151 rP re ad o rr Bo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60 61 63 65 68 70 73 ar . . . . . . . in Los números complejos y su álgebra Vectores y el plano complejo . . . . Fórmulas de Euler y De Moivre . . . Algunas aplicaciones inmediatas . . Ejemplos . . . . . . . . . . . . . . . Practicando con Maxima . . . . . . Ejercicios . . . . . . . . . . . . . . . lim 1.6.1. 1.6.2. 1.6.3. 1.6.4. 1.6.5. 1.6.6. 1.6.7. ÍNDICE GENERAL v . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 155 155 156 158 175 178 180 181 182 184 187 188 191 191 192 195 198 200 202 206 4. Matrices, determinantes y autovectores 4.1. Operadores lineales . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1. Espacio vectorial de operadores lineales . . . . . . . . . 4.1.2. Composición de operadores lineales . . . . . . . . . . . . 4.1.3. Proyectores . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.5. Practicando con Maxima . . . . . . . . . . . . . . . . . 4.1.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Tipos de operadores . . . . . . . . . . . . . . . . . . . . . . . . 4.2.1. Espacio nulo e imagen de un operador . . . . . . . . . . 4.2.2. Operadores biyectivos e inversos . . . . . . . . . . . . . 4.2.3. Operadores adjuntos . . . . . . . . . . . . . . . . . . . . 4.2.4. Operadores hermı́ticos . . . . . . . . . . . . . . . . . . . 4.2.5. Operadores unitarios . . . . . . . . . . . . . . . . . . . . 4.2.6. Funciones de operadores . . . . . . . . . . . . . . . . . . 4.2.7. Diferenciación de operadores . . . . . . . . . . . . . . . 4.2.8. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2.9. Practicando con Maxima . . . . . . . . . . . . . . . . . 4.2.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3. Representación matricial de operadores . . . . . . . . . . . . . 4.3.1. Álgebra elemental de matrices . . . . . . . . . . . . . . 4.3.2. Bases y la representación matricial de operadores . . . . 4.3.3. Representación matricial y transformaciones . . . . . . . 4.3.4. Traza de operadores . . . . . . . . . . . . . . . . . . . . 4.3.5. Un paréntesis determinante . . . . . . . . . . . . . . . . 4.3.6. Diferenciación de operadores y representación matricial 4.3.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.8. Practicando con Maxima . . . . . . . . . . . . . . . . . 4.3.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Un zoológico de matrices cuadradas . . . . . . . . . . . . . . . 4.4.1. Matriz unidad y la matriz nula . . . . . . . . . . . . . . 4.4.2. Matriz diagonal y diagonal a bloques . . . . . . . . . . . 4.4.3. Matriz transpuesta . . . . . . . . . . . . . . . . . . . . . 4.4.4. Matriz de cofactores . . . . . . . . . . . . . . . . . . . . 4.4.5. Matriz adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211 212 214 215 216 216 218 220 221 221 223 224 225 225 225 226 228 229 230 231 232 232 233 233 234 237 238 243 247 249 250 250 250 250 250 rP re ad o rr Bo ar . . . . . . . . . . . . . . . . . . . . . in . . . . . . . . . . . . . . . . . . . . . lim 3.2.6. Tensor métrico, ı́ndices y componentes . . . . . . . . 3.2.7. Métrica, elemento de lı́nea y factores de escala . . . 3.2.8. Teorema del cociente . . . . . . . . . . . . . . . . . . 3.2.9. Vectores, formas, tensores y leyes de transformación 3.2.10. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . 3.2.11. Practicando con Maxima . . . . . . . . . . . . . . . 3.2.12. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . 3.3. Vectores, tensores y espacios pseudoeuclidianos . . . . . . . 3.3.1. Espacios minkowskianos . . . . . . . . . . . . . . . . 3.3.2. Un toque de Relatividad Especial . . . . . . . . . . . 3.3.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . 3.3.4. Practicando con Maxima . . . . . . . . . . . . . . . 3.3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . 3.4. Espacios de funciones . . . . . . . . . . . . . . . . . . . . . 3.4.1. La función delta de Dirac . . . . . . . . . . . . . . . 3.4.2. Bases continuas . . . . . . . . . . . . . . . . . . . . . 3.4.3. Bases de ondas planas y la transformada de Fourier 3.4.4. Las representaciones |ri y |pi . . . . . . . . . . . . . 3.4.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . 3.4.6. Practicando con Maxima . . . . . . . . . . . . . . . 3.4.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . ÍNDICE GENERAL vi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251 251 251 251 252 253 255 256 256 257 258 258 259 260 263 265 265 266 267 267 274 277 279 279 281 282 285 292 294 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299 300 301 302 303 305 306 309 310 317 322 323 325 325 327 327 327 329 330 330 333 336 339 340 342 343 348 ar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . rP re lim in 4.4.6. Matriz singular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.7. Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.8. Matriz ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.9. Matrices complejas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.10. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.11. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.12. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.1. Eliminación de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . 4.5.2. El método de la matriz inversa . . . . . . . . . . . . . . . . . . . . . . 4.5.3. Factorización LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.4. Método de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.5. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.6. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . 4.5.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6. Autovectores y autovalores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.1. Autovalores, autovectores e independencia lineal . . . . . . . . . . . . 4.6.2. El polinomio caracterı́stico, autovalores y autovectores de un operador 4.6.3. El caso degenerado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.5. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . 4.6.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7. Autovalores y autovectores de matrices importantes . . . . . . . . . . . . . . 4.7.1. Autovalores y autovectores de matrices hermı́ticas y unitarias . . . . . 4.7.2. Autovalores y autovectores de matrices similares . . . . . . . . . . . . 4.7.3. Conjunto completo de observables que conmutan . . . . . . . . . . . . 4.7.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7.5. Practicando con Maxima . . . . . . . . . . . . . . . . . . . . . . . . . 4.7.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bo rr ad o 5. Coordenadas curvilı́neas, campos y operadores diferenciales 5.1. Coordenadas curvilı́neas generalizadas . . . . . . . . . . . . . . 5.1.1. Coordenadas cartesianas . . . . . . . . . . . . . . . . . . 5.1.2. Coordenadas cilı́ndricas . . . . . . . . . . . . . . . . . . 5.1.3. Coordenadas esféricas . . . . . . . . . . . . . . . . . . . 5.1.4. Otros sistemas coordenados . . . . . . . . . . . . . . . . 5.1.5. Curvas y parámetros . . . . . . . . . . . . . . . . . . . . 5.1.6. Covectores, tensores y coordenadas curvilı́neas . . . . . 5.1.7. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.8. Practicando con Maxima . . . . . . . . . . . . . . . . . 5.1.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2. Campos tensoriales . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1. Campos escalares y superficies . . . . . . . . . . . . . . 5.2.2. Campos vectoriales y curvas integrales . . . . . . . . . . 5.2.3. Flujo de campos vectoriales . . . . . . . . . . . . . . . . 5.2.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.5. Practicando con Maxima . . . . . . . . . . . . . . . . . 5.2.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3. La fauna de los operadores vectoriales . . . . . . . . . . . . . . 5.3.1. Derivada direccional, diferencial total y gradiente . . . . 5.3.2. Divergencia y flujo en campos vectoriales . . . . . . . . 5.3.3. Rotores, lı́neas de torbellino y circulación . . . . . . . . 5.3.4. Formulario del operador nabla, ∇ . . . . . . . . . . . . 5.3.5. Nabla dos veces y el laplaciano . . . . . . . . . . . . . . 5.3.6. Derivadas direccionales de campos vectoriales . . . . . . 5.3.7. La derivada covariante . . . . . . . . . . . . . . . . . . . 5.3.8. Derivadas absolutas y geodésicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ÍNDICE GENERAL vii . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 356 359 361 361 363 364 365 367 369 370 370 374 377 382 384 385 386 387 388 388 389 390 394 397 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Bo rr ad o 6. Apéndice 6.1. Introducción a los CAS . . . . 6.2. Maxima: Sintaxis básica . . . . 6.2.1. Cálculos elementales . . 6.2.2. Bibliotecas . . . . . . . 6.2.3. Maxima en modo texto 6.2.4. Invocando la ayuda . . . 6.2.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401 402 403 406 414 417 418 419 lim in ar . . . . . . . . . . . . . . . . . . . . . . . . . rP re 5.3.9. Ejemplos . . . . . . . . . . . . . . . . . . . . 5.3.10. Practicando con Maxima . . . . . . . . . . . 5.3.11. Ejercicios . . . . . . . . . . . . . . . . . . . . 5.4. Integrales y campos vectoriales . . . . . . . . . . . . 5.4.1. Integrales de lı́nea . . . . . . . . . . . . . . . 5.4.2. Integrales de superficie . . . . . . . . . . . . . 5.4.3. Integrales de volumen . . . . . . . . . . . . . 5.4.4. Ejemplos . . . . . . . . . . . . . . . . . . . . 5.4.5. Practicando con Maxima . . . . . . . . . . . 5.4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . 5.5. Campos vectoriales y teoremas integrales . . . . . . 5.5.1. Teorema de Gauss . . . . . . . . . . . . . . . 5.5.2. Teorema de Stokes . . . . . . . . . . . . . . . 5.5.3. Ejemplos . . . . . . . . . . . . . . . . . . . . 5.5.4. Practicando con Maxima . . . . . . . . . . . 5.5.5. Ejercicios . . . . . . . . . . . . . . . . . . . . 5.6. Teorı́a de Potencial . . . . . . . . . . . . . . . . . . . 5.6.1. Potenciales escalares . . . . . . . . . . . . . . 5.6.2. Potenciales vectoriales y calibres . . . . . . . 5.6.3. Teorema de Green y potenciales . . . . . . . 5.6.4. Teorema de Helmholtz . . . . . . . . . . . . . 5.6.5. Teoremas integrales para campos tensoriales . 5.6.6. Ejemplos . . . . . . . . . . . . . . . . . . . . 5.6.7. Practicando con Maxima . . . . . . . . . . . 5.6.8. Ejercicios . . . . . . . . . . . . . . . . . . . . ÍNDICE GENERAL Bo rr ad o rP re lim in ar viii ar Introducción Bo rr ad o rP re lim in Como toda obra, el contenido de este libro tuvo como motivación inicial la insatisfacción con lo que estaba disponible y esa necesidad de discutir un conjunto de conceptos con el matiz personal de los autores. A lo largo de casi 10 años se fue dibujando esa ruta, donde confluyen: una presentación abstracta, una herramienta de cálculo algebraico y variados ejemplos de aplicación proveniente de la más diversas áreas. Hemos tratado de mostrar que los conceptos abstractos son útiles porque engloban, bajo un mismo enfoque, una multiplicidad de aplicaciones que normalmente las percibimos aisladas. Existe, desde hace mucho tiempo, cierta resistencia en los Departamentos de Fı́sica en incluir en sus programas de docencia cursos para la enseñanza de herramientas de computación cientı́fica y cálculo numérico, tal vez debido a los altos costos de la mayorı́a de estos programas, casi todos comerciales. Pensamos que la utilización de herramientas computacionales enriquece enormemente el aprendizaje de los estudiantes ya que los enseñan a abordar los problemas desde diferentes puntos de vista, les ayuda a familiarizarse con determinados lenguajes de programación y los incentiva a desarrollar sus propias técnicas de cálculo. Hemos decidido utilizar un sistema de computación algebraico de domino público (o software libre) como Maxima porque estos programas tienen la capacidad de ofrecer al estudiante toda una gama de herramientas de cálculo simbólico, numérico y de visualización de muy alto rendimiento. Maxima es un programa que no requiere conocimientos previos de lenguajes de programación pero permitirá que el estudiante se familiarice con la sintaxis de programación y la transición a los lenguajes del tipo Fortran, C, o Python será mas sencilla. Los contenidos que aquı́ presentamos han sido utilizados en cursos de Métodos Matemáticos para estudiantes de pregrado en Fı́sica de la Universidad de los Andes (Mérida-Venezuela) y más recientemente en los cursos de pregrado y posgrado para estudiantes en Fı́sica e Ingenierı́as en la Universidad Industrial de Santander (BucaramangaColombia). 1 ad o rr Bo lim rP re ar in 2 ÍNDICE GENERAL ar Capı́tulo 1 in Los vectores de siempre lim La ruta de este capı́tulo Vectores geométricos ad o 1.1. rP re Suponemos que los estudiantes se acercan a estas notas, no solo conociendo algunos términos sino siendo capaces de buscar muchos otros en la red. Por lo tanto, concebimos este capı́tulo para que apunte a varios objetivos. Por un lado, buscamos refrescar un conjunto de conceptos básicos que seguramente son conocidos por el lector. Si no lo son, aprovechamos la oportunidad para presentarlos –en el marco de R3 , es decir ejemplificando con vectores tridimensionales– utilizando el lenguaje abstracto al cual haremos referencia en los próximos capı́tulos. Siguiendo esta lógica presentamos las propiedades de los vectores en la próxima sección 1.1; la independencia lineal, bases, producto interno (sección 1.1.3) y los sistemas de coordenadas (sección 1.2). Con la excusa del algebra vectorial en coordenadas, introducimos algunos elementos de álgebra vectorial con ı́ndices, que normalmente no son cubiertos tan tempranamente (sección 1.4) en cursos de métodos matemáticos. Adicionalmente, esta excusa nos sirve de puente para presentar nociones operativas de tensores y de análisis de vectorial que formalizaremos más adelante en los capı́tulos 3 y 5, respectivamente. La representación de los número complejos como vectores, con “componentes” reales y complejas justifica la incorporación de este repaso en la última sección 1.6. Finalmente, este capı́tulo nos sirve para iniciar el uso de la herramienta de cálculo algebraico que nos acompañará en el resto del libro y que se detalla en el apéndice 6.1. Desde los primeros cursos de Fı́sica en educación media, venimos hablando de vectores como cantidades que tienen que ser representadas con más de un número. Son varias las razones que obligan a introducir este (y otro) tipo de cantidades “multidimensionales”. Enumeraremos algunas que, a nuestro criterio personal, son las más representativas. rr 1. Necesidad de modelos matemáticos de la naturaleza. Desde los albores del renacimiento, con Galileo Galilei a la cabeza, nos es imperioso representar cantidades de manera precisa. Las matemáticas nos apoyan en esta necesidad de precisión y desde ese entonces son el lenguaje de la actividad cientı́fica. Bo 2. Los modelos tienen que ser contrastados con los experimentos. Las ciencias y sus modelos, en última instancia, tienen que ver con la realidad, con la naturaleza y por ello debemos medir y contrastar las hipótesis con esa realidad que modelamos. Necesitamos representar cantidades medibles (observables) y que, por lo tanto, tienen que ser representadas de la forma más compacta, pero a la vez más precisa posible. 3. Las leyes de los modelos deben ser independiente de los observadores. Cuando menos a una familia significativa de observadores, el comportamiento de la naturaleza no puede depender de la percepción de un determinado observador, por lo tanto, los modelos que construimos para describirla tampoco pueden depender de los observadores. Es común que tropecemos con: escalares, vectores, tensores y espinores, dependiendo del número de cantidades que necesitemos para representar determinado objeto matemático. Podremos constatar que las leyes de la Fı́sica vienen escritas en forma vectorial (o tensorial) y, por lo tanto, será la misma ley para la familia de observadores equivalentes. 3 CAPÍTULO 1. LOS VECTORES DE SIEMPRE lim in ar 4 1.1.1. Escalares y vectores rP re Figura 1.1: Vectores y sus operaciones Dejaremos para más adelante caracterizar objetos como tensores y espinores, por ahora nos contentaremos con refrescar nuestros recuerdos con cantidades como: Escalares: Serán aquellas cantidades las cuales se representan con UN solo número, una magnitud: temperatura, volumen, masa, entre otras. Es costumbre no denotarlas de manera especial, ası́ T = 5◦ C representará una temperatura de 5 grados centı́grados. rr ad o Vectores: Serán cantidades las cuales, para ser representadas por un objeto matemáticos, necesitan más de una cantidad: requieren de UN número, UNA dirección y UN sentido. Entre las cantidades que tı́picamente reconocemos como vectores están: la velocidad, la aceleración, la fuerza. En términos gráficos podremos decir que un vector será un segmento orientado, en el cual la dimensión del segmento representará su módulo y su orientación la dirección y el sentido. Para diferenciarlos de las cantidades escalares hay una variedad de representaciones, entre ellas: en negrita a; con una flecha arriba de la cantidad ~a; con una tilde arriba o abajo −−→ ã; o explicitando el origen del segmento orientado OP . El módulo del vector lo representaremos dentro de la función valor absoluto, o sencillamente sin la flecha arriba a = |a| = |~a|. Bo Los vectores son independientes del sistema de coordenadas. Sus caracterı́sticas (módulo, dirección y sentido) se preservarán en todos los sistemas de coordenadas. Más aún, habrá vectores que podremos desplazar (conservando su módulo dirección y sentido) paralelos a ellos mismos, y seguirán representando las mismas cantidades. Por ello encontraremos el término de vectores deslizantes. Un ejemplo son las fuerzas que actúan en un determinado cuerpo, como se muestra en el cuadrante I en la figura 1.1. También habrá vectores atados a un punto en el espacio, por cuanto representan una de las propiedades de ese punto: la velocidad del viento, el campo eléctrico, o sus variaciones son ejemplos de vectores atados (observe la figura 1.2 como ejemplos ilustrativos). 1.1.2. Álgebra de vectores Enumeraremos rápidamente el álgebra de vectores sin hacer referencia a un sistema de coordenadas en particular. Desde los cursos básicos de matemáticas nos enseñaron a representar gráficamente este álgebra, ası́ tenemos que: Vector nulo. Es aquel que tiene por módulo cero y no se le pude asignar dirección ni sentido. El frecuente representar al vector nulo por 0. 1.1. VECTORES GEOMÉTRICOS 5 Vector unitario. Es aquel que tiene por módulo la unidad, es muy útil por cuanto, para efectos algebraicos, “contiene” únicamente dirección y sentido. Lo denotaremos con un acento circunflejo, comúnmente llamado “sombrero” ûa = a/|a|, con lo cual todo vector se podrá expresar por un módulo en la dirección y sentido de un vector unitario: a = |a| ûa = a ûa . ar Comparación de vectores. Al comparar sus módulos diremos que pueden ser mayores, menores o iguales. Por lo tanto, tal y como mostramos en el cuadrante IIa de la figura 1.1, dos vectores serán iguales, a = b, si tienen la misma dirección y sentido. lim in Multiplicación por un número. Un vector multiplicado por un número, α, cambiará su módulo si α > 0 y cambiará su sentido, y eventualmente su módulo, si α < 0. Tal y como puede apreciarse en el cuadrante IIa de la figura 1.1. Claramente dos vectores proporcionales serán colineales. Diremos además, que el inverso del vector a será la multiplicación de a por (−1). Esto es: (−1) a = −a. Suma de vectores. Para sumar vectores utilizamos la regla del paralelogramo, es decir, desplazamos paralelamente uno de los vectores y lo colocamos a continuación del otro, de tal forma que la diagonal del paralelogramo, que tiene por lados los vectores sumandos, constituye el vector suma, (ver cuadrantes IIa y IIb de la figura 1.1). rP re Figura 1.2: Ejemplos de vectores atados Este esquema se puede generalizar para varios vectores tal y como lo mostramos en el cuadrante III de la figura 1.1. Allı́ construimos un polı́gono cuyos lados los constituyen los vectores sumandos a, b, c, d y n con n = a+b+c+d. Nótese que aún en el caso tridimensional, el vector suma siempre será coplanar (estará en el mismo plano) a los sumandos que lo generaron. Igualmente, podemos definir la resta de vectores al sumar el inverso. Esto es: a − b ≡ a + (−b) ⇒ 0 = a − a ≡ a + (−a) . ad o En términos gráficos la resta de dos vectores se representa colocando los vectores (minuendo y sustraendo) con el mismo origen y uniendo las cabezas de flecha. Dependiendo de cual vector es el minuendo y cual el sustraendo el vector resta apuntará del sustraendo hacia el minuendo, esto es: (a + b + c) − a = b + c. Claramente, el módulo del vector resta representa la distancia entre los dos extremos de los vectores minuendo y sustraendo. Las propiedades (obvias) del álgebra de vectores son: rr Un resumen de propiedades. La suma de vectores: • es cerrada a + b = c, Bo • es conmutativa a + b = b + a, • es asociativa (a + b) + c = a + (b + c), • tiene un único elemento neutro 0 + a = a + 0 = a, ∀ a, • existe un elemento simétrico −a (uno para cada vector) tal que 0 = a − a ≡ a + (−a), • es distributiva respecto a la multiplicación por números: α (a + b) = αa + αb. La multiplicación de números por vectores: • es conmutativa aα = αa, • es asociativa α (βa) = (αβ) a, • es distributiva (α + β) a = αa + βa. 6 CAPÍTULO 1. LOS VECTORES DE SIEMPRE 1.1.3. Vectores linealmente independientes Armados con el álgebra y siendo explı́cito en sus propiedades podemos construir la primera aproximación a uno de los conceptos fundamentales del álgebra lineal. La noción de independencia o dependencia lineal. Diremos que tres vectores a, b, c son linealmente independientes en R3 si se cumple que: α a+β b+γ c=0 ⇒ α = β = γ = 0. in β α α a + β b + γ c = 0 ⇒ c = − a − b ⇒ c = ᾱ a + β̄ b . γ γ ar Es decir, que la única manera que al sumar cualquier múltiplo de a, b y c de modo que la suma se anule es obligando a que los escalares sean necesariamente nulos. En caso contrario, es decir, si no se cumple lo anterior diremos que uno de los vectores será linealmente dependiente y por lo tanto se podrá expresar como combinación lineal de los otros dos. Si por ejemplo γ 6= 0, entonces: lim Es muy importante señalar que los vectores linealmente independientes formarán una base para el espacio donde estos vectores “viven” y el número máximo de vectores linealmente independientes será la dimensión de ese espacio de “residencia”. Más adelante estudiaremos con más detalle el concepto de bases. Tratemos de concretar algunas de estas afirmaciones. rP re Dos vectores linealmente dependientes son colineales. Es decir, los vectores están contenidos en la misma lı́nea y es claro que: a = −β b α α 6= 0 α a + β b = 0 con alguno de ⇒ β 6= 0 b = −αa β el contrario también será cierto: si dos vectores son colineales ellos serán linealmente dependientes. a = λb ⇒ αa + βb = 0 ⇒ αλb + βb = 0 ⇒ (αλ + β) b = 0 ⇒ λ = − β , α con lo cual podremos afirmar que si dos vectores son linealmente independientes ellos no son colineales. ad o Tres vectores linealmente dependientes son coplanares. Por ser los tres vectores linealmente dependientes al menos uno de los escalares tiene que ser distinto de cero, digamos γ, esto es: α a+β b+γ c=0 ⇒ α β c = − a − b = ξ1a + ξ2b , γ γ pero como ξ 1 a ∝ a y ξ 2 b ∝ b, esto significa que: ξ 1 a y a son colineales, de la misma manera que ξ 2 b y b, y por lo tanto, la suma estará en el mismo plano. rr Dos vectores linealmente independientes generan todos los vectores coplanares. Dado dos vectores a y b linealmente independientes, entonces cualquier vector c, coplanar con a y b, podrá expresarse como una combinación lineal de éstos. Diremos que: c se expresa en términos de a y b como: c = ξ 1 a + ξ 2 b, y esa expresión es única. Bo La primera de las afirmaciones es directa por cuanto hemos visto que si a y b son linealmente independientes y c es coplanar con a y b, entonces, necesariamente a, b y c son linealmente dependientes. Esto es: α β α a + β b + γ c = 0 ⇒ c = − a − b = ξ1a + ξ2b . γ γ La demostración de que la expansión es única viene de suponer que existen dos maneras distintas de representar al mismo vector c. Veamos: 1 c = ξ1a + ξ2b ξ1 = ζ 1 ξ − ζ1 = 0 ⇒ 1 1 2 2 ⇒ 0= ξ −ζ a+ ξ −ζ b ⇒ 2 c = ζ 1a + ζ 2b ξ − ζ2 = 0 ⇒ ξ2 = ζ 2 debido a que a y b son linealmente independientes. La demostración para el caso tridimensional es equivalente. Es decir tres vectores linealmente independientes a, b y c expanden, de manera unı́voca, todos los vectores del espacio. Esta demostración queda para el lector. 7 lim in ar 1.1. VECTORES GEOMÉTRICOS Figura 1.3: Productos de vectores 1.1.4. rP re Vectores Base. Cuando un vector c se pueda expresar en términos de dos vectores linealmente independientes, a y b, por ejemplo: c = ξ 1 a + ξ 2 b, diremos que a y b forman una base para todos los vectores coplanares a éstos. Igualmente para el caso tridimensional: tres vectores linealmente independientes a, b y c conformarán una base para los vectores del espacio. Los números ξ 1 y ξ 2 para elcaso bidimensional se denominan las componentes de c a lo largo de a y b. Equivalentemente, ξ 1 , ξ 2 , ξ 3 serán las componentes de cualquier vector para el caso 3D a lo largo de a, b y c, respectivamente. Esta nomenclatura será más evidente luego de la próxima sección. Productos de vectores ad o Hemos sumado y restado vectores, el siguiente paso es multiplicarlos. Básicamente existen dos formas de multiplicar vectores: el producto escalar y el producto vectorial, veremos a continuación de que se trata y sin especificar un sistema de coordenadas para referirlos. Producto escalar rr Denominaremos producto escalar de dos vectores a y b a un escalar cuyo valor será igual al producto de los módulos multiplicado por el coseno del ángulo que ellos forman: ζ = a · b = |a| |b| cos(θ)ha,bi . Bo El significado geométrico del producto escalar es evidente, cuadrante I de la figura 1.3. El producto escalar representa la proyección de a sobre b y equivalentemente la proyección de b sobre a. De esta definición se derivan varias consecuencias las cuales por obvias no dejan de ser importantes: El producto escalar de un vector consigo mismo, siempre es positivo: 2 ζ = a · a = |a| ≥√0, y sólo√será nulo si a es el vector nulo. Esto es, ζ = 0 ⇒ a = 0. Con esto podemos concluir que |a| = a · a = ζ. El producto escalar es conmutativo: ζ = a · b = b · a, ya que el ángulo entre los vectores es el mismo y la multiplicación entre escalares es conmutativa. El producto escalar es distributivo: Esto es, a · (b + c) = a · b + a · c. La demostración (gráfica) puede apreciarse en el cuadrante II de la figura 1.3. 8 CAPÍTULO 1. LOS VECTORES DE SIEMPRE La multiplicación por un número: ζ̄ = αζ = |α| (a · b) = (αa) · b = a · (αb) = |αa| |b| cos(θ)ha,bi = |a| |αb| cos(θ)ha,bi . Desigualdad de Cauchy-Schwarz. A partir de la definición de producto interno es inmediata la comprobación de la siguiente desigualdad: 2 (a · b) = |a| |b| cos(θ)ha,bi 2 2 2 2 ⇒ (a · b) ≤ |a| |b| ⇔ a · b ≤ |a| |b| , ar ya que: 0 ≤ cos2 (θ)ha,bi ≤ 1. 2 2 2 in Del producto escalar surge el teorema del coseno. Es inmediato calcular el producto escalar de un vector consigo mismo, para ello vamos a suponer que c = a+b, con lo cual: c = a + b ⇒ c · c = (a + b) · (a + b) ⇒ |c| = |a| + |b| + 2 |a| |b| cos(θ) , lim donde θ es el ángulo que forman los vectores a y b. Esto no es otra cosa que el teorema del coseno y está ilustrado en el cuadrante III de la figura 1.3. Dos vectores no nulos son ortogonales (perpendiculares) si su producto escalar es nulo. Esta afirmación es inmediata: a ⊥ b ⇒ θha,bi = rP re Producto vectorial π ⇒ a · b = |a| |b| cos(θ)ha,bi = 0 . 2 A diferencia del producto escalar que genera un escalar, el producto vectorial tiene como resultado otro vector: c = a × b (realmente un pseudovector o vector axial en contraposición a los vectores polares, pero eso lo veremos más adelante en la sección 1.4.4), con las siguientes caracterı́sticas: El módulo de c, será: |c| = |a| |b| sen(θ)ha,bi . Es claro que el módulo de c representa el área del paralelogramo cuyos lados están formados por a y b (ver el cuadrante V de la figura 1.3). ad o Tal y como muestran los cuadrantes IV y V de la figura 1.3, c tendrá como dirección la perpendicular al plano que forman a y b, y como sentido la regla del pulgar derecho, regla de la mano derecha, o de manera más elegante, será positiva cuando la multiplicación de a × b corresponda al sentido antihorario. Podemos deducir algunas consecuencias de esta definición. rr El producto vectorial es anticonmutativo. a × b = −b × a, y se sigue de la definición que expresa el cuadrante IV de la figura 1.3. El producto vectorial es distributivo respecto a la suma. a × (b + c) = a × b + a × c. La demostración de esto lo dejaremos para más adelante. Bo La multiplicación por un número. |c| = |α| |a × b| = |(αa) × b| = |a × (αb)| = |αa| |b| sen(θ)ha,bi = |a| |αb| sen(θ)ha,bi . Dos vectores serán colineales si su producto vectorial se anula. Como en el caso cuando se anulaba el producto escalar identificábamos a dos vectores ortogonales, cuando se anula el producto vectorial tendremos dos vectores paralelos. Es claro que esto se cumple de inmediato: a k b ⇒ θha,bi = 0 ⇒ |c| = |a × b| = |a| |b| sen(θ)ha,bi = 0 . Si el módulo del vector es cero, obvio que es el vector nulo. Ahora bien, también de aquı́ deducimos que: c = a × b ⇒ c · a = (a × b) · a = c · b = (a × b) · b = 0 . 1.1. VECTORES GEOMÉTRICOS 1.1.5. 9 Producto triple o mixto Analicemos ahora el número (pseudoescalar) que proviene de la multiplicación: V = c · (a × b) = |c| |(a × b)| cos(θ)hc,a×bi . Este producto también cumple con algunas propiedades que enunciaremos ahora y demostraremos más tarde. ar El producto mixto representa el volumen del paralelepı́pedo cuyos lados son los vectores a, b y c. |a × b| representa el área de la base y la altura está representada por la proyección del vector c sobre la perpendicular al plano de la base que es, precisamente |c| cos(θ)hc,a×bi . (a × b) · c = (c × a) · b = (b × c) · a . Esta afirmación se verá demostrada más adelante. lim El producto mixto se anula cuando se repite alguno de sus factores. in El producto mixto es cı́clico respecto a sus factores. (a × b) · a = (a × b) · b = (a × a) · c = (b × b) · c = 0 . Claramente, si (a × b) ⊥ a ⇒ (a × b) · a = 0. Si los tres vectores a, b y c son coplanares (linealmente dependientes) entonces: rP re (a × b) · c = 0 . Dicho de manera más elegante, útil e impactante: tres vectores que cumplen con: (a × b) · c 6= 0 , son linealmente independientes y forman una base para el espacio tridimensional. Esa base se denominará levógira (contraria al giro de las manecillas del reloj) si el producto (a × b)·c < 0 y dextrógira (la convencional base de la mano derecha) si (a × b) · c > 0. Ejemplos ad o 1.1.6. 1. En un segmento de recta AB ubicamos un punto D de manera que este punto divide al segmento en dos partes, es decir, en la proporción α : β (AB = AD + DB = α + β). Para ubicar el vector posición del punto D podemos hacer lo siguiente. Bo rr A los puntos A y B le hacemos corresponder el vector a y el vector b, respectivamente, con un origen común O. De manera que c = b − a es un vector que va desde el punto A al punto B. Entonces, la distancia OD, a la que le podemos asociar el vector d, no es más que: α α α β α d = OD = a + (b − a) = 1 − a+ b= a+ b. α+β α+β α+β α+β α+β 2. Hemos definido la posición r del centro de masa, para un sistema de N partı́culas, al vector: r= ΣN i=1 mi ri , ΣN j=1 mj donde ri corresponde con la posición de la i−ésima partı́cula. Determinaremos la posición del centro de masa para un sistema de tres masas, mi = 1,2,3, ubicadas en los vértices de un triángulo equilátero de lado l = 2. Colocando el origen de coordenadas en uno de los vértices y uno de los ejes de coordenadas sobre uno de los lados, entonces tenemos: √ √ 1 · 2i + 3 · i + 3j Σ3i=1 mi ri m1 r1 + m1 r1 5 3 r= 3 = = = i+ j. Σj=1 mj MT 6 6 2 10 CAPÍTULO 1. LOS VECTORES DE SIEMPRE 3. Dada una base ortonormal {i, j, k} y los siguientes vectores: a = 3i + 2j + k , b = 3i − 2j + k , c = i − k. Queremos comprobar si {a, b, c} forman una base. ar Veamos, para que los vectores formen una base tienen que ser linealmente independientes. Esto es: αa + βb + γc = 0 ⇒ α = β = γ = 0, con lo cual: 3α + 3β + γ = 0 2α − 2β = 0 α (3i + 2j + k) + β (3i − 2j + k) + γ (i − k) = 0 ⇒ α+β−γ =0 Otra manera de resolverlo es mostrar que: c · (a × b) 6= 0, y efectivamente: 1 3 3 0 2 −2 −1 1 1 = 4 6= 0 . lim c · (a × b) = in es fácil ver que la solución de este sistema es: α = β = γ = 0, por lo tanto, se demuestra que los vectores son linealmente independientes y por consiguiente forman una base. Ahora bien, si {a, b, c} forman una base, podemos expresar otros vectores en términos de ésta base. Tomemos los vectores: d = i + 2j , e = 3i − 2j y f = a × b y expresémoslos en términos de {a, b, c}. Entonces, para el vector d tenemos: rP re 3α + 3β + γ = 1 2α − 2β = 2 d = i + 2j = α (3i + 2j + k) + β (3i − 2j + k) + γ (i − k) ⇒ α+β−γ =0 resolviendo el sistema de ecuaciones anterior tendremos que: d = 85 a − 38 b + 14 c. Seguidamente, para el vector e se tiene: ad o 3α + 3β + γ = 3 2α − 2β = −2 e = 3i − 2j = α (3i + 2j + k) + β (3i − 2j + k) + γ (i − k) ⇒ α+β−γ =0 resolviendo el nuevo sistema de ecuaciones resulta que: e = − 81 a + 78 b + 34 c. Ahora bien, f = a × b = (3i + 2j + k) × (3i − 2j + k) = i 3 3 j 2 −2 k 1 1 = 4i − 12k , rr con lo cual para el vector f resulta: Bo 3α + 3β + γ = 4 2α − 2β = 0 f = 4i − 12k = α (3i + 2j + k) + β (3i − 2j + k) + γ (i − k) ⇒ α + β − γ = −12 y finalmente, al resolver el sistema anterior, f = a × b = −a − b + 10c . 4. Consideremos los siguientes tres vectores: w1 = i + 3k , w2 = 2i − 3j y w3 = −j + k ¿Formarán una base para R3 ? Veamos entonces si son linealmente independientes: αw1 + βw2 + γw3 = 0 ⇒ α = β = γ = 0 , La comprobación es directa al resolver el siguiente sistema de ecuaciones: α 3α +2β −3β −γ +γ =0 =0 =0 1.1. VECTORES GEOMÉTRICOS 11 cuya solución es α = β = γ = 0. Por lo tanto, forman una base para R3 . es decir: a= 1 1 w1 + w2 + 2w3 . 3 3 Practicando con Maxima in 1.1.7. ar Como forman base, podemos expresar otro vector, digamos: a = i−3j+3k, en término de la base {w1 , w2 , w3 }, esto es: α = 13 =1 α +2β −3β −γ = −3 β = 13 a = αw1 + βw2 + γw3 ⇒ ⇒ 3α +γ = 3 γ=2 lim El programa de manipulación simbólica Maxima está diseñado para realizar una gran cantidad de cálculos algebraicos y numéricos que iremos descubriendo a medida que desarrollemos los diferentes temas de este curso. Es indispensable ir al apéndice 6.1 para familiarizarnos con la sintaxis básica del programa. Maxima es una potente calculadora y maneja números de diferentes tipos: enteros, racionales, irracionales, complejos y números con decimales (punto flotante). Haremos algunos cálculos sencillos para ir calentando. (%i1) log(20); rP re ( %o1) log(20) Es probable que necesitemos el valor numérico de log(20). (%i2) log(20),numer; ( %o2) 2,995732273553991 (%i3) 420/16000; 21 800 (%i4) 420/16000,numer; ad o ( %o3) ( %o4) 0,02625 Podemos utilizar la función float para el mismo resultado (%i5) float(log(20)); float(420/16000); rr ( %o5) 2,995732273553991 ( %o6) 0,02625 Bo El programa contiene una gran cantidad de funciones matemáticas básicas internas y entre ellas las trigonométricas: (%i7) sin(%pi/3);cos(%pi/3);tan(%pi/3); √ 3 ( %o7) 2 1 ( %o8) 2 √ ( %o9) 3 Ahora recurriremos a una de las facilidades que nos ofrece el programa para agrupar objetos matemáticos: las listas. Las listas se escriben entre corchetes y los objetos de la lista separados con comas. (%i10)[sin(%pi/3),cos(%pi/3),tan(%pi/3)]; 12 CAPÍTULO 1. LOS VECTORES DE SIEMPRE "√ # 3 1 √ , , 3 ( %o10) 2 2 (%i11)[sin(%pi/3),cos(%pi/3),tan(%pi/3)],numer; ( %o11) [0,8660254037844386, 0,5000000000000001, 1,732050807568877] ar Cuando necesitemos generar una lista por medio de alguna regla especı́fica o formula usamos la función makelist. La sintaxis es la siguiente: (%i12)makelist(exp(t*x),t,1,10); ( %o12) ex , e2 x , e3 x , e4 x , e5 x , e6 x , e7 x , e8 x , e9 x , e10 x in Podemos también aplicar una función a cada elemento de la lista, en este caso a cada elemento le aplicaremos la función ln(x). Para tal fin utilizaremos el comando map. ( %o13) [x, 2 x, 3 x, 4 x, 5 x, 6 x, 7 x, 8 x, 9 x, 10 x] lim (%i13)map(log,(makelist(exp(t*x),t,1,10))); (%i14)apply("+",%); ( %o14) 55 x rP re Si queremos, por ejemplo, sumar todos los elementos de la lista anterior utilizamos la función apply con la operación que queremos realizar. Aquı́ aprovecharemos para utilizar un atajo muy práctico que consiste en el uso del sı́mbolo %, que toma la última salida del programa para ser usado en la instrucción siguiente, de esta manera nos evitamos volver a escribir toda la instrucción anterior. La sintaxis para todo esto es: Podemos asignarle a una lista el nombre de una variable. (%i15)L:[sin(%pi/3),log(3),sqrt(2),abs(x),exp(x^2)]; "√ # √ 3 x2 ( %o15) , log(3), 2, |x| , e 2 ad o De manera que para aislar elementos de una lista escribimos: (%i16)L[1]; L[4]; √ 3 ( %o16) 2 ( %o17) |x| rr Esto nos permite operar con sus elementos. Bo (%i18)L[2]*(L[1]+ L[4])/L[5]; √ ! 3 −x2 ( %o18) log(3) e |x| + 2 La primera utilidad que le podemos dar a las listas es que nos permite definir vectores. Si queremos que el programa interprete los vectores a = (a1 , a2 , a3 ) , b = (b1 , b2 , b3 ) , c = (c1 , c2 , c3 ) , v0 = (0, 0, 0) , los podemos escribir como listas: (%i19)a:[a1,a2,a3]; b:[b1,b2,b3];c:[c1,c2,c3]; v0:[0,0,0]; ( %o19) [a1 , a2 , a3 ] ( %o20) [b1 , b2 , b3 ] 1.1. VECTORES GEOMÉTRICOS 13 ( %o21) [c1 , c2 , c3 ] ( %o22) [0, 0, 0] Como vimos, las operaciones básicas sobre los vectores cumplen un conjunto de propiedades: (%i23)a+b=b+a; ( %o23) [b1 + a1 , b2 + a2 , b3 + a3 ] = [b1 + a1 , b2 + a2 , b3 + a3 ] ( %o24) [c1 + b1 + a1 , c2 + b2 + a2 , c3 + b3 + a3 ] = [c1 + b1 + a1 , c2 + b2 + a2 , c3 + b3 + a3 ] (%i25)a+v0=a; in ( %o25) [a1 , a2 , a3 ] = [a1 , a2 , a3 ] ar (%i24)(a+b)+c=a+(b+c); (%i26)a-a=v0; (%i27)alpha*(a+b)=alpha*a+alpha*b,factor; lim ( %o26) [0, 0, 0] = [0, 0, 0] ( %o27) [α (b1 + a1 ) , α (b2 + a2 ) , α (b3 + a3 )] = [α (b1 + a1 ) , α (b2 + a2 ) , α (b3 + a3 )] (%i28)(alpha+beta)*a=alpha*a+beta*a,factor; 1.1.8. Ejercicios rP re ( %o28) [a1 (β + α) , a2 (β + α) , a3 (β + α)] = [a1 (β + α) , a2 (β + α) , a3 (β + α)] 1. Dado el triángulo: A = (2, 3), B = (6, 9), C = (8, 1). Utilizando álgebra vectorial encuentre: a) el baricentro, es decir, el punto donde se interceptan las medianas del triángulo. b) el circuncentro, es decir, el punto donde se interceptan las mediatrices del triángulo. ad o 2. Utilice métodos vectoriales para probar que las lı́neas que unen los puntos medios con las aristas opuestas (bimedianas) de un tetraedro OABC se interceptan en un punto, y que ese punto divide en dos partes cada una de las lı́neas. 3. Los vertices de un triángulo ABC tienen como vectores posición a, b y c, respectivamente y relativos a un origen común O. Demuestre que el vector posición g del centróide G del triángulo viene dado por: 1 (a + b + c) . 3 rr g= 4. Un paralelogramo tiene un ángulo agudo de π/3 y lados de longitud a = 1 y b = 2. Si pensamos que esos lados como vectores a y b encuentre: Bo a) Los vectores: a + b y a − b. b) Los vectores: 2a + 3b y 5a − 7b. 5. Con la definición de posición de centro de masa del ejemplo 1.1.6, encuentre el centro de masas para los siguientes sistemas: a) Masas iguales a: 1, 2, 3, 4 en los vértices de un cuadrado de lados a = 2. b) Masas iguales a: 1, 2, 3, 4 en los vértices inferiores de un cubo cuyos lados son de longitud a = 2 y masas iguales a: 5, 6, 7, 8 en la vértices superiores. 6. ¿Los siguientes vectores son linealmente independientes? a = (0, 2, −1), b = (0, 1/2, −1/2), c = (0, −2/3, −1/3) . 14 CAPÍTULO 1. LOS VECTORES DE SIEMPRE 7. Las componentes de un vector y la regla para sumar vectores se combinan para introducir la forma más simple de representar un vector como una combinación lineal de los vectores más elementales que podemos tener. Estos vectores forman lo que conocemos la base canónica: {i, j, k}, vectores de longitud unitaria que apuntan en la dirección positiva de los ejes x, y y z. Compruebe, entonces, si los siguientes vectores forman una base: e2 = i − 4k , e3 = 4i + 3j − k b) e1 = i − 3j + 2k , e2 = 2i − 4j − k , e3 = 3i + 2j − k ar a) e1 = 2i + j − 3k , 8. Un paralelogramo tiene un ángulo agudo de π/4 y lados a = 1, b = 2. Si consideramos que los lados son vectores, encuentre: in a) El área del paralelogramo. b) La proyección de cada lado sobre la dirección del otro. lim 9. Considere un triángulo cuyos lados están conformados por los vectores a, b y c = a + b. Con el producto vectorial entre ellos demuestre la ley del seno: b c a = = . sin(α) sin(β) sin(γ) donde α, β, γ son los ángulos opuestos a los lados a, b, c respectivamente. rP re 10. Demuestre que el volumen de un tetraedro formado a partir de tres vectores a, b y c que coinciden en un mismo origen, puede representarse de la manera siguiente: V = 1.2. 1 |a · (b × c)| . 6 Vectores en componentes 1.2.1. ad o La formulación de las leyes fı́sicas debe hacerse en término de cantidades vectoriales (tensoriales). Esto independiza su formulación de un sistema particular de coordenadas, pero llegado el momento de calcular valores y utilizar estas leyes, es mucho más conveniente referirla a un sistema de coordenadas particularmente adaptado a la geometrı́a del problema. En ese caso, la ecuación vectorial se convertirá en tantas ecuaciones como componentes (referidas al sistema de coordenadas utilizado) tengan los vectores en ese sistema de coordenadas. Bases y componentes Bo rr Tal y como mencionamos anteriormente, tres vectores no coplanares cualesquiera son linealmente independientes y constituyen una base para el espacio tridimensional. Denominaremos a estos vectores base como {wi }, y por ser linealmente independientes podremos expresar cualquier vector a como una combinación lineal única, tal y como lo mostramos en el cuadrante I de la figura 1.4. Con los vectores base {w1 , w2 , w3 } podemos construir un sistema (oblicuo en general) de coordenadas al colocarlos con un mismo origen, esto es: a = a1 w1 + a2 w2 + a3 w3 , 1 2 3 donde las cantidades a , a , a son números (no son escalares) que representan las componentes del vector a a lo largo de cada uno de los vectores base {w1 , w2 , w3 }. Nótese que por costumbre (la cual será evidente más adelante, en la sección 3.1.1) etiquetamos estos números con superı́ndices y la letra que identifica al vector. −−→ Más aún, cada punto P del espacio viene definido por vector r (P ) ≡ OP que une el origen de 1 un2 radio 3 coordenadas con el punto P y se le n asocian tresonúmeros x , x , x , los cuales son las proyecciones a lo largo de cada uno de los ejes coordenados 0x1 , 0x2 , 0x3 . Los números x1 , x2 , x3 se denominarán componentes de r (P ) en el sistema de referencia {w1 , w2 , w3 }. Existe una familia de sistemas de coordenadas en la cual sus vectores base son ortogonales (o mejor ortonormales), es decir los vectores base {e1 , e2 , e3 } son perpendiculares entre si. Tal y como mostraremos más adelante, siempre se puede construir un sistema ortogonal {e1 , e2 , e3 } u ortonormal {i1 , i2 , i3 } a partir de una base genérica de vectores linealmente independientes {w1 , w2 , w3 }. Cuando el sistema sea ortogonal sus componentes se denominarán 15 lim in ar 1.2. VECTORES EN COMPONENTES Figura 1.4: Vectores, bases y componentes rP re rectangulares. Dependiendo del signo del triple producto mixto, el sistema de coordenadas será dextrógiro ((e1 × e2 )· e3 > 0) o levógiro ((e1 × e2 ) · e3 < 0), tal y como se muestra en el cuadrante III de la figura 1.4. Es costumbre ancestral1 utilizar la convención dextrógira donde el producto: (e1 × e2 ) · e3 > 0, y en ese caso utilizamos el bien conocido conjunto de vectores unitarios {i, j, k} con los que ya hemos estado familiarizados: a = ax i + ay j + az k y r (P ) = x i + y j + z k . También es costumbre representar este sistema de coordenadas ortonormal como: i ≡ i1 , j ≡ i2 y k ≡ i3 para recordar que estamos en un sistema de coordenadas cartesianas y utilizaremos los superı́ndices 1, 2, 3 para indicar las componentes del vector. y r (P ) = x1 i1 + x2 i2 + x3 i3 . ad o a = a1 i1 + a2 i2 + a3 i3 Obviamente el módulo del vector se podrá expresar con la utilización del teorema de Pitágoras: p p |a| = (a1 )2 + (a2 )2 + (a3 )2 y |r (P )| = (x1 )2 + (x2 )2 + (x3 )2 , y la multiplicación por un número será: p αa = α a1 i1 + a2 i2 + a3 i3 = αa1 i1 + αa2 i2 + αa3 i3 ⇒ |αa| = α (a1 )2 + (a2 )2 + (a3 )2 . Bo rr Igualmente para un vector unitario: ûa = a a1 i1 + a2 i2 + a3 i3 =p , |a| (a1 )2 + (a2 )2 + (a3 )2 con lo cual todo vector: 1.2.2. a = |a| ûa = p (a1 )2 + (a2 )2 + (a3 )2 ûa . Cosenos directores Como se puede apreciar en el cuadrante IV de la figura 1.4, podemos construir tres triángulos rectángulos con el radio vector a (P ) como hipotenusa de cada uno de ellos. Los ángulos que forma el radio vector a (P ) con cada uno de los ejes coordenados {x, y, z} son {α, β, γ}, respectivamente, con lo cual: ax = |a| cos(α) , 1 Quizá ay = |a| cos(β) y az = |a| cos(γ) ⇒ cos2 (α) + cos2 (β) + cos2 (γ) = 1 , (1.1) por las arraigadas relaciones de dominación de los derechos sobre los izquierdos (en latı́n e italiano los zurdos son siniestros), o quizá tal vez por conservar la definición de volumen como positivo. 16 CAPÍTULO 1. LOS VECTORES DE SIEMPRE pero además: ûa = 1.2.3. a = cos(α) i + cos(β) j + cos(γ) k . |a| Una división fallida Algebra vectorial en componentes lim 1.2.4. in ar Uno esperarı́a que para cada una de las definiciones de productos vectoriales, existiera el vector cociente, es decir, que pudiéramos “despejar” uno de los vectores multiplicados en términos del otro. La situación es que esta operación no está definida unı́vocamente y lo podemos intuir a partir de una de la definición del producto escalar. Supongamos que tenemos que: ζ = a · b, con lo cual, si pudiéramos “despejar”, b = ζ/a ¿Tendrı́amos digamos, ζ + d , donde a ⊥ d, por lo cual entonces definido b de una manera unı́voca? La respuesta es NO, ya que ζ = a · a ζ existen infinitos b = + d que cumplen ζ = a · b. a Es posible reescribir toda el álgebra vectorial que hemos visto mediante operaciones referidas a sistemas de coordenadas, como mostraremos a continuación. Por simplicidad, anclaremos nuestro sistema de coordenadas a la base canónica {ii }. Para los vectores a = a1 i1 + a2 i2 + a3 i3 y b = b1 i1 + b2 i2 + b3 i3 , la suma será representada por: rP re a + b = a1 i1 + a2 i2 + a3 i3 + b1 i1 + b2 i2 + b3 i3 = a1 + b1 i1 + a2 + b2 i2 + a3 + b3 i3 , y obviamente, la resta: a − b = a1 i1 + a2 i2 + a3 i3 − b1 i1 + b2 i2 + b3 i3 = a1 − b1 i1 + a2 − b2 i2 + a3 − b3 i3 , con lo cual la distancia entre dos puntos P y M será: 1.2.5. 2 2 2 (x1 − y 1 ) + (x2 − y 2 ) + (x3 − y 3 ) . ad o d (P, M ) = |(r (P ) = a) − (r (M ) = b)| = q Dependencia e independencia lineal Ahora es fácil estudiar la dependencia o independencia lineal en coordenadas. Otra vez, tres vectores: a = a1 i1 + a2 i2 + a3 i3 , b = b1 i1 + b2 i2 + b3 i3 y c = c1 i1 + c2 i2 + c3 i3 , serán linealmente independientes si se cumple que: rr α a + β b + γ c = 0 ⇒ α = β = γ = 0. Bo Veamos qué sucede para la base canónica: i1 = i ≡ (1, 0, 0) , i2 = j ≡ (0, 1, 0) , i3 = k ≡ (0, 0, 1). Estos vectores son claramente linealmente independientes y por lo tanto constituyen una base. En general tendremos que: 0 = α a1 i1 + a2 i2 + a3 i3 + β b1 i1 + b2 i2 + b3 i3 + γ c1 i1 + c2 i2 + c3 i3 αa1 + βb1 + γc1 = 0 1 1 1 2 2 2 3 3 3 αa2 + βb2 + γc2 = 0 = αa + βb + γc i1 + αa + βb + γc i2 + αa + βb + γc i3 ⇒ αa3 + βb3 + γc3 = 0 Esto no es otra cosa que un sistema de 3 ecuaciones lineales con 3 incógnitas: {α, β, γ}, y la solución que estamos buscando α = β = γ = 0 se cumplirá si: a1 a2 a3 b1 b2 b3 c1 c2 c3 = a1 b2 c3 − b3 c2 + a2 b3 c1 − b1 c3 + a3 b1 c2 − b2 c1 6= 0 . 1.2. VECTORES EN COMPONENTES 1.2.6. 17 Productos de vectores en componentes Producto escalar Ahora refrasearemos, en término de una base de vectores ortogonales, lo expresado en la sección 1.1.4. Representaremos el producto escalar de dos vectores en una base cartesiana {i1 , i2 , i3 }, que es una base ortonormal, de la siguiente manera: a · b = a1 i1 + a2 i2 + a3 i3 · b1 i1 + b2 i2 + b3 i3 = a1 b1 + a2 b2 + a3 b3 , i1 · i1 = i2 · i2 = i3 · i3 = 1 , y ar ya que por ser ortogonales se tiene que: i1 · i2 = i2 · i1 = 0 i1 · i3 = i3 · i1 = 0 i2 · i3 = i3 · i2 = 0 El producto escalar de un vector consigo mismo, siempre es positivo. 2 lim ζ = a · a = |a| = (a1 )2 + (a2 )2 + (a3 )2 ≥ 0 , in Las propiedades del producto escalar en coordenadas cartesianas se comprueban fácilmente. y (a1 )2 + (a2 )2 + (a3 )2 = 0 ⇒ a1 = a2 = a3 = 0 p √ √ Adicionalmente: |a| = ζ = a · a = (a1 )2 + (a2 )2 + (a3 )2 . El producto escalar es conmutativo. ⇔ a = 0. rP re ζ = a · b = b · a = a1 b1 + a2 b2 + a3 b3 = b1 a1 + b2 a2 + b3 a3 . El producto escalar es distributivo. a · (b + c) = a1 i1 + a2 i2 + a3 i3 · b1 + c1 i1 + b2 + c2 i2 + b3 + c3 i2 , por lo tanto: a1 b1 + c1 + a2 b2 + c2 + a3 b3 + c3 = a1 b1 + a1 c1 + a2 b2 + a2 c2 + a3 b3 + a3 c3 = a1 b1 + a2 b2 + a3 b3 + a1 c1 + a2 c2 + a3 c3 = a · b + a · c. La multiplicación por un escalar. ad o |α| (a · b) = (αa) · b = a · (αb) = αa1 b1 + αa2 b2 + αa3 b3 = a1 αb1 + a2 αb2 + a3 αb3 . Desigualdad de Cauchy-Schwarz. a · b = a1 b1 + a2 b2 + a3 b3 ≤ p (a1 )2 + (a2 )2 + (a3 )2 p (b1 )2 + (b2 )2 + (b3 )2 = |a| |b| . rr Diremos que dos vectores, no nulos son ortogonales (perpendiculares) si su producto escalar es nulo. Esta afirmación es inmediata: π a ⊥ b ⇒ θha,bi = ⇒ a · b = |a| |b| cos(θ)ha,bi = 0 , 2 por lo cual: Bo a1 b1 + a2 b2 + a3 b3 p a1 b1 + a2 b2 + a3 b3 = |a| |b| cos(θ)ha,bi ⇒ cos(θ)ha,bi = p , (a1 )2 + (a2 )2 + (a3 )2 (b1 )2 + (b2 )2 + (b3 )2 de donde se deduce que para dos vectores perpendiculares: a⊥b ⇒ 0 = a1 b1 + a2 b2 + a3 b3 . Del producto escalar surge el teorema del coseno. Es inmediato generalizar el producto escalar de un vector consigo mismo, para ello suponemos que c = a + b, con lo cual: 2 2 2 c = a + b ⇒ c · c = (a + b) · (a + b) ⇒ |c| = |a| + |b| + 2 |a| |b| cos(θ)ha,bi , que no es otra cosa que el teorema del coseno y está ilustrado en el cuadrante III de la figura 1.3. 18 CAPÍTULO 1. LOS VECTORES DE SIEMPRE Producto vectorial De igual manera, lo que aprendimos en la sección 1.1.4 ahora lo expresamos en términos de las componentes de los vectores en una base ortonormal de la forma: c = a × b = a2 b3 − a3 b2 i1 + a3 b1 − a1 b3 i2 + a1 b2 − a2 b1 i3 , c=a×b= i1 a1 b1 i2 a2 b2 i3 a3 b3 ar lo anterior se puede organizar como el determinante de la matriz: , q 2 2 in con lo cual: 2 (a2 b3 − a3 b2 ) + (a3 b1 − a1 b3 ) + (a1 b2 − a2 b1 ) p p (a1 )2 + (a2 )2 + (a3 )2 (b1 )2 + (b2 )2 + (b3 )2 sen(θ)ha,bi . = lim |c| = Triple producto mixto Finalmente, analicemos el número (pseudoescalar) que proviene de la multiplicación: c2 a2 b2 rP re V = c · (a × b) = |c| |a × b| cos(θ)hc,a×bi = c1 a1 b1 c3 a3 b3 . Obviamente, este número representa del volumen del paralelepı́pedo cuyos lados quedan definidos por los vectores: a, b y c. 1.2.7. Ejemplos 1. Si tenemos los vectores a = i + 3j + 5k y b = 2i + 4j + 6k podemos ver que el ángulo que forman es fácil de calcular: a·b [i + 3j + 5k] · [2i + 4j + 6k] 44 22 2 + 12 + 30 √ =√ =√ √ =√ √ . = √ √ 2 2 2 2 2 2 |a||b| 35 56 35 56 14 35 1 +3 +5 2 +4 +6 Por lo tanto, θ = arc cos √1422√35 = 0,11088. ad o cos(θ) = Notemos que de la ecuación (1.1) para los vectores a y b y su componentes resulta que: ax 1 ay 3 az 5 = √ , cos(β) = = √ , cos(γ) = =√ ⇒ |a| |a| |a| 35 35 35 rr cos(α) = bx 2 by 4 bz 6 cos(α) = = √ , cos(β) = = √ , cos(γ) = =√ ⇒ |b| |b| |b| 56 56 56 1 √ 35 2 2 √ 56 2 2 2 3 5 + √ + √ = 1, 35 35 4 + √ 56 2 6 + √ 56 2 = 1. Bo Y además podemos ver claramente que el ángulo entre los vectores y los cosenos directores están relacionados, como se muestra a continuación: 1 2 3 4 5 6 22 cos(θ) = √ √ + √ √ + √ √ = √ √ . 35 56 35 56 35 56 14 35 2. Consideremos los vectores: e1 = i ≡ (1, 0, 0) , e2 = i + j ≡ (1, 1, 0) , e3 = i + j + k ≡ (1, 1, 1). Al escribir el sistema de ecuaciones resulta: α = 0, α + β = 0, α + β + γ = 0 ⇒ α = 0, β = 0, γ = 0, con lo cual demostramos que son linealmente independientes y por lo tanto constituyen una base para los vectores tridimensionales. 1.2. VECTORES EN COMPONENTES 19 3. Dados los vectores: a = i + 2j + 3k, b = 4i + 5j y c = 3i + 2j + k. Podemos ver que αa + βb + γc = 0 implica que: α + 4β + 3γ = 0 2α + 5β + 2γ = 0 α [i + 2j + 3k] + β [4i + 5j] + γ [3i + 2j + k] = 0 ⇒ 3α + γ = 0 Por otro lado, si queremos calcular el volumen recurrimos al triple producto vectorial: ar Cuya solución es: α = β = γ = 0. Por lo tanto el conjunto {a, b, c} es linealmente independiente. V = a · [b × c] = [i + 2j + 3k] · [4i + 5j] × [3i + 2j + k] = [i + 2j + 3k] · [5i − 4j − 7k] = −24 . a·d , a · (b × c) resulta: c2 = − b·d , a · (b × c) c3 = − c·d . a · (b × c) lim c1 = − in Si tenemos un vector arbitrario, digamos, d = d1 i + d2 j + d3 k y construimos las siguientes cantidades: d1 + 2d2 + 3d3 4d1 + 5d2 3d1 + 2d2 + d3 , c2 = , c3 = , 24 24 24 y podemos ver que: c1 (b × c) + c2 (c × a) + c3 (a × b) + d, es igual a: c1 = + 4d1 + 5d2 3d1 + 2d2 + d3 (4i − 8j + 4k) + (−15i + 12j − 3k) 24 24 d1 i + d2 j + d3 k = 0 . rP re d1 + 2d2 + 3d3 (5i − 4j − 7k) 24 + Es decir, c1 (b × c) + c2 (c × a) + c3 (a × b) + d = 0 , siempre y cuando el conjunto {a, b, c} sea linealmente independiente y d un vector arbitrario. 1.2.8. Practicando con Maxima ad o Con el programa de manipulación simbólica Maxima haremos algunos cálculos sencillos con vectores. Nuevamente recomendamos ver el apéndice 6.1 como introducción al programa. Dados los vectores, en coordenadas cartesianas: a = i + 2j + 3k y b = 7i + 8j + 9k. (%i1) a:[1,2,3]; ( %o1) [1, 2, 3] (%i2) b:[7,8,9]; rr ( %o2) [7, 8, 9] La multiplicación por escalares y suma es simple, si queremos calcular α a + β b, escribimos: Bo (%i3) alpha*a + beta*b; ( %o3) [7 β + α, 8 β + 2 α, 9 β + 3 α] Para el producto escalar procedemos utilizando el operador punto, como se muestra a continuación. (%i4) a.b; ( %o4) 50 El cálculo de producto vectorial no es tan obvio, debemos cargar previamente la librerı́a vect. (%i5) load(vect)$ 20 CAPÍTULO 1. LOS VECTORES DE SIEMPRE El operador para el producto vectorial es una tilde y además debemos utilizar la función express. Entonces, para calcular a × b, ejecutamos los siguientes comandos: (%i6) express(a~b); ( %o6) [−6, 12, −6] La norma de un vector, como ya vimos, es: √ a·a ( %o7) √ ar (%i7) sqrt(a.a); 14 in Si tenemos otro vector, digamos c = −4i + 5j − 6k, el producto triple: a · b × c se calcula ası́: (%i8) c:[-4,5,-6]; (%i9) a.express(b~c); ( %o9) 120 El ángulo entre los vectores a y b, es: . rP re θ = arc cos a·b |a||b| lim ( %o8) [−4, 5, −6] En Maxima usamos la función acos(x) para el arcocoseno(x). Consultar el manual del programa para ver el resto de las funciones trigonométricas. (%i10)acos((a.b)/(sqrt(a.a)*sqrt(b.b))); 50 ( %o10) acos √ √ 14 194 ad o Seguramente lo queremos es el valor numérico, esto se hace agregando la función float. Con la siguiente sintaxis logramos el objetivo: (%i11)acos((a.b)/(sqrt(a.a)*sqrt(b.b))),float; ( %o11) 0,2858867976945064 Bo rr Para finalizar, podemos considerar el problema de la independencia lineal de vectores. Tomemos el conjunto de vectores del ejemplo 1.2.7, es decir, los vectores: a = i + 2j + 3k, b = 4i + 5j y c = 3i + 2j + k. El sistema de ecuaciones a resolver era: α + 4β + 3γ = 0 2α + 5β + 2γ = 0 3α + γ = 0 Disponemos de un comando que permite resolver sistemas de ecuaciones lineales, este comando se llama linsolve. Podemos escribir el sistema de ecuaciones como una lista y luego resolver: (%i12)ecus:[alpha+4*beta+3*gamma=0,2*alpha+5*beta+2*gamma=0,3*alpha+gamma=0]; ( %o12) [3 γ + 4 β + α = 0, 2 γ + 5 β + 2 α = 0, γ + 3 α = 0] (%i13)linsolve(ecus,[alpha,beta,gamma]); ( %o13) [α = 0, β = 0, γ = 0] 1.2. VECTORES EN COMPONENTES 1.2.9. 21 Ejercicios 1. Con la definición del producto escalar entre vectores, demuestre que si θ es el ángulo entre los vectores a y b, entonces: a1 b1 a2 b2 a3 b3 cos(θ) = + + . ab ab ab Donde las cantidades ai /a y bi /b son los cosenos directores de a y b respectivamente. ar 2. Encuentre la distancia del punto P al origen, si P viene dado por el vector posición: r = 2i + 4j − 3k. Y si para un punto arbitrario el vector posición es: r = xi + yj + zk ¿Qué superficie describe éste vector cuando |r| = 3? 3. Encuentre los cosenos directores y los correspondientes ángulos para los siguientes vectores: in a) a = i + j + k. b) b = i − 2j + 2k. c) c = 4i − 2j + 3k. a = i + 2j + 3k , b = i + 5j , lim 4. Sea {i1 , i2 , i3 } una base ortonormal dextrógira. Verifique que los vectores: c = 3i + 2j + k . forman una base ¿Esta base será del tipo dextrógiro o levógiro? 5. Sea {i1 , i2 , i3 } una base ortonormal ¿Son los siguientes conjuntos de vectores una base? a2 = i − 4k , b) b1 = i − 3j + 2k , b2 = 2i − 4j − k , 6. Dados los vectores: a = i1 + 2i2 + 3i3 , a) Encuentre: a3 = 4i + 3j − k. rP re a) a1 = 2i + j − 3k , b3 = 3i + 2j − k. b = 4i1 + 5i2 + 6i3 , a + b + c + d, a + b − c − d, c = 3i1 + 2i2 + i3 , a − b + c − d, d = 6i1 + 5i2 + 4i3 . −a + b − c + d . b) El ángulo entre los vectores a, b, c, d y los vectores base i1 , i2 , i3 . ad o c) La magnitud de los vectores a, b, c, d. d ) El ángulo entre a y b y entre c y d. e) La proyección de a sobre b. f ) ¿Son los vectores a, b, c, d coplanares? g) Encuentre (a + b) · (c + d). h) Los productos a × b, b × c, c × d y los ángulos que estos forman con d. rr i ) c · (a × b). 7. Verifique la desigualdad triangular: |a + b| ≤ |a| + |b|, para los siguientes vectores: Bo a) a = i + 2j + 3k y b = 2i + j + 7k. b) a = 2i − j − 2k y b = 3i + 2j + 3k. 8. Si a y b son vectores arbitrarios y α y β números, demuestre que: |αa + βb|2 ≤ α2 |a|2 + 2αβ(a · b) + β 2 |b|2 . 9. Si a, b, c y d son vectores arbitrarios y α, β, γ escalares que satisfacen: α(b × c) + β(c × a) + γ(a × b) + d = 0 , demuestre que si a, b y c son linealmente independientes, entonces: α=− a·d , a · (b × c) β=− b·d , a · (b × c) γ=− c·d . a · (b × c) 22 CAPÍTULO 1. LOS VECTORES DE SIEMPRE 10. Si a, b, c y d son vectores arbitrarios y α, β, γ escalares que satisfacen: αa + βb + γc + d = 0 , demuestre que si a, b y c son linealmente independientes, entonces: d · (b × c) , a · (b × c) β=− d · (c × a) , a · (b × c) γ=− d · (a × b) . a · (b × c) Ayuda: tome el producto escalar de la ecuación con b × c, a × c y a × b. ar α=− 11. Demuestre que los vectores a = i + 2j + k, b = 2i − j − k y c = 4i + 3j + k son linealmente independientes. Escoja un vector d y verifique los resultados de los dos últimos ejercicios. Aplicaciones del álgebra vectorial lim 1.3. in 12. Utilizando Maxima realice todos los ejercicios anteriores y compare los resultados. Uno de los terrenos más exitosos de las aplicaciones del álgebra vectorial es la geometrı́a analı́tica. Esto se realiza en base a la definición que hiciéramos del radio vector, en la cual a cada punto, P , del espacio le asociábamos un radio vector posición tal y como lo mostramos en el cuadrante I de la figura 1.4. ⇒ r (P ) = x i + y j + z k = x1 i1 + x2 i2 + x3 i3 = rP re P ←→ (x, y, z) ≡ x1 , x2 , x3 3 X xi i i . i=1 A partir de esta definición todas las propiedades geométricas del espacio las podemos construir con vectores. 1.3.1. Rectas y vectores La ecuación de la recta en término de vectores la definiremos fijando uno de sus puntos, digamos: r (P1 ) ≡ x (P1 ) = x1 = x1 i + y1 j + z1 k = x1(1) i1 + x2(1) i2 + x3(1) i3 ←→ (x1 , y1 , z1 ) , ad o y un vector que indique su dirección, digamos a = a1 i + a2 j + a3 k (ver cuadrante I de la figura 1.5) con lo cual la ecuación de una recta en lenguaje vectorial será: x = x1 + λa1 y = y1 + λa2 x = x1 + λa ⇒ x1 i + y1 j + z1 k + λ a1 i + a2 j + a3 k ⇒ z = z1 + λa3 rr donde x = x i + y j + z k es el conjunto de puntos genéricos que cumple con la ecuación de la recta en 3D. Existe una manera más elegante, como veremos en la sección siguiente, de reescribir las ecuaciones anteriores utilizando la notación de ı́ndices2 . Las ecuaciones ahora son más evidentes: Bo x = x1 + λa ⇒ xi ii = xi(1) ii + λai ii ⇒ xi = xi(1) + λai , para i = 1, 2, 3 . donde: (x, y, z) ≡ x1 , x2 , x3 y (i, j, k) ≡ (i1 , i2 , i3 ). Nótese que efectivamente se cumplen tres ecuaciones escalares y cada una de ellas tiene la forma de una recta. Además, tal y como se muestra la figura 1.5 el punto genérico (x, y, z) lo describe (sobre la recta) la variación del módulo de a mediante la constante de proporcionalidad λ. Si se requiere describir una recta que pase por dos puntos: (x1 , y1 , z1 ) y (x2 , y2 , z2 ) entonces una vez seleccionado uno de los puntos (digamos (x1 , y1 , z1 )) seleccionamos el vector a = r (P2 ) − r (P1 ) como la resta de los dos radio vectores a los puntos P2 y P1 . Esto es: x = x1 + λ (x2 − x1 ) . 2 Quitaremos aquı́ el sı́mbolo de sumatoria, esta convención quedará clara en la siguiente sección, pero mantengamos en mente que tenemos una suma sobre el ı́ndice i. 23 Al despejar λ de la ecuaciones de las rectas resulta: y de manera equivalente: xi − xi(1) ai = x − x1 y − y1 z − z1 = = , a1 a2 a3 rP re xi = xi(1) + λai ⇒ λ = lim Figura 1.5: Geometrı́a analı́tica y vectores cartesianos in ar 1.3. APLICACIONES DEL ÁLGEBRA VECTORIAL xi − xi(1) y − y1 z − z1 x − x1 xi = xi(1) + λ xi(2) − xi(1) ⇒ λ = i = = . = i x2 − x1 y2 − y1 z2 − z1 x(2) − x(1) 1.3.2. Planos y vectores ad o Ocurre exactamente lo mismo cuando construimos la ecuación vectorial para un plano. En general una superficie la define su vector normal (perpendicular). En el caso de una superficie plana (un plano) tendrá una única normal que lo define, por lo tanto, un plano vendrá definido por su vector perpendicular en un punto, digamos Q = P1 : −−→ (x1 , y1 , z1 ). La ecuación vectorial del plano vendrá definida por todos los vectores P Q tales que sean perpendiculares a un determinado vector a (ver cuadrante II de la figura 1.5). Donde el punto P es un punto genérico (x, y, z) que define un radio vector. La ecuación vectorial del plano será simplemente: −−→ a · P Q = a · r (P ) − r (P1 ) = 0 ⇔ a · (r − r1 ) = 0 ⇔ a · r = a · r1 . | {z } | {z } b rr b Bo Esto es, se tiene que cumplir la condición: a1 i + a2 j + a3 k · [(x i + y j + z k) − (x1 i + y1 j + z1 k)] = 0 a1 i + a2 j + a3 k · [(x − x1 ) i + (y − y1 ) j + (z − z1 ) k] = 0 a1 (x − x1 ) + a2 (y − y1 ) + a3 (z − z1 ) = 0 , con lo cual, la ecuación del plano queda como siempre la hemos conocido: a1 x + a2 y + a3 z − a1 x1 − a2 y1 − a3 z1 = 0 ⇒ a1 x + a2 y + a3 z = b = a1 x1 + a2 y1 + a3 z1 . Nuevamente, de manera compacta: ai xi − aj xj(1) = 0 ⇒ ak xk = b = al xl(1) . Es claro que a · r1 = b es la proyección del radio vector r (P1 ) sobre la perpendicular que define al plano. Por lo tanto será la distancia entre el plano y el origen de coordenadas. Si b = 0 el plano pasa por el origen de coordenadas. 24 CAPÍTULO 1. LOS VECTORES DE SIEMPRE Consideremos ahora el cuadrante III de la figura 1.5. Allı́ están especificados tres puntos en el espacio caracterizados por sus correspondientes radio vectores posición: r (P1 ) = r1 , r (P2 ) = r2 y r (P3 ) = r3 . Estos tres puntos serán coplanares si: m n n l l (r1 − r2 ) · [(r2 − r3 ) × (r3 − r1 )] = 0 ⇔ εmnl (xm 1 − x2 ) (x2 − x3 ) x3 − x1 = 0 , y la ecuación vectorial del plano vendrá dada por: 1.3.3. ar (r − r1 ) · [(r2 − r1 ) × (r3 − r1 )] = 0 . Ejemplos rAB = B − A = (0, 1, 2) , in 1. Un plano viene determinado por los puntos A = (1, 1, 1), B = (1, 2, 3) y C = (0, 0, 0). Para encontrar la ecuación del plano podemos hacer lo siguiente: Encontremos el vector posición de los puntos A y B, rAC = C − A = (−1, −1, −1) , un vector normal al plano es: n = rAB × rAC = (1, −2, 1). lim Para la ecuación del plano, podemos escoger el vector a = (1, 1, 1) por lo que tenemos entonces que: n · r = n · a ⇒ (1, −2, 1) · (x, y, z) = (1, −2, 1) · (1, 1, 1) ⇒ x − 2y + z = 0 . 2. Dados los siguientes puntos en el espacio: (1, 0, 3), (2, −1, 0), (0, −1, 1), (−1, 0, 1). rP re Consideremos los tres primeros puntos, que podemos considerar coplanares ya que bastan tres puntos para definir un plano. Estos tres puntos son los vertices de un triángulo cuya área podemos calcular de la siguiente manera: Primero seleccionamos uno de los puntos como un vértice privilegiado (digamos (2, −1, 0)) respecto al cual construiremos dos vectores que representan dos de los lados del triángulo. Esto es: a = (1, 0, 3) − (2, −1, 0) ↔ a = −i + j + 3k , b = (0, −1, 1) − (2, −1, 0) ↔ b = −2i + k , ad o con lo cual, el área del triángulo será la mitad del área del paralelogramo que tiene por lados estos dos vectores. Es decir: √ i j k 30 1 1 −1 1 3 . = i − 5j + 2k ⇒ A = |i − 5j + 2k| = A = |a × b| ⇒ a × b = 2 2 2 −2 0 1 Por otro lado, la ecuación del plano que generan estos tres puntos se calcula con la siguiente ecuación: (r − r1 ) · ((r2 − r1 ) × (r3 − r1 )) = 0 , donde: r = xi + yj + zk, r1 = i + 3k, r2 = 2i − j, r3 = −j + k, rr con lo cual la ecuación del plano queda como: (z − 3) −3 −2 = 0 ⇒ −(x − 1) + 5y − 2(z − 3) = 0 ⇒ x − 5y + 2z = 7 . Bo (x − 1) y 1 −1 −1 −1 Podemos verificar si el cuarto punto, (−1, 0, 1), se encuentra en el plano, es decir, debemos verificar que cumple la ecuación que lo define. x − 5y + 2z = 7 ⇒ (−1) − 5(0) + 2(1) 6= 7 , por lo tanto, los cuatro puntos no son coplanares. Podemos entonces calcular la distancia del cuarto punto al plano construyendo un vector unitario normal al plano. n̂P = 1 a×b = √ (i − 5j + 2k) , |a × b| 30 con lo cual la distancia al cuarto punto será: 1 6 d = n̂P · c = √ (i − 5j + 2k) · (−3i + j + k) = − √ . 30 30 1.3. APLICACIONES DEL ÁLGEBRA VECTORIAL 1.3.4. 25 Practicando con Maxima Consideremos el plano determinado por los puntos P = (1, 1, 1), Q = (2, 4, 6) y R = (2, 2, 2). Para construir la ecuación del plano primero ingresamos los vectores posición de cada punto. También incorporaremos las librerı́as vect y draw que necesitaremos. (%i1) load(vect)$ load(draw)$ (%i2) P:[1,1,1]; ar ( %o2) [1, 1, 1] (%i3) Q:[2,4,6]; in ( %o3) [2, 4, 6] (%i4) R:[2,2,2]; lim ( %o4) [2, 2, 2] Podemos verificar que los vectores estén en el mismo plano simplemente calculando el triple producto vectorial: P · (Q × R) entre ellos. Sabemos que si es nulo es porque los vectores son coplanares. (%i5) P.express(Q~R); rP re ( %o5) 0 Necesitamos ahora calcular los vectores que van del punto P al punto Q y del punto P al punto R, es decir, los vectores: PQ = Q − P y PR = R − P (%i6) PQ:Q-P; ( %o6) [1, 3, 5] (%i7) PR:R-P; ( %o7) [1, 1, 1] ad o Un vector normal al plano será sencillamente el vector N = PQ × PR: (%i8) N:express(PQ~PR); ( %o8) [−2, 4, −2] Podemos escoger cualquiera de los vectores originales, en este caso al vector P, para escribir la ecuación del plano: N · r = N · P. rr (%i9) r:[x,y,z]; ( %o9) [x, y, z] Bo (%i10)plano:N.r=N.P; ( %o10) − 2 z + 4 y − 2 x = 0 Probemos a graficar el plano. Para saber mas sobre las diferentes opciones que incorpora Maxima para hacer gráficas, en dos o tres dimensiones, es recomendable consultar el manual de usuario. Utilizaremos el comando wxdraw3d para hacer que la figura aparezca embebida dentro de nuestra hoja de trabajo. Es recomendable consultar también las funciones draw y gr3d. (%i11)wxdraw3d(implicit(plano,x,-1,1,y,-1,1,z,-1,1)); ( %o11) CAPÍTULO 1. LOS VECTORES DE SIEMPRE 1.3.5. lim in ar 26 Ejercicios 1. Para las rectas dadas a continuación: 3x−1 4 = b) L : 2x+1 3 = 2y+3 2 3y+2 3 = 2 − 3z. = −2 + 4z. rP re a) L : Encuentre los vectores posición para dos puntos diferentes sobre la recta y un vector unitario paralelo a la recta L. 2. Dada una linea recta L1 que pasa a través de los puntos (−2, 3, 1) y (1, 4, 6) encuentre: a) El vector posición de un punto sobre la recta y un vector paralelo a ésta. b) Una recta L2 paralela a L1 y que pase por el punto (1, 2, 1). ad o 3. Una linea recta tiene como ecuación vectorial: r = a + λb, donde: a = 3j + 2k y b = 2i + j + 2k. Encuentre la ecuación cartesiana de la recta y las coordenadas de tres puntos sobre la recta. 4. Una linea recta pasa por el punto (3, 2, −3) y paralela al vector a = 2i + 3j − 3k. Encuentre la ecuación cartesiana de la recta y las coordenadas de tres puntos sobre la recta. 5. Dado un plano que pasa por el punto (2, 3, −5) y con vector normal a = 2i + k, encuentre la forma cartesiana de la ecuación del plano. rr 6. Encuentre la ecuación del plano con normal a y que contiene el punto P cuando: a) a = 2i − 3j + k, P = (1, 0, 1). Bo b) a = i − 2j + 2k, P = (2, −3, 4). 7. El ángulo entre dos planos se define como el ángulo entre sus normales. Encuentre el ángulo entre los siguientes planos: a) x + 3y + 2z = 4 y 2x − 5y + z = 2. b) 3x + 2y − 2z = 4 y 2x + y + 2z = 1. 8. Demuestre que la ecuación de una esfera puede expresarse como: |r − c|2 = (r − c) · (r − c) = a2 , donde c es el vector posición del centro de la esfera y a el radio. 27 lim in ar 1.3. APLICACIONES DEL ÁLGEBRA VECTORIAL Figura 1.6: Las 5 redes de Bravais bidimensionales fundamentales: 1 Oblicuas, 2 rectangular, 3 rectangular centrada (rómbica), 4 hexagonal, y 5 cuadrada. Figura tomada de http://en.wikipedia.org/wiki/Bravais_lattice. rP re 9. Auguste Bravais3 se dio cuenta que replicando un arreglo geométrico muy simple, se puede describir una estructura cristalina. Dicho de otro modo, que conociendo una celda simple, podemos conocer la estructura cristalina. Esto es, que las posiciones de los átomos en una red cristalina puede ser descrita por un vector: R = a + b + c = n1 a1 + n2 a2 + n3 a3 = ni ai , donde los ai son vectores no coplanares (vectores primitivos o, simplemente en nuestro lenguaje, vectores base). Los ni son números enteros (negativos, cero o positivos). La posición de cada átomo de un cristal puede ser descrita como reescalamientos (discretos) de este vector genérico o, de manera más precisa, la traslación del origen de coordenadas por un vector. ad o Ese concepto se conoce como redes de Bravais4 . En cada red puede haber varios vectores primitivos5 . Se puede definir la celda primitiva como la estructura mı́nima que replicada reproduce todo el cristal. Vale decir, la estructura cristalina es invariante bajo traslaciones espaciales del tipo: R0 = R + T , con T = mi ai . a) Redes de Bravais bidimensionales. Tal y como muestra la figura 1.6 existen 5 tipos distintos de redes de Bravais bidimensionales. Bo rr 1) Dada la red bidimensional de la figura 1.7 (Izquierda) encuentre todos los posibles vectores primitivos y celdas primitivas asociadas. 2) La humanidad ha estado seducida por la geometrı́a desde que empezó a representar figuras. A partir de las cuatro imágenes que se ilustran en la figura 1.7 (Centro), encuentre todos los posibles vectores y celdas primitivas asociadas. 3) Maurits Cornelis Escher6 fue un fenomenal dibujante holandés, quien se interesó por las simetrı́as de los grupos de imágenes de papel tapiz. Berend, hermano de Maurits, era cristalógrafo y le mostró la belleza de las simetrı́as de la naturaleza. En las cuatro obras del género de teselado7 de M.C. Escher, presentadas en la figura 1.7 (Derecha) encuentre todos los posibles vectores y celdas primitivas asociadas. b) Redes de Bravais tridimensionales. Este tipo de redes complica un poco más el escenario. Se puede demostrar que existen 14 de estas redes, tal y como se muestran en la figura 1.8. 3 http://en.wikipedia.org/wiki/Auguste_Bravais 4 http://en.wikipedia.org/wiki/Bravais_lattice 5 http://www.engr.sjsu.edu/rkwok/Phys175A/Chapter%201.pdf 6 http://en.wikipedia.org/wiki/M._C._Escher 7 http://en.wikipedia.org/wiki/Tessellation CAPÍTULO 1. LOS VECTORES DE SIEMPRE ar 28 lim in Figura 1.7: A la izquierda red cristalina bidimensional. Al centro cuatro detalles geométricos: mural egipcio, mural asirio, tejido tahitı́ e ilustración en pieza de porcelana china (Tomado de: http://en.wikipedia.org/wiki/ Wallpaper_group). A la derecha, teselados de M.C. Escher, tomados de: http://www.wikipaintings.org/en/ paintings-by-genre/tessellation?firstArtist=m-c-escher#artist-m-c-escher. 1) Muestre que los volúmenes de ocupación atómica, para los sistemas: monoclı́nico, triclı́nico, ortorómbico, tetragonal, romboédrico, hexagonal y cúbico, corresponden a las expresiones que se muestran en la figura 1.8. rP re c) El sistema cúbico, el más simple, corresponde a un sistema con un único parámetro de red a = |a|, ya que a = b = c. Además, una posible descripción, para el caso más simple, es a = i , b = j , c = k, los tres vectores cartesianos ortogonales. Existen otros sistemas que también están asociados al cúbico. Estos son el sistema cúbico cara centrada (fcc por sus siglas en inglés) y cúbico cuerpo centrado (bcc). En el primero existen átomos en el centro de cada una de las caras del cubo definido por la trı́ada, a = b = c. En el sistema fcc se añade un átomo la centro del cubo simple. 1) Muestre que un sistema bcc también puede ser descrito por los vectores primitivos: a = ai , b = aj , c = a(i + j + k)/2 . ad o Dibuje la celda primitiva y calcule su volumen. 2) Muestre que un sistema bcc también puede ser descrito por los vectores primitivos: a = a(j + k − i)/2 , b = a(k + i − j)/2 , c = a(i + j − k)/2 . Dibuje la celda primitiva y calcule su volumen. 3) Muestre que un sistema fcc también puede ser descrito por los vectores primitivos: a = a(j + k)/2 , b = a(i + k)/2 , c = a(i + j)/2 . rr Otra vez, dibuje la celda primitiva y calcule su volumen. d ) Se puede definir la red recı́proca como: b×c , a · (b × c) b0 = c×a a · (b × c) y c0 = a×b . a · (b × c) Bo a0 = De esta manera es claro que, por construcción, a0 · b = a0 · c = 0 y además a0 · a = 1. Con lo cual podemos 0 0 generalizarlo como êi · êj = δji . Exprese los vectores y las celdas recı́procas para los sistemas cúbico simple, y los distintos bcc y fcc. Calcule además el volumen de cada celda recı́proca. 10. Realice los cálculos anteriores utilizando el programa Maxima. 1.4. Álgebra vectorial con ı́ndices Antes de comenzar con la presentación de este esquema de cálculo cabe aclarar algunas costumbres y convenciones con la notación de ı́ndices que estaremos utilizando durante el resto de este curso. 29 rP re lim in ar 1.4. ÁLGEBRA VECTORIAL CON ÍNDICES Figura 1.8: Las 14 Redes de Bravais tridimensionales y las estructuras cristalinas asociadas. Tomado de: http: //en.wikipedia.org/wiki/Bravais_lattice. 1.4.1. Convención de Einstein ad o El convenio de suma de Einstein, es una simplificación que se utiliza para abreviar la escritura de las sumatorias, en el que se suprime el sı́mbolo de sumatoria y consiste en lo siguiente: 1. Los ı́ndices repetidos (arriba y abajo) indicarán suma por los valores que tomen los ı́ndices. Las componentes de los vectores tendrán ı́ndices arriba y los vectores base abajo: a = a1 e1 + a2 e2 + a3 e3 = 3 X am em ⇔ a = am em = ai ei . m=1 k j aj = k m am = k 1 a1 + k 2 a2 + k 3 a3 = b . Bo rr 2. Los ı́ndices repetidos son mudos (no importa las letras que los etiquete) y representan suma. Ası́: En este punto del discurso, la posición de los ı́ndices (arriba y abajo) solo tiene sentido estético y solo ası́ indican suma. Más adelante veremos que representan cantidades distintas. 3. Llamaremos contracción cuando sumamos respecto a un par de ı́ndices, vale decir: X Aji ⇒ Aii = A11 + A22 + A33 ⇒ Aii = A11 + A22 + A33 . i Las cantidades con dos o más ı́ndices las llamaremos componentes de tensores, y deben entenderse como arreglos bidimensionales (tridimensionales, tetradimensionales, según el número de ı́ndices). Estas cantidades serán considerados en detalle posteriormente pero por ahora, contentémonos con saber qué cosas son cantidades con dos ı́ndices. Es claro que la contracción de ı́ndices convierte un conjunto de números (i × j) → 1, en un sólo número. 30 CAPÍTULO 1. LOS VECTORES DE SIEMPRE Los ı́ndices libres (aquellos que no están sumados) indican el número de objetos disponibles y deben mantenerse a ambos lados de la ecuación. Por ejemplo: 1 K1 A1 + K12 A2 + K13 A3 = B1 K21 A1 + K22 A2 + K23 A3 = B2 Bi = Kik Ak ⇔ 1 K3 A1 + K32 A2 + K33 A3 = B1 δki = 1 K1j δ11 |{z} =1 + 1 K2j =0 =0 =0 =0 =0 in =0 k Kij ar con lo cual Bi = Kik Ak representa 3 ecuaciones. La operación Bij = Kik Akj representa 9. La delta de Kronecker8 es un objeto matemático de dos ı́ndices, representa δik = 1 si i = k, y es nula en los otros casos. Por ejemplo: z}|{ z}|{ z}|{ z}|{ z}|{ z}|{ 1 2 2 2 3 3 3 δ12 + K3j δ13 + K1j δ21 + K2j δ22 + K3j δ23 + K1j δ31 + K2j δ32 + K3j δ33 , |{z} |{z} =1 lim es decir: =1 k i k i 1 2 3 Kij δk = Kkj = Kij = K1j + K2j + K3j . introduciremos el sı́mbolo de permutación de Levi-Civita9 , εijk , para el caso {(i, j, k) = (1, 2, 3) ; (3, 1, 2) ; (2, 3, 1)} permutación cı́clica {(i, j, k) = (1, 3, 2) ; (3, 2, 1) ; (2, 1, 3)} permutación impar o anticı́clica {i = j , i = k ∧ j = k} rP re Además de la delta de Kronecker de tres dimensiones: i, j, k = 1, 2, 3. +1 cuando −1 cuando εijk = εijk = 0 cuando Por lo tanto, es distinto de cero cuando todos los ı́ndices son diferentes. Toma el valor 1 si la permutación de ı́ndices es cı́clica (o par), y toma el valor −1 si la permutación es anticı́clica (o impar). Si queremos calcular, por ejemplo: ci = εijk aj bk , entonces resulta: c1 = ε111 a1 b1 + ε112 a1 b2 + ε113 a1 b3 + ε121 a2 b1 + ε122 a2 b2 + ε123 a2 b3 + ε131 a3 b1 + ε132 a3 b2 + ε133 a3 b3 , c2 = ε211 a1 b1 + ε212 a1 b2 + ε213 a1 b3 + ε221 a2 b1 + ε222 a2 b2 + ε223 a2 b3 + ε231 a3 b1 + ε232 a3 b2 + ε233 a3 b3 , con lo cual: ad o c3 = ε311 a1 b1 + ε312 a1 b2 + ε313 a1 b3 + ε321 a2 b1 + ε322 a2 b2 + ε323 a2 b3 + ε331 a3 b1 + ε332 a3 b2 + ε333 a3 b3 , ci = εijk aj bk 1 c = ε123 a2 b3 + ε132 a3 b2 = a2 b3 − a3 b2 c2 = ε231 a3 b1 + ε213 a1 b3 = a3 b1 − a1 b3 ⇒ 3 c = ε312 a1 b2 + ε321 a2 b1 = a1 b2 − a2 b1 Bo rr A continuación enumeramos algunas propiedades de la delta de Kronecker y del sı́mbolo de permutación de Levi-Civita, dejamos al lector su demostración. Ellas son: 1.4.2. δjj = 3 , εjkm εilm = δji δkl − δki δjl = δji δkl − δjl δki , εjmn εimn = 2δji , εijk εijk = 6 . Vectores e ı́ndices Disponemos ahora de una manera más elegante para escribir ecuaciones que involucren vectores. Veamos que forma toma el álgebra vectorial con esta nueva notación. 8 Leopold Kronecker (7 diciembre 1823 Legnica, Polonia, 29 diciembre 1891, Berlin, Alemania) Matemático polaco con importantes contribuciones en teorı́a de números, funciones elı́pticas y álgebra, ası́ como la interrelación entre estas disciplinas. 9 Tullio Levi-Civita (1873 Padova, Veneto, 1941 Roma, Italia) Geómetra italiano y uno de los desarrolladores del cálculo tensorial que más tarde serı́a utilizado por Einstein y Weyl como el lenguaje de la Relatividad General. 1.4. ÁLGEBRA VECTORIAL CON ÍNDICES 31 Sumas de vectores La suma de vectores será expresada de la siguiente manera: a + b = ai ei + bi ei = ai + bi ei = ci ei ⇒ ci = ai + bi con i = 1, 2, 3 . Producto escalar ar A partir da ahora y de forma equivalente, expresaremos el producto escalar en término de los ı́ndices. De forma y manera que: a · b = |a| |b| cos(θ)ab = ai bi con i = 1, 2, 3 . Producto vectorial i ci = (a × b) = εijk aj bk con i, j, k = 1, 2, 3 . in En términos de ı́ndices, la componente i del producto vectorial se puede expresar como: lim De esta manera, todas las particularidades de producto vectorial ahora descansan en las propiedades del sı́mbolo de Levi-Civita. Triple producto mixto rP re Para finalizar, analicemos ahora el número (pseudoescalar) que proviene de la multiplicación mixta: i j k i j k c · (a × b) = |c| |a × b| cos(θ)hc,a×bi = c εijk a b = εijk c a b = 1.4.3. c1 a1 b1 c2 a2 b2 c3 a3 b3 . Rotación de coordenadas ad o Consideremos un sistema de coordenadas cartesiano (x, y, z) y su base canónica {i, j, k}, si rotamos el sistema de coordenadas un ángulo φ alrededor del eje z tendremos un nuevo sistema de coordenadas (x̃, ỹ, z̃) y una nueva base {ĩ, j̃, k̃}. La regla de transformación que relaciona ambos sistemas de coordenadas es: x = x̃ cos(φ) − ỹ sen(φ) x̃ = x cos(φ) + y sen(φ) y = x̃ sen(φ) + ỹ cos(φ) ỹ = −x sen(φ) + y cos(φ) ⇐⇒ z = z̃ z̃ = z Bo rr Mientras que las bases transformarán, como veremos más adelante, como: ĩ = i cos(φ) + j sen(φ) j̃ = −i sen(φ) + j cos(φ) k̃ = k Diremos que un triplete de números a1 , a2 , a3 definen las componente de un vector a = a1 i + a2 j + a3 k si estas cantidades transforman bajo rotación de la siguiente manera: ã1 = a1 cos(φ) + a2 sen(φ) , ã2 = −a1 sen(φ) + a2 cos(φ) , ã3 = a3 . Notemos también lo siguiente, al usar la notación de ı́ndices podemos escribir las ecuaciones de transformación de coordenadas ası́: 1 x̃ = x cos(φ) + y sen(φ) x̃ = A11 x1 + A12 x2 + A13 x3 x̃2 = A21 x1 + A22 x2 + A23 x3 ⇒ x̃i = Ãij xj , ỹ = −x sen(φ) + y cos(φ) ⇒ 3 x̃ = A31 x1 + A32 x2 + A33 x3 z̃ = z con: i, j = 1, 2, 3. Se puede ver fácilmente que las cantidades Ãij , en coordenadas cartesianas, vienen dadas por: Ãij = ∂ x̃i , ∂xj 32 CAPÍTULO 1. LOS VECTORES DE SIEMPRE y como la transformación de coordenadas es invertible, se tiene que: xj = Aji x̃i , Aji = con: ∂xj , ∂ x̃i y se cumple la siguiente condición de ortogonalidad: Ãik Aji = δkj . 1.4.4. ∂ x̃i j a ≡ Ãij aj ∂xj ⇔ ai = ∂xi j a ≡ Aij aj . ∂ x̃j Escalares, pseudoescalares, vectores y pseudovectores in ãi = ar Por lo tanto, en general, diremos que las componentes de un vector transformarán de la manera siguiente: lim Además de las rotaciones podemos considerar otra clase de transformaciones: las reflexiones. Estas transformaciones, (x1 , x2 , x3 ) → (−x1 , x2 , x3 ), muestran una sutil diferencia entre dos tipos de cantidades vectoriales: los vectores polares y los axiales, diferencia que no se puede apreciar en las rotaciones. Una reflexión en el plano yz se puede representar como un cambio de signo en la componente x del vector: (ax , ay , az ) → (−ax , ay , az ) , o también: (1.2) rP re a1 e1 + a2 e2 + a3 e3 → a1 (−e1 ) + a2 e2 + a3 e3 ≡ (−a1 )e1 + a2 e2 + a3 e3 . Diremos que los objetos que transforman de esta manera bajo reflexión son vectores polares o simplemente vectores. Nótese que esa transformación de coordenadas es equivalente a invertir el vector base: e1 → −e1 . Ahora bien, si dos vectores polares a y b, son transformados bajo reflexión como en (1.2), entonces un vector axial c transformará como: c = a × b → ã × b̃ = −c̃ . Bo donde: rr ad o Es decir, los vectores axiales o pseudovectores cambian de signo bajo reflexión de los vectores que los generan10 . De igual manera notamos que d = a·b queda invariante bajo la transformación (1.2), mientras que V = c·(a × b) cambia de signo. Siguiendo el ejemplo de vectores y pseudovectores, llamaremos escalar a d y pseudoescalar a V . Existen importantes cantidades fı́sicas que vienen representadas por pseudovectores, entre ellas mencionamos: la ∂B = −∇ × E. cantidad de momento angular, L = r × p; el torque τ = r × F y el campo de inducción magnética, ∂t Pseudovectores y vectores representan distintos objetos geométricos. Los primeros se asocian a orientaciones de superficies, mientras que los segundos lo están con segmentos de rectas orientadas. El vector velocidad angular, ω, es un pseudovector por cuanto r y v son vectores polares y v = ω × r. Algo equivalente ocurre con la aceleración de Lorentz a = qv × B, donde B es el campo magnético. En general, podemos representar la reflexión (1.2) bajo el esquema que presentamos en (1.4.3), es decir, como transformaciones del tipo: ãx −ax −1 0 0 ax ãy ≡ ay = 0 1 0 ay . ãz az 0 0 1 az −1 ∂ x̃ 0 ãi = Ãij aj , donde Ãij = = ∂xj 0 i 0 1 0 0 0 , 1 es la matriz de transformación de coordenadas11 . Notemos que aquı́ el determinante de la matriz de transformación tiene como valor −1 (det |Ã| = −1) ¿Cuál es el valor del determinante de la matriz que podemos asociar a (1.4.3)? 10 Esta inversión de vector axial puede comprobarse fácilmente utilizando la definición de productor vectorial (1.2.6) en la cual se aprecia que un cambio en el signo en ax y bx induce un cambio de signo en cy y cz . 11 Una discusión de vectores y pseudovectores puede consultarse en la nota de Quigley, Robert J. “Pseudovectors and Reflections” American Journal of Physics 41, no. 3 (1973): 428-430; y en el capı́tulo 52 del Vol. 1 de Feynman, R.P., Leighton, R.B. and Sands, M., 2013. The Feynman Lectures on Physics, Desktop Edition. Basic Books. Para algunas de las consecuencias que se presentan cuando se consideran cantidades fı́sicas y transformaciones de reflexión. 1.4. ÁLGEBRA VECTORIAL CON ÍNDICES 33 Bo rr ad o rP re lim in ar El hecho de que el det |Ã| = 1 o det |Ã| = −1, permite clasificar a las transformaciones de coordenadas en transformaciones propias o transformaciones impropias, respectivamente. Entonces, en general, diremos que las componentes de vectores y pseudovectores transformarán bajo reflexión de la siguiente manera: i vectores polares o simplemente vectores, ã = Ãij aj , i ∂ x̃ i ⇒ si: Ãj = i ∂xj p̃ = det |Ã|Ãij pj , pseudovectores o vectores axiales. 34 CAPÍTULO 1. LOS VECTORES DE SIEMPRE 1.4.5. Ejemplos 1. Mostraremos a continuación dos casos de identidades vectoriales que pueden ser fácilmente demostradas mediante la utilización de ı́ndices. a) a × (b × c) = (c · a) b − (a · b) c El resultado será un vector, por lo tanto: = εijk aj εkmn bm cn = εijk εkmn aj bm cn = εijk εmnk aj bm cn i j j i i j j i = δm δn − δm δn aj bm cn = δm δn aj bm cn − δm δn aj bm cn ar i (a × (b × c)) = εijk aj (b × c)k i m j j = δm b δn aj cn − δni cn δm aj bm = bi an cn − ci aj bj | {z } |{z} (c·a) i i (a·b) in = b (c · a) − c (a · b) = b (c · a) − c (a · b) . b) (a × b) · (c × d) = (a · c) (b · d) − (a · d) (b · c) El lado derecho es un escalar, por lo tanto: l (a × b) · (c × d) = (a × b) (c × d)l lim En la segunda lı́nea hemos hecho uso de la identidad: εjkm εilm = δji δkl − δki δjl = δji δkl − δjl δki . = εljk aj bk εlmn cm dn = εljk εlmn aj bk cm dn j k k j = εjkl εmnl aj bk cm dn = δm δn − δm δn aj bk cm dn rP re j k k j = δm δn aj bk cm dn − δm δn aj bk cm dn j = δm aj cm δ k bk dn − δ k bk cm δ j aj dn | {z }|n {z } |m {z }|n {z } (a·c) (b·d) (b·c) (a·d) = (a · c) (b · d) − (b · c) (a · d) . 2. Si tenemos tres vectores {a, b, c} queremos ver si se cumple: a × (b × c) + b × (c × a) + c × (a × b) = 0 . ad o En notación de ı́ndices resulta: a × (b × c) + b × (c × a) + c × (a × b) = lmi am ijk bj ck + lmi bm ijk cj ak + lmi cm ijk aj bk , con lo cual, arreglando: lmi ijk am bj ck + lmi ijk bm cj ak + lmi ijk cm aj bk = + δjl δkm − δjm δkl am bj ck + δjl δkm − δjm δkl bm cj ak δjl δkm − δjm δkl cm aj bk , Bo rr y ahora desarrollando los productos de las δ’s, e identificando término a término, notamos que se anulan: ak bl ck − ak bk cl + bk cl ak − bk ck al + ck al bk − ck ak bl = 0 . | {z } | {z } | {z } | {z } | {z } | {z } I II II III III I 3. Vimos que los vectores polares transforman bajo una reflexión respecto al plano yz de la forma: e1 → −e1 ⇒ (ã1 , ã2 , ã3 ) = (−a1 , a2 , a3 ) . Para saber que pasa con el vector c = a × b, cuando lo sometemos a esta reflexión, estudiemos como se transforman sus componentes directamente de la definición del producto vectorial, miremos con respecto a la componente x de c. Entonces, para a y b vectores polares se tiene: h i c̃ = ã × b̃ = ã2 b̃3 − ã3 b̃2 , ã3 b̃1 − ã1 b̃3 , ã1 b̃2 − ã2 b̃1 2 3 = a b − a3 b2 , a3 (−b1 ) − (−a1 )b3 , (−a1 )b2 − a2 (−b1 ) 2 3 = a b − a3 b2 , − a3 b1 − a1 b3 , − a1 b2 − a2 b1 , 1.4. ÁLGEBRA VECTORIAL CON ÍNDICES 35 es decir, c es un vector axial por el hecho de obedecer a una ley de transformación diferente: e1 → −e1 ⇒ (c̃1 , c̃2 , c̃3 ) = (c1 , −c2 , −c3 ) . ar Supongamos que ahora queremos aplicar una reflexion al vector c = a × b pero con a axial y b polar. Veamos lo que sucede: i h c̃ = ã × b̃ = ã2 b̃3 − ã3 b̃2 , ã3 b̃1 − ã1 b̃3 , ã1 b̃2 − ã2 b̃1 = (−a2 )b3 − (−a3 )b2 , (−a3 )(−b1 ) − a1 b3 , a1 b2 − (−a2 )(−b1 ) = − a2 b3 − a3 b2 , a3 b1 − a1 b3 , a1 b2 − a2 b1 . e1 → −e1 ⇒ (c̃1 , c̃2 , c̃3 ) = (−c1 , c2 , c3 ) , 1.4.6. Practicando con Maxima lim por lo tanto, en este caso c es un vector polar. in Esto es: A fines prácticos, las transformaciones de coordenadas del tipo rotaciones o reflexiones es de utilidad representarlas por matrices. Por ejemplo, las rotaciones alrededor del eje z se puede representar como: rP re (%i1) Rz:matrix([cos(theta),sin(theta),0],[-sin(theta),cos(theta),0],[0,0,1]); cos(θ) sin(θ) 0 ( %o1) − sin(θ) cos(θ) 0 0 0 1 De manera que un vector a transformará bajo esta rotación en un nuevo vector a0 . (%i2) a:[a1,a2,a3]; ( %o2) [a1 , a2 , a3 ] ad o (%i3) Rz.a; a2 sin(θ) + a1 cos(θ) ( %o3) a2 cos(θ) − a1 sin(θ) a3 Si la rotación se hace al rededor del eje x o y las matrices correspondientes son las siguientes: Bo rr (%i4) Rx:matrix([1,0,0],[0,cos(theta),-sin(theta)],[0,sin(theta),cos(theta)]); 1 0 0 ( %o4) 0 cos(θ) − sin(θ) 0 sin(θ) cos(θ) (%i5) Ry:matrix([cos(theta),0,sin(theta)],[0,1,0],[-sin(theta),0,cos(theta)]); cos(θ) 0 sin(θ) 1 0 ( %o5) 0 − sin(θ) 0 cos(θ) Notemos que el determinante de éstas matrices es: (%i6) determinant(Rx),trigsimp; ( %o6) sin2 (θ) + cos2 (θ) (%i7) trigrat(%); ( %o7) 1 Si la rotación es en un ángulo de θ = 60◦ entonces: 36 CAPÍTULO 1. LOS VECTORES DE SIEMPRE (%i8) sublis([theta=%pi/3], Rx); 1 0 0√ ( %o8) 0 √12 − 23 1 0 23 2 ar Si el eje de rotación se define a través de un vector unitario, digamos, û = ux i + uy j + uz k, la matriz de rotación para un ángulo θ es: (%i9) t:1-cos(theta)$ Por ejemplo, si el eje de rotación coincide con el vector û = θ = 60◦ , entonces: √i 3 + √j 3 + k √ 3 y la rotación es en un ángulo de rP re (%i11)[ux,uy,uz]:1/sqrt(3)*[1,1,1]; theta:%pi/3$ 1 1 1 ( %o11) √ , √ , √ 3 3 3 lim in (%i10)R:matrix([cos(theta)+ux^2*t,ux*uy*t-uz*sin(theta),ux*uz*t+uy*sin(theta)], [uy*ux*t+uz*sin(theta),cos(theta)+uy^2*t,uy*uz*t-ux*sin(theta)], [uz*ux*t-uy*sin(theta),uz*uy*t+ux*sin(theta),cos(theta)+uz^2*t]); (1 − cos(θ)) ux2 + cos(θ) (1 − cos(θ)) ux uy − sin(θ) uz (1 − cos(θ)) ux uz + sin(θ) uy (1 − cos(θ)) uy 2 + cos(θ) (1 − cos(θ)) uy uz − sin(θ) ux ( %o10) sin(θ) uz + (1 − cos(θ)) ux uy (1 − cos(θ)) ux uz − sin(θ) uy (1 − cos(θ)) uy uz + sin(θ) ux (1 − cos(θ)) uz 2 + cos(θ) Al evaluar con el comando ev podemos ver como queda la matriz R con estos valores definidos (%i13)Ru:ev(R); 2 2 − 13 3 3 2 − 13 ( %o13) 23 3 1 2 2 −3 3 3 De manera que un vector, por ejemplo, a = i + 2j + 3k transformará bajo esta rotación de la manera siguiente: ad o (%i14)a:[1,2,3]; ( %o14) [1, 2, 3] rr (%i15)Ru.a; 2 ( %o15) 1 3 Por otro lado, una reflexión en el plano xy es más sencilla de representar porque es la matriz: Bo (%i16)Re:matrix([-1,0,0],[0,1,0],[0,0,1]); −1 0 0 ( %o16) 0 1 0 0 0 1 De manera que bajo ésta reflexión el vector transforma como: (%i17)Re.a; −1 ( %o17) 2 3 1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES 1.4.7. 37 Ejercicios 1. Verifique las siguientes identidades: a × (b × c) + b × (c × a) + c × (a × b) = 0. (a × b) × (c × d) = b[a · (c × d)] − a[b · (c × d)]. (a × b) · (c × d) + (b × c) · (a × d) + (c × a) · (b × d) = 0. a · (b × a) = 0. (a × b) · (a × b) = a2 b2 − (a · b)2 . a·c a·d f ) (a × b) · (c × d) = b·c b·d vector pseudovector pseudovector vector pseudovector pseudovector 3. Considere lo expuesto en la sección 1.4.3 y demuestre que: rP re Ãik Aji = δkj , = escalar = pseudoescalar = escalar = pseudovector = vector = pseudovector lim vector · vector · pseudovector · vector × vector × pseudovector × in 2. Demuestre la siguiente tabla de relaciones: ar a) b) c) d) e) y además, como un caso especial, establecer la relación con los cosenos directores que satisfacen: cos(α)2 + cos(β)2 + cos(γ)2 = 1 . 4. Considere el radio vector posición r = xi ei ≡ xı̂ + ŷ en 2 dimensiones. Dado el conjunto de transformaciones que se indican a continuación, demuestre en cuales casos las componentes de r transforman como verdaderas componentes de vectores. (x, y) → (−y, x) , (x, y) → (x, −y) , (x, y) → (x − y, x + y) , (x, y) → (x + y, x − y) . ad o 5. Resuelva los ejercicios anteriores utilizando Maxima. 1.5. Un comienzo a la derivación e integración de vectores 1.5.1. rr En esta penúltima sección de este capı́tulo abordaremos una introducción somera a las consecuencias que imponen la variación de un vector. Mostraremos, de manera funcional y como una ejercitación a los conceptos de derivación e integración de vectores y campos vectoriales12 . Vectores variables Bo Los vectores podrán ser constantes o variables. Ahora bien, esta caracterı́stica se verificará tanto en las componentes como en la base. Esto quiere decir que cuando un vector es variable podrá variar su módulo, su dirección, su sentido, o todo junto o por separado. Obviamente esta variabilidad del vector dependerá de la base en la cual se exprese, por lo cual un vector podrá tener una componente constante en una base y no constante en otra, vale decir: 0 a (t) = ak (t) ek (t) = ak ek0 (t) . Nótese que hemos utilizado una base {ek (t)} de vectores variables a diferencia de la tradicional base de vectores cartesianos, los cuales son constantes en módulo, dirección y sentido (ver los cuadrantes I y II de la figura 1.9). Más aún, tal y como se muestra en cuadrante II de la figura 1.9, todo vector variable podrá ser expresado como la suma de uno variable, α (t), más otro constante c. a(t) = α(t) + c . 12 Un análisis más detallado lo presentaremos en el último capı́tulo 5 CAPÍTULO 1. LOS VECTORES DE SIEMPRE lim in ar 38 1.5.2. rP re Figura 1.9: Vectores variables Derivación De esta manera, cuando uno piensa en un vector variable a (t) uno rápidamente intenta establecer un cociente incremental: ∆a (t) a (t + ∆t) − a (t) da (t) = lı́m = . lı́m ∆t→0 ∆t ∆t→0 ∆t dt El cuadrante IV de la figura 1.9 ilustra gráficamente este cociente incremental. Como siempre, las propiedades de esta operación derivación serán: rr ad o d d d [a (t) + b(t)] = a(t) + b (t) , dt dt dt d d d [α (t) a(t)] = α(t) a (t) + α(t) a (t) , dt dt dt d d d [a (t) · b(t)] = a(t) · b (t) + a(t) · b (t) , dt dt dt d d d [a (t) × b(t)] = a(t) × b (t) + a(t) × b (t) . dt dt dt Bo Ahora bien, esto implica que: d ak (t)ek (t) da(t) dak (t) dek (t) a(t) = a (t)ek (t) ⇒ = = ek (t) + ak (t) , dt dt dt dt k (1.3) con lo cual hay que tener cuidado al derivar vectores y cerciorarse de la dependencia funcional de la base y componentes. Habrá sistemas de coordenadas (bases de vectores) que serán constantes y otros en los cuales sus vectores bases cambiarán en su dirección. El primer término de (1.3) representa la variación del módulo, y el segundo muestra la contribución de los cambios en dirección del vector. Más aún, mostraremos apoyándonos en la ilustración de el cuadrante III de la figura 1.9 que, independientemente del sistema de coordenadas, el cambio en el módulo apunta en la dirección del vector, mientras que las contribuciones en dirección apuntan en la dirección perpendicular al vector. Esto es: da (t) d |a(t)| = ûk + |a (t)| û⊥ , con ûk · û⊥ = 0 . dt dt 1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES 39 Es fácil convencernos de la forma del primer término. Siempre podemos representar un vector como su módulo y un vector unitario en la dirección apropiada. Esto es: a(t) = |a(t)| û(t) ⇒ d [|a (t)| û(t)] d |a(t)| dû(t) da(t) = = û(t) + |a(t)| . dt dt dt dt û(t) · da (t) d |a(t)| dû(t) = û(t) · û(t) + |a(t)| dt dt dt ⇒ d |a (t)| da (t) û(t) · dt = dt û(t) · dû (t) =0 dt in ar Por ser |û(t)| = 1, resulta que û(t) · dû(t) dt = 0, es decir, son perpendiculares. Como podemos ver a continuación cuando multiplicamos por û(t): lim Es decir que el cambio en el módulo de un vector se manifiesta en la dirección del mismo vector, tal y como era intuitivo suponer. Adicionalmente, vemos que el vector û siempre será perpendicular a su derivada. Gráficamente podemos apreciarlo en el cuadrante IV de la figura 1.9, pero también surge analı́ticamente si derivamos el vector unitario en la dirección de a(t): 2 d |û(t)| d (1) dû(t) dû(t) d [û(t) · û (t)] ≡ = ≡ 0 = û (t) · ⇒ û(t) ⊥ , dt dt dt dt dt es decir: rP re d [|a(t)| û(t)] d |a(t)| d |a(t)| da(t) dû(t) = = = û(t) + |a(t)| ûk + |a(t)| û⊥ . dt dt dt dt dt Supongamos que ahora definimos un vector ∆θ = ∆θ v̂, con: v̂ × ûk = û⊥ v̂ ⊥ ûk û⊥ × v̂ = ûk ⇒ v̂ ⊥ û⊥ ûk × û⊥ = v̂ ad o donde ∆θ es el ángulo de rotación del vector a(t) (ver cuadrante V de la figura 1.9). Claramente: ∆a⊥ = [a (t + ∆t) sen (∆θ)] û⊥ ≈ [a (t + ∆t) ∆θ] û⊥ ⇒ ∆a⊥ = ∆θ × a(t) , entonces: ∆a⊥ ∆a ∆θ da (t) dθ(t) ≡ · a⊥ a⊥ = × a (t) ⇒ · û⊥ û⊥ = v̂ × a(t) = ω × a(t) , ∆t ∆t ∆t dt dt Bo rr donde hemos identificado ω = dθ(t) dt v̂. Podemos ir más allá observando el cuadrante V de la figura 1.9, vemos que si suponemos que el módulo del vector es constante, entonces: d |a(t)| da(t) da (t) =0 ⇒ = |a(t)| û⊥ ⇒ · û⊥ û⊥ = ω × a(t) . dt dt dt 1.5.3. Velocidades y aceleraciones El radio vector posición de una partı́cula genera, como sabemos, los vectores velocidad y aceleración: r = r(t) ⇒ v(t) = dr(t) dv(t) d2 r(t) ⇒ a(t) = = , dt dt dt2 ahora bien: r = rûr = xi + yj + zk , con: ûr = cos(θ) i + sen(θ) j + zk . 40 CAPÍTULO 1. LOS VECTORES DE SIEMPRE Si suponemos que la partı́cula describe una trayectoria, entonces: r = r(t) x = x(t) θ = θ(t) y = y(t) ; ûr = ûr (t) ; ⇐⇒ z = z(t) z = z(t) i = const j = const k = const dûr dt in ar Es muy común denotar a la derivada temporal sobre funciones de una variable con un punto, es decir, podemos utilizar la siguiente notación: df (t) , f˙(t) ≡ dt con lo cual, y en el caso de que z = z(t) = constante, se tiene: d [cos(θ (t))i + sen(θ (t))j] = θ̇(t)[− sen(θ(t))i + cos(θ(t))j] = θ̇(t)ûθ . {z } | dt = ûθ lim Ya que: |ûr | = p p ûr · ûr = [cos(θ(t)) i + sen(θ(t)) j] · [cos(θ(t)) i + sen(θ(t)) j] = 1 , |ûθ | = p ûθ · ûθ = [− sen(θ(t)) i + cos(θ(t)) j] · [− (sen(θ(t)))i + cos(θ(t))j] = 1 . rP re Entonces: p ûθ · ûr = ûr · ûθ = [− sen(θ(t)) i + cos(θ(t)) j] · [cos(θ(t)) i + sen(θ (t)) j] = 0 . Además: d [−sen(θ(t)) i + cos(θ(t)) j] dûθ = = −θ̇(t) [cos(θ(t)) i + sen(θ(t)) j] = −θ̇(t)ûr . dt dt Para una partı́cula que sigue un movimiento arbitrario, su trayectoria vendrá descrita, en coordenadas cartesianas, por: r = x(t) i + y(t) j + z(t) k . Su velocidad será: d [x(t)i + y(t)j + z(t)k] dr(t) = = ẋ(t)i + ẏ(t)j + ż(t)k = vx (t)i + vy (t)j + vz (t)k . dt dt ad o v(t) = Y su aceleración: a(t) = v̇x (t)i + v̇y (t)j + v̇z (t)k = ax (t)i + ay (t) j + az (t)k . rr Mientras que en coordenadas polares las ecuaciones son: Bo Velocidad: v(t) = r(t) = r(t)ûr (t) . d [r (t) ûr (t)] dûr (t) = ṙ(t)ûr (t) + r(t) = ṙ(t)ûr (t) + r(t)θ̇(t)ûθ (t) , dt dt Aceleración: a(t) = dv(t) = dt h i d ṙ(t)ûr (t) + r(t)θ̇(t)ûθ (t) = r̈(t)ûr (t) + ṙ(t) = dt = d [ṙ (t) ûr (t)] + dt h i d r(t)θ̇(t)ûθ (t) dt dûr (t) dûθ (t) + ṙ(t)θ̇(t)ûθ (t) + r(t)θ̈(t)ûθ (t) + r(t)θ̇(t) dt dt 2 n o r̈(t) − r(t) θ̇(t) ûr (t) + 2 ṙ(t)θ̇(t) + r(t)θ̈(t) ûθ (t) . 1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES 41 Claramente para el caso de un movimiento circular, donde r = R = const, resulta: r(t) = R ûr (t) dR v(t) = R θ̇(t)ûθ =0 ⇒ dt a(t) = −R θ̇(t)2 ûr (t) + R θ̈(t)ûθ (t) es decir, dr(t) = lı́m∆t→0 i P i ∆t→0 i ∆ r(ti ) es tangente a la trayectoria. Es claro que: dy(t) dz(t) dx(t) i+ j+ k. dt dt dt lim dr(t) = d [x(t)i + y(t)j + z(t)k] ≡ in i ar De aquı́ podemos ver que el vector velocidad v(t) y el vector posición r(t) son ortogonales. La velocidad, v(t), siempre es tangente a la trayectoria r (t) y en este caso la trayectoria es una circunferencia. En general el vector: Z X X X rmed = ∆r(ti ) = (r (ti + ∆ti ) − r(ti )) ⇒ lı́m ∆r(ti ) = dr(t) = r(t) , rP re Tal y como mencionamos arriba, para el sistema de coordenadas cartesiano podemos definir un vector (en este caso) velocidad angular ω tal que: ω × ûr = ûv |ω| ω = ûr ûv × ⇒ v(t) = ω × r(t) . |ω| ω ûr × ûv = |ω| ad o Supongamos por simplicidad que elegimos el sistema de coordenadas cartesiano, donde r está en el plano xy. En este caso es inmediato comprobar que v i = εijk ωj xk , y dado que r y v tienen únicamente componentes 1 y 2 entonces, necesariamente ω tiene únicamente componente 3, Es decir: 1 r = ri ei v = ε1j2 ωj x2 ⇒ ⇒ ω = |ω| e3 = ωk , 2 v = v i ei v = ε2j1 ωj x1 como r = x(t)i + y(t)j, entonces: dr(t) = vx (t)i + vy (t)j = ω × r(t) = θ̇(t)k × [x(t)i + y(t)j] . dt Se verá más claro en coordenadas polares, esto es: v(t) = dr(t) =r(t)θ̇(t)ûθ (t) = [|ω| ûn (t)] × [r(t)ûr (t)] , |r(t)| = const dt =r(t)θ̇(t)ûθ (t) = |ω| r(t)ûθ (t) ⇒ θ̇(t) ≡ |ω| . | {z } Bo rr v(t) = 1.5.4. v⊥ Vectores y funciones Antes de continuar con la integración repensemos algunas funciones de tipo φ xi y A(xi ). Estas funciones son sin duda funciones de varias variables, en el caso cartesiano: φ = φ(x, y, z) , A = A(x, y, z) = iAx (x, y, z) + jAy (x, y, z) + kAz (x, y, z) . Un par de reflexiones se pueden hacer en este punto, primeramente, dado que hemos relacionado un punto del espacio con el radio vector posición, entonces: φ = φ(x, y, z) ≡ φ (r) P(x,y,z) ↔ (x, y, z) ↔ r = x i + y j + z k ⇒ A = A(x, y, z) ≡ A (r) 42 CAPÍTULO 1. LOS VECTORES DE SIEMPRE La primera función, φ (r), será una función escalar de argumento vectorial o, simplemente un campo escalar y la segunda, A (r), se conoce como una función vectorial de argumento vectorial o campo vectorial. Como hemos dicho, este tipo de funciones y las operaciones que pueden ser realizadas con ellas, y su significado, serán analizadas en detalle más adelante durante el desarrollo de este curso. En segundo lugar, siempre podremos parametrizar las coordenadas y tendremos φ = φ(t) = φ (x(t), y (t) , z(t)) , ar A = A(t) = A (x(t), y(t), z(t)) = Ax (x(t), y (t) , z(t)) i + Ay (x(t), y(t), z(t)) j + Az (x(t), y(t), z (t)) k . in Este caso lo hemos encontrado en montones de situaciones, por ejemplo, el movimiento parabólico viene descrito por vectores velocidad y posición dados por: vx = v0x vy = v0y v(t) = −gt k + v0 = −gt k + (v0x i + v0y j + v0z k) ⇒ vz = v0z − gt lim x = v0x t g g y = v0y t r(t) = − t2 k + v0 t = − t2 k + (v0x i + v0y j + v0z k) t ⇒ 2 2 z = v0z t − g2 t2 Derivada de funciones del tipo: φ (r(t)) rP re Al derivar una función de argumento vectorial también se aplica la “regla de la cadena”. Esto es, si φ (r(t)) = φ (x (t) , y(t), z(t)) , entonces: dφ (r(t)) ∂φ (x(t), y(t), z(t)) dx(t) ∂φ (x(t), y(t), z(t)) dy(t) ∂φ (x(t), y(t), z(t)) dz(t) = + + dt ∂x dt ∂y dt ∂z dt ad o ∂φ (x, y, z) ∂φ(x, y, z) ∂φ(x, y, z) dx(t) dy(t) dz(t) = i+ j+ k · i+ j+ k ∂x ∂y ∂z dt dt dt = ∇φ (x(t), y (t) , z(t)) · dr (t) , dt donde hemos representado: ∂φ(x, y, z) ∂φ(x, y, z) ∂φ(x, y, z) i+ j+ k = ∂ i φ xj ii = φ,i xj ii , ∂x ∂y ∂z rr ∇φ (r(t)) ≡ Bo y lo llamaremos el gradiente de la función φ (r(t)). El gradiente de un campo escalar es uno de los objetos más útiles que encontraremos en el estudio de problemas de Fı́sica-Matemática, el cual lo utilizaremos por ahora de manera operacional. Es bueno recordar que emerge como consecuencia de una derivación contra un parámetro. El gradiente mide el cambio de la función φ (x, y, z). La idea de gradiente nos lleva a considerar a ∇ como un operador vectorial que actúa sobre la función escalar de variable vectorial φ (r(t)). ∇φ (r(t)) ≡ ∂ ∂ ∂ i+ j+ k φ(x, y, z) = ii ∂ i φ(x, y, z) . ∂x ∂y ∂z Es decir, y con un poquito de imaginación: ∇ (◦) = ∂ ∂ ∂ i+ j+ k (◦) = ii ∂ i (◦) . ∂x ∂y ∂z 1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES 43 Derivada de funciones del tipo: A (r(t)) De modo que inspirados en la regla de la cadena de una función escalar de variable vectorial podemos comprobar que: dAi xj dAx (x, y, z) dAy (x, y, z) dAz (x, y, z) dA = i+ j+ k= ii , dt dt dt dt dt ar por consiguiente, si A, tiene por componentes cartesianas (Ax , Ay , Az ) las componentes del vector derivado serán: dAx dAy dAz . Con lo cual, para cada componente: dt , dt , dt in d Ai (x(t), y(t), z(t)) d Ai xj (t) ∂ Ai xj dxk (t) dr(t) = = = · ∇ Ai (x, y, z) . dt dt ∂xk dt dt En términos vectoriales es: dr(t) d (◦) · ∇ A ≡ (v · ∇) A ⇒ = (v · ∇) (◦) ≡ v i ∂i (◦) , dt dt lim dA = dt rP re con v la derivada del radio vector posición r (t), es decir, la velocidad. Entonces, estamos viendo que el cambio del vector A respecto al tiempo es el cambio de sus componentes en la dirección de la velocidad. Si se nos ocurre calcular la derivada del vector velocidad para encontrar la aceleración tendremos que nos quedará expresada como: dv = (v · ∇) v ⇒ ai = (v · ∇) v i , a= dt donde las componentes cartesianas de los vectores velocidad y aceleración son: v i = v i (x (t) , y(t), z (t)) y ai = ai (x(t), y (t) , z(t)), respectivamente. 1.5.5. El operador ∇ El operador vectorial ∇ (◦) merece un poco de atención en este nivel. Tal y como hemos visto cuando construimos: El Gradiente: ∂φ(x, y, z) ∂φ(x, y, z) ∂φ(x, y, z) i+ j+ k ∂x ∂y ∂z = ∂ 1 φ(x, y, z)i1 + ∂ 2 φ(x, y, z)i2 + ∂ 3 φ(x, y, z)i3 = ∂ i φ xj ii . ad o ∇φ(x, y, z) = (1.4) rr Podemos ver ahora que existen otras posibilidades: El Rotor: Se puede construir la siguiente operación: ∇ × A, que denominaremos rotor de A, y vendrá dado por la siguiente expresión: Bo ∇×A = = ∂ ∂ ∂ i+ j+ k × (Ax i + Ay j + Az k) ∂x ∂y ∂z ∂Az ∂Ay ∂Ax ∂Az ∂Ay ∂Ax − i+ − j+ − k = εijk ∂j Ak ii . ∂y ∂z ∂z ∂x ∂x ∂y (1.5) La Divergencia: También podemos hablar del “producto escalar” de nabla por un vector A. A esta operación la llamaremos divergencia de A: ∂Ax (x, y, z) ∂Ay (x, y, z) ∂Az (x, y, z) ∂Ai xj ∇·A= ≡ ∂i Ai xj ≡ + + , ∂xi ∂x ∂y ∂z pero por ahora consideremos nabla ∇ como un vector. De este modo habrá una gran cantidad de relaciones vectoriales que involucran a ∇, las cuales se podrán demostrar. 44 CAPÍTULO 1. LOS VECTORES DE SIEMPRE 1.5.6. Integración Después de haber diferenciado campos escalares y vectoriales, el siguiente paso es integrarlos. Encontraremos algunos objetos vectoriales a integrar y serán: Integración de un vector por un escalar: Z A (u) du ar Integración de un escalar a lo largo de un vector: Z φ(x, y, z) dr in c Integración de un vector a lo largo de otro vector: Z A(x, y, z) · dr lim c Un vector por un escalar: R rP re El primero de los casos es el tipo de integral que siempre hemos utilizado para encontrar la posición a partir de la velocidad. Los siguientes tres casos se conocen con el nombre de integrales de lı́nea por cuanto es importante la “ruta” o trayectoria que sigamos al integrar. Esto aparece indicado por la letra C en la integral y será evidente más adelante. En general la integral de lı́nea dependerá de la trayectoria. A (u) du El primer caso de este tipo integrales es el trivial que ya sabemos calcular: Z Z Z Z Z A (u) du = i Ax (u) du + j Ay (u) du + k Az (u) du = Ai (u) du ii . ad o La integral de un vector (en un sistema de coordenadas cartesianas) por un escalar se convierte en la suma de tres integrales, cada una a lo largo de las componentes cartesianas del vector. Recordemos que ası́ integramos la aceleración en un movimiento parabólico: Z Z dv = a = −g k ⇒ v = a dt = k −g dt = −k gt + v0 = −kgt + iv0x + jv0y + kv0z . dt rr Ahora bien, existen sutilezas en este caso que debemos tener en cuenta. Por ejemplo, considere la integral: Z Z Z d2 a d da da da d da da dt a × 2 = dt a× − × = dt a× =a× + c. dt dt dt dt dt dt dt dt Bo Pero en general los casos quedan resueltos integrando componente a componente con la ayuda de la notación de ı́ndices: Z Z ijk dt (a × b) = dt ε aj bk ii . Un escalar a lo largo de un vector: R C φ (r) dr El segundo objeto que “tropezaremos” es la integración de funciones de varias variables a lo largo de una curva determinada. Esto es: Z Z Z Z Z φ (x, y, z) dr = φ(xi ) (dxi + dyj + dzk) = i φ(xi )dx + j φ(xi )dy + k φ(xi )dz . C C C C C La integral se nos ha convertido en tres integrales, las cuales son ahora componentes de un vector. Esto es posible dado que la base (i, j, k) es una base constante. Ahora bien, cada una de estas integrales son interdependientes, dado que hay que seguir la misma curva C. 1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES Un vector a lo largo de otro vector: R C 45 F (r) · dr R Quizá la integral de lı́nea más conocida sea una del tipo C F (r) · dr por cuanto nos la hemos “tropezado” en el cálculo del trabajo que realiza una fuerza. Todo lo que hemos considerado al parametrizar la curva en el caso anterior, sigue siendo válido. Z Z Z Z Z F (r) · dr = Fx (x, y, z) dx + Fy (x, y, z) dy + Fz (x, y, z) dz = F i xj dxi . C C C C Ejemplos ar 1.5.7. C 1. Si una partı́cula se mueve a lo largo de una curva descrita por: y(t) = 4t3 − t , z(t) = t . in x(t) = 3t2 , Entonces, las expresiones para los vectores: posición, velocidad y aceleración de esa partı́cula son: v = 6ti + (12t2 − 1)j + k , a = 6i + 24tj . lim r(t) = 3t2 i + (4t3 − t)j + tk , Si nos proponemos encontrar las expresiones, más generales, de los vectores tangentes y perpendiculares a todo punto de la trayectoria de la partı́cula podemos ver que el vector tangente a todo punto de la trayectoria es el vector velocidad v = 6ti + (12t2 − 1)j + k , rP re El vector perpendicular a todo punto, será un vector b = bx i + by j + bz k, tal que: (6ti + (12t2 − 1)j + k) · (bx i + by j + bz k) = 6tbx + (12t2 − 1)by + bz = 0 , con lo cual: b = bx i + by j − (6tbx + (12t2 − 1)by )k . 2. La trayectoria de un punto en el plano vista por un observador (1) es la siguiente: r1 (t) = 5 cos(3t2 ) i + 5 sen(3t2 ) j . ad o Queremos expresar las aceleraciones radiales y tangenciales de esta partı́cula ya que es claro que la partı́cula describe un movimiento circular, donde θ(t) = 3t2 . Entonces: r(t) = 5ûr ⇒ v(t) = dθ(t) da(t) dr(t) =5 ûθ = 30t ûθ ⇒ a(t) = = 30 ûθ − 30t ûr . dt dt dt rr Consideremos ahora un segundo observador (2), el cual describe una trayectoria respecto al primero representada por: r21 (t) = (t3 − 4t)i + (t2 + 4t) j . Bo Y queremos encontrar las expresiones para los vectores posición, velocidad y aceleración de la partı́cula medidos respecto al segundo observador. Por lo tanto, la trayectoria de la partı́cula respecto al segundo observador será: r2 (t) = r1 (t) − r21 (t) = 5 cos(3t2 ) i + 5 sen(3t2 ) j − ((t3 − 4t)i + (t2 + 4t) j) , con lo cual: r2 (t) = 5 cos(3t2 ) − t3 + 4t i + 5 sen(3t2 ) − t2 − 4t j , entonces: v2 (t) = dr2 (t) = − 30 sen 3 t2 t + 3 t2 − 4 i + 30 cos 3 t2 t − 2 t − 4 j , dt y a2 (t) = dv2 (t) = −6 30 cos 3t2 t2 + 5sen 3t2 + t i − 2 90sen 3t2 t2 − 15 cos 3t2 + 1 j . dt 46 CAPÍTULO 1. LOS VECTORES DE SIEMPRE 3. Demostrar que: ∇ (a · b) = (a · ∇) b + (b · ∇) a + a × (∇ × b) + b × (∇ × a) . El resultado es un gradiente, es decir un vector. El lado izquierdo será: i (∇ (a · b)) = ∂ i (a · b) = ∂ i aj bj = ∂ i aj bj + ∂ i bj aj . Mientras que el lado derecho: i (∇ (a · b)) = aj ∂ j bi + = aj ∂ j bi + = aj ∂ j bi + = aj ∂ j bi + in ar bj ∂ j ai + εijk aj (∇ × b)k + εijk bj (∇ × a)k bj ∂ j ai + εijk aj εkmn ∂ m bn + εijk bj εkmn ∂ m an bj ∂ j ai + εijk εmnk aj ∂ m bn + εijk εmnk bj ∂ m an i j j i i j j i bj ∂ j ai + δm δn − δm δn aj ∂ m bn + δm δn − δm δn bj ∂ m an i j j i i j j i = aj ∂ j bi + bj ∂ j ai + δm δn aj ∂ m bn − δm δn aj ∂ m bn + δm δn bj ∂ m an − δm δn bj ∂ m an = aj ∂ j bi + bj ∂ j ai + an ∂ i bn − am ∂ m bi + bn ∂ i an − bm ∂ m ai lim = aj ∂ j bi − am ∂ m bi + bj ∂ j ai − bm ∂ m ai + an ∂ i bn + bn ∂ i an {z } | {z } | =0 =0 = an ∂ i bn + bn ∂ i an = ∂ i aj bj = ∂ i (a · b) . 4. Demostrar la siguiente identidad: rP re ∇ × (a · ∇) a = (∇ · a) (∇ × a) − [∇ · (∇ × a)] a + (a · ∇) (∇ × a) − [(∇ × a) · ∇] a . Iniciamos la traducción a ı́ndices por el lado izquierdo de la ecuación, ası́: ∇ × (a · ∇) a = ijk ∂j (am ∂ m ) ak = ijk (∂j am ) ∂ m ak + ijk am ∂j ∂ m ak = ijk (∂j am ) ∂ m ak + am ∂ m ijk ∂j ak . El lado derecho lo traduciremos término por término: ad o (∇ · a) (∇ × a) = (∂ m am ) ijk ∂j ak − [∇ · (∇ × a)] a = − ∂m mjk ∂j ak ai = − mjk ∂m ∂j ak ai = 0 (a · ∇) (∇ × a) = am ∂ m ijk ∂j ak − [(∇ × a) · ∇] a = − mjk ∂j ak ∂m ai . Bo rr El segundo término se anula por cuanto mjk es antisimétrico respecto a los ı́ndices m, j, mientras que ∂m ∂j es simétrico. El tercer término del desarrollo del lado derecho corresponde con el segundo del desarrollo del lado izquierdo. Por lo tanto, llegamos a la siguiente igualdad: ijk (∂j am ) ∂ m ak = (∂ m am ) ijk ∂j ak − mjk ∂j ak ∂m ai . (>) Para verificar la igualdad tendremos que evaluar componente a componente, esto es, para i = 1, el lado izquierdo de (>) resulta en: 1jk (∂j am ) ∂ m ak = 123 (∂2 am ) ∂ m a3 + 132 (∂3 am ) ∂ m a2 = (∂2 am ) ∂ m a3 − (∂3 am ) ∂ m a2 = (∂2 a1 ) ∂ 1 a3 + (∂2 a2 ) ∂ 2 a3 + (∂2 a3 ) ∂ 3 a3 − (∂3 a1 ) ∂ 1 a2 − (∂3 a2 ) ∂ 2 a2 − (∂3 a3 ) ∂ 3 a2 . Para el primer término del lado derecho de (>): (∂ m am ) 1jk ∂j ak = (∂ m am ) 123 ∂2 a3 + (∂ m am ) 132 ∂3 a2 = ∂2 a3 ∂ 1 a1 + ∂2 a3 ∂ 2 a2 + ∂2 a3 ∂ 3 a3 − ∂3 a2 ∂ 1 a1 − ∂3 a2 ∂ 2 a2 − ∂3 a2 ∂ 3 a3 , | {z } | {z } α β 1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES 47 y el segundo término de (>) se escribe como: − mjk ∂j ak ∂m ai = − 1jk ∂j ak ∂1 a1 − 2jk ∂j ak ∂2 a1 − 3jk ∂j ak ∂3 a1 = − (∂2 a3 − ∂3 a2 ) ∂1 a1 − (∂3 a1 − ∂1 a3 ) ∂2 a1 − (∂1 a2 − ∂2 a1 ) ∂3 a1 = ∂3 a2 ∂1 a1 − ∂2 a3 ∂1 a1 + ∂1 a3 ∂2 a1 − ∂3 a1 ∂2 a1 + ∂2 a1 ∂3 a1 − ∂1 a2 ∂3 a1 . | {z } | {z } | {z } | {z } α β γ γ Ξ ar Al sumar ambos términos se eliminan los sumandos indicados con letras griegas, y queda como: (∂ m am ) 1jk ∂j ak − mjk ∂j ak ∂m ai = ∂2 a3 ∂2 a2 + ∂2 a3 ∂3 a3 Υ −∂3 a2 ∂2 a2 −∂2 a2 ∂3 a3 + ∂1 a3 ∂2 a1 −∂1 a2 ∂3 a1 , Ω Ψ Λ in Σ y al compararlo con el desarrollo del lado derecho de (>) e identificar término a término queda demostrada la igualdad: Λ Ξ Υ De igual manera se procede con i = 2 e i = 3. lim 1jk (∂j am ) ∂ m ak = (∂2 a1 ) ∂1 a3 + (∂2 a2 ) ∂2 a3 + (∂2 a3 ) ∂3 a3 − (∂3 a1 ) ∂1 a2 − (∂3 a2 ) ∂2 a2 − (∂3 a3 ) ∂3 a2 . Σ Ω Ψ 5. Utilizando la notación de ı́ndices muestre si se cumple la siguiente identidad: rP re ∇ × (a × b) = a (∇ · b) − b (∇ · a) + (b · ∇) a − (a · ∇) b . Desarrollemos en ı́ndices el lado izquierdo: j i j ∇ × (a × b) = ijk ∂j (klm al bm ) = (δli δm − δm δl )∂j (al bm ) = ∂m (ai bm ) − ∂l (al bi ) , expandiendo la derivada: ∇ × (a × b) = bm ∂m (ai ) + ai ∂m (bm ) − bi ∂l (al ) − al ∂l (bi ) ≡ (b · ∇)a + (∇ · b)a − (∇ · a)b − (a · ∇)b . ad o 6. Tal vez, uno de los problemas que ilustra mejor el uso del álgebra vectorial y la derivación de vectores es el movimiento bajo fuerzas centrales. La ley de gravitación de Newton nos dice que para un sistema de dos masas, m y M se tiene: X F = m a ⇒ mG dv dv GM M ûr = m ⇒ = 2 ûr . 2 rmM dt dt rmM rr Es costumbre definir la velocidad areolar , va , como el área barrida por el radio vector posición, r(t), que describe la trayectoria de la partı́cula: dr d (r ûr ) dr dûr dûr dûr 2va ≡ r × = r ûr × = rûr × ûr + r = r ûr × r = r2 ûr × . dt dt dt dt dt dt Bo Nótese que: d dt dûr dûr dûr ûr × = 0 ⇒ ûr × = c ⇒ 2va = r2 ûr × = const , dt dt dt donde c es un vector constante, con lo cual: d (v × va ) dt = = dv GM GM dûr × va = 2 ûr × va = ûr × ûr × dt rmM 2 dt dûr dûr GM dûr GM ûr · ûr − (ûr · ûr ) = . 2 dt dt 2 dt Integrando: v × va = GM ûr + p , 2 48 CAPÍTULO 1. LOS VECTORES DE SIEMPRE donde p es un vector arbitrario que aparece como constante de integración. Finalmente nos damos cuenta que: r · (v × va ) = r ûr · GM GM ûr + p = r + rp cos(θ) 2 2 = εijk ri vj vak ≡ va · (r × v) = va · va = va2 , y entonces: GM r + rp cos(θ) ⇒ r = = 2 GM 2 2 2va GM 2p GM cos(θ) va2 ≡ + p cos(θ) 1+ , ar va2 que constituye la ecuación de una curva cónica ¿Cuál curva? in 7. Consideremos la siguiente función: φ (x, y) = 3x2 + 2y . (0,0) (1,2) lim Queremos calcular la siguiente integral de lı́nea: Z Z (1,2) Z (1,2) 3x2 + 2y dr = i 3x2 + 2y dx + j 3x2 + 2y dy . (0,0) (0,0) Se requiere especificar la curva C a lo largo de la cual integraremos, en este caso, desde el punto P1 → (0, 0) al punto P2 → (1, 2). Podemos ir por diferentes recorridos: rP re Si recorremos la ruta C1 : (0, 0) → (1, 0) → (1, 2) podemos hacerlo de la manera más sencilla: Z (1,0) Z (1,0) Z 1 (0, 0) → (1, 0) ⇒ y = cte = 0 ⇒ 3x2 + 2y dr = i 3x2 + 2y dx = i 3x2 dx = i (0,0) (0,0) (1,0) Z 2 (1, 0) → (1, 2) ⇒ x = cte = 1 ⇒ 3x + 2y dr = j C1 ←→ (0, 0) → (1, 0) → (1, 2) ⇒ −−−−−→ −−−−−→ ad o Z (0,0) Z C1A 2 3x + 2y dy = j (0,0) con lo cual: (1,2) Z 0 C1B 2 (3 + 2y) dy = 10j 0 (1,2) 3x2 + 2y dr = i + 10j . (0,0) Si hubiéramos seleccionado la recta que une a estos dos puntos como la curva C2 entonces: C2 : y = 2x ⇒ dy = 2dx , esto es: Z (1,2) 3x2 + 2y dr = i rr (0,0) Z (1,2) 3x2 + 2y dx + j (0,0) 1 Z =i 0 (1,2) Z 3x2 + 2 (2x) dx + j 3x2 + 2y dy (0,0) 1 Z 3x2 + 2 (2x) 2dx = 3i + 6j . 0 Bo En general la curva C se puede parametrizar y las integrales en varias variables se convertirán en integrales a lo largo del parámetro que caracteriza la curva. C : {x = x (τ ) , y = y (τ ) , z = z (τ )} Por lo tanto: Z Z ∂x (τ ) ∂y (τ ) ∂z (τ ) dτ i + dτ j + dτ k φ (x, y, z) dr = φ (x (τ ) , y (τ ) , z (τ )) ∂τ ∂τ ∂τ C C Z Z ∂x (τ ) ∂y (τ ) =i φ (x (τ ) , y (τ ) , z (τ )) dτ + j φ (x (τ ) , y (τ ) , z (τ )) dτ ∂τ ∂τ C C Z ∂z (τ ) +k φ (x (τ ) , y (τ ) , z (τ )) dτ . ∂τ C 1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES Las parametrización de las curvas anteriores es muy simple: x=τ x=2 C1A = ; C1B = ; y=0 y=τ C2 = 49 x=τ y = 2τ (0,0) Queda ahora como: Z (1,2) 2 1 Z (0,0) 2 Z 1 3τ 2 + 4τ 2dτ = 3i + 6j . in (0,0) 3τ + 4τ dτ + j 3x + 2y dr = i 0 (0,0) ar Con esta manera de parametrizar, la integral que resolvimos anteriormente tomando el camino C2 : Z (1,2) Z (1,2) Z (1,2) 3x2 + 2y dx + j 3x2 + 2y dy . 3x2 + 2y dr = i 0 lim Ya que: 0 ≤ τ ≤ 1. 8. Consideramos el siguiente campo vectorial: F (r) = 3x2 + 2xy 3 i + 6xy j . Queremos evaluar la siguiente integral: Z (1, 43 √2) Z (1, 43 √2) 3x2 + 2xy 3 i + 6xy j (dx i + dy j) rP re F (r) · dr = (0,0) (0,0) Z (1, 43 √2) = 2 3x + 2xy 3 Z (1, 43 √2) dx + (0,0) 6xy dy . (0,0) Consideremos que la curva que une esos puntos viene parametrizada por: x = 2τ 2 , y = τ 3 + τ ⇒ ∂y (τ ) ∂x (τ ) = 4τ , = 3τ 2 + 1 , ∂τ ∂τ ad o entonces, la primera de las integrales resulta: Z (1, 43 √2) √ 2 3x + 2xy 3 2 2 Z dx = (0,0) 3 2τ 2 2 + 2 2τ 2 τ3 + τ 3 (4τ ) dτ 0 √ Z 2 2 = 0 Z (1, 43 √2) rr Y la segunda: Z √ 2 2 6 2τ 2 6xy dy = (0,0) con lo cual: Z (1, 34 √2) Bo 9305 √ 16 τ 12 + 48 τ 10 + 48 τ 8 + 16 τ 6 + 48 τ 5 dτ = 1 + 2. 24024 τ3 + τ 0 Z (1, 34 √2) F (r) · dr = (0,0) 2 3x + 2xy 3 65 3τ 2 + 1 dτ , = , 32 Z (1, 43 √2) dx + (0,0) 6xy dy = (0,0) 9. El campo de fuerzas de un oscilador anisótropo bidimensional se escribe como: F = −k1 x2 i + k2 yj . Encontremos el trabajo realizado Z (x2 ,y2 ) F · dr , (x1 ,y1 ) a lo largo de las siguientes trayectorias: 97 9305 √ + 2. 32 24024 50 CAPÍTULO 1. LOS VECTORES DE SIEMPRE a) (1, 1) → (4, 1) → (4, 4) (4,1) Z 2 Z (4,4) (idx) · (−k1 x i + k2 j) + (1,1) (jdy) · (−k1 16i + k2 yj) = −21k1 + 15k2 . 2 (idx) · (−k1 x2 i + k2 4j) = −21k1 + 15k2 . 2 (4,1) b) (1, 1) → (1, 4) → (4, 4) (1,4) Z (4,4) (jdy) · (−k1 i + k2 yj) + (1,1) (1,4) ar Z c) (1, 1) → (4, 4) siguiendo la recta x = y (4,4) (idx + jdx) · (−k1 x2 i + k2 xj) = Z (4,4) (−k1 x2 + k2 x)dx = −21k1 + (1,1) (1,1) Bo rr ad o rP re lim Dejamos al lector que calcule el trabajo para la trayectoria y = x2 . 15k2 . 2 in Z 1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES 1.5.8. 51 Practicando con Maxima 1. Maxima nos permite hacer cálculos con el operador ∇ en coordenadas cartesianas, más adelante veremos que también es posible en otros sistemas de coordenadas. Los operadores que se pueden expresar son: grad(gradiente), div (divergencia), curl (rotacional), laplacian (laplaciano). Debemos hacer uso de la librerı́a vect para poder utilizar los operadores diferenciales. x2 + y 2 . + y 2 + z 2 )1/2 (x2 in f= ar Por otro lado, se debe usar también de función express(expr) para transformar los nombres de los operadores diferenciales en expresiones que contienen derivadas parciales y con la función ev evaluamos la expresión. Veamos como se hace si queremos calcular el gradiente de la siguiente función: (%i1) load(vect)$ lim (%i2) f:(x^2+y^2)/(x^2+y^2+z^2)^(1/2); y 2 + x2 ( %o2) p z 2 + y 2 + x2 (%i3) grad(f); ! p z 2 + y 2 + x2 rP re ( %o3) grad y 2 + x2 Estaremos haciendo uso del sı́mbolo % que representa la última expresión de salida, de esta manera nos ahorramos estar escribiendo nuevamente el último resultado en la nueva linea de entrada. (%i4) express(%); " ( %o4) d dx ! y 2 + x2 p z 2 + y 2 + x2 d , dy y 2 + x2 p z 2 + y 2 + x2 ! d , dz !# y 2 + x2 p z 2 + y 2 + x2 ad o Notemos que el resultado anterior es una lista del tipo [x, y, z], que es la manera como el programa maneja los vectores. En este caso, el primer elemento de la lista es la componente x del vector gradiente. De la misma manera para las componentes y y z. Evaluamos las derivadas de la última salida: (%i5) ev(%, diff); " 2x x y 2 + x2 2y y y 2 + x2 y 2 + x2 z # p − − 3 , p 3 ,− 3 z 2 + y 2 + x2 z 2 + y 2 + x2 (z 2 + y 2 + x2 ) 2 (z 2 + y 2 + x2 ) 2 (z 2 + y 2 + x2 ) 2 rr ( %o5) Bo En este punto podemos intentar simplificar las expresiones anteriores, esto lo hacemos con el comando ratsimp y ası́ obtener finalmente el vector gradiente: (%i6) ratsimp(%); " ( %o6) # p p z 2 + y 2 + x2 2 x z 2 + x y 2 + x3 z 2 + y 2 + x2 2 y z 2 + y 3 + x2 y y 2 + x2 z , ,− 3 z 4 + (2 y 2 + 2 x2 ) z 2 + y 4 + 2 x2 y 2 + x4 z 4 + (2 y 2 + 2 x2 ) z 2 + y 4 + 2 x2 y 2 + x4 (z 2 + y 2 + x2 ) 2 Hagamos uso de los otros operadores. Por ejemplo, dado el vector: a= x2 y2 z2 i + j + k, x2 + y 2 x2 + y 2 x2 + y 2 calculemos la divergencia, ∇ · a. Esta vez combinaremos algunos comandos en una misma linea. 52 CAPÍTULO 1. LOS VECTORES DE SIEMPRE (%i7) a:[x^2/(x^2+y^2),y^2/(x^2+y^2),z^2/(x^2+y^2)]; ( %o7) y2 z2 x2 , , y 2 + x2 y 2 + x2 y 2 + x2 (%i8) express(div (a)); z2 y 2 + x2 d + dy y2 y 2 + x2 d + dx x2 y 2 + x2 ar d ( %o8) dz ( %o9) in (%i9) ev (%, diff),ratsimp; 2 y 2 + 2 x2 z + 2 x y 2 + 2 x2 y y 4 + 2 x2 y 2 + x4 (%i10)ev(express(curl(a)),diff); " 2, (y 2 + x2 ) 2 x z2 2, (y 2 + x2 ) 2 x2 y 2 (y 2 + x2 ) − # 2 x y2 2 (y 2 + x2 ) rP re ( %o10) − 2 y z2 lim Calculemos ahora el rotor de a, ∇ × a, pero combinado más comandos en una sola instrucción: Intentemos simplificar nuevamente para ver lo que ocurre: (%i11)ratsimp(%); ( %o11) − 2 y z2 2 x z2 2 x y 2 − 2 x2 y , , − y 4 + 2 x2 y 2 + x4 y 4 + 2 x2 y 2 + x4 y 4 + 2 x2 y 2 + x4 Finalmente, calculemos el laplaciano de f , ∇2 f , todo en una sola instrucción ( %o12) ad o (%i12)ratsimp(ev(express(laplacian(f)),diff)); 4 z2 3 (z 2 + y 2 + x2 ) 2 Podemos verificar rapidamente que: ∇2 f = ∇ · ∇f rr (%i13)div(grad(f)); ( %o13) div grad y 2 + x2 !! p z 2 + y 2 + x2 Bo (%i14)ratsimp(ev(express((%)),diff)); ( %o14) 4 z2 3 (z 2 + y 2 + x2 ) 2 2. Maxima integra simbólicamente funciones por medio del comando integrate(expr, x, a, b). Esto es, calcula la integral definida de la expr respecto de x con los lı́mites de integración a y b. Si se omiten los lı́mites de integración se calcula la integral indefinida. Por ejemplo, si queremos calcular la integral: Z a sen(x + b)3 dx . 1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES 53 Escribimos: (%i15)integrate(a*sin(x+b)^3,x); ( %o15) a cos3 (x + b) − cos (x + b) 3 Calculemos ahora el área de la región comprendida entre las funciones: y g(x) = −x + 1 . ar f (x) = x3 − 3x2 + 1 Es decir, vamos a calcular la integral: Z b in [f (x) − g(x)]dx . a (%i16)f(x):=x^3-3*x^2+1; g(x):=-x+1; ( %o16) f (x) := x3 − 3 ∗ x2 + 1 rP re ( %o17) g(x) := −x + 1 lim Aprovecharemos este ejercicio para aprender, entre otras cosas, a graficar y definir funciones. Primero que todo, debemos introducir al programa las dos funciones y a diferencia de los cálculos anteriores, usaremos := para definirlas. La diferencia de estas dos funciones la podemos llamar la función d(x). (%i18)d(x):=f(x)-g(x); ( %o18) d(x) := f (x) − g(x) Haremos la gráfica de las dos funciones. Maxima permite hacer gráficos en 2D con el comando plot2d. Pero aquı́ utilizaremos una variante y haremos el gráfico con el comando wxplot2d para que la figura aparezca embebida dentro de nuestra hoja de cálculo. ad o Es necesario introducir las funciones como una lista, es decir, dentro de corchetes. Por otra parte, le pediremos al programa que grafique para los valores comprendidos de: −1 ≤ x ≤ 3. Posteriormente, necesitaremos encontrar los puntos donde las funciones se interceptan. Para este fin, utilizaremos el comando solve, que resuelve la ecuación algebraica y devuelve una lista de igualdades con las variables despejadas. Si la expresión a resolver no es una igualdad, se supone que se quiere resolver la ecuación ya igualada a cero. rr Entonces, para graficar las funciones f (x) y g(x) entre [−1, 3] escribimos el siguiente comando: (%i19)wxplot2d([f(x),g(x)],[x,-1,3]); Bo ( %o19) Calculemos los puntos donde se interceptan las curvas: (%i20)solve(f(x)-g(x),x); " √ 5−3 ,x = ( %o20) x = − 2 Los valores numéricos son: (%i21)float(%); √ # 5+3 ,x = 0 2 CAPÍTULO 1. LOS VECTORES DE SIEMPRE lim in ar 54 ( %o21) [x = 0,3819660112501051, x = 2,618033988749895, x = 0,0] Procedemos ahora sı́ a integrar la función diferencia para encontrar el área contenida dentro de las dos funciones. En este caso será la integral: √ 5−3 2 5−3 2 rP re √ Z − Z d(x) dx + A= − 0 √ 5−3 2 (−d(x)) dx . (%i22)integrate(d(x),x,0,-(sqrt(5)-3)/2)+integrate(-d(x),x,-(sqrt(5)-3)/2,(sqrt(5)+3)/2); 3 ( %o22) 3 5 2 + 11 5 2 − 11 + 8 4 (%i23)float(%); ad o ( %o23) 2,817627457812107 3. Calculemos ahora las dos integrales que aparecen en el ejemplo 8 de 1.5.7. Es decir las integrales: Z (1, 34 √2) 2 3x + 2xy 3 Z (1, 34 √2) dx , 6xy dy . (0,0) rr (0,0) donde hicimos los cambio de variables: x = 2τ 2 , y = τ 3 + τ ⇒ dx = 4τ dτ , dy = (3τ 2 + 1)dτ . Escribiremos primero los dos integrandos: Bo (%i24)int1:(3*x^2+2*x*y^3)*dx; int2:6*x*y*dy; ( %o24) dx 2 x y 3 + 3 x2 ( %o25) 6 dy x y Realizaremos el cambio de variable a través de comando subst que nos permite sustituir expresiones dentro de otras: (%i26)e1:subst([x=2*t^2,dx=4*t,y=t^3+t,dy=3*t^2+1],int1); 3 ( %o26) 4 t 4 t2 t3 + t + 12 t4 1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES 55 (%i27)e2:subst([x=2*t^2,dx=4*t,y=t^3+t,dy=3*t^2+1],int2); ( %o27) 12 t2 3 t2 + 1 t3 + t Podemos introducir las integrales sin evaluarlas en el momento, esto se consigue mediante el operador de comilla simple. En este caso la función no es evaluada y devuelve una expresión simbólica o imagen pictórica. 1 √ 2 Z ( %o28) 4 ar (%i28)int1:’integrate(e1,t,0,sqrt(2)/2); 3 t 4 t2 t3 + t + 12 t4 dt in 0 Ahora si evaluamos la integral: ( %o29) 9305 5 3003 2 2 +1 Y para la segunda integral: Z ( %o30) 12 1 √ 2 t2 3 t2 + 1 0 rP re (%i30)int2:’integrate(e2,t,0,sqrt(2)/2); lim (%i29)ev(int1,integrate),expand; t3 + t dt (%i31)ev(int2,integrate),expand; ( %o31) 65 32 ad o (%i32)kill(all)$ 4. Para finalizar, aclaremos la diferencia entre asignar una expresión a una variable y la definición de funciones. Consideremos el movimiento de una partı́cula que sigue la trayectoria: 1 x = x0 + v0 t + at2 . 2 rr Primero escribiremos la expresión y se la asignamos a una variable que llamaremos x. (%i1) x:x0+v0*t+a*t^2/2; Bo ( %o1) x0 + t v0 + a t2 2 Si queremos evaluarla para algún valor de la variable t, digamos t = 1, entonces podemos escribir: (%i2) subst(t=1,x); ( %o2) x0 + v0 + a 2 Si queremos evaluar la expresión con el resto de parámetros, entonces: (%i3) subst([t=1,a=-9.8,x0=0,v0=10],x); 56 CAPÍTULO 1. LOS VECTORES DE SIEMPRE ( %o3) 5,1 Las sustituciones se realizan pero no se asignan a las variables. Podemos ver que x sigue siendo lo que le asignamos originalmente. (%i4) x; a t2 2 ar ( %o4) x0 + t v0 + Ahora definamos la expresión anterior pero como la función x(t). t2 2 lim ( %o5) x(t) := x0 + v0 t + a in (%i5) x(t):=x0+v0*t+a*t^2/2; Evaluarla es ahora más sencillo: (%i6) x(1); a 2 rP re ( %o6) x0 + v0 + También podemos escribir: (%i7) subst([a=-9.8,x0=0,v0=10],x(1)); ( %o7) 5,1 Si queremos asignarle los valores a los parámetros de manera global, entonces escribimos: ad o (%i8) a:-9.8$ x0:0$ v0:10$ De manera que: (%i11)x(1); ( %o11) 5,1 rr Para limpiar los parámetros que acabamos de asignar hacemos lo siguiente: (%i12)kill(a,v0,x0)$ Bo Por lo tanto: (%i13)x(1); ( %o13) x0 + v0 + a 2 La velocidad y la aceleración son funciones fáciles de calcular: (%i14)’diff(x(t),t)=diff(x(t),t); ( %o14) d dt x0 + t v0 + a t2 2 = v0 + a t 1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES 57 (%i15)’diff(x(t),t,2)=diff(x(t),t,2); d2 ( %o15) 2 dt a t2 x0 + t v0 + =a 2 En el caso de que estemos interesados en definir una nueva función a partir de algún cálculo anterior podemos utilizar la función define. ar Entonces, lo que vamos a hacer, en las siguientes lineas de comandos, es definir la función velocidad a partir de la derivada de la posición. (%i16)diff(x(t),t); in ( %o16) v0 + a t ( %o17) v(t) := v0 + at (%i18)v(1); ( %o18) v0 + a ( %o19) 0,1999999999999993 rP re (%i19)subst([a=-9.8,x0=0,v0=10],v(1)); lim (%i17)define(v(t),%); 5. Cuando necesitemos manejar campo vectoriales podemos utilizar las listas. Veamos el primer ejemplo de 1.5.7 donde: r = 3t2 i + (4t3 − t)j + tk . Escribamos el vector posición: ad o (%i20)[x,y,z]:[3*t^2,4*t^3-t,t]; ( %o20) 3 t2 , 4 t3 − t, t La velocidad: (%i21)v:diff([x,y,z],t); rr ( %o21) 6 t, 12 t2 − 1, 1 Bo La aceleración: (%i22)a:diff([x,y,z],t,2); ( %o22) [6, 24 t, 0] Podemos facilmente calcular: (%i23)v.[bx,by,bz]; ( %o23) by 12 t2 − 1 + 6 bx t + bz (%i24)solve(%,bz); 58 CAPÍTULO 1. LOS VECTORES DE SIEMPRE ( %o24) bz = −12 by t2 − 6 bx t + by 1.5.9. Ejercicios 1. Demuestre que: dc dt ar d dt db [a · (b × c)] = da dt · (b × c) + a · dt × c + a · b × h i d d2 a d3 a a · da b) dt = a · da dt × dt2 dt × dt3 a) c) ∇ × (∇ × a) = ∇∇ · a − ∇ · ∇a in d ) ∇ × (φ∇φ) = 0 e) ∇ × [a × (∇ × a)] = 0, si a = ax (y, z)i. r = x i + y j + z k = xi ii , lim 2. Considere que: a = a(r) = a(x, y, z) = ai (x, y, z)ii y b = b(r) = b(x, y, z) = bi (x, y, z)ii , φ = φ(r) = φ(x, y, z) y ψ = ψ(r) = ψ(x, y, z). a) ∇(φψ) = φ∇ψ + ψ∇φ. rP re Utilizando la notación de ı́ndices, e inspirándose en las secciones: 1.4.5, 1.5.5 y 1.5.7, demuestre las siguientes identidades vectoriales: b) ∇ · (φa) = φ∇ · a + (∇φ) · a. c) ∇ × ∇φ = 0. d ) ∇ · (∇ × a) ¿Qué puede decir de ∇ × (∇ · a)? e) ∇ · (a × b) = (∇ × a) · b − a · (∇ × b). f ) ∇ × (∇ × a) = ∇(∇ · a) − ∇2 a . 3. Para los vectores dados a continuación, encuentre dr/ds ad o a) r = ti + 3t2 j − (t − 1)k, y t = ln(1 + s2 ). b) r = sen(t)i + cos(t)j + tan(t)k, y t = 2 + s2 . 4. Una partı́cula describe un movimiento dado por el vector posición r. Encuentre la componente de su velocidad en la dirección del vector indicado: a) r = t2 i + 4 cos(2t)j + 3sen(2t)k, 2 2i + j + 2k. rr b) r = 3 cos(t)i + 3sen(t)j + (t − 2)k, i + 2j − k. Bo 5. Si u, v y w son funciones que dependen del parámetro t, demuestre que: du d dv a) dt [u · (v × w)] = u · v × dw dt + u · dt × w + dt · (v × w). du d dv b) dt [u × (v × w)] = u × v × dw dt + u × dt × w + dt × (v × w). 6. Si u = 2ti − t2 j + k, v = 2i + 3tj + tk y w = ti + 2tj − tk. Utilice el resultado del ejercicio (a) anterior para d [u · (v × w)]. encontrar: dt 7. Si u = ti − tj + t2 k, v = −ti + 2tj − t2 k y w = 2ti − 2tj + tk. Utilice el resultado del ejercicio (b) anterior d para encontrar: dt [u × (v × w)]. 8. Encuentre el gradiente de los siguientes campos: a) φ(x, y, z) = x2 + 3xyz − yz 2 . −1 b) φ(x, y, z) = x2 + 2y 2 + 4z 2 . 1.5. UN COMIENZO A LA DERIVACIÓN E INTEGRACIÓN DE VECTORES 59 9. Encuentre la divergencia de los siguientes campos: a) a(x, y, z) = x2 yi + y 2 z 2 j + xz 3 k. b) a(x, y, z) = (1 − x2 )i + sen(yz)j + exyz k. 10. Encuentre el rotor de los siguientes campos: a) a(x, y, z) = xyz 2 i + x2 yzj + xy 2 k. 11. Evalúe las siguientes integrales: R a) tsen(t)i + 2t2 j − 7tk dt. R b) cosh2 (t)i + 2sen2 (2t)j − k dt. 12. Un campo de fuerza: F = −kxi − kyj , in ar b) a(x, y, z) = senh(xy)i + cosh(yz)j + xyzk. a) (1, 1) → (4, 1) → (4, 4). b) (1, 1) → (1, 4) → (4, 4). 13. Dado el campo de fuerza: c) (1, 1) → (4, 4), siguiendo el camino: x = y. x y i+ 2 j. x2 + y 2 x + y2 rP re F=− lim actúa sobre un oscilador. Compare el trabajo hecho al moverse en contra de este campo al ir desde el punto (1, 1) al punto (4, 4), siguiendo los siguientes caminos: Calcule el trabajo hecho en contra de este campo de fuerza al moverse al rededor de un circulo de radio uno y en el plano x − y. a) desde 0 a π en sentido contrario a la agujas del reloj. b) desde 0 a −π en sentido de las agujas del reloj. 14. Evaluar la siguiente integral: I r · dr . ad o 15. Una partı́cula se mueve bajo la ley r(t) = x(t)i + y(t)j + z(t)k, con: x(t) = 2t2 ; y(t) = t2 − 4t; z(t) = 3t − 5. El parámetro t representa el tiempo. rr Encuentre las expresiones para la aceleración y la velocidad de la partı́cula, para t = 1 y en la dirección del vector i − 3j + 2k. 16. Suponga ahora el caso general de una partı́cula que se mueve en una curva descrita por: r(t) = x(t)i + y(t)j + z(t)k . Bo Muestre que el vector velocidad es tangente a la trayectoria descrita. 17. Encuentre la ecuación vectorial para una trayectoria recta que pasa por los puntos P → (1, 2, 3) y Q → (1, 1, 1). 18. Encuentre el ángulo entre los siguientes planos: x + y + z = 9 y x + y − z = 3. 19. Un fluido se considera irrotacional si su campo de velocidades v = v(r) = v(x, y, z) cumple con la ecuación: ∇ × v = 0. Suponga, ahora que: v = (x + 2y + az)i + (bx − 3y − z)j + (4x + cy + 2z)k. a) Encuentre el valor de a, b y c para que este campo de velocidades sea irrotacional. b) Es intuitivo convencerse que si ∇ × v = 0 ⇒ v = ∇ψ. Encuentre la expresión para la función potencial ψ = ψ(r) = ψ(x, y, z). R c) Considere la siguiente integral: I = C dr · v. Donde C es el circuito a recorrer. 60 CAPÍTULO 1. LOS VECTORES DE SIEMPRE 1) Calcule el valor de la integral I a lo largo del trayecto: (0, 0, 0) → (1, 1, 0) mediante una segmento de recta. Luego, de (1, 1, 0) → (2, 0, 0) a lo largo de otro segmento de recta. Finalmente regresando (2, 0, 0) → (0, 0, 0) también siguiendo una recta. 2) Calcule el valor de la integral I de (0, 0, 0) → (2, 0, 0) a lo largo de un arco de circunferencia que cumple con la ecuación: (x − 1)2 + y 2 = 1. Ahora regresando de (2, 0, 0) → (0, 0, 0) también a través de una recta. 3) ¿Qué puede concluir del campo v? 1.6. ar 20. Resuelva todos los problemas anteriores utilizando Maxima. Vectores y números complejos o cuadrático: 2 x +4=0 ⇒ x = 2i x = −2i lim in Desde los primeros cursos de matemática nos hemos tropezado con las llamadas raı́ces imaginarias o complejas de polinomios. La solución a un polinomio cúbico: x = 2i x = −2i x3 − 3x2 + 4x − 12 = 0 ⇒ ⇒ (x + 2i) (x − 2i) (x − 3) = 0 , x=3 ⇒ (x + 2i) (x − 2i) = 0 . 1.6.1. rP re nos lleva a definir un número i2 ≡ −1. De lo anterior podemos ver que al multiplicar el número imaginario i por cualquier número real obtendremos el número imaginario puro ib, con b ∈ R. La nomenclatura de números imaginarios surgió de la idea de que estas 13 cantidades no representaban mediciones fı́sicas. Esa idea ha sido abandonada pero el √ nombre quedó . 2 Es importante señalar aquı́, que suele tomarse i ≡ −1 que i = −1. Pero si hacemos esto, sin √ √ de √ la definición pensarlo bien, llegamos a que: −1 = i2 = ii = −1 −1 = 1 = 1. La contradicción surge por el hecho de que aquı́ el −1 no es un número real sino un número complejo y será evidente más adelante cuando desarrollemos el algebra de los números complejos. Los números complejos y su álgebra ad o Un número complejo, z, es la generalización de los números imaginarios (puros), ib. Esto es: a → parte real z = a + ib con a, b ∈ R ⇒ b → parte imaginaria rr Obviamente los números reales serán a + i0 números complejos con su parte imaginaria nula. Los números imaginarios puros serán números complejos con su parte real nula, esto es, 0 + ib. Por ello, en general diremos que: z = a + ib ⇒ a = Re (z) ∧ b = Im (z) , Bo es decir, a corresponde a la parte real de z y b a su parte imaginaria. Cada número complejo, z tendrá asociado un número complejo conjugado, z ∗ tal que: z ∗ = a − ib , z = a + ib ⇓ ∗ ∗ ∧ (z ) = z z · z ∗ = a2 + b2 , claramente: 2 2 z · z ∗ ≥ 0 ⇒ |z| = |z ∗ | = z · z ∗ = a2 + b2 . 13 Los números complejos comienzan a aparecer en los trabajos de Cardano (1501-1576) y Bombelli (1526-1672) mientras estudiaban las raı́ces de la ecuación cúbica . Pero es a René Descartes (1596-1650) a quién se le atribuye la afirmación: “ciertas ecuaciones algebraicas sólo tienen solución en nuestra imaginación” y utilizó el término “números imaginarios”. Caspar Wessel en 1799 y Jean-Robert Argand en 1806 proponen la estructura del plano complejo y la representación de la unidad imaginaria como el punto (0, 1) del eje vertical de dicho plano. Pero el término, hoy usado de ”números complejos” se debe a Johann Carl Friedrich Gauss (1777-1855). 1.6. VECTORES Y NÚMEROS COMPLEJOS 61 Es importante señalar que, en general, no existe relación de orden entre los números complejos. Vale decir, que no sabremos si un número complejo es mayor que otro. No está definida esta operación. z1 ≯ z2 ∨ z1 ≮ z2 . Dos números complejos serán iguales si sus partes reales e imaginarios lo son: z1 = z2 ⇒ (a1 + ib1 ) = (a2 + ib2 ) ⇒ a1 = a2 ∧ b1 = b2 . in Se suman dos números complejos sumando sus partes reales y sus partes imaginarias: ar Las relaciones de orden sólo se podrán establecer entre módulos de números complejos y no números complejos en general. Rápidamente recordamos el álgebra de los números complejos: z3 = z1 + z2 ⇒ (a1 + ib1 ) + (a2 + ib2 ) = (a1 + a2 ) + i(b1 + b2 ) = a3 + ib3 , ∗ lim claramente z + z ∗ = 2 Re z, también z − z ∗ = 2 Im z. Igualmente es inmediato comprobar que: (z1 + z2 ) = z1∗ + z2∗ . Se multiplican números complejos por escalares multiplicando el escalar por sus partes reales e imaginarias: rP re z3 = αz1 ⇒ α (a1 + ib1 ) = αa1 + i (αb1 ) . Se multiplican números complejos entre si, multiplicando los dos binomios y teniendo cuidado que i2 = −1: z3 = z1 z2 ⇒ (a1 + ib1 ) · (a2 + ib2 ) = (a1 a2 − b1 b2 ) + i (a1 b2 + b1 a2 ) , ∗ también es inmediato comprobar que (z1 z2 ) = z1∗ z2∗ . Se dividen números complejos siguiendo la estrategia de racionalización de fracciones irracionales. Esto es: z1 (a1 + ib1 ) (a2 − ib2 ) a1 a2 + b1 b2 b1 a 2 − a 1 b2 (a1 + ib1 ) = = +i , ⇒ 2 2 z2 (a2 + ib2 ) (a2 + ib2 ) (a2 − ib2 ) (a2 + b2 ) (a22 + b22 ) ad o z3 = es claro que el divisor será cualquier número complejo excepto el cero complejo: 0 + i0. 1.6.2. Vectores y el plano complejo rr Mirando con cuidado el álgebra de números complejos nos damos cuenta que un número complejo puede ser representado por una dupla de números, es decir: z = (a + ib) z = (a, b) . Bo Las propiedades entre números complejos de igualdad, suma y multiplicación por un escalar arriba expuestas se cumplen de forma inmediata con esta nueva representación. Hay que definir las operaciones de multiplicación y división entre números complejos de forma que: (a1 , b1 ) a1 a2 + b1 b2 b1 a2 − a1 b2 (a1 , b1 ) (a2 , b2 ) = (a1 a2 − b1 b2 , a1 b2 + b1 a2 ) ∧ = , . (a2 , b2 ) (a22 + b22 ) (a22 + b22 ) Con está definición para la multiplicación de números complejos podemos ver que si la unidad compleja viene representa por el par i = (0, 1), entonces ahora si: i2 = ii = (0, 1)(0, 1) = (−1, 0) = −1 . Figura 1.10: Representación del plano complejo. El eje horizontal recibe el nombre de eje real, y el eje vertical el nombre de eje imaginario. lim La asociación de un número complejo con una pareja de números inmediatamente nos lleva a imaginar un punto (x, y) en un plano (complejo) en el cual la primera componente (horizontal) representa la parte real y la segunda componente (vertical) representa la parte imaginaria. De esta forma asociamos a un número complejo a un vector que une a ese punto (x, y) con el origen del plano complejo. Como mencionamos con anterioridad, todo número complejo z tiene asociado su complejo conjugado z ∗ . La representación geométrica de z ∗ no es otra cosa que la reflexión de z respecto al eje real. √ Por otro lado, |z| = zz ∗ viene a ser la distancia del punto (0, 0) al punto (x, y), es decir, la longitud o norma del vector (x, y). ar CAPÍTULO 1. LOS VECTORES DE SIEMPRE in 62 rP re Esta representación de números complejos como vectores en el plano (complejo) se conoce con el nombre de Diagrama de Argand14 a pesar que no fue Jean Argand, sino Caspar Wessel15 el primero en proponerlo. Por cierto, esta interpretación fue tres veces redescubierta, primero por Caspar Wessel en 1799, luego por Jean Argand en 1806 y finalmente por Gauss16 en 1831. De esta manera, como un recordatorio al plano real podemos ver que: p √ ∗ 2 2 r = zz = |z| = x + y z = x + iy z = r (cos(θ) + i sen(θ)) , con: tan(θ) = y donde − π ≤ θ ≤ π x Con esta interpretación tendremos: componente real del vector z o parte real de z componente imaginaria del vector z o parte imaginaria de z módulo, magnitud o valor absoluto de z ángulo polar o de fase del número complejo z ad o x = Re z y =√ Im z r = zz ∗ = |z| θ La interpretación vectorial de números complejos permite que la suma de números complejos: z1 = x1 + iy1 y z2 = x2 + iy2 sea representada por la “regla del paralelogramo”, es decir, en la representación gráfica de la suma es fácil ver que z1 y z2 limitan un paralelogramo cuya diagonal es z1 + z2 . Mientras que los productos escalar y vectorial nos llevan a: rr z1 · z2 = Re (z1 z2∗ ) = Re (z1∗ z2 ) ∧ z1 × z2 = Im (z1∗ z2 ) = −Im (z1 z2∗ ) . √ Volviendo nuevamente a la relación |z| = zz ∗ , observemos que: |z1 z2 | = |z1 | |z2 |. Bo Ya que si |z1 z2 |, |z1 | y |z2 | son cantidades positivas, entonces: 2 ∗ 2 2 2 |z1 z2 | = (z1 z2 ) (z1 z2 ) = z1 z2 z1∗ z2∗ = z1 z1∗ z2 z2∗ = |z1 | |z2 | = (|z1 | |z2 |) . |z1 + z2 | ≤ |z1 | + |z2 |. 14 Jean Robert Argand (Ginebra, Suiza, 18 Julio 1768; Parı́s, Francia 13 agosto 1822). Contador pero matemático aficionado, propuso esta interpretación de números complejos como vectors en un plano complejo en un libro autoeditado con sus reflexiones que se perdió y fue rescatado 7 años después, fecha a partir de la cual Argand comenzó a publicar en Matemáticas. 15 Caspar Wessel (Vestby, Noruega 8 junio 1745; 25 marzo 1818, Copenhagen,Dinamarca) Matemático noruego que se dedicó principalmente al levantamiento topográfico de Noruega. Su trabajo sobre la interpretación de números complejos permaneció desconocido por casi 100 años. 16 Johann Carl Friedrich Gauss (30 abril 1777, Brunswick, Alemania; 23 febrero 1855, Göttingen, Alemania). Uno de los matemáticos más geniales y precoces de la Historia. Desde los 7 años comenzó a mostrar sus condiciones de genialidad. Sus contribuciones en Astronomı́a y Matemáticas son múltiples y diversas. 1.6. VECTORES Y NÚMEROS COMPLEJOS 63 Veamos: 2 |z1 + z2 | ∗ = (z1 + z2 ) (z1 + z2 ) = (z1 + z2 ) (z1∗ + z2∗ ) = z1 z1∗ + z2 z2∗ + z1 z2∗ + z1∗ z2 = = |z1 | + |z2 | + 2Re(z1 z2∗ ) ≤ |z1 | + |z2 | + 2 |Re(z1 z2∗ )| ≤ |z1 | + |z2 | + 2 |z1 z2∗ | = |z1 | + |z2 | + 2 |z1 | |z2∗ | = |z1 | + |z2 | + 2 |z1 | |z2 | = (|z1 | + |z2 |) . 2 2 2 2 2 2 2 2 2 2 2 ar Notemos que la igualdad |z1 + z2 | = |z1 | + |z2 | se satisface si, y sólo si, Re(z1 z2∗ ) = |z1 z2∗ |. a · b = ai ∗ in Producto escalar: El producto escalar definido con anterioridad para vectores puede ser redefinido al caso de vectores con componentes complejas. Dados los vectores: a = ai ei y b = bi ei , con {ai } y {bi } ∈ C, entonces bi . lim ∗ √ Notemos que con esta definición, el producto a · a = ai ai siempre será un número real. Por lo tanto, |a| = a · a ∈ R. Esta definición hace que ahora cambien algunas de las propiedades del producto escalar. ∗ a · b = (b · a) . a · (λb) = λ a · b. 1.6.3. rP re (λa) · b = λ∗ a · b. Fórmulas de Euler y De Moivre En cursos anteriores, nos hemos tropezado con la expansión en Taylor17 de funciones, ésta serie permite expresar cualquier función analı́tica18 alrededor de un punto x0 como una serie infinita de potencias del argumento de la función, esto es: df (x) dx (x − x0 ) + x=x0 1 d2 f (x) 2 dx2 ad o f (x) = f (x0 ) + 2 (x − x0 ) + x=x0 1 d3 f (x) 3! dx3 3 (x − x0 ) + · · · · · · x=x0 O de manera equivalente: n f (x) = Cn (x − x0 ) con Cn = 1 dn f (x) n! d xn y n = 0, 1, 2, 3, . . . x=x0 rr Si consideramos que x0 = 0, podremos ver a continuación algunos desarrollos en series de funciones elementales: 1 1 1 1 5 1 6 1 7 1 + x + x2 + x3 + x4 + x + x + x + ······ 2 6 24 120 720 5040 1 1 1 6 cos(x) = 1 − x2 + x4 − x + ······ 2 24 720 1 1 5 1 7 sen(x) = x − x3 + x − x + ······ 6 120 5040 = Bo ex Es fácil convencerse que para la serie de ex se tiene: 1 1 1 1 5 1 6 1 eiθ = 1 + iθ − θ2 + − i θ3 + θ4 + iθ − θ + − i θ7 + · · · · · · 2 6 24 120 720 5040 17 Brook Taylor (18 agosto 1685, Edmonton, Inglaterra; 29 diciembre 1731, Londres, Inglaterra) Fı́sico y Matemático inglés contemporáneo de Newton y Leibniz y junto con ellos participó profundamente en el desarrollo del cálculo diferencial e integral. Además de sus aportes al estudio del magnetismo, capilaridad y termometrı́a, desarrolló el área de diferencias finitas que hasta hoy utilizamos para cálculos en computación. Inventó la integración por partes y descubrió la serie que lleva su nombre. 18 Básicamente, una función analı́tica es una función que puede expresarse como una serie de potencias convergente. 64 CAPÍTULO 1. LOS VECTORES DE SIEMPRE y que puede arreglarse como: 1 1 1 1 6 1 5 1 7 eiθ = 1 − θ2 + θ4 − θ + · · · · · · + i θ − θ3 + θ − θ + ······ 2 24 720 6 120 5040 {z } {z } | | cos(θ) sen(θ) obteniéndose la importante relación: eiθ = cos(θ) + i sen(θ) , ar conocida como la relación de Euler19 . La fórmula de Euler, para −π < θ < π resulta en los siguientes simpáticos resultados: π π i = ei 2 , −1 = eiπ , −i = e−i 2 , 1 = ei2kπ con k = 0, ±1, ±2, ±3 . . . z = x + iy z = |z| (cos(θ) + i sen(θ)) in Entonces, tenemos tres formas de representar un número complejo: z = |z|eiθ . lim La expresión z = x + iy se conoce como forma cartesiana de representación de un número complejo, la forma z = r (cos(θ) + i sen(θ)) será la forma trigonométrica o polar y la expresión z = reiθ será la forma de Euler. Es importante notar una sutileza implı́cita en esta notación. La forma cartesiana representa unı́vocamente a un número complejo, mientras que la forma polar (y la de Euler), es ambigua, ya que: z = r (cos(θ) + isen(θ)) = r (cos(θ + 2nπ) + isen(θ + 2nπ)) , n = 0, ±1, ±2, ±3, . . . rP re Es decir,√existen varios valores del argumento que definen el mismo número complejo. Por ejemplo, el número z = 1 + 3i lo podemos representar de las siguientes maneras: h π π i √ π z = 1 + 3i = 2e 3 i = 2 cos + isen 3h 3 π π i π +2nπ )i ( 3 = 2 cos + 2nπ + isen + 2nπ . = 2e 3 3 ad o Analicemos estas situaciones con más detalle. Primero es importante notar que r es siempre positivo, mientas que el ángulo θ puede tomar infinitos valores incluyendo valores negativos. Como ya vimos, θ se relaciona con las coordenadas cartesianas por la ecuación tan(θ) = y/x, y donde es necesario especificar el cuadrante para su cálculo. A cada valor del ángulo se le denomina el argumento de z. Por lo tanto, si tenemos un número complejo z denotaremos por arg(z) a: arg(z) = {θ ∈ R / |z|(cos(θ) + isen(θ))} . rr Esto significa que dos números complejos z1 y z2 serán iguales si: |z1 | = |z2 | y arg(z1 ) = arg(z2 ). Dado un número complejo, z 6= 0, existe un único argumento Θ que se encuentra en el intervalo [−π, π], y lo representaremos por Arg(z), el argumento principal o valor principal, de manera que: arg(z) = Arg(z) + 2nπ , n = 0, ±1, ±2, ±3, . . . Bo Un número complejo, digamos z = −1 − i (tercer cuadrante) tendrá como valor principal: tan(Θ) = y 3π = 1 ⇒ Arg(−1 − i) = − . x 4 Nota: no debe tomarse el valor − 5π 4 , ya que −π ≤ Θ ≤ π. Lo que si es cierto es que: arg(−1 − i) = − 3π + 2nπ , 4 n = 0, ±1, ±2, ±3, . . . 19 Leonhard Euler (15 abril 1707, Basilea, Suiza; 18 septiembre 1783, San Petersburgo, Rusia). Uno de los matemáticos más prolı́ficos de todos los tiempos. Desarrolló inmensamente campos como la geometrı́a analı́tica y trigonometrı́a, siendo el primero que consideró el coseno y el seno como funciones. Hizo aportes significativos en el desarrollo del cálculo diferencial e integral ası́ como también, astronomı́a, elasticidad y mecánica de medios continuos. 1.6. VECTORES Y NÚMEROS COMPLEJOS 65 Otro aspecto a rescatar de la forma de Euler o exponencial, es que la ecuación: z = reiθ , 0 ≤ θ ≤ 2π , ar no es más que una representación paramétrica del cı́rculo |z| = r, es decir, de un cı́rculo de radio r y centrado en el origen. Por lo tanto, un cı́rculo centrado en z0 y de radio R tendrá como ecuación paramétrica: |z − z0 | = R ⇒ z = z0 + Reiθ , con 0 ≤ θ ≤ 2π. Como podemos apreciar en la figura 1.11. in Figura 1.11: Representación en el plano complejo del cı́rculo |z − z0 | = R. lim Es claro que las sumas de números complejos se plantean más fácilmente en su forma cartesiana. Mientras las multiplicación y división serán directas en la forma de Euler. Si z1 = |z1 |eiθ1 y z2 = |z2 |eiθ2 , entonces: z1 z2 = |z1 |eiθ1 |z2 |eiθ2 = |z1 ||z2 |ei(θ1 +θ2 ) = |z1 z2 | (cos (θ1 + θ2 ) + isen (θ1 + θ2 )) . (1.6) rP re Esto significa que para multiplicar dos números complejos se debe, por un lado, multiplicar sus módulos y por el otro, sumar sus argumentos. Geométricamente, al sumarse los argumentos, la multiplicación es en realidad un giro en el plano complejo por el producto de sus módulos, es decir, si multiplicamos un número por i, el resultado es un giro de un cuarto de vuelta hacia la izquierda, es por eso, que i2 = −1 = eiπ . Mientras que para la división: |z1 | i(θ1 −θ2 ) |z1 | z1 |z1 |eiθ1 = e = (cos (θ1 − θ2 ) + isen (θ1 − θ2 )) . = z2 |z2 |eiθ2 |z2 | |z2 | Podemos notar de esta última expresión que el inverso de un número complejo diferente se cero es: z −1 = 1 1 −iθ = e . z |z| (1.7) ad o Se puede mostrar que a partir de (1.6) y de (1.7) resulta que: arg(z1 z2 ) = arg(z1 ) + arg(z2 ) , z1 arg = arg(z1 ) − arg(z2 ) . z2 rr Por otro lado, notemos lo siguiente. Si z = x + iy, entonces: ez = e(x+iy) = ex eiy = ex (cos(y) + isen(y)) , Bo y a partir de la relación o fórmula de Euler se puede demostrar: n n z n = |z|n eiθ = |z|n einθ ⇒ |z|n (cos(θ) + isen(θ)) = |z|n (cos (nθ) + isen (nθ)) , con n entero. De manera que llegamos a la fórmula de De Moivre:20 1.6.4. n (cos(θ) + isen(θ)) = cos (nθ) + isen (nθ) , con n entero. Algunas aplicaciones inmediatas Presentaremos algunas aplicaciones inmediatas la fórmula de De Moivre en diferentes ámbitos. 20 Abraham De Moivre (26 mayo 1667 en Vitry-le-François, Francia; 27 noviembre 1754, Londres, Inglaterra) Matemático francés que tuvo que emigrar a Inglaterra por razones religiosas. Contemporáneo de Newton, Leibniz y Halley, fue pionero con sus contribuciones en geometrı́a analı́tica y teorı́a de probabilidades. 66 CAPÍTULO 1. LOS VECTORES DE SIEMPRE Identidades trigonométricas La primera de las aplicaciones de la fórmula de De Moivre es para construir identidades trigonométricas en las cuales se expresa el coseno, o el seno, de factores de un ángulo. Veamos las siguientes (nada triviales) identidades trigonométricas: cos(3θ) = 4 cos3 (θ) − 3 cos(θ) o sen(3θ) = 3 sen(θ) − 4sen3 (θ) . Para demostrar estas (y otras) identidades utilizamos la fórmula de De Moivre, es decir: 3 ar cos(3θ) + i sen( 3θ) = (cos(θ) + i sen(θ)) = cos3 (θ) − 3 cos(θ) sen2 (θ) + i 3 cos2 (θ) sen(θ) − sen3 (θ) . Igualando ahora parte real e imaginaria tendremos: in cos3 (θ) − 3 cos(θ) sen2 (θ) = cos3 (θ) − 3 cos(θ) 1 − cos2 (θ) = 4 cos3 (θ) − 3 cos(θ) , = 3 cos2 (θ)sen(θ) − sen3 (θ) = 3 1 − sen2 (θ) sen(θ) − sen3 (θ) = 3sen(θ) − 4sen3 (θ) . cos(3θ) = sen(3θ) 1 n z + z n = 2 cos(nθ) rP re z = eiθ = cos(θ) + i sen(θ) ⇒ lim El método puede extenderse a expresiones de senos y cosenos de nθ. Igualmente podemos desarrollar un método para encontrar expresiones de potencias de funciones trigonométricas n en término de funciones de factores de ángulo del tipo (cos(θ)) = F (cos(nθ), sen(nθ)). Para empezar, supongamos que tenemos un número complejo de módulo 1, de tal forma que: z n − 1 = 2i sen(nθ) zn Estas identidades surgen de manera inmediata a partir de: zn + 1 n −n = (cos(θ) + i sen(θ)) + (cos(θ) + i sen(θ)) = (cos(nθ) + i sen(nθ)) + (cos (−nθ) + i sen (−nθ)) zn = cos(nθ) + i sen(nθ) + cos(nθ) − i sen(nθ) = 2 cos(nθ) , ad o igualmente puede demostrarse la segunda de las afirmaciones anteriores. Supongamos además que n = 1, con lo cual se cumple que: z+ 1 = eiθ + e−iθ = 2 cos(θ) z y z− 1 = eiθ − e−iθ = 2i sen(θ) , z que también lo sabı́amos desde la más temprana edad de nuestros cursos de bachillerato. Ahora bien, lo que quizá no sabı́amos en ese entonces (y quizá ahora tampoco) es que a partir de aquı́ podemos construir, expresiones como: 1 z+ z 1 ⇒ cos (θ) = 5 2 rr 1 cos(θ) = 2 5 5 1 1 1 5 10 5 3 z+ = 5 z + 5 + 5z + 3 + 10z + , z 2 z z z es decir: Bo 1 [2 cos(5θ) + 10 cos(3θ) + 20 cos(θ)] . 25 De la misma manera se puede proceder con otras potencias y con potencias de la función seno. cos5 (θ) = Raı́ces de polinomios Las raı́ces de un número complejo se obtienen de la relación: θ + 2kπ θ + 2kπ 1/n z 1/n = [|z| (cos (θ) + i sen (θ))] = |z|1/n cos + i sen , n n donde k = 0, 1, . . . n − 1. De manera que la fórmula de De Moivre nos puede ayudar para encontrar raı́ces de polinomios. 1.6. VECTORES Y NÚMEROS COMPLEJOS 67 Supongamos, para empezar, que queremos encontrar las n raı́ces de la ecuación: zn = 1 . Para ello procedemos con el siguiente artificio: z n = 1 = ei(2πk) = cos (2πk) + isen (2πk) , donde k = 0, 1, 2, .... z n = 1 = ei(2πk) ⇒ z = ei( 2πk n ), (1.8) esto es: z1 = e2πi( n ) ; 1 z2 = e2πi( n ) ; z3 = e2πi( n ) ; · · · 2 zn−2 = e2πi( 3 n−2 n ); zn−1 = e2πi( n−1 n ), in z0 = 1; ar con lo cual las n raı́ces de la ecuación z n = 1 serán: z = e i( 2πk 3 lim es decir, n raı́ces corresponderán a los n valores de k = 0, 1, 2, · · · n − 2, n − 1. Mayores valores de k no proveen nuevas raı́ces. Las raı́ces de la ecuación z 3 = 1 serán entonces: 4π ) ⇒ z = 1 , z = ei( 2π 3 ) , z = e i( 3 ) . 0 1 2 ak z k = 0 , rP re Como veremos más adelante, estas propiedades pueden extenderse a raı́ces de polinomios que contengan más términos. Una afirmación que nos han dicho, y que quizá no sepamos de dónde viene, es que si un polinomio con coeficientes reales tiene raı́ces complejas, ellas serán complejas conjugadas unas de otras. Vale decir, si z 5 − z 4 + 2z − 2 = 0 tiene como raı́z (1 + i), también tendrá como raı́z (1 − i). Esta afirmación se prueba de forma general si suponemos que tenemos la siguiente ecuación: con k = 0, 1, 2, · · · n − 1, n ⇒ a0 + a1 z + a2 z 2 · · · + an−1 z n−1 + an z n = 0 , donde los coeficientes a0 , a1 , a2 , · · · , an−1 , an los suponemos reales, esto es: ak = a∗k para todos los valores del ı́ndice k. Al tomar el complejo conjugado nos queda: 2 n−1 + a∗n (z ∗ ) = 0 , 2 n−1 + an (z ∗ ) = 0 , ad o a∗0 + a∗1 z ∗ + a∗2 (z ∗ ) · · · + a∗n−1 (z ∗ ) n y como los coeficientes son reales tenemos que: a0 + a1 z ∗ + a2 (z ∗ ) · · · + an−1 (z ∗ ) n esto nos dice que si z es solución también lo será z ∗ ya que la ecuación es la misma por tener los mismos coeficientes (reales). rr Logaritmos y potencias de números complejos Bo La motivación surge cuando queremos resolver la ecuación: ew = z = reiΘ , con w, z ∈ C y −π < Θ < π. (1.9) Notemos que al despejar w en realidad lo que tenemos es la función logarı́tmica, que como veremos en su debido tiempo puede escribirse de la forma w = u + iv. Por lo tanto: eu+iv = eu eiv = reiΘ ⇒ eu = r ∧ v = Θ + 2πn . donde n es un entero. Por lo tanto, es claro que: eu = r ⇒ u = ln(r) , y que la ecuación (1.9) se satisface si y sólo si: w = ln(r) + i (Θ + 2πn) , con n = 0, ±1, ±2, ±3, . . . 68 CAPÍTULO 1. LOS VECTORES DE SIEMPRE Por lo tanto, si definimos la función multivaluada: Log(z) ≡ ln |r| + i (Θ + 2πn) , con n = 0, ±1, ±2, ±3, . . . (1.10) podemos escribir la relación: eLog(z) = z z 6= 0 . con ar Llamaremos valor principal de Log(z) al valor que se obtiene cuando n = 0 en la ecuación (1.10) y lo denotaremos con Ln(z). Ln(z) = ln |r| + iΘ . (1.11) Notemos que ésta es una función univaluada cuando z 6= 0, y además, si combinamos (1.10) y (1.11) obtenemos: Log(z) = Ln(z) + i 2πn , con n = 0, ±1, ±2, ±3, . . . in Podemos ver que cuando z es un número real positivo, es decir, z = rei0 , entonces recobramos la función logarı́tmica usual: Ln(z) = Ln(r) = ln(r) . Log(1) = ln(1) + i (0 + 2πn) Log(−1) = ln(1) + i (π + 2πn) con n = 0, ±1, ±2, ±3, . . . Por otro lado, podemos ver también: = ∧ Ln(1) = 0 ∧ Ln(−1) = iπ n ln [{|z| (cos(θ) + i sen(θ))} ] = n ln [|z| (cos(θ) + i sen(θ))] = n ln |z| eiθ rP re ln(z n ) lim En consecuencia, podemos ver que: = n ln (|z|) + n(θ + 2kπ)i = n ln (|z|) + (nθ)i + (2nkπ)i , 1.6.5. Ejemplos con k entero . 1. En la sección 1.6.3, vimos que para el número complejo z = −1 − i, resultaba que: arg(−1 − i) = − 3π + 2nπ 4 n = 0, ±1, ±2, ±3, . . . ad o Si lo queremos escribir en la forma exponencial tenemos que hacer lo siguiente: p √ √ 3π |z| = (−1)2 + (−1)2 = 2 ⇒ −1 − i = 2e−i( 4 ) . Pero en realidad hay infinitas posibilidades para la forma exponencial de z = −1 − i: √ 3π −1 − i = 2ei(− 4 +2nπ) , n = 0, ±1, ±2, . . . rr 2. Consideremos el número z = 2 + 2i, para representarlo en la forma polar debemos calcular primeramente su módulo: p p √ √ |z| = x2 + y 2 = 22 + 22 = 8 = 2 2 . y luego el argumento: tan(θ) = y 2 π = ⇒ θ = arctan(1) = . x 2 4 Bo √ Por lo tanto, z = 2 + 2i = 2 2 (cos(π/4) + i sen(π/4)), es un punto ubicado en el primer cuadrante cuyo radio vector hace un ángulo de 45◦ con respecto al eje x. √ En cambio, para el número complejo z = − 3 + i, resulta: q √ √ 1 π 2 2 |z| = (− 3) + 1 = 4 = 2 , θ = arctan − √ =− . 6 3 Aquı́ debemos tener cuidado, pues el argumento principal en realidad es: θ=π− π 5π = . 6 6 √ z = − 3 + i = 2 (cos(5π/6) + i sen(5π/6)), es un punto ubicado en el segundo cuadrante cuyo radio vector hace un ángulo de 150◦ con respecto al eje x. 1.6. VECTORES Y NÚMEROS COMPLEJOS 69 3. Supongamos la siguiente ecuación polinómica con sus raı́ces: z 5 − z 4 + 2z − 2 = 0 ⇒ z 4 + 2 (z − 1) = 0 ⇒ 4 z + 2 = 0 ⇒ z 4 = −2 z−1=0 ⇒ z =1 ar Entonces, de la ecuación (1.8) podemos ver que: h i1/4 2πk 2πk 23/4 = (−2)1/4 ei( 4 ) = z 4 = −2(1) = −2 ei(2πk) ⇒ z = −2 ei(2πk) (1 + i) ei( 4 ) , 2 √ π 1/2 π donde hemos utilizado el hecho de que: (−1)1/4 = i1/2 = ei 2 = ei 4 = 22 (1 + i) . Por lo tanto: = z2 = 1 (1 + i) , 21/4 1 1 (1 + i) ei(π) = − 1/4 (1 + i) , 21/4 2 π 1 i (1 + i) ei( 2 ) = 1/4 (1 + i) 21/4 2 3π 1 i z3 = 1/4 (1 + i) ei( 2 ) = − 1/4 (1 + i) . 2 2 z1 = in z0 lim Entonces, la ecuación z 5 − z 4 + 2z − 2 = 0, tendrá las siguientes cinco raı́ces: 1 1 1 1 z0 = 1/4 (1 + i) , z1 = − 1/4 (1 − i) , z2 = − 1/4 (1 + i) , z3 = 1/4 (1 − i) , 2 2 2 2 4. Ahora consideremos el siguiente polinomio complejo: z4 = 1 . P (z) = z 6 − z 5 + 4z 4 − 6z 3 + 2z 2 − 8z + 8 = 0 . rP re Si por algún método comprobamos que (z 3 − 2) es uno de sus factores, entonces podremos encontrar las raı́ces del polinomio P (z). Veamos, claramente si (z 3 − 2) es un factor, entonces podemos expresar: P (z) = z 6 − z 5 + 4z 4 − 6z 3 + 2z 2 − 8z + 8 = (z 3 − 2)(z 3 − z 2 + 4z − 4) = (z 3 − 2)(z − 1)(z 2 + 4) , con lo cual, como z es complejo, hay que tener cuidado con las raı́ces encubiertas. Entonces, la raı́ces son: z3 = 2 , z = 1, z 2 = −4 . Para z 2 = −4 ⇒ z = ±2i . 1/3 2πk ⇒ z = 2 ei(2πk) = 21/3 ei( 3 ) . ad o Para z 3 = 2 ⇒ z 3 = 2 ei(2πk) Por lo tanto: z0 = 21/3 , 6 5 z1 = 21/3 ei( 2π 3 4 2 3 ) = −2 1/3 2 h 1− √ i 3i , z2 = 21/3 ei( 4π 3 1/3 ) = −2 2 h √ i 1 + 3i . La ecuación: z − z + 4z − 6z + 2z − 8z + 8 = 0, tendrá las siguientes seis raı́ces: √ i √ 1 h 3 z = 2, z = −√ 1 ± 3 i , z = 1 , z = ±2i . 3 4 rr 5. Consideremos: con n = 0, 1, 2, · · · Bo i π h π Log (−3i) = Log 3ei(− 2 +2nπ) = ln(3) + i − + 2nπ 2 decimos que el valor principal de Log (−3i) será Ln = ln(3) − i π2 . Con la misma intuición se procede con las potencias de números complejos. Si queremos evaluar z = i−5i tendremos que proceder como sigue: h π i π z = i−5i ⇒ Log (z) = Log i−5i = −5iLog (i) = −5iLog ei( 2 +2nπ) = 5 + 2nπ , 2 −5i con lo cual z = i ¡es un número real! h√ i 3 Para finalizar consideremos otro par de casos de potencias y logaritmos: ii y Log 3+i . h π ii 2 π π ii = ei( 2 +2nπ) = ei ( 2 +2nπ) = e−( 2 +2nπ) . h √ h i 3 i i arctan √13 Log 3+i = 3Log 2e = 3 ln(2) + i arctan √13 + 2nπ = ln(8) + i π 2 + 6nπ . 70 CAPÍTULO 1. LOS VECTORES DE SIEMPRE 1.6.6. Practicando con Maxima Maxima maneja números complejos escritos en la forma: a + bi. Donde la unidad imaginaria es interpretada por el programa como i = %i. Si no queremos que las salidas del programa mantenga la notación del %i podemos is a la parte superior de la ventana del programa y hacer click en: wxMaxima > Preferencias > Worksheet y desactivar el botón que dice ar [] Mantener signo porcentual en sı́mbolos especiales: %e, %i, etc. 1. Algunos cálculos básicos. in Los √ números imaginarios aparecen si queremos calcular la raı́z cuadrada de un número negativo, por ejemplo, −7 ( %o1) √ 7i lim (%i1) sqrt(-7); El programa nos permite desarrollar toda el algebra en variable compleja. Si queremos sumar z1 = 1 + 2i y z2 = 3 + 4i, escribimos: ( %o2) 2 i + 1 ( %o3) 4 i + 3 (%i4) z1+z2; ( %o4) 6 i + 4 La multiplicación: ad o (%i5) z1*z2,expand; rP re (%i2) z1:1+2*%i; z2:3+4*%i; ( %o5) 10 i − 5 Y la división: rr (%i6) z1/z2; ( %o6) 2i + 1 4i + 3 Bo (%i7) rectform(%); ( %o7) 2 i 11 + 25 25 Este último comando pertenece a una lista de funciones de Maxima para el cálculo de números complejos: rectform(expresión) expresión en forma cartesiana o binómica realpart(expresión) parte real de expresión imagpart(expresión) parte imaginaria de expresión polarform(expresión) forma polar de expresión abs(expresión) módulo o valor absoluto de expresión cabs(expresión) módulo de expresión compleja 1.6. VECTORES Y NÚMEROS COMPLEJOS 71 carg(expresión) argumento de expresión conjugate(expresión) conjugado de expresión demoivre(expresión) expresa el número complejo utilizando senos y cosenos exponentialize(expresión) expresa el número complejo utilizando exponenciales Veamos como funcionan algunas de estos comandos: (%i8) realpart(z1); imagpart(z1); ar ( %o8) 1 ( %o9) 2 in (%i10)abs(z1); √ ( %o10) 5 lim (%i11)polarform(z1); √ ( %o11) 5 ei arctan(2) (%i12)cabs(z1);carg(z1); √ ( %o12) 5 rP re ( %o13) arctan(2) (%i14)conjugate(z1); ( %o14) 1 − 2 i 2. Para una función, digamos tan(x + iy), la podemos escribir como exponenciales o funciones senos y cosenos. (%i15)tan(x+%i*y); ad o ( %o15) tan (i y + x) (%i16)exponentialize(%),factor; i ey − ei x ey + ei x ( %o16) e2 y + e2 i x rr (%i17)demoivre(%),factor; ( %o17) i (ey − i sin(x) − cos(x)) (ey + i sin(x) + cos(x)) e2 y + i sin (2 x) + cos (2 x) Bo (%i18)log(3+%i*2); ( %o18) log (2 i + 3) (%i19)cabs(%); s ( %o19) log2 13 + arctan2 4 (%i20)float(%); ( %o20) 1,410846683153171 2 3 72 CAPÍTULO 1. LOS VECTORES DE SIEMPRE 3. Tomemos dos números complejos, o vectores del plano complejo: (%i21)z:a+b*%i; w:c+d*%i; ( %o21) i b + a ( %o22) i d + c ar Revisemos la llamada igualdad del paralelogramo: la suma de los cuadrados de las longitudes de los cuatro lados de un paralelogramo, es igual a la suma de los cuadrados de las longitudes de las dos diagonales de éste. Es decir: |z + w|2 + |z − w|2 = 2 |z|2 + |w|2 . in Pero sabemos que |z|2 = zz ∗ , y por lo tanto: Calculemos el lado izquierdo de la ecuación anterior: lim (w + z)(w + z)∗ + (w − z)(w − z)∗ = 2 |z|2 + |w|2 . (%i23)(w+z)*conjugate(w+z)+(w-z)*conjugate(w-z),expand; ( %o23) 2 d2 + 2 c2 + 2 b2 + 2 a2 rP re Ahora el lado derecho, es decir, la suma de las longitudes al cuadrado de los cuatro lados: (%i24)2*cabs(z)^2+2*cabs(w)^2,expand; ( %o24) 2 d2 + 2 c2 + 2 b2 + 2 a2 4. Para encontrar las raı́ces de un número complejo, debemos declarar a la variable como compleja. ad o (%i25)declare(z,complex)$ De manera que si queremos encontrar las raı́ces de z 3 = 1 (%i26)ec1:z^3=1; ( %o26) z 3 = 1 rr (%i27)solve(ec1,z); " # √ 3i − 1 3i + 1 ,z = − ,z = 1 2 2 Bo ( %o27) z = √ 5. En otro de los ejemplo que discutimos anteriormente tenı́amos la ecuación: z 6 − z 5 + 4z 4 − 6z 3 + 2z 2 − 8z + 8 = 0 , por lo tanto: (%i28)ec2:z^6-z^5+4*z^4-6*z^3+2*z^2-8*z+8=0; ( %o28) z 6 − z 5 + 4 z 4 − 6 z 3 + 2 z 2 − 8 z + 8 = 0 (%i29)factor(ec2); 1.6. VECTORES Y NÚMEROS COMPLEJOS ( %o29) (z − 1) z 2 + 4 73 z3 − 2 = 0 (%i30)solve(ec2,z),factor; √ ( %o30) z = 1.6.7. 3i − 1 2 23 √ ,z = − 3i + 1 2 23 # 1 3 , z = 2 , z = 1, z = −2 i, z = 2 i ar " Ejercicios in 1. Si los números complejos z1 = x1 + iy1 y z2 = x2 + iy2 se pueden representar como vectores en el plano z1 = x1 i + y1 j y z2 = x2 i + y2 j, muestre que: z1∗ z2 = z1 · z2 + ik · (z1 × z2 ) . lim 2. Demuestre: a) cos(3α) = cos3 (α) − 3 cos(α)sen2 (α) . b) sen(3α) = 3 cos2 (α)sen(α) − sen3 (α) . 3. Demuestre: 1 8 (3 + 4 cos(2α) + cos(4α)) . 3 b) cos (α) + sen3 (α) = 1 4 cos(3α) + 3 cos(α) − sen3 (α) + 3sen(α) . 4. Demuestre: rP re a) cos4 (α) = ix − 1 ix + 1 iy = e(−2y cot −1 (x)) , donde x y y son números reales. 5. Encuentre las raı́ces de: (2i)1/2 b) 1− √ 1/2 3i c) (−1)1/3 d) 81/6 e) ad o a) 6. Demuestre que: a) Log(−ie) = 1 − π2 i . b) Log(1 − i) = 1 2 ln(2) − π4 i . rr c) Log(e) = 1 + 2nπi . d ) Log(i) = 2n + 12 πi . 7. Dos funciones complejas Z1 (t) y Z2 (t) cumplen con las siguientes ecuaciones: Bo dZ1∗ −i == dt Z1 − Z2 y dZ2∗ −i == dt Z2 − Z1 Muestre que las siguientes cantidades son constantes: a) Z1 + Z2 b) |Z1 − Z2 | c) |Z1 |2 + |Z2 |2 8. Considere la siguiente ecuación: z 7 − 4z 6 + 6z 5 − 6z 4 + 6z 3 − 12z 2 + 8z + 4 = 0 . Encuentre sus raı́ces sabiendo que z 3 = 2. √ (−8 − 8 3i)1/4 . 74 CAPÍTULO 1. LOS VECTORES DE SIEMPRE 9. Muestre que la expansión binomial puede ser escrita como: n (1 + x) = n X Am (n) xm , con Am (n) = m=0 n! . m!(n − m)! n X Am (n) cos(nθ) = 2n cosn nθ θ cos , 2 2 Am (n) sen(nθ) = 2n cosn nθ θ sen . 2 2 m=0 n y muestre que: ar Si está convencido de la expansión anterior, considere ahora una parecida: 1 + eiθ n X m=0 10. Las funciones hiperbólicas se definen como: ex + e−x 2 y senh(x) = ex − e−x , 2 lim cosh(x) = in y y de manera análoga a las funciones trigonométricas tendremos el resto de funciones: tanh(x) = senh(x) ; cosh(x) sech(x) = 1 ; cosh(x) 1 ; senh(x) rP re a) Muestre las siguientes equivalencias: csech(x) = cosh(x) = cos(ix), i senh(x) = sen(ix), cos(x) = cosh(ix) ctanh(x) = y 1 ; tanh(x) i sen(x) = senh(x) . b) Muestre las siguientes identidades: cosh2 (x) − senh2 (x) = 1; sech2 (x) = 1 − tanh2 (x); cosh(2x) = cosh2 (x) + senh2 (x) . c) Resuelva las siguientes ecuaciones hiperbólicas: 2 cosh(4x) − 8 cosh(2x) + 5 = 0 y cosh(x) = senh(x) + 2sech(x) . ad o cosh(x) − 5senh(x) − 5 = 0, 11. Resuelva con Maxima los ejercicios anteriores. 12. Utilizando un programa de manipulación simbólica (ver Apéndice 6.1) realice las siguientes tareas. rr a) Calcule la función f (z) = ez a partir de su expansión en serie que la define. Calcule también f (z) cuando inπ z = e 6 para n = 0, 1, 2, . . . , 12. Para los diferentes valores de n haga una tabla con los valores de: z z z θ = nπ 6 , Re (z), Im (z), Re (e ), Im (e ), |z| y la fase de e . b) Calcule y haga una tabla para los valores de (x; y) = (0, 0; 0, 0)(0, 1; 0, 1)(0, 5; 0, 5)(1, 0; 1, 0) de: Re (senh(z)), Im (senh(z)), |senh(z)| y la fase de senh(z). Bo c) Calcule y haga una tabla para los valores de (x; y) = (0, 0; 0, 0)(0, 1; 0, 1)(0, 5; 0, 5)(1, 0; 1, 0) de: Re (cosh(z)), Im (cosh(z)), | cosh(z)| y la fase de cosh(z). ar Bibliografı́a [1] Arfken, G. B., Weber, H. J., & Harris, F. E. (2011). Mathematical methods for physicists. Academic press. in [2] Riley, K. F., Hobson, M. P., & Bence, S. J. (2006). Mathematical methods for physics and engineering: a comprehensive guide. Cambridge University Press. lim [3] Santaló, L.A (1969) Vectores y Tensores. Editorial Universitaria, Buenos Aires). [4] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York ). Bo rr ad o rP re [5] Brown, J. W., Churchill, R. V. (2004) Complex Variables and Applications (McGraw Hill ). 75 ad o rr Bo lim rP re ar in 76 BIBLIOGRAFÍA ar Capı́tulo 2 in Espacios vectoriales lineales lim La ruta de este capı́tulo 2.1. ad o rP re Este es el capı́tulo central de esta obra, en el cual discutiremos los conceptos fundamentales sobre espacios vectoriales abstractos, sus propiedades y sus múltiples expresiones: vectores de Rn , matrices, polinomios, funciones continuas (entre otras). Además, introduciremos la notación de bra y ket que facilita mucho la organización de los conceptos y, que nos acompañará por el resto de este libro. Haremos una constante referencia a los conceptos que fueron discutidos en el capı́tulo anterior en el marco de los vectores en R3 . Como en el capı́tulo 1, cada una de las secciones presenta ejemplos con la utilización de la herramienta de cómputo algebraico Maxima, la cual consideramos como parte fundamental de estas notas y nos permite mostrar el alcance de los conceptos abstractos. Para empezar, en la próxima sección, iniciamos con una discusión somera sobre grupos y sus propiedades. Seguimos con la sección 2.1.3, en la cual presentamos el concepto de espacio vectorial lineal para describir varios de sus escenarios que usualmente se presentan desconectados. Hacemos un esfuerzo por ilustrar, bajo un mismo enfoque, su aplicación desde Rn hasta los espacios vectoriales de funciones continuas C[a,b] . Luego, en la sección 2.2.3, abordamos los conceptos de distancia (métrica), norma y, finalmente el de producto interno. Esta última definición nos permite equipar los espacios vectoriales, no solo con norma y distancia, sino también dotarlos de geometrı́a, vale decir, definir ángulos entre vectores abstractos. Nos detenemos un momento para discutir el significado de ángulo entre vectores pertenecientes a espacios vectoriales reales y complejos. En la sección 2.3 mostramos el concepto de variedades lineales, discutimos el criterio de independencia lineal y, a partir de éste definimos las bases para los espacios vectoriales. Apoyándonos en el criterio de ortogonalidad construimos bases ortogonales para varios espacios vectoriales, discutimos los subespacios vectoriales ortogonales y las proyecciones ortogonales. El capı́tulo lo finalizamos mostrando la utilidad de expresar funciones como combinación lineal de vectores ortogonales y, cómo este tipo de expansiones constituye la mejor aproximación a la función. Grupos, campos y espacios vectoriales Bo rr En los cursos básicos de matemáticas nos enseñaron el concepto de conjunto: una colección de elementos de una misma naturaleza, y aprendimos una gran variedad de operaciones aplicadas a los elementos que conforman los conjuntos y a los conjuntos mismos. Es probable que en esos tiempos nos quedara la sensación de la poca utilidad de todos esos conceptos de la teorı́a de conjuntos, pero como veremos en esta sección, la noción de conjuntos es fundamental para desarrollar todas las ideas que conforman lo que se conoce como el algebra abstracta. En el estudio de las estructuras algebraicas se incluyen las teorı́as sobre: grupos, anillos, campos, espacios vectoriales, redes, algebras; que merecen ahora nuestra atención. Comenzaremos con la estructura de grupo, y nos daremos cuenta de que una buena cantidad de objetos matemáticos, en apariencia muy diferentes, que hemos utilizando en todos los cursos anteriores tienen incorporadas la estructura de grupo. La noción de grupo no llevará entonces al importante concepto de espacios vectoriales abstractos que discutiremos en la sección 2.1.3 y a la definición de los espacios métricos, sección 2.2.1, fundamentales en el desarrollo de las teorı́as fı́sicas. 2.1.1. Grupos Considere el siguiente conjunto no vacio G = {g1 , g2 , g3 , · · · , gn , · · · } y la operación interna (la ley del grupo). Entonces los elementos del conjunto forman un grupo respecto a la operación si ∀ gi ∈ G se cumplen las siguientes 77 78 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES condiciones: 1. Cerrada respecto a la operación : {gi ∈ G, gj ∈ G} ⇒ ∃ gk = gi gj ∈ G. 2. Asociativa respecto a la operación : gk (gi gj ) = (gk gi ) gj . 3. Existencia de un elemento neutro: ∃ ĝ ∈ G ⇒ gi ĝ = gi = ĝ gi . ar 4. Existencia de un elemento inverso: gi ∈ G ⇒ ∃ gi−1 ∈ G ⇒ gi gi−1 = gi−1 gi = ĝ. Si adicionalmente se cumple que: Suele denotarse al grupo G como (G, ) para indicar el tipo de operación. Algunos grupos: Los racionales respecto a la suma y a la multiplicación. Los números complejos z = eiθ respecto a la multiplicación. lim Los enteros Z = {· · · − 3 − 2, −1, 0, 1, 2, 3, · · · } respecto a la suma. in 5 Conmutativa respecto a la operación : gi gj ≡ gj gi ; el grupo se denomina grupo abeliano1 . rP re Las rotaciones en 2 dimensiones (2D), y las rotaciones en 3D (grupo no-abeliano). Las matrices de dimensión n × m respecto a la suma (grupo abeliano). Dado un grupo de tres elementos: G = {1, a, b}, con ĝ ≡ 1 y la operación . Por construcción, si queremos que la operación de dos de los elementos provea un tercero distinto, entonces la ÚNICA “tabla de multiplicación” posible será: 1 1 a b a a b 1 b b 1 a ad o 1 a b Notemos que el grupo más simple será aquel conformado únicamente por el elemento neutro: G = {1} y, como veremos más adelante, se puede definir subgrupos si un subconjunto de los elementos de un grupo gi ∈ G también forman un grupo. Podemos resumir, sin demostración, las principales propiedades que presenta un grupo (G, ). 1. El elemento identidad o neutro es único. rr 2. Para todo g ∈ G existe un inverso único g −1 ∈ G. −1 3. Para todo elemento g ∈ G se cumple que: g −1 = g. −1 Bo 4. Para cualesquiera g1 y g2 ∈ G, se cumple que: (g1 g2 ) = g1−1 g2−1 . El número de los elementos de un grupo puede ser finito o infinito. En el primer caso se denominan grupos finitos y el número de elementos que contenga, el cardinal del conjunto, se conoce como el orden del grupo. Un grupo finito que se construye a partir de una operación con un único miembro se denomina grupo cı́clico, y el caso más elemental es G = 1, g, g 2 , g 3 , · · · , g n−1 . Obviamente hemos definido aquı́: g 2 = gg y g 3 = g 2 g = ggg y ası́ consecutivamente hasta ejecutarse n − 1 veces, entonces se retoma el elemento identidad, esto es: g n−1 g = g n = 1. 1 NIELS HENRIK ABEL, (1802-1829 Noruega) Pionero en el desarrollo de diferentes ramas de la matemática moderna, Abel mostró desde su infancia un notable talento para el estudio de las ciencias exactas. Tal predisposición se verı́a muy pronto confirmada por sus precoces investigaciones sobre cuestiones de álgebra y cálculo integral, en particular sobre la teorı́a de las integrales de funciones algebraicas (a las que se denominarı́a “abelianas” en honor de quien la formuló) que no habrı́a de publicarse hasta 1841, doce años después de su fallecimiento. En 2002 el gobierno noruego lanzó el premio Abel que llenará el vacı́o que existe en la premiación Nobel del gobierno sueco, en el cual no existe premiación para la comunidad matemática. 2.1. GRUPOS, CAMPOS Y ESPACIOS VECTORIALES 79 Subgrupos Dado un grupo (G, ) y H un subconjunto de G, H ⊆ G. Si H es un grupo bajo la operación , definida para G, entonces diremos que H es un subgrupo. De manera equivalente: si H ⊆ G entonces H es un subgrupo si para cualesquiera h1 y h2 ∈ H se cumple: h1 h2 ∈ H. ar h−1 ∈ H ∀ h ∈ H. lim in Es decir, 1 ∈ H y H es cerrado para la misma operación que define G y para sus inversos. Existe una condición necesaria para que un subconjunto de un grupo finito G sea un subgrupo, esta condición se conoce como el teorema de Lagrange, que dice lo siguiente: si (G, ) es un grupo finito y H un subgrupo de G, entonces el orden de H divide al orden de G. Por otro lado, sea (G, ) un grupo y g ∈ G, se puede demostrar que el conjunto H = {g n }, con n perteneciente al conjunto de los números enteros, es un subgrupo de G. Con la propiedad adicional de que H es el subgrupo, que contiene a g, más pequeño de G. Como mencionamos con anterioridad, un grupo finito que se construye a partir de operar con un único miembro se le denomina grupo cı́clico, en este caso de dice que H es un subgrupo cı́clico generado por g. A éste elemento se le llama el generador de H y se acostumbra a denotarlo con H =< g >. Para finalizar, definiremos el orden de un elemento de un grupo. Sea un elemento g ∈ G, el orden de g es el menor entro positivo n tal que: g n = 1. Cuando éste entero positivo no existe se dice que g tiene un orden infinito. rP re Grupos Isomorfos Muchas veces podemos comparar la estructura entre grupos buscando relaciones entre ellos, esto lo podemos hacer estudiando, por ejemplo, cómo “se multiplican”. La búsqueda de estas relaciones no llevan al concepto de isomorfismo de grupos. Si podemos decir que dos grupos son isomorfos es porque tienen aspectos en común dentro de sus estructuras algebraicas. Consideremos los siguientes conjuntos y la operación2 multiplicación módulo X, es decir (a · b)modX : Gmod8 = {1, 3, 5, 7} y la operación multiplicación módulo 8. De esta manera construimos la tabla de multiplicación del grupo: ad o ×mod8 1 3 5 7 1 1 3 5 7 3 3 1 7 5 5 5 7 1 3 7 7 5 3 1 rr Recordemos que la regla usada, por ejemplo para 3 y 7, es la siguiente: 3 · 7 = 21 y el residuo de dividir 21 entre 8 es 5, por lo tanto (3 · 7)mod8 = (21)mod8 = 5. (21 ÷ 8 = 2 × 8 + 5). Bo Gmod5 = {1, 2, 3, 4} y la operación multiplicación módulo 5. Tabla: ×mod5 1 2 3 4 1 1 2 3 4 2 2 4 1 3 3 3 1 4 2 4 4 3 2 1 ⇔ ×mod5 1 2 4 3 1 1 2 4 3 2 2 4 3 1 4 4 3 1 2 3 3 1 2 4 Gmod24 = {1, 5, 7, 11} y la operación multiplicación módulo 24. Tabla de multiplicación: 2 Vamos a considerar lo que se conoce como Arimética Modular. Sabemos que para la división de dos enteros a y b (b 6= 0) existe un único entero c tal que a = cb + r con 0 ≤ r ≤ |b|. Y como es conocido: a, b, c y r son: el dividendo, el divisor, el cociente y el resto, respectivamente. Cuando r = 0 se dice que a es divisible por b. En esta “arimética”tan particular se establece una relación de congruencia sobre los enteros: para un entero positivo n, dos enteros a y b se llaman congruentes módulo n (mod n) si a y b tienen el mismos resto r cuando se dividen entre n, y se denota a ≡ b mod n. 80 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES ×mod24 1 5 7 11 1 1 5 7 11 5 5 1 11 7 7 7 11 1 5 11 11 7 5 1 1 1 i -1 -i i i -1 -i 1 -1 -1 -i 1 i -i -i 1 i -1 in × 1 i -1 -i ar G× = {1, i, −1, −i} y la operación multiplicación: × 1 A B C 1 1 A B C A A 1 C B B B C 1 A lim Diremos que los grupos Gmod8 y Gmod24 son isomorfos porque tienen tablas equivalentes de multiplicación. Esto es, dado un grupo genérico G = {1, A, B, C} su tabla de multiplicación será: C C B A 1 rP re Note que A−1 = A, y que siempre la operación de dos elementos da uno distinto a los operados. De igual forma los grupos G× y Gmod5 , estos son isomorfos con una tabla de multiplicación: × 1 A B C Campo A A B C 1 B B C 1 A C C 1 A B ad o 2.1.2. 1 1 A B C Definiremos como un campo (o cuerpo) el conjunto K = {α1 , α2 , α3 , · · · , αn , · · · } sobre el cual están definidas dos operaciones: suma (+) y multiplicación (·) y que satisfacen las siguientes propiedades: 1. Forman un grupo abeliano respecto a la suma (+) con el elemento neutro representado por el cero 0. rr 2. Forman un grupo abeliano respecto a la multiplicación (·). Se excluye el cero 0 y se denota el elemento neutro de la multiplicación como 1. 3. Es distributiva respecto a la suma (+). Dados αi , αj y αk , se tiene que: αi · (αj + αk ) = αi · αj + αi · αk . Bo Ejemplos tı́picos de campos lo constituyen el conjunto de los números racionales Q, los números reales R y los números complejos C. Normalmente se refiere estos campos como campos escalares. La noción de campo nos permite introducir el importante concepto de espacio vectorial. 2.1.3. Espacios vectoriales lineales Sea el conjunto de objetos V = {|v1 i , |v2 i , |v3 i , · · · , |vi i , · · · }. Se denominará V un espacio vectorial lineal y sus elementos |vi i vectores, si existe una operación suma, , respecto a la cual los elementos |vi i ∈ V forman un grupo abeliano y una operación multiplicación por un elemento de un campo, K = {α, β, γ · · · }, tal que3 : 1. V es cerrado bajo la operación : ∀ |vi i , |vj i ∈ V ⇒ |vk i = |vi i |vj i ∈ V . 2. La operación es conmutativa: ∀ |vi i , |vj i ∈ V ⇒ |vi i |vj i = |vj i |vi i . 3 También suele decirse: un espacio vectorial V sobre K. 2.1. GRUPOS, CAMPOS Y ESPACIOS VECTORIALES 81 3. La operación es asociativa: ∀ |vi i , |vj i , |vk i ∈ V ⇒ (|vi i |vj i) |vk i = |vi i (|vj i |vk i) . 4. Existe un único elemento neutro |0i : |0i |vi i = |vi i |0i = |vi i ∀ |vi i ∈ V . 5. Existe un elemento simétrico para cada elemento de V: ∀ |vi i ∈ V ∃ |−vi i / |vi i |−vi i = |0i . 6. V es cerrado bajo el producto por un número: ∀ α ∈ K y cualquier |vi i ∈ V ⇒ α |vi i ∈ V . ar 7. α (β |vi i) = (αβ) |vi i . 8. (α + β) |vi i = α |vi i β |vi i . 9. α (|vi i |vj i) = α |vi i α |vj i . in 10. 1 |vi i = |vi i ∀ |vi i ∈ V y 1 ∈ K . 2.1.4. rP re lim Es importante resaltar lo siguiente: existen dos objetos neutros, el vector |0i ∈ V y el elemento 0 ∈ K y también dos operaciones producto diferentes, el producto de dos números dentro de K y el producto de un α ∈ K por un vector |vi ∈ V. Notemos también que podemos definir subespacios S vectoriales dentro de los espacios vectoriales. Ellos serán aquellos conjuntos de vectores que cumplan con los requisitos anteriores pero además cerrados dentro de los mismos conjuntos de vectores. Se puede ver entonces que la condición necesaria y suficiente para que S ⊆ V sea un subespacio vectorial de V es que para cualesquier |ui i y |vi i de S y para cualesquier α y β de K se tiene que: α |ui i + β |vi i ∈ S. Algunos espacios vectoriales 1. Los conjunto de los números reales V = R y el conjunto de los números complejos V = C con el campo K de reales o complejos y definidas las operaciones ordinarias de suma y multiplicación. Cuando el campo K es el conjunto de los números reales se dirá que es un espacio vectorial real de números reales si V ≡ R, pero si V ≡ C se dirá un espacio vectorial real de números complejos. Por su parte, si K ≡ C diremos que es un espacio vectorial complejo. Siempre se asociará el campo de escalares al espacio vectorial: se dirá que es un espacio vectorial sobre el campo de los escalares. Es decir, si el campo es real (complejo) se dirá que el espacio vectorial es real (complejo). ad o 2. El conjunto V ≡ Rn = R × R × · · · × R, vale decir el producto cartesiano de R, cuyos elementos son n−uplas de números, con la operación suma ordinaria de vectores en n−dimensionales y la multiplicación por números. |xi = (x1 , x2 , x3 , · · · xn ) ∧ |yi = (y1 , y2 , y3 , · · · , yn ) , |xi |yi ≡ (x1 + y1 , x2 + y2 , x3 + y3 , · · · xn + yn ) , α |xi = (αx1 , αx2 , αx3 , · · · αxn ) . rr Este espacio vectorial es de dimensión finita. Bo Igualmente, será un espacio vectorial V ≡ Cn = C × C × · · · × C, en donde los elementos xi ∈ C. Si para este caso el campo, sobre el cual se define el espacio vectorial Cn es real, tendremos un espacio vectorial real de números complejos. Es obvio que en el caso V ≡ R, para el cual |xi1 = (x1 , 0, 0, · · · , 0) y |yi1 = (y1 , 0, 0, · · · , 0) o cualquier espacio de vectores formados por las componentes, i.e. |xii = (0, 0, 0, · · · , xi , · · · 0) y |yii = (0, 0, 0, · · · , yi , · · · 0) formarán subespacios vectoriales dentro de Rn . En el caso especı́fico de R3 , y en donde hemos desarrollado todo un conjunto de conceptos matemáticos, es bueno comentar sobre la equivalencia que hemos tomado como obvia entre dos definiciones diferentes: Los vectores a = (a1 , a2 , a3 ) y b = (b1 , b2 , b3 ) con sus respectivas operaciones para la suma a + b = (a1 + b1 , a2 + b2 , a3 + b3 ) y multiplicación por un escalar λa = (λa1 , λa2 , λa3 ), con {ai }, {bi } y λ ∈ R. Los vectores geométricos, es decir, segmentos orientados en el espacio con un origen común y donde la suma se definió mediante la regla del paralelogramo y el producto por un escalar como el alargamiento o acortamiento de los segmentos o flechas con el posible cambio de dirección. 82 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES Aunque ambos son vectores de R3 es bueno tener claro que se trata de objetos diferentes que viven en espacios vectoriales diferentes. Se puede decir también que son dos representaciones diferentes para los vectores. Es buena la ocasión para señalar que existe una manera de pasar de una representación a otra, esto se hace por medio de una función que asigne a una trı́ada (x1 , x2 , x3 ) una y sólo una flecha (y viceversa), conservando por supuesto las operaciones de suma y multiplicación por números. A este tipo de funciones se les denomina un isomorfismo. ar Para finalizar, también es posible ver R3 simplemente como un conjunto de puntos donde se pueden definir superficies embebidas, como por ejemplo una esfera, S2 , centrada en el origen y de radio R. En un punto q sobre la esfera es posible generar un plano tangente a la esfera y en ese punto construir un espacio vectorial con todos los vectores cuyo origen está en q, y por lo tanto, son tangentes a la esfera. En el lenguaje de la geometrı́a diferencial y las variedades a este conjunto de vectores se le denota con: Tq S2 . Lo anteriormente dicho se puede generalizar para Rn . |xi = (x1 , x2 , x3 , · · · , xn , · · · ) ∧ |yi = (y1 , y2 , y3 , · · · , yn , · · · ) , α |xi = (αx1 , αx2 , αx3 , · · · , αxn , · · · ) , lı́m n→∞ n X xi = L , i=1 lim |xi |yi ≡ (x1 + y1 , x2 + y2 , x3 + y3 , · · · , xn + yn , · · · ) con la siguiente restricción: in 3. El espacio E∞ constituido por vectores |xi = (x1 , x2 , x3 , · · · xn , · · · ) contables pero con infinitas componentes. con L finito . rP re 4. El conjunto de las matrices n × n, reales o complejas, con el campo K real o complejo. |xi = Mab ∧ |yi = Nab , |xi |yi ≡ Mab + Nab = (M + N )ab , α |xi = αMab = (αM )ab . Es también obvio que se podrán formar subespacios vectoriales cuyos elementos sean matrices de dimensión menor a n × n. ad o 5. El conjunto de los vectores geométricos, o vectores cartesianos, en 2 y 3 dimensiones, con las propiedades habituales de suma vectorial y multiplicación por un escalar. 6. El conjunto de todos los polinomios con coeficientes reales: P = a0 , a1 x, a2 x2 , · · · , an xn , · · · , con la suma ordinaria entre polinomios y la multiplicación ordinaria de polinomios con números. 7. Espacios Funcionales (de los cuales los polinomios son un caso particular). En estos espacios los vectores serán funciones, la suma será la suma ordinaria entre funciones y la multiplicación por un escalar también será la multiplicación ordinaria de una función por un elemento de un campo: |f i = f (x) ∧ |gi = g(x) , rr |f i |gi ≡ f (x) + g(x) ≡ (f + g) (x) , α |f i = (αf ) (x) ≡ αf (x) . Bo 8. El conjunto de todas las funciones continuas e infinitamente diferenciables, definidas en el intervalo [a, b] : ∞ C[a,b] . 9. El conjunto de todas las funciones complejas de variable real, ψ(x), definidas en [a, b], de cuadrado integrable Rb 2 (es decir para las cuales a dx |ψ (x)| sea finita). Este espacio se denomina comúnmente L2 y puede ser definido dentro de un rango [a, b], finito o infinito, y para más de una variable. 10. El conjunto de todas las soluciones de un sistema de ecuaciones lineales y homogéneas, por ejemplo: a + 3b + c = 4a + 2b + 2c = 0 0 Este sistema tiene como solución al conjunto: {a, b = a/2, c = −5a/2}. La suma de estos elementos y la multiplicación por un número conforman un espacio vectorial en el sentido de que son soluciones del sistema de ecuaciones. 2.1. GRUPOS, CAMPOS Y ESPACIOS VECTORIALES 83 Subespacios Supongamos que tenemos un conjunto S de elementos de un espacio vectorial lineal V que satisface las siguientes propiedades: 1. Si |s1 i , |s2 i ∈ S, entonces |s1 i |s2 i ∈ S. 2. Si |si ∈ S y α es un elemento del campo K, entonces α |si ∈ S. 2.1.5. lim in ar De esta manera, las operaciones que hacen de V un espacio vectorial también están definidas para S. Se puede demostrar que S es también un espacio vectorial lineal, es decir, satisface el conjunto de axiomas 2.1.3. Al conjunto S ⊂ V que satisface las propiedades 1 y 2 más los axiomas 2.1.3 se le denomina un subespacio vectorial lineal (o simplemente subespacio) del espacio vectorial lineal V. Notemos que el conjunto conformado con el vector neutro como único elemento: S = {|0i} ∈ V es el subespacio vectorial más pequeño de V. Por otro lado, el espacio completo V es el subespacio más grande posible de V. Se acostumbra llamar a estos dos subespacios los subespacios triviales de V. La importancia de la notación 2.1.6. ad o rP re En los ejemplos antes mencionados hemos utilizado para representar un vector abstracto la notación de |vi y con éstos construimos un espacio vectorial abstracto V = {|v1 i , |v2 i , |v3 i , · · · , |vn i}. Un espacio vectorial abstracto será un conjunto de elementos genéricos que satisfacen ciertos axiomas. Dependiendo del conjunto de axiomas tendremos distintos tipos de espacios abstractos, la teorı́a desarrolla las consecuencias lógicas que resultan de esos axiomas. En matemática el concepto de espacios abstractos es reciente (1928) y, aparentemente, se le debe a Maurice Fréchet4 . Los elementos de esos espacios se dejan sin especificar a propósito. Ese vector abstracto puede representar, vectores en Rn , matrices n×n o funciones continuas. La notación |vi, que se denomina un ket y al cual le corresponde un bra hu| proviene del vocablo inglés braket que significa corchete y será evidente más adelante cuando construyamos escalares braket hu |vi. Esta útil notación la ideó Paul Dirac5 , uno de los fı́sicos más influyentes en el desarrollo de la Fı́sica del siglo XX. En Mecánica Cuántica un estado cuántico particular suele representarse por una función de onda ψ(x), que depende de la variable posición x o de una función alternativa que puede depender de la variable momentum p. En la notación de Dirac, el sı́mbolo |ψi denota el estado cuántico sin referirse a la función en particular y también sirve para distinguir a los vectores de los escalares (números complejos) que vienen a ser los elementos fundamentales en el espacio de Hilbert de la Mecánica Cuántica. Ejemplos rr 1. Consideremos el conjunto de las permutaciones de 3 objetos, cuyos elementos pueden ser representados como se muestra a continuación: 1 2 3 1 2 3 1 2 3 P0 = ; P1 = ; P2 = ; 1 2 3 2 1 3 3 2 1 P3 = 1 1 2 3 3 2 ; P4 = 1 2 Bo y la operación de composición de permutaciones: K 1 2 3 K 1 P1 P3 = 2 1 3 1 2 3 3 1 2 3 ; P5 = 3 2 = 1 2 1 3 2 1 2 3 3 1 3 2 ; = P4 , es decir, luego de intercambiar las primera y segunda posición, intercambio la segunda y la tercera. La tabla de multiplicación del grupo quedará: 4 MAURICE FRÉCHET (1878 Maligny, Yonne, Bourgogne-1973 Parı́s, Francia). Versátil matemático francés, con importantes contribuciones en espacios métricos, topologı́a y creador del concepto de espacios abstractos. 5 PAUL ADRIEN MAURICE DIRAC (1902 Bristol, Inglaterra 1984-Tallahassee, EE.UU). Además de contribuir de manera determinante en la comprensión de la Mecánica Cuántica, es uno de los creadores de la Mecánica Cuántica Relativista la cual ayudó a comprender el papel que juega el espı́n en las partı́culas subatómicas. Por sus importantes trabajos compartió con Erwin Schrödinger el Premio Nobel de Fı́sica en 1933. 84 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES J P0 P1 P2 P3 P4 P5 P0 P0 P1 P2 P3 P4 P5 P1 P1 P0 P4 P5 P2 P3 P2 P2 P5 P0 P4 P3 P1 P3 P3 P4 P5 P0 P1 P2 P4 P4 P3 P1 P2 P5 P0 P5 P5 P2 P3 P1 P0 P4 ar 2. El conjunto de la rotaciones del espacio ordinario cuando rotamos un ángulo φ alrededor del eje z, ecuación (1.4.3), forman un grupo. Gφ1 Gφ2 = Gφ1 +φ2 . Entonces podemos ver que: in Denominaremos a este grupo por Rzφ = {Gφi }, con 0 ≤ φ ≤ 2π. Donde con Gφ esteremos indicando un giro alrededor del eje z y la operación que nos define las rotaciones la definiremos de la siguiente forma: lim a) es una operación cerrada ya que dos rotaciones resulta en otro rotación: Gφ1 Gφ2 = Gφ1 +φ2 = Gφ3 ∈ Rzφ . b) es asociativa: (Gφ1 Gφ2 ) Gφ3 = Gφ1 (Gφ2 Gφ3 ) . rP re c) Existe el elemento neutro, Gφ0 , que no hace ninguna rotación: Gφ1 Gφ0 = Gφ0 Gφ1 = Gφ1 . d ) Existe el elemento inverso, Gφ− , ya que podemos rotar en un sentido y en sentido inverso: Gφ1 Gφ−1 = Gφ−1 Gφ1 = Gφ0 . e) Es conmutativa ya que las rotaciones no se afectan por el orden en que son producidas: Gφ1 Gφ2 = Gφ2 Gφ1 . ad o 3. Consideremos el grupo G = Z × Z, es decir, el conjunto de duplas (xi , yi ) de números enteros. Y la operación: (x1 , y1 )(x2 , y2 ) = (x1 + x2 , y1 + y2 ) . Aquı́ la suma + es la suma convencional de números enteros. Probemos que tenemos un grupo. rr a) La operación es cerrada para la suma: (x1 , y1 )(x2 , y2 ) = (x1 + x2 , y1 + y2 ) = (x3 , y3 ) ∈ G . b) La operación es asociativa: Bo ((x1 , y1 )(x2 , y2 )) (x3 , y3 ) = (x1 + x2 , y1 + y2 )(x3 , y3 ) = ((x1 + x2 ) + x3 , (y1 + y2 ) + y3 ) = (x1 + (x2 + x3 ), y1 + (y2 + y3 )) = (x1 , y1 ) ((x2 , y2 )(x3 , y3 )) . c) Existe el elemento neutro, (0, 0): (x1 , y1 )(0, 0) = (0, 0) (x1 , y1 ) = (x1 , y1 ) . d ) Existe el elemento inverso, (−x1 , −y1 ): (x1 , y1 )(−x1 , −y1 ) = (−x1 , −y1 )(x1 , y1 ) = (0, 0) . e) La operación es conmutativa: (x1 , y1 )(x2 , y2 ) = (x2 , y2 )(x1 , y1 ) . 2.1. GRUPOS, CAMPOS Y ESPACIOS VECTORIALES 2.1.7. 85 Practicando con Maxima En este módulo utilizaremos algunas de las herramientas disponibles para incorporar el algebra discreta. Comenzaremos con la introducción a los conjuntos. Podemos operar con conjuntos pero primero debemos definirlos. Existen varias posibilidades, como mostramos a continuación: (%i1) A:{1,2,3,4,5,6,7,8,9}; ( %o1) {1, 2, 3, 4, 5, 6, 7, 8, 9} ar (%i2) B:set(1,3,5,7,9); ( %o2) {1, 3, 5, 7, 9} ( %o3) {2, 4, 6, 8} lim (%i4) D:makeset(i/j, [i,j], [[1,3], [2,3], [3,3], [4,3]]); 1 2 4 ( %o4) , , 1, 3 3 3 in (%i3) C:set(2,4,6,8); Notemos que es igual definir los conjuntos con llaves, con la función set o makeset. Podemos preguntar si determinado elemento perteneces, o no, a un conjunto. ( %o5) true (%i6) elementp(7,C); ( %o6) false rP re (%i5) elementp(7,A); Operaciones elementales con conjuntos: (%i7) UBC:union(B,C); ad o ( %o7) {1, 2, 3, 4, 5, 6, 7, 8, 9} (%i8) is (A=UBC); ( %o8) true (%i9) Cv:intersection(B,C); rr ( %o9) {} Para Maxima el conjunto vacı́o es {}. (%i10)setdifference(A,C); Bo ( %o10) {1, 3, 5, 7, 9} Esto es, el conjunto con los elementos del conjunto A que no pertenecen al conjunto C. Si queremos el conjunto de todos los subconjuntos del conjunto {a, b, c} le podemos pedir al programa que nos lo muestre: (%i11)powerset({a,b,c}); ( %o11) {{} , {a} , {a, b} , {a, b, c} , {a, c} , {b} , {b, c} , {c}} El producto cartesiano de los conjuntos A y B es el conjunto conformado por los pares (a, b): A x B = {(a, b)/a ∈ A , b ∈ B}. 86 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES (%i12)cartesian_product(B,C); ( %o12) {[1, 2] , [1, 4] , [1, 6] , [1, 8] , [3, 2] , [3, 4] , [3, 6] , [3, 8] , [5, 2] , [5, 4] , [5, 6] , [5, 8] , [7, 2] , [7, 4] , [7, 6] , [7, 8] , [9, 2] , [9, 4 Le podemos pedir al programa la suma de los pares del producto cartesiano anterior: (%i13)makeset(a+b, [a,b], cartesian_product(B,C)); ar ( %o13) {3, 5, 7, 9, 11, 13, 15, 17} Maxima trata a los conjuntos y a las listas como objetos de distinta naturaleza, lo que permite trabajar con conjuntos cuyos elementos puedan ser también conjuntos o listas, es decir, subconjuntos. in (%i14)lista:makelist(i,i,1,30); ( %o14) [1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30] (%i15)E:setify(lista); lim La lista anterior la convertiremos en un conjunto, para este fin debemos utilizar el comando setify. ( %o15) {1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30} De este último conjunto podemos construir el subconjunto conformado por los números primos: rP re (%i16)Primos:subset(E,primep); ( %o16) {2, 3, 5, 7, 11, 13, 17, 19, 23, 29} Con cardinality podemos saber cuantos elementos contiene un conjunto: (%i17)cardinality(%); ( %o17) 10 ad o La función de Maxima que nos permite calcular las tablas que utilizamos en la sección 2.1 es la función mod. Veamos: (%i18)Gm8:{1,3,5,7}; ( %o18) {1, 3, 5, 7} Todos los productos posibles entre los elementos de este conjunto son: rr (%i19)makeset(a.b, [a,b],cartesian_product(Gm8,Gm8)); ( %o19) {1, 3, 5, 7, 9, 15, 21, 25, 35, 49} Bo Los modulo 8 para algunos de los números anteriores son: (%i20)mod(21,8);mod(35,8);mod(49,8); ( %o20) 5 ( %o21) 3 ( %o22) 1 Para generar el grupo Gmod5 escribimos: (%i23)setify(makelist(mod(i,5),i,1,4)); ( %o23) {1, 2, 3, 4} 2.1. GRUPOS, CAMPOS Y ESPACIOS VECTORIALES 87 En la sección 2.1.1, definimos el orden de un elemento g ∈ G. Consideremos el siguiente conjunto de números enteros: Z15 = {0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14} . Se podrı́a demostrar que el orden de g ∈ G es igual al número de elementos de < g > y lo dejaremos como ejercicio. Vamos a calcular el orden de todos los elementos de Z15 , sabiendo que el orden de cada uno de esos elementos divide a 15, que es el cardinal de Z15 . Probemos primero con el número 6 ∈ Z15 . ar (%i24)setify(makelist(mod(6*i,15),i,0,14)); ( %o24) {0, 3, 6, 9, 12} in El orden de 6 ∈ Z15 es: (%i25)length(%); lim ( %o25) 5 En la siguiente instrucción lo haremos para todos los elementos de Z15 . (%i26)makelist([j,length(setify(makelist(mod(j*i,15),i,0,14)))],j,0,14); ( %o26) [[0, 1] , [1, 15] , [2, 15] , [3, 5] , [4, 15] , [5, 3] , [6, 5] , [7, 15] , [8, 15] , [9, 5] , [10, 3] , [11, 15] , [12, 5] , [13, 15] , [14, 15]] 2.1.8. Ejercicios rP re La salida no es más que una lista [x, y] con cada elemento x ∈ Z15 y su orden y. Por lo tanto, el conjunto de órdenes es: {1, 3, 5, 15}, todos divisores de 15, como estipula el teorema de Lagrange. 1. Diga cuales de los siguientes grupos son abelianos: Z, +; Zn , + ∀ , n ∈ N; N, +; Z, · . ad o 2. Sea S el conjunto de todos los números reales excluyendo −1 y defina la operación tal que: a b = a + b + ab . Donde + es la suma estándar entre números reales. Entonces: a) Muestre que [S, ] forman grupo. b) Encuentre la solución en S para la ecuación 2 x 3 = 7. Bo rr 3. Considere un triángulo equilátero que se muestra en la figura 2.1. Se pueden identificar operaciones de rotación alrededor de un eje perpendicular a la figura que pasa por su baricentro ? y, reflexiones respecto a planos, XA , XB y XC – que dejan invariante la figura del triángulo. Adicionalmente, se puede definir la operación concatenación de rotaciones y reflexiones que dejan igualmente invariante al triángulo, tal y como mostramos en la mencionada figura 2.1. Note que lo ilustrado en la figura, puede esquematizarse como: −−→ −→ (A α, B β, C γ) R 2π (A γ, B α, C β) XA (A γ, B β, C α) . 3 a) Construya la tabla de multiplicación para G4 , vale decir G4 = I, {Ri } , R̄j , {Xk } y la operación es concatenación tal y como mostramos en la figura 2.1.Donde I es la operación identidad, {Ri } es un conjunto de rotaciones en sentido horario, mientras que R̄j es un conjunto de rotaciones en el sentido antihorario, y {Xk } el conjunto de las reflexiones que dejan invariante el triángulo. b) Muestre que el conjunto de estas operaciones forman el grupo: G4 . c) Identifique cada una de las Ri y R̄j , y muestre además, que forman un subgrupo cı́clico de orden 3. De igual modo identifique las reflexiones y muestre que, cada una de las reflexiones y la identidad, {I, Xi }, forman también un subgrupo cı́clico, pero de orden 2. CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES ar 88 in Figura 2.1: Transformaciones que dejan invariante un triángulo equilátero. Concatenación de una rotación, R 2π con 3 una reflexión, XA , respecto a un plano que pasa por A I= C= 1 0 0 1 −1 0 , A= 3 2 − 12 1 2 − , 3 2 √ − 0 1 √ − 12 D= , √ 3 2 B= √ − 3 2 − 12 , √ − 21 − √ 3 2 E= rP re lim d ) Considere las siguientes matrices: 3 2 − 12 1 2 √ 3 2 √ 3 2 − 12 , . Muestre que forman grupo bajo la multiplicación de matrices y que ese grupo es isomorfo a G4 . e) Considere el conjunto de permutaciones de 3 objetos y la operación composición de permutaciones que discutimos como ejemplo en la sección 2.1.6. ¿ Es ese grupo isomorfo a G4 ? Justifique su respuesta. 4. Considere las siguientes funciones: f1 (x) = x , f2 (x) = 1 , x f3 (x) = 1 , 1−x f4 (x) = ad o Muestre que forman grupo bajo la operación: fi (x) del ejercicio anterior. x−1 , x f5 (x) = 1 − x , f6 (x) = x . x−1 fj (x) = fi (fj (x)), y que ese grupo es isomorfo a G4 , 5. Definamos una operación binaria como: x y = x + y + αxy , con x, y, α ∈ R y además α 6= 0. rr a) Demuestre que es asociativa. −1 α . Es decir, ∀ x, y ∈ R ∧ x 6= −1 α ,y 6= −1 α , entonces: x y Bo b) Muestre que genera un grupo en R − forma un grupo. 6. Muestre que el siguiente conjunto de transformaciones en el plano xy forman un grupo y construya su tabla de multiplicación. a) I = {x → x ∧ y → y}. b) I = {x → −x ∧ y → −y}. c) Ix = {x → −x ∧ y → y}. d ) Iy = {x → x ∧ y → −y}. 7. Considere un conjunto S conformado únicamente por números reales positivos. Consideremos las siguientes reglas sobre S: Por “suma”de dos números entenderemos su producto en el sentido usual, y el “producto”de un elemento r ∈ S y un número real λ entenderemos r elevado a la potencia de λ, en el sentido usual ¿S es un espacio vectorial? 2.2. ESPACIOS MÉTRICOS, NORMADOS Y CON PRODUCTO INTERNO 89 8. Considere el conjunto de vectores en el plano conformado por vectores localizados en el origen y cuyos puntos finales permanecen siempre en el primer cuadrante ¿Este conjunto es un espacio vectorial? 9. Muestre que también serán espacios vectoriales: a) El conjunto de todas las funciones f = f (x) definidas en x = 1 con f (1) = 0. Si f (1) = c ¿Tendremos igual un espacio vectorial? ¿Por qué? b) Los vectores (x, y, z) ∈ V3 tal que sus componentes satisfacen el siguiente sistema de ecuaciones lineales: ar a11 x + a12 y + a13 z = 0 a21 x + a22 y + a23 z = 0 in a31 x + a32 y + a33 z = 0 . 10. Sea Pn el conjunto de todos los polinomios de grado n, en x, con coeficientes reales: |pn i 2 p(x) = a0 + a1 x + a2 x + · · · + an−1 x n−1 = n−1 X ai xi . lim i=0 a) Demostrar que Pn es un espacio vectorial respecto a la suma de polinomios y a la multiplicación de polinomios por un número (número real). b) Si los coeficientes ai son enteros ¿Pn será un espacio vectorial? ¿Por qué? c) ¿Cuál de los siguientes subconjuntos de Pn es un subespacio vectorial? El polinomio cero y todos los polinomios de grado n − 1. El polinomio cero y todos los polinomios de grado par. Todos los polinomios que tienen a x como un factor (grado n > 1). Todos los polinomios que tienen a x − 1 como un factor. rP re 1) 2) 3) 4) 11. Un subespacio P es generado por: |x1 i = x3 + 2x + 1 , |x2 i = x2 − 2 , |x3 i = x3 + x ¿Cuál(es) de los siguientes polinomios pertenece al subespacio P? a) x2 − 2x + 1. b) x4 + 1. d ) x − 5. ad o c) − 21 x3 + 52 x2 − x − 1. 12. Resuelva los ejercicios anteriores utilizando Maxima. Espacios métricos, normados y con producto interno rr 2.2. Bo En está sección vamos a introducir una función de distancia, de manera que si tenemos un par de puntos o elementos de un espacio vectorial podemos hablar de que existe una cierta distancia entre ellos. Se dice que la función distancia induce una topologı́a sobre el espacio vectorial. Comenzaremos definiendo el concepto de métrica sobre espacios vectoriales y con esta estructura llegar a la noción de norma. 2.2.1. Métricas y espacios métricos La dotación de propiedades en los espacios vectoriales lineales lo constituye la idea de métrica o distancia entre sus elementos. El concepto de métrica surge de la generalización de la idea de distancia entre dos puntos de la recta real. Un espacio vectorial será métrico si podemos definir una función: d : V × V → R / ∀ |xi , |yi , |zi ∈ V , tal que se cumple lo siguiente: 90 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES 1. d (|xi , |yi) ≥ 0 , si d (|xi , |yi) = 0 ⇒ |xi ≡ |yi. 2. d (|xi , |yi) ≡ d (|yi , |xi). 3. d (|xi , |yi) ≤ d (|xi , |zi) + d (|yi , |zi) (La desigualdad triangular). Ası́, diremos que (V, K, , d) es un espacio vectorial lineal, métrico. Podemos enumerar algunos ejemplos de espacios métricos: ar 1. Espacios reales Rn . Aquı́ indicaremos los diferentes puntos del espacio por las coordenadas: (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ), ... in a) Para R, es decir la recta real, la definición de métrica es: d (|xi , |yi) ≡ |x − y| . q 2 2 b) Para R2 , es decir el plano, una definición de métrica es: d (|xi , |yi) ≡ (x1 − y1 ) + (x2 − y2 ) . lim También podemos construir otra definición de métrica como: d (|xi , |yi) ≡ |x1 − y1 | + |x2 − y2 |. La primera de estas métricas se conoce como métrica euclı́dea y la segunda como métrica Manhattan o métrica de taxistas. Es claro como el mismo espacio vectorial genera varios espacios métricos, dependiendo de la definición de métrica. Para estos casos particulares, las métricas “miden” el desplazamiento entre dos puntos de forma distinta: en aviones (métrica euclı́dea) o vehı́culos terrestre en ciudades. rP re c) En general para espacios reales Rn una posible definición de métrica será: q 2 2 2 2 d (|xi , |yi) ≡ (x1 − y1 ) + (x2 − y2 ) + (x3 − y3 ) + · · · + (xn − yn ) . Esta definición de métrica, o distancia, no es más que una generalización del teorema de Pitágoras y se denomina “distancia euclidiana”. 2. Espacios unitarios n−dimensionales, o espacios complejos, Cn . La definición de distancia puede construirse como: q 2 2 2 2 d (|xi , |yi) ≡ |x1 − y1 | + |x2 − y2 | + |x3 − y3 | + · · · + |xn − yn | , y es claro que se recobra la idea de distancia en el plano complejo: d (|xi , |yi) ≡ |x − y|. ∞ 3. Para los espacios de funciones C[a,b] una posible definición de distancia serı́a: ad o d (|f i , |gi) ≡ máx |f (t) − g (t)| . t∈[a,b] 4. La métrica trivial o discreta d (|xi , |yi) = 1 0 si x 6= y si x = y Normas y espacios normados rr 2.2.2. Bo La idea de distancia (o métrica) es el equipamiento más elemental que uno le puede exigir a un espacio vectorial. Mucho más interesante aún son aquellos espacios vectoriales que están equipados con la idea de norma y, a partir de allı́, se define la idea de distancia. La norma tiene que ver con el “tamaño” del vector y la métrica tiene que ver con la distancia entre vectores. Cuando definimos la métrica a partir de la norma, vinculamos las propiedades algebraicas del espacio con sus propiedades geométricas. La norma, N (|vi i) ≡ k|vi ik, de un espacio vectorial V = {|v1 i , |v2 i , |v3 i , · · · , |vn i} será una función: N : V → R / ∀ |vi i ∈ V , que cumple con: 1. k|vi ik ≥ 0 , si k|vi ik = 0 ⇒ |vi i ≡ |0i. 2. kα |vi ik = |α| k|vi ik. 3. k|vi i + |vj ik ≤ k|vi ik + k|vj ik (Desigualdad triangular). 2.2. ESPACIOS MÉTRICOS, NORMADOS Y CON PRODUCTO INTERNO 91 La definición de norma induce una métrica de la forma: d (|vi i , |vj i) ≡ k|vi i − |vj ik . ar Se denota en este caso un espacio vectorial normado6 como (V, K, ; k·k), espacio que también es conocido como un espacio de Banach7 . Esto significa que todo espacio normado es a su vez un espacio métrico, pero es importante señalar que no todo espacio métrico es normado. De la definición de distancia (2.2.2) resulta que la métrica ası́ definida es invariante bajo traslaciones de vectores. Esto es, si; |x̃i = |xi + |ai ∧ |ỹi = |yi + |ai, entonces, d (|xi , |yi) ≡ d (|x̃i , |ỹi). Y además es homogénea: d (λ |xi , λ |yi) = |λ|d (|xi , |yi). Como ejemplos de espacios normados podemos mostrar los siguientes: i=1 p in 1. Los espacios reales, Rn y los espacios complejos Cn . Para estos espacios de Banach, la norma se define como: ! 12 q n X 2 2 2 2 2 |xi | . k|xik = |x1 | + |x2 | + |x3 | + · · · + |xn | = lim Para un espacio en R3 se cumple que k|xik = x21 + x22 + x23 , por lo tanto, la idea de norma generaliza la noción de “tamaño” del vector |xi. Es claro que la definición de distancia se construye a partir de la norma de la forma: q 2 2 2 2 d (|xi , |yi) ≡ k|xi − |yik = |x1 − y1 | + |x2 − y2 | + |x3 − y3 | + · · · + |xn − yn | . rP re Este espacio se llama espacio normado euclidiano de dimensión n. 2. Para el espacio lineal de matrices n × n, reales o complejas, con el campo K real o complejo, una definición de norma es: n m X X |Mab | , kM k = a=1 b=1 y la correspondiente definición de distancia: d (|xi , |yi) ≡ kM − N k = m X n X |Mab − Nab | . a=1 b=1 ad o ∞ 3. Para los espacios funcionales C[a,b] una posible definición de norma serı́a: k|f ik = máx |f (t)| , t∈[a,b] otra posible definición puede ser: s Z k|f ik = 2 |f (t)| dt . a rr 2.2.3. b Espacios euclidianos Bo El siguiente paso en la construcción de espacios vectoriales más ricos es equiparlo con la definición de producto interno y a partir de esta definición construir el concepto de norma y con éste el de distancia. La idea de producto interno generaliza el concepto de producto escalar de vectores en R3 e incorpora a los espacios vectoriales abstractos el concepto de ortogonalidad y descomposición ortogonal. Históricamente, la teorı́a de espacios vectoriales con producto interno es anterior a la teorı́a de espacios métricos y espacios de Banach y se le debe a D. Hilbert8 . Adicionalmente, la semejanza entre la geometrı́a euclidiana y la geométrica de Rn ha hecho que espacios en los cuales se puedan definir, distancia, ángulos, a partir de una definición de producto interno, se denominen también espacios euclidianos. 6 El concepto de espacio normado fue formulado en 1922 de manera independiente por: S. Banach, H. Hahn y N. Wiener. BANACH (1892 Kracovia, Polonia-1945 Lvov,Ucrania) Matemático polaco, uno de los fundadores del análisis funcional moderno, con sus mayores contribuciones a la teorı́a de espacios topológicos. Hizo también importantes aportes a la teorı́a de la medida, integración y teorı́a de conjuntos y series ortogonales. 8 DAVID HILBERT (1862 Kaliningrad, Rusia-1943 Göttingen, Alemania) Matemático alemán defensor de la axiomática como enfoque primordial de los problemas cientı́ficos. Hizo importantes contribuciones en distintas áreas de la matemática, como: Invariantes, Campos de Números Algebraicos, Análisis Funcional, Ecuaciones Integrales, Fı́sica-Matemática y Cálculo en Variaciones. 7 STEFAN 92 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES Producto interno En un espacio vectorial V = {|v1 i , |v2 i , |v3 i , · · · , |vn i}, la definición del producto interno de dos vectores la denotaremos como hvi | vj i y es una aplicación: I (|vi i , |vj i) : V × V → K , ∀ |vi i , |vj i ∈ V . 2 1. hvi | vi i ≡ k|vi ik ∈ K ∧ hvi | vi i ≥ 0 2. hvi | vj i = hvj | vi i ∗ ∀ |vi i ∈ V , hvi | vi i = 0 ⇒ |vi i ≡ |0i. si ∀ |vi i , |vj i ∈ V. 4. hαvi + βvj | vk i = α∗ hvi | vk i + β ∗ hvj | vk i ∀ |vi i , |vj i , |vk i ∈ V ∧ α, β ∈ K. 5. hvi | 0i = h0| vi i = 0. in 3. hvi | αvj + βvk i = α hvi | vj i + β hvi | vk i ∀ |vi i , |vj i , |vk i ∈ V ∧ α, β ∈ K. ar Es decir, asocia a ese par de vectores con un elemento del campo K. Las propiedades que definen el producto interno son: lim Nota: la segunda y cuarta propiedad resultan del hecho de que si el campo es complejo K = C, entonces: hαvi | αvi i = α2 hvi | vi i = i2 hvi | vi i = − hvi | vi i , rP re lo cual contradice el hecho de que la norma tiene que ser positiva. Por eso la necesidad de tomar el complejo conjugado. Se dice entonces, que el producto escalar es antilineal respecto al primer factor y lineal respecto al segundo. A partir de la definición de producto interno se construyen los conceptos de norma y distancia: q p k|vi ik = hvi | vi i y d (|vi i , |vj i) ≡ k|vi i − |vj ik = hvi − vj | vi − vj i . La desigualdad de Cauchy-Schwarz: los ángulos entre vectores reales y complejos Todo producto interno hvi | vj i definido en un espacio vectorial normado V = {|v1 i , |v2 i , |v3 i , · · · , |vn i} cumple con la desigualdad de Cauchy-Schwarz: 2 |hvi | vj i| ≤ hvi | vi i hvj | vj i ⇐⇒ |hvi | vj i| ≤ k|vi ik k|vj ik . ad o Es claro que si |vi i = |0i ∧ |vj i = |0i se cumple la igualdad y es trivial la afirmación. Para demostrar la desigualdad, tomemos dos vectores |vi i ∧ |vj i cualesquiera, entonces podemos construir un tercero: |vk i = α |vi i + β |vj i (α y β tendrán valores particulares), por lo tanto: hvk | vk i ≡ hαvi + βvj | αvi + βvj i ≥ 0 , esto significa que: rr hαvi + βvj | αvi + βvj i = hαvi | αvi i + hαvi | βvj i + hβvj | αvi i + hβvj | βvj i ≥ 0 2 2 = |α| hvi | vi i + α∗ β hvi | vj i + β ∗ α hvj | vi i + |β| hvj | vj i ≥ 0 . Bo Si α = hvj | vj i, se tiene que: 2 hvj | vj i hvi | vi i + β hvi | vj i + β ∗ hvj | vi i + |β| ≥ 0 hvj | vj i hvi | vi i −β hvi | vj i − β ∗ hvj | vi i − |β| , ≥ 2 seguidamente seleccionamos: β = − hvj | vi i, y por lo tanto: β ∗ = − hvi | vj i, consecuentemente: hvj | vj i hvi | vi i ≥ hvj | vi i hvi | vj i + hvi | vj i hvj | vi i − hvj | vi i hvi | vj i hvj | vj i hvi | vi i ≥ hvi | vj i hvj | vi i = |hvi | vj i| . 2 J De la desigualdad de Cauchy-Schwarz y la definición de norma se desprende que: 2 |hvi | vj i| 2 k|vi ik k|vj ik 2 ≤ 1 ⇒ −1 ≤ |hvi | vj i| ≤ 1, k|vi ik k|vj ik 2.2. ESPACIOS MÉTRICOS, NORMADOS Y CON PRODUCTO INTERNO 93 por lo tanto podemos definir el “ángulo” entre los vectores abstractos |vi i ∧ |vj i como: cos(ΘG ) = |hvi | vj i| , k|vi ik k|vj ik cos(ΘR ) = |hvi | vj i| , k|vi ik k|vj ik con ar donde hemos denotado como ΘG el ángulo genérico que forman los vectores reales o complejos. Si estamos considerando espacios vectoriales reales -en los cuales el campo corresponde a los números realesentonces el ángulo definido entre vectores abstractos reales corresponde al que intuitivamente siempre hemos considerado para los vectores cartesianos y que discutimos en la sección 1.1.4, 0 ≤ ΘR ≤ π , lim in donde se toma ΘR = 0 para vectores colineales y ΘR = π para vectores opuestos (antilineales). Si bien es cierto que esta definición coincide con la de los vectores cartesianos, hay que resaltar que la estamos extendiendo para cualquier vector abstracto, vale decir: funciones reales, matrices, y todos los objetos matemáticos que cumplan con las reglas para los espacios vectoriales expuestas en 2.1.3. Para el caso de espacios vectoriales complejos la situación es más sutil y significa definir un ángulo entre dos vectores abstractos y complejos, sin embargo podemos abordar el problema suponiendo: rP re 1. un espacio complejo n−dimensional de n−uplas de números complejos |zi ↔ (z1 , z2 , · · · zn ) asociado (isomorfo) a un espacio vectorial real de 2n dimensiones, con vectores representados por 2n−uplas de números reales |wi ↔ (Re(z1 ), Re(z2 ), · · · Re(zn ), Im(z1 ), Im(z2 ), · · · Im(zn )), donde hemos representado Re(zj ) y Im(zj ) como las partes reales e imaginarias de zj , respectivamente o, 2. directamente Pna partir de una definición de producto interno entre vectores complejos implementado por: hwi | vj i = j=1 wj∗ vj . Ambas aproximaciones no son del todo independientes pero igualmente justificadas9 . Consideremos el segundo caso, esto es: directamente a partir de una definición de producto interno entre vectores complejos. Para este caso consideramos un ángulo complejo, y cos(ΘC ) una función de variable compleja, que puede ser expresada en su forma polar como: |hvi | vj i| ⇒ cos(ΘC ) = ρ eφ , k|vi ik k|vj ik con ρ = | cos(ΘC )| < 1 . ad o cos(ΘC ) = rr Entonces podemos asociar ρ = cos(ΘH ) y definir ΘH , en el rango 0 ≤ ΘH ≤ π/2, como el ángulo hermı́tico entre los vectores complejos |vi i y |vj i. Mientras que φ, definido en −π ≤ φ ≤ π, corresponde al pseudo ángulo de Kasner, que representa la orientación o rotación del ángulo hermı́tico y no tiene mayor significado al cuantificar el ángulo entre esos dos vectores. Esta diferencia de significados puede intuirse cuando multiplicamos |vi i y |vj i, por una constante compleja: |ṽi i → αi |vi i y comprobamos que el ángulo ΘH permanece inalterado y no ası́ el ángulo de Kasner10 . Teoremas del coseno y de Pitágoras Bo A partir de la definición de norma se obtiene: ∗ 2 k|vi i − |vj ik = hvi − vj | vi − vj i = hvi | vi i − hvi | vj i − hvi | vj i + hvj | vj i = hvi | vi i + hvj | vj i − 2 Re (hvi | vj i) , con lo cual hemos generalizado el teorema del coseno para un espacio vectorial abstracto: 2 2 2 k|vi i − |vj ik = k|vi ik + k|vj ik − 2 k|vi ik k|vj ik cos(ΘG ) . De tal forma que para espacios vectoriales reales tendremos: 2 2 2 k|vi i − |vj ik = k|vi ik + k|vj ik − 2 k|vi ik k|vj ik cos(Θ) , 9 Scharnhorst, con 0 ≤ Θ ≤ π, K. (2001). Angles in complex vector spaces. Acta Applicandae Mathematica, 69(1), 95-103. consultarse Reju, V. G., Koh, S. N., y Soon, Y. (2009). An algorithm for mixing matrix estimation in instantaneous blind source separation. Signal Processing, 89(9), 1762-1773. 10 Puede 94 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES y para espacios vectoriales complejos: 2 2 2 k|vi i − |vj ik = k|vi ik + k|vj ik − 2 k|vi ik k|vj ik cos(ΘH ) cos(φ) , 0 ≤ ΘH ≤ π/2 . con Para el caso que los vectores |vi i ∧ |vj i sean ortogonales, esto es hvi | vj i = 0, tendremos el teorema de Pitágoras generalizado: 2 2 2 2 k|vi i − |vj ik ≡ k|vi i + |vj ik = k|vi ik + k|vj ik . Veamos algunos ejemplos de espacios vectoriales con producto interno. ar 1. Espacios euclidianos reales, Rn y espacios euclidianos complejos Cn . hx| yi = x∗1 y1 + x∗2 y2 + x∗3 y3 , · · · x∗n yn = n X in Los vectores en estos espacios euclidianos pueden ser representados por |xi = (x1 , x2 , · · · xn ) ∧ |yi = (y1 , y2 , · · · , yn ) y el producto interno queda definido por: x∗i yi , i=1 lim es claro que esta definición de producto interno coincide, para R2 (y R3 ) con la idea de producto escalar convencional que consideramos en las secciones 1.1.4 y 1.2.6, vale decir: a = ax i + ay j ⇒ a · b = ax bx + ay by . b = bx i + by j rP re Ahora bien, el lector puede comprobar que para vectores en R2 también se puede proveer una definición de producto interno: a ~ b = 2ax bx + ax by + ay bx + ay by , igualmente válida, con lo cual es claro que en un mismo espacio vectorial pueden coexistir diferentes productos internos. Por su parte, la norma es: ad o v u n q p uX 2 2 2 2 x2i . k|xik = hx| xi = x1 + x2 + x3 , · · · + xn = t i=1 La distancia también recupera la idea intuitiva de distancia euclidiana: p d (|xi , |yi) ≡ k|xi − |yik = hx − y| x − yi d (|xi , |yi) = q 2 2 2 2 (x1 − y1 ) + (x2 − y2 ) + (x3 − y3 ) + · · · + (xn − yn ) . rr El teorema del coseno queda como: Bo n X i=1 2 (xi + yi ) = n X i=1 x2i + n X v u n uX 2 y + 2t x2 i i i=1 v u n uX t yi2 cos(Θ) , i=1 i=1 mientras que el teorema de Pitágoras es: n X 2 (xi + yi ) = i=1 n X x2i + i=1 n X yi2 , i=1 es obvio que para R2 tanto el teorema del coseno como el teorema de Pitágoras retoman su forma tradicional. Finalmente la desigualdad de Cauchy-Schwarz se expresa de la siguiente manera: |hx| yi| ≤ k|xik k|yik ⇒ n X i=1 2 xi yi ≤ n X i=1 x2i n X i=1 yi2 . 2.2. ESPACIOS MÉTRICOS, NORMADOS Y CON PRODUCTO INTERNO 95 ∞ 2. Para los espacios de funciones continuas C[a,b] una posible definición de producto interno serı́a: Z b dx f ∗ (x) g (x) , hf | gi = a de la cual se deriva la expresión para la norma: Z 2 b 2 dx |f (x)| . k|f ik = hf | f i = ar a La distancia entre funciones quedará definida como: s Z p hf − g| f − gi = b d (|f i , |gi) = dx |f (x) − g(x)| q ∗ hf | f i − hf | gi − hf | gi + hg| gi in d (|f i , |gi) ≡ k|f i − |gik ≡ 2 v uZ u =t b Z 2 dx |f (x)| − 2 Re ! b dx a lim a f ∗ (x) a g(x) rP re a 2 dx |g (x)| . b dx |g(x)| 2 a Z ! 21 b dx |f (x)| +2 a donde: b a El teorema del coseno puede ser escritos como: Z b Z b Z 2 2 dx |f (x) + g(x)| = dx |f (x)| + a Z + 2 b Z ! 21 2 dx |g(x)| cos(Θ) , a Rb cos(Θ) = Rb ad o a dx f ∗ (x) g(x) 1 1 . 2 2 Rb 2 2 dx |f (x)| dx |g (x)| a a Y como era de esperarse el teorema de Pitágoras queda: Z b Z b Z 2 2 dx |f (x) + g(x)| = dx |f (x)| + a a b 2 dx |g(x)| , a a a a Ejemplos Bo 2.2.4. rr para funciones f (x) y g(x) ortogonales, mientras que para este caso, la desigualdad de Cauchy-Schwarz se expresa: 2 Z b Z b Z b 2 2 ∗ dx f (x) g(x) ≤ dx |f (x)| dx |g(x)| . 1. Comopvimos en la sección anterior, en el campo de los números complejos el valor absoluto de z = z + iy es |z| = x2 + y 2 . La métrica que podemos asociar a este espacio vectorial viene dada por: p p d (|z1 i , |z2 i) ≡ k|z1 i − |z2 ik = hz1 − z2 | z1 − z2 i = (x1 − x2 )2 + (y1 − y2 )2 , con: |z1 i = x1 + iy1 y |z2 i = x2 + iy2 . 2. Consideramos el espacio vectorial de polinomios de grado g ≤ n definidos en el intervalo [0, 1] o en el intervalo [−1, 1] según el caso. Suponiendo las siguientes definiciones de producto interno en P n : Z 1 Z 1 hqn |pn i = p(x)q(x)dx y hqn |pn i = p(x)q(x)dx . −1 0 96 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES Vamos a encontrar la distancia y el ángulo entre los vectores: |x1 i = x(x − 1) y |x2 i = x. En general, la definición de distancia es: p d (|x1 i , |x2 i) = R1 −1 p(x)q(x)dx la distancia será: sZ p hx2 − x1 |x2 − x1 i = 1 2 [x(x − 1) − x] dx = −1 R1 0 p(x)q(x)dx, será: s p hx2 − x1 |x2 − x1 i = Z 1 2 (x(x − 1) − x) dx = 0 hx1 |x2 i p p hx1 |x1 i hx2 |x2 i θ = arc cos R1 −1 p(x)q(x)dx tenemos: hx1 |x2 i p p hx1 |x1 i hx2 |x2 i θ = arc cos ! . rP re Para hqn |pn i = 2√ 30 . 15 lim Con respecto a los ángulos: in y para hqn |pn i = 1√ 690 , 15 ar por lo tanto para hqn |pn i = hx2 − x1 |x2 − x1 i , ! (x(x − 1)) x dx −1 qR = arc cos qR 1 1 2 2 (x(x − 1)) dx −1 x dx −1 R1 1√ √ 15 6 = 2,4825 rad . = arc cos − 12 R1 0 p(x)q(x)dx ad o Para hqn |pn i = θ = arc cos hx1 |x2 i p p hx1 |x1 i hx2 |x2 i ! (x(x − 1)) (x) dx qR = arc cos qR 0 1 1 2 2 (x(x − 1)) dx x dx 0 0 R1 ¡El mismo ángulo! rr 1√ √ 15 2 = 2,4825 rad = arc cos − 12 2.2.5. Practicando con Maxima Bo Espacios y subespacios vectoriales Sea el espacio vectorial V = Kn , definido en K = R y donde n es un entero positivo. Consideremos el caso n = 4. El producto de un elemento de K4 , digamos |xi = (x1 , x2 , x3 , x4 ) por un escalar α ∈ K resulta en otro elemento de K4 . Primero introducimos los elementos como listas: (%i1) X:[x1,x2,x3,x4];Y:[y1,y2,y3,y4];Z:[z1,z2,z3,z4]; ( %o1) [x1 , x2 , x3 , x4 ] ( %o2) [y1 , y2 , y3 , y4 ] ( %o3) [z1 , z2 , z3 , z4 ] (%i4) alpha*X=Y; 2.2. ESPACIOS MÉTRICOS, NORMADOS Y CON PRODUCTO INTERNO 97 ( %o4) [α x1 , α x2 , α x3 , α x4 ] = [y1 , y2 , y3 , y4 ] El resultado es un elemento del espacio vectorial K4 . La suma de |xi = (x1 , x2 , x3 , x4 ) y |yi = (y1 , y2 , y3 , y4 ) será: (%i5) X+Y=Z; ( %o5) [y1 + x1 , y2 + x2 , y3 + x3 , y4 + x4 ] = [z1 , z2 , z3 , z4 ] ar con (z1 , z2 , z3 , z4 ) ∈ K4 . Podemos ver rápidamente que el conjunto de vectores que tienen la forma (x1 , x2 , x3 , 0) conforman un subespacio de K4 , ya que: ( %o6) [0, 0, 0] ( %o7) [x1 , x2 , x3 , 0] ( %o8) [y1 , y2 , y3 , 0] ( %o9) [z1 , z2 , z3 , 0] (%i10)alpha*X+beta*Y=Z; rP re ( %o10) [β y1 + α x1 , β y2 + α x2 , β y3 + α x3 , 0] = [z1 , z2 , z3 , 0] lim (%i7) X:[x1,x2,x3,x4];Y:[y1,y2,y3,y4];Z:[z1,z2,z3,z4]; in (%i6) map(":",[x4,y4,z4],[0,0,0]); Para recobrar las variables x4 , y4 , z4 escribimos: (%i11)kill(x4,y4,z4)$ (%i12)X:[x1,x2,x3,x4];Y:[y1,y2,y3,y4];Z:[z1,z2,z3,z4]; ( %o12) [x1 , x2 , x3 , x4 ] ( %o13) [y1 , y2 , y3 , y4 ] ( %o14) [z1 , z2 , z3 , z4 ] ad o Para calcular el producto interno entre vectores es necesario utilizar la librerı́a eigen. (%i15)load("eigen")$ (%i16)innerproduct(X,Y); ( %o16) x4 y4 + x3 y3 + x2 y2 + x1 y1 rr Consideremos ahora V = Kn , definido en K = C, con n = 3. Por lo tanto, los vectores serán ahora de la siguiente forma: z = (x1 + iy1 , x2 + iy2 , x3 + iy3 ). (%i17)Z1:[x1+%i*y1,x2+%i*y2,x3+%i*y3]; Z2:[u1+%i*v1,u2+%i*v2,u3+%i*v3]; Bo ( %o17) [i y1 + x1 , i y2 + x2 , i y3 + x3 ] ( %o18) [i v1 + u1 , i v2 + u2 , i v3 + u3 ] Y los escalares de la forma α = a + ib. (%i19)alpha:a+%i*b; ( %o19) i b + a El producto por el escalar α es: (%i20)Z3:alpha*Z1; ( %o20) [(i b + a) (i y1 + x1 ) , (i b + a) (i y2 + x2 ) , (i b + a) (i y3 + x3 )] 98 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES (%i21)map(rectform,Z3); ( %o21) [i (a y1 + b x1 ) − b y1 + a x1 , i (a y2 + b x2 ) − b y2 + a x2 , i (a y3 + b x3 ) − b y3 + a x3 ] (%i22)map(realpart,Z3),factor; map(imagpart,Z3),factor; ( %o22) [− (b y1 − a x1 ) , − (b y2 − a x2 ) , − (b y3 − a x3 )] ( %o23) [a y1 + b x1 , a y2 + b x2 , a y3 + b x3 ] ar Calculemos ahora el producto interno: Z1 · Z2 = (x1 + iy1 )∗ (u1 + iv1 ) + (x2 + iy2 )∗ (u2 + iv2 ) + (x3 + iy3 )∗ (u3 + iv3 ) . in (%i24)Z4:innerproduct(Z1,Z2); (%i25)Re:map(realpart,Z4)$ Im:map(imagpart,Z4)$ (%i26)Re+%i*Im; lim ( %o24) (v3 − i u3 ) y3 + (v2 − i u2 ) y2 + (v1 − i u1 ) y1 + (i v3 + u3 ) x3 + (i v2 + u2 ) x2 + (i v1 + u1 ) x1 ( %o26) i (−u3 y3 − u2 y2 − u1 y1 + v3 x3 + v2 x2 + v1 x1 ) + v3 y3 + v2 y2 + v1 y1 + u3 x3 + u2 x2 + u1 x1 Producto de polinomios rP re (%i27)kill(all)$ Consideremos el siguiente producto escalar entre elementos de un espacio vectorial de polinomios: Z b hpi |pj i = pi (x)pj (x)dx , a Vamos a encontrar la distancia y el ángulo entre los vectores |x1 i = x(x − 1) y |x2 i = x en dos intervalos diferentes: [0, 1] y [−1, 1] Debemos introducir los objetos a multiplicar: ad o (%i1) P1:x*(x-1); P2:x; ( %o1) (x − 1) x ( %o2) x Ahora calculamos las distancias entre los vectores para ambos intervalos. Haremos gala de algunas posibilidades que ofrece el programa para escribir las expresiones. Bo rr (%i3) sqrt(’integrate(((P1-P2)^2),x,-1,1))=sqrt(integrate(((P1-P2)^2),x,-1,1)); sZ √ 1 46 2 ((x − 1) x − x) dx = √ ( %o3) 15 −1 (%i4) sqrt(’integrate(((P1-P2)^2),x,0,1))=sqrt(integrate(((P1-P2)^2),x,0,1)); s Z 1 3 22 2 ( %o4) ((x − 1) x − x) dx = √ 15 0 El ángulo entre los polinomios definidos en el intervalo [−1, 1] es: (%i5) ’integrate((P1*P2),x,-1,1)/(sqrt(’integrate((P1*P1),x,-1,1))* sqrt(’integrate((P2*P2),x,-1,1))); R1 (x − 1) x2 dx qR 1 2 2 dx x (x − 1) x2 dx −1 −1 ( %o5) qR 1 −1 2.2. ESPACIOS MÉTRICOS, NORMADOS Y CON PRODUCTO INTERNO 99 (%i6) ev(%,integrate); √ 15 ( %o6) − 3 √ 22 3 (%i7) acos(%),numer; ( %o7) 2,482534617763384 ar Y ahora, el ángulo entre los polinomios definidos en el intervalo [0, 1]: (%i8) ’integrate((P1*P2),x,0,1)/(sqrt(’integrate((P1*P1),x,0,1))* sqrt(’integrate((P2*P2),x,0,1))); R1 in (x − 1) x2 dx qR 1 2 2 dx x (x − 1) x2 dx 0 0 (%i9) ev(%,integrate); √ 30 ( %o9) − √ 4 3 (%i10)acos(%),numer; lim 0 ( %o8) qR 1 2.2.6. rP re ( %o10) 2,482534617763384 Ejercicios 1. Consideremos el espacio vectorial conformado por los vectores geométricos en R3 ¿Serán espacios euclidianos para las siguientes definiciones de producto interno? a) El producto de las longitudes de los vectores. b) El producto de las longitudes por el cubo del coseno del ángulo entre ellos. c) El producto como dos veces el producto escalar usual entre vectores. ad o 2. Considerando estas definiciones de producto interior en Pn : Z 1 Z a) hqn |pn i = p(x)q(x)dx , b) hqn |pn i = −1 1 p(x)q(x)dx . 0 a) Encuentre los ángulos en el “triángulo” formado por los vectores: |x1 i = 1, |x2 i = t, |x3 i = 1 − t. b) Encuentre la distancia y el ángulo entre los siguientes pares de vectores en P3 : rr 1) |x1 i = 1; |x2 i = x. 2) |x1 i = 2x; |x2 i = x2 . Bo 3. Sea E0 un subespacio euclidiano de dimensión k, E0 ⊂ E, y sea |vi un vector que no necesariamente es un elemento E0 . Podemos plantearnos el problema de representar |vi de la forma: |vi = |gi + |hi; donde |gi ∈ E0 y |hi es ortogonal a E0 . La existencia de la expansión anterior nos muestra que el espacio total E, de dimensión n, es la suma directa de los subespacios E0 y su complemento ortogonal E⊥ de dimensión n − k. Encuentre el vector |vi, como la suma del vector |gi, expandido por los vectores |gi i, y el vector perpendicular |hi cuando: a) |hi = (5, 2, −2, 2) , |g1 i = (2, 1, 1, −α) , |g2 i = (1, β, 3, 0). b) |hi = (−3, 5, 9, 3) , |g1 i = (1, 1, 1, γ) , |g2 i = (2η, −1, 1, 1) , |g3 i = (2, −7δ, −1, −1). Pn−1 Pn−1 4. Sean |pn i = p(x) = i=0 ai xi ; |qn i = q(x) = i=0 bi xi ∈ Pn . Considérese la siguiente definición: hqn |pn i a0 b0 + a1 b1 + a2 b2 + ... + an−1 bn−1 = n−1 X i=0 ai bi 100 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES a) Muestre que ésta es una buena definición de producto interno. b) Con esta definición de producto interior ¿Se puede considerar Pn un subespacio de C[a,b] ? ¿Por qué? 5. Los vectores en R3 en coordenadas cartesianas los definimos como a = ai |ei i = ax i + ay j + az k y definimos una “tabla de multiplicación” entre ellos de la forma ei |ej i = δji con i, j = 1, 2, 3, esto es: i 1 0 0 j 0 1 0 k 0 0 1 ar ei |ej i i j k in Un cuaternión cartesiano puede escribirse de manera análoga a los vectores cartesianos, vale decir: |ai = aα |qα i = a0 + ai |qi i = a0 + ax i + ay j + az k , lim con α = 0, 1, 2, 3 y donde las ai (con i = 1, 2, 3) son números reales que representan las componentes vectoriales en coordenadas cartesianas de los cuaterniones, mientras que la a0 , también un número real se le llama componente escalar11 . rP re Los cuaterniones fueron inventados por el matemático irlandés William Rowan Hamilton a mediados del siglo XIX, y por decirlo de alguna manera, son hı́bridos o generalizaciones a un plano hipercomplejo. Un vector cartesiano es un cuaternión con la componente escalar nula. Hoy encontramos aplicaciones del álgebra de cuaterniones en Fı́sica12 y más recientemente ha tenido alguna utilización computación gráfica que discutiremos en el próximo problema en el contexto del álgebra geométrica y las algebras de Grassman. Basándonos en este esquema podemos definir la “tabla de multiplicación” para los cuaterniones cartesianos como: |qi i |qj i 1 |q1 i |q2 i |q3 i 1 1 |q1 i |q2 i |q3 i |q1 i |q1 i −1 |q3 i − |q2 i |q2 i |q2 i − |q3 i −1 |q1 i |q3 i |q3 i |q2 i − |q1 i −1 Nótese que por el hecho de que: |qj i = −1 ⇒ |q1 i ad o |qj i |q1 i = |q2 i |q2 i = |q3 i |q3 i = −1 , se puede pensar que un cuaternión es la generalización de los números complejos a más de una dimensión (un número hipercomplejo), donde la parte imaginaria tendrı́a tres dimensiones y no una como es costumbre. Esto es: |ai = aα |qα i = a0 |q0 i + aj |qj i = a0 + a1 |q1 i + a2 |q2 i + a3 |q3 i . |{z} | {z } “parte compleja” rr 1 Siendo consistente con esa visión de generalización de un número complejo, definiremos el conjugado de un cuaternión como: z |bi = b0 |q0 i − bj |qj i , Bo con j = 1, 2, 3. Es decir, en analogı́a con los números complejos el conjugado de un cuaternión cambia el signo de su “parte compleja vectorial”. P que estamos utilizando la convención de Einstein en la cual: cα |qα i ≡ c0 + 3j=1 cj |qj i. Es decir, hemos supuesto que: |q0 i ≡ 1, la unidad en los números reales. Adicionalmente, nótese que los ı́ndices griegos α, β, · · · toman los valores 0, 1, 2, 3, mientras que los latinos que acompañan a los vectores cartesianos toman los siguiente valores j, k, l = 1, 2, 3. 12 Hace algunas décadas se dio una discusión sobre la importancia de utilizar esta representación en Fı́sica Cuántica. Pueden consultar: 11 Recuerde Berezin, A. V., Kurochkin, Y. A., & Tolkachev, E. A. (1989). Quaternions in relativistic physics. Nauka i Tekhnika, Minsk. Girard, P. R. (1984). The quaternion group and modern physics. European Journal of Physics, 5(1), 25. Horwitz, L. P., & Biedenharn, L. C. (1984). Quaternion quantum mechanics: second quantization and gauge fields. Annals of Physics, 157(2), 432-488. 2.2. ESPACIOS MÉTRICOS, NORMADOS Y CON PRODUCTO INTERNO 101 Igualmente, definiremos la suma entre cuaterniones de la siguiente manera: |ai = aα |qα i ⇒ |ci = cα |qα i = |ai + |bi = (aα + bα ) |qα i ⇒ cα = (aα + bα ) . α |bi = b |qα i Esto quiere decir que los vectores se suman componente a componente. Mientras que la multiplicación por un escalar queda definida por α |ci = αcα |qα i, es decir se multiplica el escalar por cada componente. ar Con la información anterior, responda las siguientes preguntas: in a) Compruebe si los cuaterniones, |ai, forman un espacio vectorial respecto a esa operación suma y esa multiplicación por escalares, análoga a la de los vectores en R3 en coordenada cartesianas. b) Dados dos cuaterniones cualesquiera |bi ≡ b0 , b y |ri ≡ r0 , r , y su tabla de multiplicación, muestre que el producto entre esos cuaterniones |di = |bi |ri podrá representarse como: |di = |bi |ri ←→ d0 , d = b0 r0 − b · r, r0 b + b0 r + b × r , lim donde · y × corresponden con los productos escalares y vectoriales tridimensionales de siempre. c) Ahora con ı́ndices: dados |bi = bα |qα i y |ri = rα |qα i, compruebe si el producto |di = |bi siempre escrito de la forma: |di = |bi |ri puede ser |ri = a |q0 i + S (αj) δα0 |qj i + A[jk]i bj rk |qi i . rP re donde a representa un número, S (αj) δα0 (recuerde que los ı́ndices latinos toman los valores j, k, l = 1, 2, 3, mientras α = 0,1, 2, 3), donde S (ij) indica S ji = S ij , que la cantidad S ij es simétrica, y por lo tanto S αj δα0 + S jα δα0 |qj i. Mientras A[jk]i representa un conjunto de objetos antisimétricos en j y k:13 A[jk]i → Ajki = −Akji → Ajki bj rk − Akji bj rk |qi i . d ) Identifique las cantidades: a, S (ij) y A[jk]i , en términos de las componentes de los cuaterniones. ¿El producto de cuaterniones |di = |ai |ri será un vector, pseudovector o ninguna de las anteriores? Explique por qué. ad o e) Muestre que los cuaterniones pueden ser representados por matrices complejas 2 × 2 del tipo: z w |bi ←→ , −w∗ z ∗ donde z, w son números complejos. Bo rr f ) Muestre que una representación posible para la base de cuaterniones es, la matriz unitaria 4x4: 0 1 0 0 0 0 0 −1 0 0 −1 0 −1 0 0 0 0 0 −1 0 0 1 , |q3 i = 0 0 . |q1 i = 0 0 0 1 , |q2 i = 0 1 0 1 0 0 0 0 0 0 −1 0 1 0 0 0 0 −1 0 0 g) Compruebe si la siguiente es una buena definición de producto interno: z ] ha |bi = |ai |bi . h) Modifique un poco la definición anterior de tal forma que: 1 h] ] ha |bi − |q1 i ha |bi ha |bi = 2 i |q1 i , y compruebe si esta definición compleja del producto interno cumple con todas las propiedades. Nótese que un cuaternión de la forma |f i = f 0 + f 1 |q1 i es un número complejo convencional. 13 Para familiarizarse con las expresiones vectoriales con la notación de ı́ndices puede consultar la sección 1.4. 102 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES i ) Compruebe si la siguiente es una buena definición de norma para los cuaterniones: q p z n(|bi) = k|aik = ha |ai = |ai |ai . j ) Compruebe si un cuaternión definido por: z |ai k|aik 2 , ar |ai = puede ser considerado como el inverso o elemento simétrico de |ai, respecto a la multiplicación k ) Compruebe si los cuaterniones |ai forman un grupo respecto a una operación multiplicación 3 . . in l ) Los vectores en R en coordenadas cartesianas, |vi, pueden ser representados como cuaterniones, donde la parte escalar es nula v 0 = 0 → |vi = v j |qj i. Compruebe si el siguiente producto conserva la norma: lim |v 0 i = |ai |vi |ai . 0 2 0 2 0 2 2 2 2 2 2 Estos es: k|v 0 ik = v 1 + v2 + v3 ≡ v 1 + v 2 + v 3 = k|vik . 6. En el mismo espı́ritu de los cuaterniones considerados previamente estudiemos el siguiente problema. rP re Consideremos otra vez el espacio R3 expandido por la base ortonormal estándar {i, j, k}. Supongamos en este espacio el producto de dos vectores a y b (o |ai y |bi en la notación de vectores abstractos de Dirac) definido a la manera del álgebra geométrica. Esto es: K |ai |bi ≡ ab = a · b + a ∧ b , ad o con a · b el producto escalar estándar de R3 , representando la parte conmutativa de ab y a ∧ b su parte anticonmutativa. Esta última parte se relaciona con el producto vectorial estándar de la representación de Gibbs como: a ∧ b = ia × b, con i = i ∧ j ∧ k un pseudoescalar. Figura 2.2: Se ilustran los vectores ortonormales estándares {i, j} y como siempre k = i × j. Este formalismo ha tenido cierto impacto en computación gráfica14 -15 -16 y lo vamos a utilizar para modelar transformaciones de objetos en el espacio. representación para objetos fı́sicos ha tenido cierto éxito en Fı́sica clásica y cuántica; se puede consultar: rr 14 Esta Hestenes, D., & Sobczyk, G. (2012). Clifford algebra to geometric calculus: a unified language for mathematics and physics (Vol. 5). Springer Science & Business Media. Bo Hestenes, D. (1971). Vectors, spinors, and complex numbers in classical and quantum physics. Am. J. Phys, 39(9), 1013-1027. Hestenes, D. (2003). Spacetime physics with geometric algebra. American Journal of Physics, 71(7), 691-714. Dressel, J., Bliokh, K. Y., & Nori, F. (2015). Spacetime algebra as a powerful tool for electromagnetism. Physics Reports, 589, 1-71. 15 Y equivalentemente, por isomorfismo i = 16 Pueden consultar √ −1. Goldman, R. (2002). On the algebraic and geometric foundations of computer graphics. ACM Transactions on Graphics (TOG), 21(1), 52-86. Hildenbrand (2011). From Grassmann’s vision to geometric algebra computing. Springer Basel. Hildenbrand, D., Fontijne, D., Perwass, C., & Dorst, L. (2004). Geometric algebra and its application to computer graphics. In Tutorial notes of the EUROGRAPHICS conference. Vince, J. (2008). Geometric algebra for computer graphics. Springer Science & Business Media y las referencias allı́ citadas. 2.2. ESPACIOS MÉTRICOS, NORMADOS Y CON PRODUCTO INTERNO 103 Considere el caso 2D representado en la figura 2.2, en el formalismo de algebra geométrica el objeto triángulo lo asociamos con vector abstracto |4i, mientras que el objeto cuadrado lo representaremos como |i, y el tercer objeto por |⇑i. Entonces: in c) Encuentre la norma de cada uno de ellos y la distancia entre |4i y |⇑i. E d ) Considere ahora la operación: A |4i = 4̃ . ar a) Exprese los vectores: |4i , |i , |⇑i en términos de la base ortonormal estándar {i, j, k} (o |ii , |ji , |ki) en el formalismo de álgebra geométrica. J b) Exprese |4i |⇑i en término de la base geométrica. Vale decir, si |Og i es un objeto geométrico este podrá representarse en términos de una base: |i , |σi , |Bi , |ii, donde |i es un escalar; |σi es un vector, |Bi un bivector y, finalmente |ii un pseudoescalar. rP re lim E 1) Si A|ji es el operador reflexión respecto |ji, exprese en términos geométricos 4̃ = A|ji |4i y J A|ii (|4i |⇑i). J 2) Si Aθ,|Bi es el operador de rotación alrededor de un bivector |Bi un ángulo θ. Encuentre Aπ/4,|Bi (|4i |⇑i) con |Bi = |ji + |ki. 3) ¿Cómo interpreta Ud. la ecuación de autovalores A |4i = 2 |4i? E e) Considere el caso 3D en el cual 4̂ representa un tetraedro regular con la base representada por la E ˆ , un cubo, también con su base representada en el plano de la misma figura. figura 2.2 y E E ˆ en términos de la base ortonormal estándar {i, j, k} y el formalismo 1) Exprese los vectores: 4̂ , de álgebra geométrica. EJ J |4i en término de la base geométrica. |⇑i 2) Exprese 4̂ E E E ˆ . 3) Encuentre la norma de 4̂ y la distancia entre 4̂ y Aπ/2,|−ji E ˆ , con Aπ/2,|−ji , Bπ/4,|ii = Aπ/2,|−ji Bπ/4,|ii − Bπ/4,|ii Aπ/2,|−ji . 4) Exprese Aπ/2,|−ji , Bπ/4,|ii rr ad o 7. En Geometrı́a Diferencial podemos considerar a R3 como un conjunto de puntos (una variedad o espacio topológico), es decir, R3 no es un espacio vectorial como se definió con anterioridad. En un punto q cualquiera podemos generar un plano R2 , entendido también como un conjunto de puntos, y definir el siguiente conjunto Tq R2 = {el conjunto de todos los vectores geométricos (flechas) con origen en q que son tangentes al plano R2 }. Notemos que la idea la podemos extender para cualquier superficie, por ejemplo, una esfera S2 (embebida en R3 ) y sobre la esfera seleccionar un punto arbitrario q. A partir de este punto q generar un plano y construir el conjunto Tq S2 = {el conjunto de todos los vectores geométricos con origen en q que son tangentes a la esfera S2 }. a) ¿Es Tq R2 un espacio vectorial? Bo b) Claramente podemos seleccionar otro punto arbitrario, pero diferente de q, digamos p y construir el conjunto Tp R2 . ¿Son estos dos espacios isomorfos? Consideremos ahora el conjunto de todas las funciones diferenciables f : R3 → R. Esto es, que existen todas las derivadas parciales en q ∈ R3 : ∂x f (xi ) , ∂y f (xi ) , ∂z f (xi ) ∈ R ∀ (xi ) ∈ R3 . Note que hemos supuesto un sistema de coordenadas cartesiano xi = (x, y, z) en R3 y que las derivadas son evaluadas en q. Consideremos el espacio tangente Tq R3 en un punto q arbitrario y un vector |uq i ∈ Tq R3 con componentes u1 , u2 , u3 , podemos definir el siguiente operador (operador derivada direccional) en q siguiendo a |uq i: |Uq i = u1 ∂x + u2 ∂y + u3 ∂z q . 104 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES Por lo tanto: |Uq i f ≡ u1 ∂x + u2 ∂y + u3 ∂z q f = u1 (∂x f )q + u2 (∂y f )q + u3 (∂z f )q . Es posible entonces construir el conjunto de los operadores derivadas direccionales que actúan sobre las funciones f : Dq (R3 ) = {|Uq i = u1 ∂x + u2 ∂y + u3 ∂z q ∀ |uq i ∈ Tq R3 } . c) ¿Es Dq un espacio vectorial? ar d) ¿Los espacios Dq y Tq R3 son isomorfos? 8. Resuelva los problemas anteriores utilizando Maxima. Variedades lineales in 2.3. lim Resulta de gran interés construir subespacios vectoriales a partir de una cantidad de vectores {|wi i}. En este caso diremos que los vectores generan una variedad lineal. Es decir, si tenemos una cantidad de vectores: {|w1 i , |w2 i , |w3 i , . . . } ∈ V, entonces una variedad lineal generada por este conjunto se entenderá como el conjunto de todas las combinaciones lineales finitas: α |w1 i + β |w2 i + γ |w3 i + · · · , 2.3.1. rP re donde los coeficientes: α, β, γ, . . . pertenecen al campo K. Se puede comprobar que esta variedad lineal es un subespacio de V. Claramente, todo subespacio que contenga los vectores {|w1 i , |w2 i , |w3 i , . . . } también contiene todas sus combinaciones lineales, por lo tanto, la variedad lineal generada de esta manera es el subespacio más pequeño que contiene al conjunto de estos vectores. Una variedad lineal sencilla de construir en V = R3 la constituye un par de vectores no colineales. La variedad lineal generada por estos dos vectores será el conjunto de todos los vectores paralelos al plano determinado por este par de vectores no colineales. Mientras que la variedad lineal generada por los vectores: {i, j, k} ∈ R3 es el mismo espacio entero R3 . Pasemos ahora a considerar el problema de construir una base para una variedad lineal y a partir de allı́ determinar la dimensión de la variedad. Dependencia/Independencia lineal ad o Siguiendo la misma lı́nea de razonamiento que en las secciones 1.1.3 y 1.2.5, generalizamos el concepto de dependencia e independencia lineal de R2 y R3 . Ası́: |0i = C1 |v1 i + C2 |v2 i + C3 |v3 i · · · + Cn |vn i = n X Ci |vi i , i=1 rr Las cantidades Ci son llamados los coeficientes de la combinación lineal. Podemos afirmar que: Si esta ecuación se cumple para algún conjunto de {Ci } no nulos, se dirá que el conjunto de vectores correspondiente {|vi i} son linealmente dependientes. Bo Por el contrario, si esta ecuación sólo puede ser satisfecha para todos los Ci = 0, entonces se dirá que el conjunto de vectores correspondiente {|vi i} son linealmente independientes. Notemos que la suma que aparece aquı́ es necesariamente una suma finita, y cuando un determinado conjunto de vectores es linealmente dependiente, entonces uno de ellos se puede escribir como combinación lineal de los demás. 2.3.2. Bases de un espacio vectorial Ahora bien, dado un espacio vectorial V = {|v1 i , |v2 i , |v3 i · · · , |vn i}, si encontramos que el conjunto de {|vn i} es linealmente dependiente, entonces siempre es posible despejar uno de los vectores en términos de los demás, vale decir: n−1 X |vn i = C̄1 |v1 i + C̄2 |v2 i + C̄3 |v3 i · · · + C̄n−1 |vn−1 i = C̄i |vi i . i=1 2.3. VARIEDADES LINEALES 105 Seguidamente podemos proceder a comprobar si {|v1 i , |v2 i , |v3 i · · · , |vn−1 i} es un conjunto de vectores linealmente independientes, es decir: C̄1 = C̄2 = C̄3 = · · · = C̄n−1 = 0. En caso de no serlo se procede otra vez a despejar uno de los vectores en términos de los anteriores y aplicar el criterio de independencia lineal: |vn−1 i = C̃1 |v1 i + C̃2 |v2 i + C̃3 |v3 i · · · + C̃n−2 |vn−2 i = n−2 X C̃i |vi i , i=1 |vn−j+1 i = C̆1 |v1 i + C̆2 |v2 i + C̆3 |v3 i · · · + C̆n−j |vn−j i = in ar nuevamente se comprueba si se cumple: C̃1 = C̃2 = C̃3 = · · · = C̃n−2 = 0. En caso contrario, se repite este procedimiento hasta encontrar un conjunto: {|v1 i , |v2 i , |v3 i · · · , |vn−j i} de vectores linealmente independientes. Esto es: C̆1 = C̆2 = C̆3 = · · · = C̆n−j = 0. Por lo tanto: n−j X C̆i |vi i . i=1 Ci |vi i ∀ |xi ∈ V , rP re |xi = n−j X lim Diremos entonces que {|v1 i , |v2 i , |v3 i , · · · , |vn−j i} forman una base para el espacio vectorial V. Es importante señalar, que la dimensión de V será el número de vectores linealmente independientes, que para este caso será: dimV = n − j. Entonces, se puede comprobar que, dado un vector arbitratio |xi ∈ V, se tiene que: i=1 ad o y el conjunto {C1 , C2 , C3 , · · · Cn−j } será único. Diremos que el número mı́nimo de vectores: |v1 i , |v2 i , |v3 i , · · · , |vn−j i que expanden V conforman una base de ese espacio vectorial, y que el número finito de cantidades C1 , C2 , C3 , · · · Cn−j , constituyen las componentes de |xi relativas a la base {|v1 i , |v2 i , · · · , |vn−j i}. Queda claro que el vector cero, |0i, es linealmente dependiente, y cualquier conjunto de vectores que lo contenga es un conjunto linealmente dependiente de vectores. De lo anteriormente expuesto se puede concretar la siguiente definición para una base de un espacio vectorial V: Definición: Un conjunto finito de vectores: B = {|v1 i , |v2 i , |v3 i , · · · , |vn i} ∈ V , se les denominará base del espacio vectorial V si los vectores: |v1 i , |v2 i , |v3 i , · · · , |vn i, son linealmente independientes y (obviamente) expanden V. Diremos entonces que B es un sistema generador de V. Bo rr Es fácil darse cuenta que si V lo expanden n vectores linealmente independientes, cualquier otro vector |xi ∈ V será linealmente dependiente. Igualmente, y fácilmente demostrable, es que todas las bases de un espacio vectorial V, de dimensión finita, tendrán el mismo número de elementos y ese número de elemento será la dimensión del espacio, es decir, la dimV = número n de vectores que forman una base de dicho espacio. La base más familiar en el espacio tridimensional real es el conjunto de conformado por tres vectores ortogonales y unitarios: {i, j, k}. Por lo tanto, como ya sabemos, la dimensión del espacio vectorial V = R3 es 3. Al conjunto de vectores {i, j, k} le podemos asociar tres ejes coordenados: {x, y, z} (decimos que le anclamos un sistema de coordenadas), de manera que las componentes C1 , C1 , C1 de un vector |vi respecto a esta base son las proyecciones de |vi a lo largo de los ejes coordenados. El concepto de base de un espacio vectorial es de fundamental importancia, ya que una vez especificada la base las operaciones sobre los elementos del espacio vectorial abstracto se pueden realizar ahora sobre los números que representan las componentes del vector con respecto a la base. Esto significa que cuando sumamos dos vectores de un espacio vectorial abstracto V, sus componentes (respecto a una base) son sumadas. Cuando multiplicamos un vector de V por un elemento α del campo K, todas sus componentes son multiplicadas por α. Adicionalmente, puede ser que dentro de un espacio vectorial V se puedan encontrar subespacios y dentro de esos subespacios un conjunto de vectores base. 106 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES Vale decir, si ∀ |xi ∈ V: |xi = C1 |v1 i · · · + Cn−j |vn−j i + Cn−j+1 |vn−j+1 i · · · Cn−k |vn−k i + Cn−k+1 |vn−k+1 i · · · Cn |vn i , {z } | {z } | {z } | S1 S3 S2 2.3.3. ar con: |xi = |x1 i + |x2 i + |x3 i y |x1 i ∈ S1 ; |x2 i ∈ S2 ; |x3 i ∈ S3 . Entonces diremos que V es la suma directa de S1 , S2 y S3 y lo denotaremos como: V = S1 ⊕ S2 ⊕ S3 . También es bueno señalar que, una vez fijada una base, las componentes de un vector según esa base, son únicas y que dada una base de un espacio vectorial, se pueden construir otras bases diferentes de ésta, como veremos más adelante. El determinante de Gram = hv1 |xi = hv2 |xi .. . lim C1 hv1 |v1 i + C2 hv1 |v2 i + C3 hv1 |v3 i + · · · + Cn hv1 |vn i C1 hv2 |v1 i + C2 hv2 |v2 i + C3 hv2 |v3 i + · · · + Cn hv2 |vn i .. . in Dado un conjunto de vectores: {|v1 i , |v2 i , |v3 i , · · · , |vn i} ∈ V, existe una forma directa de comprobar la independencia lineal del conjunto. Pn Dado un vector |xi ∈ V tendremos que |xi = i=1 Ci |vi i, entonces, al multiplicar por hvi |, resulta: C1 hvn |v1 i + C2 hvn |v2 i + C3 hvn |v3 i + · · · + Cn hvn |vn i = hvn |xi rP re donde las C1 , C2 , C3 , · · · Cn son las incógnitas. Por lo cual, para que este sistema tenga solución se impone que: hv1 |v1 i hv2 |v1 i .. . hv1 |v2 i hv2 |v2 i hvn |v1 i hvn |v2 i hv1 |v3 i hv2 |v3 i .. . hvn |v3 i ··· ··· hv1 |vn i hv2 |vn i .. . ··· hvn |vn i 6= 0 . Esto es, que el determinante de Gram17 sea distinto de cero implica que el conjunto: {|v1 i , |v2 i , · · · , |vn i} es linealmente independiente. La inversa también es cierta. Vamos a considerar un par de ejemplos de bases para algunos de los espacios vectoriales conocidos: ad o 1. El espacio vectorial Vn tendrá dimensión n y una de las posibles bases {|v1 i , |v2 i , |v3 i · · · , |vn i} será: |v1 i = (1, 0, 0, · · · , 0) , |v2 i = (0, 1, 0, · · · , 0) , |v3 i = (0, 0, 1, · · · , 0) , . . . , |vn−j i = (0, 0, 0, · · · , 1) . Esta base se conoce con el nombre de base canónica. Ortogonalidad y bases ortogonales Bo 2.3.4. rr 2. El espacio de polinomios, P n , de grado g ≤ n tendrá como una de las posibles bases al conjunto: 1, t, t2 , t3 , · · · , tn , porque cualquier polinomio de grado ≤ n podrá ser expresado como combinación lineal de estos n + 1 vectores. Más aún, el espacio de todos los polinomios, P ∞ , tendrá como una posible base al conjunto de funciones: 1, t, t2 , t3 , · · · , tn · · · . En este caso P ∞ será infinito dimensional. En un espacio vectorial con producto interno, dos vectores |e1 i ∧ |e2 i serán ortogonales si su producto interno se anula |e1 i ⊥ |e2 i ⇔ he2 |e1 i = 0 . Se denomina un conjunto ortogonal de vectores {|e1 i , |e2 i , |e3 i · · · , |en i} si: 0 2 hei |ej i = δij k|ej ik , i, j = 1, 2, 3, · · · , n y con δij = 1 si i 6= j si i = j 17 JORGEN PEDERSEN GRAM (1850-1916 Dinamarca) Matemático danés, que alternaba su actividad de gerente de una importante compañı́a de seguros con las matemáticas (Probabilidad, análisis numérico y teorı́a de números). Es conocido mayormente por el método de ortogonalización, pero se presume que no fue él quien primero lo utilizó. Aparentemente fue ideado por Laplace y utilizado también por Cauchy en 1836. Gram murió arrollado por una bicicleta a la edad de 61 años. 2.3. VARIEDADES LINEALES 107 2 ar y se denominará conjunto ortonormal si: k|ej ik = 1. Un conjunto ortogonal de vectores {|e1 i , |e2 i , |e3 i , · · · , |en i} ∈ V es linealmente independiente. Más aún, para el caso particular de un espacio euclidiano este conjunto conforma una base ortogonal para V. La demostración es sencilla, para un determinado espacio vectorial V una combinación lineal de los vectores: {|e1 i , |e2 i , |e3 i , · · · , |en i} se anula. Veamos: Pn Pn he1 | [Pi=1 Ci |ei i] = 0 ⇒ ⇒ C1 = 0 Pni=1 Ci δ1i = 0 n C δ = 0 ⇒ C C |e i] = 0 ⇒ he | [ 2 =0 n 2 Pni=1 i i Pni=1 i 2i X he | [ C |e i] = 0 ⇒ C δ = 0 ⇒ C 3 i i 3 =0 i=1 i=1 i 3i Ci |ei i = |0i ⇒ . . . . .. .. .. .. i=1 Pn P n hen | [ i=1 Ci |ei i] = 0 ⇒ ⇒ Cn = 0 i=1 Ci δni = 0 lim in con lo cual, queda claro que: {|e1 i , |e2 i , |e3 i , · · · , |en i} son un conjunto de vectores linealmente independientes. Si la dimensión de V es n (dim V = n) y tenemos n vectores linealmente independientes, entonces esos n vectores {|e1 i , |e2 i , |e3 i , · · · , |en i} forman una base ortogonal para V, y por lo tanto, las componentes de un vector en esa base se pueden expresar de manera simple: " n # n X X hej |xi hej |xi = ∀ |xi ∈ V ⇒ |xi = Ci |ei i ⇒ hej |xi = hej | Ci |ei i ⇒ Cj = 2 . he |e i j i k|ej ik i=1 i=1 2 En el caso de un conjunto ortonormal de vectores {|ê1 i , |ê2 i , |ê3 i · · · , |ên i} ∈ Vn , con k|êj ik = 1, las componentes de cualquier vector quedan determinadas de una forma todavı́a más simple y con consecuencias mucho más impactantes 2 n X Ci |êi i = n X hêi |xi |êi i ≡ rP re k|êi ik = 1 ⇒ Ci = hêi |xi ⇒ |xi = i=1 i=1 n X |êi i hêi | |xi . i=1 | {z 1 } Pn Es bueno recalcar la relación de cierre:18 i=1 |êi i hêi | = 1, con lo cual es trivial demostrar la fórmula de Parseval: ! n n n X X X ∗ ∀ |xi , |yi ∈ V ⇒ hy |xi ≡ hy| |êi i hêi | |xi = hy| êi i hêi | xi = hy |êi i hx |êi i , i=1 i=1 i=1 para el caso de |xi ≡ |yi se llega a la generalización del teorema de Pitágoras: 2 ad o hx |xi ≡ k|xik = n X 2 |hx |êi i| . i=1 Consideremos un par de ejemplos de bases ortogonales en espacio funcionales: 1. Funciones trigonométricas: Uno de los ejemplos más emblemáticos es el caso de las funciones conti∞ nuas, reales de variable real y definidas en [0, 2π], C[0,2π] , con el producto interno definido por: hf | gi = R 2π dx f (x) g(x). Ésto es, el conjunto de funciones {|ei i} representadas por: 0 rr |e0 i = 1, |e2n−1 i = cos(nx) y |e2n i = sen(nx), con n = 1, 2, 3, · · · Bo Es claro que {|e1 i , |e2 i , |e3 i , · · · , |en i , · · · } es un conjunto de funciones ortogonales por cuanto: R 2π R 0 dx sen(nx)sen(mx) = 0 2π 0 si n = 6 m ⇒ dx cos(nx)sen(mx) = 0 R 02π dx cos(nx) cos(mx) = 0 0 R 2π 2 hen |em i = δnm k|en ik ⇒ dx = 2π si n = m = 0 0 R 2 2π si n = m ⇒ k|en ik dx cos2 (nx) = π si n = m = 2k − 1 0 R 2π dx sen2 (nx) = π si n = m = 2k 0 18 La relación de cierre expresa una propiedad importante de los vectores base: si los |êi i se multiplican por la derecha por los hêi |, el resultado, luego de sumar para todos los vectores, es el operador lineal unitario. Se dice también que el conjunto de vectores {|êi i} forman un conjunto completo. 108 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES con k = 1, 2, 3, · · · . Podremos construir una base ortonormal de funciones: {|ê1 i , |ê2 i , |ê3 i , · · · , |ên i , · · · } de la forma: 1 |ê2n−1 i = √ cos(nx) π y 1 |ê2n i = √ sen(nx). π en términos de la base i=0 i = 2n − 1 i = 2n in Por lo tanto, dada una función definida en el intervalo [0, 2π], podremos expresarla ortogonal como: R 2π si 0 dx f (x) = C0 ∞ R X 2π |f i = Ci |ei i ⇒ Ci = hei |f i = dx f (x) cos(nx) = C2n−1 si 0 i=1 R 2π dx f (x) sen(nx) = C si 2n 0 ar 1 |ê0 i = √ , 2π donde los Ci son los coeficientes de Fourier. Pn (x) = 1 dn 2 (x − 1)n , n!2n dxn lim 2. Polinomios de Legendre: Otro de los ejemplos tı́picos son los llamados polinomios de Legendre, Pn (x), definidos en el intervalo [−1, 1]. Estos polinomios pueden ser generados a partir de la Fórmula de Rodrigues:19 n = 0, 1, 2, ..... con P0 (x) = 1. Algunos de estos polinomios son los siguientes: x 1 1 (3x2 − 1) , P3 (x) = (5x2 − 3) , P4 (x) = (35x4 − 30x2 + 3) , . . . 2 2 8 rP re P1 (x) = x , P2 (x) = Como veremos más adelante, los polinomios de Legendre son solución de la ecuación diferencial: (1 − x2 ) y 00 − 2x y 0 + λ(λ + 1)y = 0 . ad o Es fácil comprobar que los polinomios de Legendre |Pα >= Pα (x) son mutuamente ortogonales con un producto interno definido como: Z 1 2 hPn |Pm i = Pn (x)Pm (x)dx = δnm , 2n + 1 −1 y con una norma definida por: Z 2 1 Pn2 (x)dx = kPn k = hPn |Pn i = −1 2 . 2n + 1 rr Por lo tanto, cualquier función en el intervalo [−1, 1] puede ser expresada en esa base. f (x) = |f i = ∞ X ak |Pk i = k=0 ∞ X hPk |F i |Pk i . hPk |Pk i k=0 Bo Si f (x) es en particular un polinomio, entonces: f (x) = m X n=0 bn x n = ∞ X k=0 ak |Pk i = ∞ X an Pn (x) , n=0 y los coeficientes an se determinan fácilmente a través de un sistema de ecuaciones algebraicas. Por ejemplo, para el caso de f (x) = x2 tendremos: f (x) = x2 = a0 P0 (x) + a1 P1 (x) + a2 P2 (x) 1 2 1 = a0 + a1 x + a2 (3x2 − 1) = P0 (x) + P2 (x) . 2 3 3 19 BENJAMIN OLINDE RODRIGUES (1794 Burdeos, Francia - 1851, Parı́s Francia) Banquero, matemático y activista polı́tico socialista francés durante la revolución francesa. De origen judı́o, y cuyas contribuciones fundamentales como la fórmula para la generación de polinomios de Legendre, permanecieron olvidadas por mucho tiempo. 2.3. VARIEDADES LINEALES 109 Quedará como ejercicio demostrar que para el caso de: r ∞ ∞ X 1 − x X hPk |gi 2 Pn (x) g(x) = = |Pk i = P0 (x) − 2 , 2 hPk |Pk i 3 (2n − 1)(2n + 3) n=1 k=0 con: hPk |gi = −1 g(x)Pk (x) dx = R 1 q 1−x −1 2 Pk (x) dx. Ortogonalización ar 2.3.5. R1 lim in Hemos visto que un conjunto de vectores ortogonales forman una base para un espacio vectorial. Ahora bien, siempre es posible construir un conjunto de vectores ortogonales a partir de un conjunto de vectores linealmente independientes. El método de “ortogonalización” se conoce como el método de Gram-Schmidt20 , en honor de estos dos matemáticos alemanes que NO lo inventaron pero hicieron famoso al método que, al parecer, se le debe al matemático francés P.S. Laplace. Consideremos, por ejemplo, un conjunto de vectores linealmente independientes, {|v1 i , |v2 i , |v3 i , · · · , |vn i} que expanden un espacio euclidiano real de dimensión finita, En . Entonces, siempre se podrá construir un conjunto ortogonal de vectores, {|e1 i , |e2 i , |e3 i , · · · , |en i}, que también expandan En , de la siguiente forma: |e1 i ≡ |v1 i hv2 |e1 i he1 |e1 i |e3 i ≡ |v3 i − hv3 |e2 i he2 |e2 i |e4 i ≡ |v4 i − hv4 |e3 i he3 |e3 i .. . |e2 i − \ hv3 |e1 i he1 |e1 i he2 |e1 i = 0 |e1 i |e3 i − hv4 |e2 i he2 |e2 i |e2 i − hv4 |e1 i he1 |e1 i |e1 i \ he3 |e1 i = 0 he3 |e2 i = 0 \ he4 |e1 i = 0 he4 |e2 i = 0 he4 |e3 i = 0 .. . hvn |ei i i=1 hei |ei i Pn−1 |ei i ad o |en i ≡ |vn i − |e1 i rP re |e2 i ≡ |v2 i − \ he4 |e1 i = 0 he4 |e2 i = 0 he4 |e3 i = 0 .. . he4 |en−1 i = 0 2.3.6. rr Ası́, siempre es posible construir una base ortogonal a partir de un conjunto de vectores linealmente independientes y una definición de producto interno. Esta base será única en En –para cada definición de producto interno– y si existe otra, sus vectores serán proporcionales. Más aún, cada espacio vectorial Vn de dimensión finita tendrá una base ortogonal asociada21 . Ejemplos Independencia lineal Bo Presentamos otros ejemplos sobre dependencia/independencia lineal. 1. Si consideramos el espacio vectorial V = {|v1 i , |v2 i , |v3 i , · · · , |vn i} serán ejemplos de independencia lineal: |vk i ≡ f (t) = tk , para k = 1, 2, 3, · · · . Es claro que un polinomio de Pngrado n + 1, no podrá ser expresado en términos un polinomio de grado n, en otras palabras: tn+1 6= i=0 Ci ti . |vk i ≡ f (t) = eak t , con a1 , a2 , a3 , · · · coeficientes constantes. También salta a la vista que no podremos expresar una de esas funciones exponenciales como una combinación lineal. 20 ERHARD SCHMIDT (1876, Estonia - 1959 Alemania). Matemático alemán fundador del primer instituto de matemáticas aplicadas de Berlı́n. Alumno de Hilbert, Schmidt hizo sus mayores contribuciones en el campo de ecuaciones integrales y teorı́a de funciones en el espacio de Hilbert. 21 Hemos construido la base ortogonal para un espacio de dimensión finita, pero el procedimiento es válido para espacios de dimensión infinita 110 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES 2. Si consideramos: |v1 i = cos2 (t), |v2 i = sen2 (t) y |v3 i = 1, es claro que |v1 i , |v2 i y |v3 i son linealmente dependientes por cuanto: |v1 i + |v2 i = |v3 i. Nótese que si: |v1 i = cos(t), |v2 i = sen(t) y |v3 i = 1, entonces |v1 i , |v2 i y |v3 i serán vectores linealmente independientes. 3. Consideremos ahora otro ejemplo en P 3 : |x1 i = 1 , |x2 i = x − 1 , |x3 i = x2 , |x4 i = x2 + 2x + 1 . ar Podemos ver que este conjunto es linealmente dependiente ya que siempre podremos expresar: |x4 i = 3 |x1 i + 2 |x2 i + |x3 i . in Ortogonalización Consideremos un par de ejemplos del método de ortogonalización sencillos, y uno más elaborado: y si elegimos |e1 i ≡ |v2 i, entonces, |e2 i vendrá dado por: |e2 i ≡ |v1 i − hv1 |e1 i |e1 i ⇒ |e2 i ≡ he1 |e1 i lim 1. Para el caso de R2 es muy claro. Si tenemos dos vectores |v1 i y |v2 i linealmente independientes: 1 0 |v1 i = , |v2 i = , 1 1 1 1 − 0 1 = 1 0 , rP re tal y como se esperaba, el otro vector ortogonal es el canónico. 2. Un subespacio de V4 , expandido por los siguientes vectores 2 1 0 3 |v1 i = −1 , |v2 i = 1 , 3 2 ad o tendrá una base ortogonal asociada dada por: −1 1 hv2 |e1 i |e1 i ≡ |v3 i = 0 ; |e2 i ≡ |v2 i − he1 |e1 i |e1 i = 0 −1 1 |v3 i = 0 , 0 1 −1 2 1 1 0 − (−1) 0 = 1 1 3 0 3 rr 1 3 hv1 |e1 i hv1 |e2 i − 9 |e3 i ≡ |v1 i − |e2 i − |e1 i = −1 he2 |e2 i he1 |e1 i 12 2 Bo 5 4 5 1 −1 1 4 1 − (1) = 0 7 1 − 4 3 0 − 14 . Y la base ortonormal asociada será: −1 √ |e1 i 2 3 1 ; |ê2 i = p |e2 i |ê1 i = p = = 0 2 6 he1 |e1 i he2 |e2 i 0 √ 1 1 ; |ê3 i 1 3 1 1 |e3 i 1 = = he3 |e3 i 2 −7 5 − 15 . En este ejemplo hemos mostrado que {|e1 i , |e2 i , |e3 i} son linealmente independientes y, por lo tanto, base de un subespacio de V4 . Cabrı́a preguntarse: ¿Cómo construimos un cuarto vector, linealmente independiente a los anteriores, que expanda todo V4 ? 2.3. VARIEDADES LINEALES 111 3. Suponga el espacio de polinomios, P n , de grado g ≤ n definidos en el intervalo [−1, 1]. Este espacio vectorial tendrá como una de las posibles bases al conjunto {|πi i} = 1, t, t2 , t3 , · · · , tn con el producto interno definido por:22 Z 1 hπi | πj i = dt πi (t)πj (t) . −1 Procederemos a construir una base ortogonal {|Pi i}, y tomaremos como vector de inicio a |π0 i: El siguiente vector será: hπ1 |P0 i |P0 i = t ⇐ hP0 |P0 i hP |P i = R 1 dt = 2 0 0 −1 in |P1 i ≡ |π1 i − R1 hπ1 |P0 i = −1 dt t = 0 ar |P0 i ≡ |π0 i = 1 . El siguiente: lim R1 hπ2 |P0 i = −1 dt t2 = 23 R1 hπ2 |P0 i 1 hπ2 |P1 i 2 |P1 i − |P0 i = t − ⇐ |P2 i ≡ |π2 i − hπ2 |P1 i = −1 dt t3 = 0 hP1 |P1 i hP0 |P0 i 3 R1 hP1 |P1 i = −1 dt t2 = 32 hπ3 |P2 i hπ3 |P1 i hπ3 |P0 i |P2 i − |P1 i − |P0 i hP2 |P2 i hP1 |P1 i hP0 |P0 i R1 3 hπ3 |P0 i = −1 dt t = 0 R1 hπ3 |P1 i = −1 dt t4 = 52 3 = t3 − t ⇐ R1 5 hπ3 |P2 i = −1 dt t3 [t2 − 13 ] = 0 R1 8 hP2 |P2 i = −1 dt [t2 − 13 ]2 = 45 ≡ |π3 i − ad o |P3 i rP re Para el cuarto: Queda como ejercicio comprobar la ortogonalidad de los vectores recién calculados: hP0 |P1 i = hP1 |P2 i = hP2 |P3 i = · · · = 0 . rr Esta base ortogonal está formada por los polinomios de Legendre, discutidos en la sección 2.3.4. Es decir, si ortogonalizamos una base de monomios {|πi i} mediante la definición de producto interno: hf | gi = R1 dx f (x) g(x), obtendremos la base de polinomios ortogonales de Legendre. −1 Bo Podemos resumir los cálculos anteriores, construyendo también la base ortonormal a partir de los monomios {|πi i} como se muestra a continuación: E |πn i |Pn i P̂n 1 1 t t t 2 2 t − √1 q2 3 2 1 3 t3 t3 − 53 t t4 .. . t4 − 76 t2 + .. . 22 En q 1 5 2q 2 3 35 3 8 1 q2 1 2 7 2 t 2 3t − 1 5t3 − 3t 35t4 − 30t2 + 3 .. . este punto es importante señalar la importancia de la definición de producto interno. Si esta definición hubiera sido hf | gi = √ R1 f (x) g(x) dx f (x) g(x) 1 − x2 o hf | gi = −1 dx √ las bases correspondientes a estas definiciones de producto interno serı́an distintas. −1 2 R1 1−x 112 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES 2.3.7. Practicando con Maxima Independencia Lineal En 2.3.1 vimos que si en la ecuación |0i = C1 |v1 i + C2 |v2 i + C3 |v3 i · · · + Cn |vn i con todos los Ci = 0, entonces se dirá que el conjunto de vectores son linealmente independientes. Para el primer ejemplo de esa sección se obtuvo el siguiente sistema de ecuaciones: +2C2 +C2 +3C2 −C3 +C3 = 0 = 0 = 0 = 0 ar C1 3C1 −C1 2C1 in que procedemos a resolver usando el comando linsolve: (%i1) linsolve([C1+2*C2-C3=0, 3*C1+C3=0, -C1+C2=0, 2*C1+3*C2=0], [C1,C2,C3,C4]); lim solve: dependent equations eliminated: (4) ( %o1) [C1 = 0, C2 = 0, C3 = 0, C4 = %r1 ] Bases para espacios vectoriales En este ejercicio aprenderemos a calcular una base a partir de un conjunto de vectores perteneciente a un determinado espacio vectorial. Por ejemplo, si en R5 tenemos el siguiente conjunto de vectores: rP re |v1 i = (1, 2, 3, 4, 5) , |v2 i = (0, −1, 1, 2, 3) , |v3 i = (3, 2, 1, 0, −1) , |v4 i = (−4, −3, −2, −1, 0) . (%i1) v1:[1,2,3,4,5]; v2:[0,-1,1,2,3]; v3:[3,2,1,0,-1]; v4:[-4,-3,-2,-1,0]; ( %o1) ( %o2) ( %o3) ( %o4) [1, 2, 3, 4, 5] [0, −1, 1, 2, 3] [3, 2, 1, 0, −1] [−4, −3, −2, −1, 0] Con los vectores dados construimos la siguiente matriz ad o (%i5) M:matrix(v1,v2,v3,v4); 1 2 3 4 5 0 −1 1 2 3 ( %o5) 3 2 1 0 −1 −4 −3 −2 −1 0 rr Como veremos más adelante, el Rango de una matriz indica el número máximo de vectores fila o columna linealmente independientes. (%i6) rank(M); Bo ( %o6) 3 Podemos aplicar el método de eliminación gaussiana a la matriz M para obtener una nueva matriz escalonada. El cálculo además se hace normalizando el primer elemento no nulo de cada fila. Esto se logra con el comando echelon(M). (%i7) echelon(M); 1 0 1 23 3 0 1 −1 −2 ( %o7) 5 0 0 1 3 0 0 0 0 − 13 −3 7 3 0 Por lo tanto, cada fila de la matriz anterior conformará un conjunto de vectores linealmente independiente. Los podemos aislar de la matriz con el comando row(M,i), que devolverá la i−ésima fila de la matriz M. 2.3. VARIEDADES LINEALES 113 (%i8) e1:row(%o7,1); ( %o8) 1 1 3 2 3 − 13 0 (%i9) e2:row(%o7,2); ( %o9) 0 −1 1 −2 −3 0 1 5 3 7 3 Es trivial verificar que el conjunto: {e1, e2, e3} es linealmente independientes. solve: dependent equations eliminated: (3) ( %o11) [[α = 0, β = 0, γ = 0]] lim (%i11)solve(alpha*[1,2/3,1/3,0,-1/3]+beta*[0,1,-1,-2,-3]+ gamma*[0,0,0,5/3,7/3],[alpha,beta,gamma]); in ( %o10) 0 ar (%i10)e3:row(%o7,3); Consideremos los vectores a = (1, 3) y b = (−1, 1) ¿Serán linealmente independientes? ( %o12) [[α = 0, β = 0]] rP re (%i12)solve(alpha*[1,3]+beta*[-1,1],[alpha,beta]); Los vectores a = (1, 2, 3) y b = (4, 8, 12) ¿Serán linealmente independientes? (%i13)solve(alpha*[1,2,3]+beta*[4,8,12],[alpha,beta]); solve: dependent equations eliminated: (2 3) ( %o13) [[α = −4 %r4 , β = %r4 ]] ad o Aquı́ α = −4β. Sea ahora {ei } = {(1, 1, 1), (1, 2, 1), (0, 0, 2)} una base para R3 . Vamos a calcular las componentes del vector a = (3, 2, 1) respecto de esa base. Primero verifiquemos si efectivamente es una base: (%i14)solve(alpha*[1,1,1]+beta*[1,2,1]+gamma*[0,0,2],[alpha,beta,gamma]); rr ( %o14) [[α = 0, β = 0, γ = 0]] (%i15)solve([3,2,1]-ax*[1,1,1]-ay*[1,2,1]-az*[0,0,2],[ax,ay,az]); Bo ( %o15) [[ax = 4, ay = −1, az = −1]] Por lo tanto, a = 4e1 − e2 − e3 . En la base canónica las componentes del vector a serán: (%i16)solve([3,2,1]-ax*[1,0,0]-ay*[0,1,0]-az*[0,0,1],[ax,ay,az]); ( %o16) [[ax = 3, ay = 2, az = 1]] Es decir, a = 3i + 2j + k. (%i17)kill(all)$ 114 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES Ortogonalización con Maxima ortogonal a partir del siguiente conjunto de vectores ; −1 1 |v3 i = 0 . 0 ar Anteriormente hicimos los cálculos para hallar una base linealmente independientes: 2 1 0 3 |v1 i = −1 ; |v2 i = 1 3 2 La función gramschmidt(x) es la que ejecuta el algoritmo de ortogonalización de Gram-Schmidt sobre el objeto x. Si x es una matriz el algoritmo actúa sobre sus filas. Antes de usar la función es necesario cargar la librerı́a eigen. ([-1, 1, 0, 0], [2, 0, 1,3], [1,3, -1,2]); 0 0 1 3 −1 2 lim (%i2) v:matrix −1 1 ( %o2) 2 0 1 3 in (%i1) load("eigen")$ Notemos que el vector |v3 i es el que hemos puesto en la primera fila de la matriz. Ahora procedemos al cálculo: rP re (%i3) e:gramschmidt(v); 5 5 7 1 ( %o3) [−1, 1, 0, 0] , [1, 1, 1, 3] , 2 , 2 , − 2 , − 2 2 2 2 2 El resultado viene en forma de una lista: [e[1], e[2], e[3]]. Simplificando resulta: (%i4) e:expand(%); 5 5 7 1 ( %o4) [−1, 1, 0, 0] , [1, 1, 1, 3] , , , − , − 4 4 4 4 Podemos verificar que son ortogonales: (%i5) map(innerproduct, [e[1], e[2], e[3]], [e[2], e[3], e[1]]); ad o ( %o5) [0, 0, 0] Normalizamos ahora cada uno de los vectores: Bo rr (%i6) e[1]/sqrt(innerproduct(e[1],e[1])); 1 1 ( %o6) − √ , √ , 0, 0 2 2 (%i7) e[2]/sqrt(innerproduct(e[2],e[2])); " √ # 1 1 1 3 √ , √ , √ , ( %o7) 2 2 3 2 3 2 3 (%i8) e[3]/sqrt(innerproduct(e[3],e[3])); 1 1 7 1 ( %o8) , ,− ,− 2 2 10 10 La función gramschmidt(x,F) nos permite definir un producto interno diferente a innerproduct. Veamos como se hace para el otro ejemplo donde el conjunto de vectores linealmente independientes estaba dado por: 1, t, t2 , t3 , · · · , tn . (%i9) producto(f,g):=integrate(f*g, t, a, b); Z ( %o9) producto(f,g) := b f g dt a (%i10)e:gramschmidt ([1, t, t^2,t^3,t^4], producto), a= -1, b=1; 2.3. VARIEDADES LINEALES 115 # 3 t2 − 1 t 5 t2 − 3 35 t4 − 30 t2 + 3 , , ( %o10) 1, t, 3 5 35 (%i11)e:expand(e); 1 3t 6 t2 3 ( %o11) 1, t, t2 − , t3 − , t4 − + 3 5 7 35 " (%i12)map(producto, [e[1], e[2], e[3]], [e[2], e[3], e[1]]), a= -1, b=1; ( %o12) [0, 0, 0] in Para normalizar hacemos lo siguiente: ar Verifiquemos si son ortogonales: (%i13)a: -1$ b:1$ lim (%i14)e[1]/sqrt(producto(e[1], e[1])); 2.3.8. ad o rP re 1 ( %o14) √ 2 (%i15)e[2]/sqrt(producto(e[2], e[2])); √ 3t ( %o15) √ 2 (%i16)e[3]/sqrt(producto(e[3], e[3])); √ 3 5 t2 − 13 ( %o16) 3 22 (%i17)e[4]/sqrt(producto(e[4], e[4])); √ 5 7 t3 − 35t ( %o17) 3 22 Ejercicios 1. Diga si los siguientes conjuntos de vectores en P 3 son o no linealmente independientes. a) |x1 i = 2x , |x2 i = x2 + 1 , b) |x1 i = x(x − 1) , |x2 i = x , |x3 i = x + 1 , |x3 i = x3 , |x4 i = x2 − 1. |x4 i = 2x3 − x2 . rr 2. Probar que los polinomios: |x1 i = 1 , |x2 i = x , |x3 i = 23 x2 − Expresar |pi = x2 , |qi = x3 en función de esa base. 1 2 y |x4 i = 52 x3 − 32 x, forman una base en P4 . Bo 3. Encontrar la proyección perpendicular de los siguientes vectores en C[−1,1] (espacio de funciones continuas en el intervalo [-1,1]) al subespacio generado por los polinomios: {1, x, x2 − 1}. Calcular la distancia de cada una de estas funciones al subespacio mencionado. a) f (x) = xn , n entero. b) f (x) = sen(x). c) f (x) = 3x2 . 4. Utilizando el método de Gram-Schmidt encuentre una base ortonormal para los siguientes conjuntos de vectores: a) |v1 i = (1, 0, 1) , |v2 i = (0, 1, 1) y |v3 i = (1, 0, 0). En R3 . b) |v1 i = (2, −4, 5, 2) , |v2 i = (−6, 5, −1, −6) y |v3 i = (−10, 13, −4, −3). En R4 . 116 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES 5. Utilizando Maxima reproduzca el ejemplo 3 que expusimos en la página 111. Es decir, suponga el espacio de polinomios, P n , de grado g ≤ n definidos en el intervalo [−1, 1]. Este espacio vectorial tendrá como una de las posibles bases al conjunto {|πi i} = 1, t, t2 , t3 , · · · , tn , pero en este caso con el producto interno definido √ R1 por: hf | gi = −1 dx f (x) g(x) 1 − x2 . Encuentre la base ortogonal correspondiente. A esta nueva base se le conoce como polinomios de Chebyshev de segunda especie23 . ar 6. Otra vez,R utilizando Maxima, reproduzca el ejercicio anterior, pero con la definición de producto interno: 1 (x) g(x) hf | gi = −1 dx f √ . A esta nueva base se le conoce como polinomios de Chebyshev de primera especie. 1−x2 7. Resuelva los problemas 1-4 utilizando Maxima. Aproximación de funciones in 2.4. Complementos ortogonales y descomposición ortogonal rP re 2.4.1. lim Armados de los conocimientos previos podemos pasar a aplicarlos en un intento de aproximar funciones. La aproximación de una función tiene varias facetas y seguramente en cursos anteriores hemos hecho este tipo de aproximaciones una buena cantidad de veces cuando necesitábamos convertir una expresión, que nos resultaba muy complicada, en otras más sencillas y casi equivalentes. Por ejemplo, cuando aplicamos la aproximación lineal: f (x) ≈ f (x0 ) + f 0 (x0 )(x − x0 ), con x muy cercano a x0 ¿Cuántas veces no hemos utilizado la aproximación: sen(x) ≈ x? También aproximamos funciones cuando en el laboratorios nos veı́amos en la necesidad de “ajustar con la mejor curva” una serie de puntos experimentales. Consideremos primero algunos conceptos importantes. Sea un subespacio S ⊂ V. Un elemento |v̄i i ∈ V se dice ortogonal a S si hsk |v̄i i = 0 ∀ |sk i ∈ S, es decir, es ortogonal a todos los elementos de S. El conjunto {|v̄1 i , |v̄2 i , |v̄3 i , · · · , |v̄m i} de todos los elementos ortogonales a S, se denomina S−perpendicular y se denota como S⊥ . Es fácil demostrar que S⊥ es un subespacio, aún si S no lo es. Dado un espacio euclidiano de dimensión infinita V : {|v1 i , |v2 i , |v3 i , · · · , |vn i , · · · } y un subespacio S ⊂ V con dimensión finita: dim S = m. Entonces, ∀ |vk i ∈ V puede expresarse como la suma de dos vectores |sk i ∈ ⊥ S ∧ |sk i ∈ S⊥ . Esto es: ⊥ ⊥ |vk i = |sk i + |sk i , |sk i ∈ S ∧ |sk i ∈ S⊥ . ad o La norma de |vk i se calcula a través del teorema de Pitágoras generalizado: 2 2 k|vk ik = k|sk ik + |sk i ⊥ 2 . ⊥ rr La demostración es sencilla. Primero se prueba que la descomposición ortogonal |vk i = |sk i + |sk i es siempre posible. Para ello recordamos que S ⊂ V es dedimensión finita, por lo tanto existe una base ortonormal ⊥ {|ê1 i , |ê2 i , |ê3 i , · · · , |êm i} para S. Es decir, dado un |vk i definimos los elementos |sk i y |sk i como sigue: |sk i = m X hvk |êi i |êi i ∧ ⊥ |sk i = |vk i − |sk i . i=1 Bo Nótese que hvk |êi i |êi i es la proyección de |vk i a lo largo de |êi i y |sk i se expresa como la combinación lineal de la base de S, por lo tanto, está en S. Por otro lado: m X ⊥ ⊥ hsk |êi i = hvk −sk |êi i = hvk |êi i − hsk |êi i = hvk |êi i − hvk |êj i hêj | |êi i = 0 ⇒ |sk i ⊥ |êj i , j=1 ⊥ lo cual indica que |sk i ∈ S⊥ . ⊥ Podemos ir un poco más allá y ver que la descomposición |vk i = |sk i + |sk i es única en V. Para ello suponemos que existen dos posibles descomposiciones, vale decir: |vk i = |sk i + |sk i ⊥ ∧ |vk i = |tk i + |tk i ⊥ 23 https://en.wikipedia.org/wiki/Chebyshev_polynomials , ⊥ con |sk i ∧ |tk i ∈ S ∧ |sk i ⊥ ∧ |tk i ∈ S⊥ . 2.4. APROXIMACIÓN DE FUNCIONES 117 Por lo tanto: ⊥ ⊥ ⊥ ⊥ |vk i − |vk i = |sk i + |sk i − |tk i + |tk i = 0 ⇒ |sk i − |tk i = |tk i − |sk i . ⊥ ⊥ 2 k|vk ik = |sk i + |sk i ⊥ 2 ar Pero |sk i − |tk i ∈ S, es decir, ortogonal a todos los elementos de S⊥ y |sk i − |tk i = |tk i − |sk i . Con lo cual |sk i − |tk i ≡ |0i, que es el único elemento que es ortogonal a si mismo y en consecuencia la descomposición ⊥ |vk i = |sk i + |sk i es única. Finalmente, con la definición de norma: ⊥ ⊥ ⊥ ⊥ 2 = hsk | + hsk | |sk i + |sk i = hsk |sk i +⊥ hsk |sk i = k|sk ik + |sk i |sk i ∈ S ⇒ |sk i = m X . in Ası́, dado Sm un subespacio de V de dimensión finita y dado un |vk i ∈ V el elemento: 2 hvk |ei i |ei i , lim i=1 será la proyección de |vk i en S. En general, dado un vector |xi ∈ V y un subespacio de V con dimensión finita, Sm ⊂ V y dim S = m, entonces la distancia de |xi a Sm es la norma de la componente de |xi, perpendicular a Sm . Más aún, esa distancia será mı́nima y |xiSm la proyección de |xi, en Sm será el elemento de Sm más próximo a |xi y, por la mejor aproximación. Condiciones para la aproximación de funciones rP re 2.4.2. Sea V = {|v1 i , |v2 i , |v3 i , · · · , |vn i , · · · } un espacio euclidiano de dimensión infinita, y un subespacio Sm ⊂ V, con dimensión finita, dim S = m, y sea un elemento |vi i ∈ V. La proyección de |vi i en Sm , |si i , será el elemento de Sm más próximo a |vk i. En otras palabras: k|vi i − |si ik ≤ k|vi i − |ti ik ∀ |ti i ∈ S . La demostración se sigue ası́: 2 2 2 |vi i − |ti i = (|vi i − |si i) + (|si i − |ti i) ⇒ k|vi i − |ti ik = k|vi i − |si ik + k|si i − |ti ik , ⊥ ad o ya que |vi i − |si i = |sk i ∈ S⊥ ∧ |si i − |t i i ∈ S, y vale el teorema de Pitágoras generalizado. Ahora bien, como: 2 2 2 k|si i − |ti ik ≥ 0 ⇒ k|vi i − |ti ik ≥ k|vi i − |si ik ⇒ k|vi i − |ti ik ≥ k|vi i − |si ik . J rr En la sección 2.3.4 consideramos la expansión de funciones continuas, reales de variable real, definidas en [0, 2π], ∞ C[0,2π] , mediante funciones trigonométricas y con el producto interno definido por: Z hf | gi = 2π dx f (x) g(x) . 0 Bo En ese entonces consideramos, para ese espacio vectorial, una base ortogonal definida por: |e0 i = 1, |e2n−1 i = cos(nx) y |e2n i = sen(nx) , con n = 1, 2, 3, · · · Por lo tanto, cualquier función definida en el intervalo [0, 2π] puede expresarse en términos de esta base como mostramos a continuación: ∞ X |f i = Ci |ei i . i=1 Los Ci son los coeficientes de Fourier. Es decir, cualquier función puede ser expresada como una serie de Fourier de la forma: ∞ X 1 [ak cos(kx) + bk sen(kx)] , f (x) = a0 + 2 k=1 118 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES donde: Z Z 1 2π 1 2π dx f (x) cos(kx) ∧ bk = dx f (x)sen(kx) . π 0 π 0 Es claro que para la aproximación de funciones por funciones trigonométricas cuyos coeficientes son los coeficien∞ tes de Fourier constituyen la mejor aproximación. Por lo tanto, de todas las funciones F(x) ∈ C[0,2π] las funciones trigonométricas, T (x) minimizan la desviación cuadrática media: Z 2π Z 2π 2 2 dx (f (x) − P(x)) ≥ dx (f (x) − T (x)) . ak = 2.4.3. 0 ar 0 El método de mı́nimos cuadrados |xi = c |1i ⇒ c = lim in Una de las aplicaciones más importantes en la aproximación de funciones es el método de mı́nimos cuadrados. La idea es determinar el valor más aproximado de una cantidad fı́sica, c, a partir de un conjunto de medidas experimentales: {x1 , x2 , x3 , · · · , xn }. Para ello asociamos ese conjunto de medidas con las componentes de un vector |xi ≡ (x1 , x2 , x3 , · · · , xn ) en Rn y supondremos que su mejor aproximación, que llamaremos c |1i ≡ (c, c, c, · · · , c), será la proyección perpendicular de |xi (las medidas) sobre el subespacio generado por |1i. Esto es: x1 + x2 + x3 , · · · + xn hx |1i = , h1 |1i n que no es otra cosa que construir -de una manera sofisticada- el promedio aritmético de las medidas. Es claro que la proyección perpendicular de |xi sobre |1i hace mı́nima la distancia entre el subespacio perpendicular generado por |1i y el vector |xi, con ello también hará mı́nimo su cuadrado: n X rP re 2 2 [d (|xi , c |1i)] = k|x − cik = hx − c |x − ci = 2 (xi − c) . i=1 Esta manera sofisticada, que se deriva del formalismo utilizado, muestra el significado del promedio aritmético como medida más cercana al valor “real” de una cantidad obtenida a partir de una serie de medidas experimentales. Obviamente, este problema se puede generalizar para el caso de dos (o n) cantidades si extendemos la dimensión del espacio y los resultados experimentales se expresarán como un vector de 2n dimensiones |xi = (x11 , x12 , x13 , · · · x1n , x21 , x22 , x23 , · · · x2n ) , ad o mientras que los vectores que representan las cantidades más aproximadas serán: c1 |11 i = c1 ,c1 ,c1 , · · · , c1 , 0, 0, 0, · · · 0 {z }| {z } | n ∧ c2 |12 i = (0, 0, 0, · · · , 0, c2 , c2 c2 , · · · c2 ) . n Ahora {|11 i , |12 i} expanden un subespacio vectorial sobre el cual |xi tiene como proyección ortogonal a: c1 |11 i +c2 |12 i y consecuentemente |x−c1 11 − c2 12 i será perpendicular a {|11 i , |12 i}. Por lo tanto: hx |11 i x11 + x12 + x13 , · · · + x1n = h11 |11 i n rr c1 = ∧ c2 = hx |12 i x21 + x22 + x23 , · · · + x2n = . h12 |12 i n Bo Quizá la consecuencia más conocida de esta forma de aproximar funciones es el “ajuste” de un conjunto de datos experimentales {(x1 , y1 ) , (x2 , y2 ) , (x3 , y3 ) , · · · , (xn , yn )} a la ecuación de una recta y = cx. En este caso, el planteamiento del problema se reduce a encontrar el vector c|xi, en el subespacio S (|xi), que esté lo más cercano posible al vector |yi. Como en el caso anterior, queremos que la distancia entre |yi y su valor más aproximado c |xi sea la menor 2 posible. Por lo tanto, k|cx − yik será la menor posible y |cx − yi será perpendicular a S (|xi), por lo que: hx |cx − yi = 0 ⇒ c = hx |yi x1 y1 + x2 y2 + x3 y3 + · · · + xn yn = . hx |xi x21 + x22 + x23 + · · · + x2n Si la recta a “ajustar” es y = cx + b el procedimiento será uno equivalente: proyectar sobre los vectores y obtener ecuaciones. Si representamos |bi = b |1i, tendremos: Pn Pn Pn 2 hx |yi = c hx |xi + hx |bi ⇒ i=1 xi yi = c i=1 xi + b i=1 xi |yi = c |xi + |bi ⇒ Pn Pn hb |yi = c hb |xi + hb |bi ⇒ i=1 yi = c i=1 xi + bn 2.4. APROXIMACIÓN DE FUNCIONES 119 Interpolación polinomial de puntos experimentales in 2.4.4. ar Que no es otra cosa que un sistema de dos ecuaciones con dos incógnitas: c y b. Por simplicidad y conveniencia continuaremos con el análisis del caso b = 0, vale decir, aproximando las medidas experimentales a una recta que pase por el origen de coordenadas y = cx. El lector podrá extender el procedimiento para caso b 6= 0. Para tratar de entender (y extender) lo antes expuesto, consideremos tres ejemplos que muestran la versatilidad del método y la ventaja de disponer de una clara notación. Primeramente, mostraremos el caso más utilizado para construir el mejor ajuste lineal a un conjunto de datos experimentales. Buscaremos la mejor recta que describe ese conjunto de puntos. Luego mostraremos la aplicación del método para buscar la mejor función multilineal, es decir, que ajustaremos la mejor función de n variables con una contribución lineal de sus argumentos: y = y(x1 , x2 , · · · , xn ) = c1 x1 + c2 x2 + · · · + cn xn . Este caso tendrá una complicación adicional, por cuando realizaremos varias mediciones de las variables. En los ejemplos de la sección 2.4.5 analizaremos varios casos en los cuales extendemos el método. rP re lim Muchas veces nos encontramos con la situación en la cual tenemos un conjunto de (digamos n) medidas o puntos experimentales {(x1 , y1 ), (x2 , y2 ), · · · , (xn , yn )} y para modelar ese experimento quisiéramos una función que ajuste estos puntos, de manera que: {(x1 , y1 = f (x1 )), (x2 , y2 = f (x2 )), · · · , (xn , yn = f (xn ))}. El tener una función nos provee la gran ventaja de poder intuir o aproximar los puntos que no hemos medido. La función candidata más inmediata es un polinomio y debemos definir el grado del polinomio y la estrategia que aproxime esos puntos. Puede ser que no sea lineal el polinomio y queramos ajustar esos puntos a un polinomio tal que éste pase por los puntos experimentales. Queda entonces por decidir la estrategia. Esto es, si construimos la función como “trozos” de polinomios que ajusten a subconjuntos: {(x1 , y1 = f (x1 )), (x2 , y2 = f (x2 )), · · · , (xm , ym = f (xm ))} con m < n de los puntos experimentales. En este caso tendremos una función de interpolación para cada conjunto de puntos. También podemos ajustar la función a todo el conjunto de puntos experimentales y, en ese caso el máximo grado del polinomio que los interpole será de grado n − 1. Para encontrar este polinomio lo expresaremos como una combinación lineal de polinomios de Legendre, una base ortogonal que hemos discutido con anterioridad en la secciones 2.3.4 y 2.3.6. Esto es: y1 = f (x1 ) = C0 P0 (x1 ) + C1 P1 (x1 ) + · · · + Cn−1 Pn−1 (x1 ) n−1 n−1 y2 = f (x2 ) = C0 P0 (x2 ) + C1 P1 (x2 ) + · · · + Cn−1 Pn−1 (x2 ) X X Ck Pk (x) ⇒ Ck |Pk i = f (x) = .. . k=0 k=0 yn = f (xn ) = C0 P0 (xn ) + C1 P1 (xn ) + · · · + Cn−1 Pn−1 (xn ) 2.4.5. ad o que no es otra cosa que un sistema de n ecuaciones con n incógnitas: los coeficientes {C0 , C1 , · · · Cn−1 }. Al resolver el sistema de ecuaciones y obtener los coeficientes, podremos obtener la función polinómica que interpola esos puntos. Una expansión equivalente se pudo haber logrado con cualquier otro conjunto de polinomios ortogonales, ya que ellos son base del espacio de funciones. Ejemplos rr Series de Fourier Bo Un ejemplo sencillo para aprender el mecanismo del cálculo de los coeficientes para la aproximación de funciones en series de Fourier lo podemos hacer para la siguiente función. Los coeficientes serán: Z 2π 2 1 π 2 a0 = x dx = , π −π 3 f (x) = x2 , an = 1 π Z −π ≤ x ≤ π . π −π x2 cos(nx)dx = 4 cos(nπ) 4(−1)n = , 2 n n2 bn = 0 ∀ n. Se puede verificar que si f (x) es par (f (−x) = f (x)) sólo la parte que contiene cos(nx) contribuirá a la serie. Si f (x) es impar (f (−x) = −f (x)), lo hará sólo la parte que contiene sen(nx). Por lo tanto: f (x) = x2 = ∞ X π2 (−1)n π2 4 1 +4 cos(nx) = − 4 cos (x) + cos (2 x) − cos (3 x) + cos (4 x) − · · · . 2 3 n 3 9 4 n=1 120 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES Mı́nimos cuadrados Mostraremos como se puede utilizar el método de mı́nimos cuadrados para ajustar un conjunto de datos experimentales a un polinomio de cualquier grado. Veamos estos tres primeros casos: 1. La situación más simple será el conjunto de datos experimentales: (x1 , y1 ), (x2 , y2 ), · · · , (xn , yn ), y nos preguntamos ¿Cuál será la recta, y = cx, que ajusta más acertadamente a estos puntos? Es inmediato darnos cuenta que la pendiente de esa recta será: hx |yi . hx |xi ar |yi = c |xi ⇒ c = lim in Consideremos los puntos experimentales: {(1, 2) , (3, 2) , (4, 5) , (6, 6)}, entonces: 1 2 3 2 hx |yi 2 + 6 + 20 + 36 32 |yi = c |xi ⇒ 5 = c 4 ⇒ c = hx |xi = 1 + 9 + 16 + 36 = 31 = 1,03226 . 6 6 ¿Cuál serı́a el ajuste para el caso de una recta y = cx + b? Queda como ejercicio para el lector utilizar el esquema descrito en las ecuaciones (2.4.3) y encontrar los parámetros c y b para este nuevo ajuste. rP re 2. El segundo caso que consideraremos será la generalización a una contribución lineal de varios parámetros, i.e. un “ajuste” multilineal a la mejor función, y = y(x1 , x2 , · · · , xm ) = c1 x1 +c2 x2 +· · ·+cm xm . El procedimiento anterior puede generalizarse de forma casi inmediata: hx1 |yi = c1 hx1 |x1 i + c2 hx1 |x2 i + · · · + cm hx1 |xj i m hx2 |yi = c1 hx2 |x1 i + c2 hx2 |x2 i + · · · + cm hx2 |xj i X |yi = cj |xj i ⇒ .. .. . . j=1 hxm |yi = c1 hxm |x1 i + c2 hxm |x2 i + · · · + cm hxm |xj i . Es decir, un sistema de m ecuaciones con m incógnitas que corresponden a los “pesos”, c1 , c2 , · · · , cm , de las contribuciones a la función multilineal. ad o Supongamos ahora un paso más en este afán de generalizar y consideremos que ejecutamos n experimentos con n > m. De esta forma nuestro problema adquiere un grado mayor de riqueza y las medidas experimentales estarán representadas ahora por: (y1 , x11 , x12 , · · · x1m ; y2 , x21 , x22 , · · · x2m ; y3 , x31 , x32 , · · · x3m ; · · · yn , xn1 , xn2 , xn3 , · · · xnm ) , por lo tanto, podremos construir m vectores: |x̃1 i = (x11 , · · · , x1n ) ; |x̃2 i = (x21 , · · · , x2n ) ; · · · |x̃m i = (xm1 , · · · , xmn ) ; |yi = (ym1 , · · · , yn ) , Bo rr y el conjunto {|x̃1 i , |x̃2 i , · · · , |x̃m i} expande el subespacio S (|x̃1 i , |x̃2 i , · · · |x̃m i), que alberga la aproximación de |yi. Otra vez, la distancia de este subespacio al vector |yi, será mı́nima, y por lo tanto, será la mejor aproximación: 2 [d (S (c̃i |x̃i i) , |yi)] = hS (c̃i |x̃i i) − y |S (c̃i |x̃i i) − yi , y |S (c̃i |x̃i) − yi será ortogonal a los |x̃i i: hx̃j |S (c̃i |x̃i) − yi ≡ hx̃i Finalmente, el problema queda de la misma hx̃1 |yi m hx̃2 |yi X |yi = c̃j |x̃j i ⇒ .. . j=1 hx̃m |yi m X + ci |x̃i − y = 0 ∀ i, j = 1, 2, 3, · · · m . i=1 manera que en el caso multilineal (2): = c̃1 hx̃1 |x̃1 i + c̃2 hx̃1 |x̃2 i + · · · + c̃m hx̃1 |x̃j i = c̃1 hx̃2 |x̃1 i + c̃2 hx̃2 |x̃2 i + · · · + c̃m hx̃2 |x̃j i .. . = c̃1 hx̃m |x̃1 i + c̃2 hx̃m |x̃2 i + · · · + c̃m hx̃m |x̃j i . 2.4. APROXIMACIÓN DE FUNCIONES 121 3. Se puede extender el razonamiento anterior y generar un ajuste “lineal no lineal”. Esto es: el ajuste lineal es en los coeficientes, pero la funcionalidad de la ley a la cual queremos ajustar los datos puede ser un polinomio de cualquier orden. Ese es el caso de una parábola que ajusta, por ejemplo, al siguiente conjunto de puntos: {(0, 1) , (1, 3) , (2, 7) , (3, 15)} y = ax2 + bx + c . ⇔ Las ecuaciones toman la siguiente forma: +0 +b +2b +3b +c +c +c +c ar 1= 0 3= a 7 = 4a 15 = 9a y los vectores construidos a partir de los datos experimentales serán: |x2 i = (0, 1, 2, 3) , |x3 i = (1, 1, 1, 1) , |yi = (1, 3, 7, 15) . in |x1 i = (0, 1, 4, 9) , lim Una vez más, la ecuación vectorial serı́a: |yi = a |x1 i + b |x2 i + c |x3 i, y las ecuaciones normales (2) para este sistema se construyen como: a = −6 136 = 98a +36b +14c 113 32 113 62 = 36a +14b +6c b= 5 ⇒ y = −6x2 + x− . ⇒ 5 5 26 = 14a +6b +4c c = − 32 5 rP re 4. Para finalizar analicemos el caso tı́pico de aproximación por mı́nimos cuadrados. Se sospecha que una determinada propiedad de un material cumple con la ecuación y = ax1 +bx2 y realizamos 4 mediciones independientes obteniendo: y4 0 y3 10 y2 12 y1 15 x11 = 1 , x21 = 2 , x31 = 1 ; x41 = 1 . −1 1 x42 1 x32 2 x22 x12 Es claro que tenemos un subespacio de m = 2 dimensiones, que hemos hecho n = 4 veces el experimento y que los vectores considerados arriba serán: |x2 i = (2, 1, 1, −1) , ad o |x1 i = (1, 2, 1, 1) , |yi = (15, 12, 10, 0) . Por lo tanto, vectorialmente tendremos: |yi = a |x1 i + b |x2 i, es decir, las ecuaciones normales (2) se escribirán de la siguiente manera: 7a +4b 4a +7b = 49 = 52 ⇒ a= 45 11 b= 56 11 ⇒ 11y = 45x1 + 56x2 . rr Aproximación polinómica Bo Consideremos, por ejemplo, los puntos experimentales representados en la figura 2.3. Aquı́ a = 2 y b = 12, por lo tanto: x = 5t + 7 y dx = 5dt ⇒ t = (x − 7)/5 y dt = dx/5. Cuando construimos el sistema de ecuaciones obtenemos lo siguiente: (−1, 8) ⇒ 8 = C0 − C1 + C2 − C3 + C4 − C5 − 53 , 10 ⇒ 10 = C0 − 3 5 C1 + 1 25 C2 + 9 25 C3 − 51 125 C4 + 477 3125 C5 − 15 , 11 ⇒ 11 = C0 − 1 5 C1 − 11 25 C2 + 7 25 C3 + 29 125 C4 − 961 3125 C5 1 5 , 18 ⇒ 18 = C0 + 1 5 C1 − 11 25 C2 − 7 25 C3 + 29 125 C4 + 961 3125 C5 3 5 , 20 ⇒ 20 = C0 + 3 5 C1 + 1 25 C2 − 9 25 C3 − 51 125 C4 − 477 3125 C5 (1, 34) ⇒ 34 = C0 + C1 + C2 + C3 + C4 + C5 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES lim in ar 122 Figura 2.3: A la izquierda los puntos experimentales: {(2, 8), (4, 10), (6, 11), (8, 18), (10, 20), (12, 34)} y a la derecha la función polinómica que los interpola. C0 = 2249 , 144 C1 = con lo cual: P(x) = f (x) = rP re Al resolver este sistema obtendremos: 3043 , 336 C2 = 1775 , 504 C3 = − 175 , 216 C4 = 625 , 336 C5 = 14375 , 3024 1775 175 625 14375 2249 3043 + x+ P (2, x) − P (3, x) + P (4, x) + P (5, x) . 144 336 504 216 336 3024 Bo rr ad o y la interpolación queda representada en la figura 2.3. Es importante hacer notar que debido a que los polinomios de Legendre están definido en el intervalo [−1, 1] los puntos experimentales deberán reescalarse a ese intervalo para poder encontrar el polinomio de interpolación como combinación lineal de los polinomios de Legendre. Esto se puede hacer con la ayuda del siguiente cambio de variable: (b − a)t + b + a b−a x= , dx = dt , 2 2 donde a y b son los valores mı́nimos y máximos de los datos, respectivamente. Nótese que mientras más puntos experimentales se incluyan para la interpolación, el polinomio resultante será de mayor grado y, por lo tanto incluirá oscilaciones que distorsionarán una aproximación más razonable. Por ello, la estrategia de hacer la interpolación a trozos, digamos de tres puntos en tres puntos, generará un mejor ajuste, pero será una función (un polinomio) continua a trozos. 2.4. APROXIMACIÓN DE FUNCIONES 2.4.6. 123 Practicando con Maxima Series de Fourier Existe una librerı́a llamada fourie en Maxima que contiene instrucciones para el cálculo simbólico de series de Fourier de una función f (x) en el intervalo [−l, l]: fourier (f, x, l). También encontraremos un conjunto de comandos en el paquete para calcular los coeficientes y para manipular las expresiones resultantes. ar (%i1) load(fourie)$ En el ejemplo anterior aproximamos la función: f (x) = x2 . in Veamos como se trabaja con el programa para calcular la serie de Fourier. Los resultados aparecerán en la forma de listas temporales y entre ellas los coeficientes. Las listas temporales serán indicadas con la notación ( %t ). ( %o2) x2 (%i3) fourier(f,x,%pi); π2 3 2 2 π ( %t4) an = sin(π n) n ( %t5) bn = 0 ( %o5) [ %t3 , %t4 , %t5 ] − 2 sin(π n) n3 π + 2 π cos(π n) n2 rP re ( %t3) a0 = lim (%i2) f:x^2; Lo anterior se puede simplificar con el comando foursimp: (%i6) foursimp(%); π2 3 n 4 (−1) ( %t7) an = n2 ( %t8) bn = 0 ( %o8) [ %t6 , %t7 , %t8 ] ad o ( %t6) a0 = Podemos evaluar la lista de los coeficiente hasta el término k. Aquı́ lo haremos hasta k = 4 y el resultado lo lo asignaremos a la variable F . Por otro lado, usaremos ( %o8), la última salida, como entrada para siguiente comando. rr (%i9) F:fourexpand(%o8,x,%pi,4); ( %o9) cos (4 x) 4 cos (3 x) π2 − + cos (2 x) − 4 cos x + 4 9 3 Bo Construiremos ahora en un mismo gráfico la función original y los primeros 5 términos de la serie, de esta manera podremos comparar el resultado de la aproximación. Las opciones para realizar los diferentes gráficos en Maxima se pueden consultar en el manual de programa. (%i10)wxplot2d([F,f], [x,-%pi,%pi],[legend, "F", "x^2"])$ ( %o10) Veamos que sucede si escribimos: (%i11)totalfourier(f,x,%pi); ( %t11) a0 = π2 3 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES 2 ( %t12) an = π 2 sin(π n) n − 2 sin(π n) n3 + 2 π cos(π n) n2 rP re π ( %t13) bn = 0 π2 ( %t14) a0 = 3 n 4 (−1) ( %t15) an = 2 n ( %t16) bn = 0 ∞ n X (−1) cos (n x) π 2 ( %o16) 4 + n2 3 n=1 lim in ar 124 En este caso fueron aplicados de manera simultánea los comandos fourier y foursimp para finalmente presentar la serie en forma de una sumatoria. Bo rr ad o (%i17)kill(all)$ 2.4. APROXIMACIÓN DE FUNCIONES 125 Mı́nimos Cuadrados Maxima puede estimar los parámetros que mejor se ajusten a una función f = (x, y) para un conjunto de datos, utilizando el método de mı́nimos cuadrados. El programa buscará primero una solución exacta, si no la encuentra buscará una aproximada. El resultado lo presentará como una lista de ecuaciones. La función a utilizar será lsquares. Vamos a considerar los ejemplos estudiados con anterioridad: ar 1. En el primer ejemplo los datos eran los siguientes: (x, y) = (1, 2) , (3, 2) , (4, 5) , (6, 6) . in Es necesario hacer uso de la librerı́a lsquares y los los datos deben introducirse en forma de matriz. (%i1) load(lsquares)$ lim (%i2) datos: matrix([1,2],[3,2],[4,5],[6,6])$ Por conveniencia, para más adelante hacer un gráfico, convertimos la matrix “datos” en una lista. Esto es sencillo si utilizamos el comando args: (%i3) datosL:args(datos); rP re ( %o3) [[1, 2] , [3, 2] , [4, 5] , [6, 6]] Supondremos entonces que los puntos se ajustan a un polinomio lineal del tipo: y = ax. El parámetro a se calcula con la función lsquares estimates. Es importante prestar bastante atención a la sintaxis del siguiente comando. (%i4) param: lsquares_estimates(datos,[x,y],y=a*x,[a]), numer; ( %o4) [[a = 1,032258064516129]] ad o Este será entonces el valor del parámetro a de la ecuación de la recta y = ax que pasa por el origen. Notemos también que le hemos asignado el valor del parámetro a a la variable param. Lo que haremos ahora es escribir la ecuación de dicha recta. Podemos hacer uso de la instrucción ev que nos permite evaluar una expresión. (%i5) y:ev(a*x,first(param)); rr ( %o5) 1,032258064516129 x Bo Procederemos ahora a graficar los datos experimentales vs el ajuste por mı́nimos cuadrados en un mismo gráfico. Recordemos que el conjunto de puntos lo tenemos en la forma de una lista, que hemos denominada más arriba como datosL. Mientras que al ajuste que hemos calculado, es decir, la recta: 1,032258064516129 x’ le hemos asignado la variable denominada y. Es recomendable consultar el manual del programa, en la parte que tiene que ver con gráficos, plot2d, plot3d, para identificar la sintaxis que aparecerá en la siguiente instrucción. 126 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES (%i6) wxplot2d([[discrete,datosL], y], [x,0,10],[style, [points,5,2], [lines,2,1]], [point_type, plus], [legend,"Datos","y=ax"],[xlabel, "x"],[ylabel, "y"])$ lim in ar ( %o6) rP re Nota: Se deja como ejercicio repetir éste mismo cálculo pero usando un ajuste para los datos de la forma: y = ax + b. 2. Consideremos el conjunto de datos: |x1 i = (1, 2, 1, 1) , |x2 i = (2, 1, 1, −1) , |yi = (15, 12, 10, 0). Vamos a suponer que ajustan de la manera siguiente: |yi = a |x1 i + b |x2 i. (%i7) datos2: matrix([1,2,15],[2,1,12],[1,1,10],[1,-1,0])$ Cambiemos ligeramente la notación por: z = ax + by y calculemos los parámetros a y b. ad o (%i8) param: lsquares_estimates(datos2,[x,y,z], z=a*x+b*y,[a,b]), numer; ( %o8) [[a = 4,090909090909091, b = 5,090909090909091]] 3. Para el tercer ejemplo se consideraron los siguientes datos: {(0, 1) , (1, 3) , (2, 7) , (3, 15)} ⇔ y = ax2 + bx + c . rr Haremos con Maxima el cálculo directo usando un ajuste cuadrático para los datos suministrados. (%i9) datos3: matrix([0,1],[1,3],[2,7],[3,15])$ Bo (%i10)datosL3: args(datos3)$ (%i11)param: lsquares_estimates(datos3,[x,y], y=a*x^2+b*x+c,[a,b,c]), numer; ( %o11) [[a = 1,5, b = 0,1, c = 1,1]] (%i12)y2:ev(a*x^2+b*x+c,first(param))$ Como hicimos anteriormente, graficamos los datos y el ajuste cuadrático en una misma figura. (%i13)wxplot2d([[discrete,datosL3], y2], [x,0,4],[style, [points,5,2], [lines,2,1]], [point_type, plus], [legend,"Datos","y=ax^2+bx+c"],[xlabel, "x"],[ylabel, "y"])$ ( %o13) 127 lim in ar 2.4. APROXIMACIÓN DE FUNCIONES (%i14)kill(all)$ Polinomios ortogonales (%i1) load (orthopoly)$ rP re Maxima contiene la librerı́a orthopoly que nos permite acceder a la evaluación simbólica y numérica de los diferentes tipos de polinomios ortogonales: Chebyshev, Laguerre, Hermite, Jacobi, Legendre... Por ejemplo, para obtener los primeros 6 polinomios de Legendre escribimos los siguientes comandos: (%i2) [legendre_p(0,x),legendre_p(1,x),legendre_p(2,x), legendre_p(3,x),legendre_p(4,x),legendre_p(5,x)]$ ad o Simplificamos con ratsimp: Bo rr (%i3) ratsimp (%); 3 x2 − 1 5 x3 − 3 x 35 x4 − 30 x2 + 3 63 x5 − 70 x3 + 15 x , , , ( %o3) 1, x, 2 2 8 8 128 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES Los diferentes polinomios de Legendre se pueden visualizar de la manera siguiente: (%i4) wxplot2d(%,[x,-1,1],[legend, "P0", "P1","P2", "P3","P4", "P5" ])$ lim in ar ( %o4) rP re Ahora bien, con los datos de la figura 2.3 se planteó un sistema de ecuaciones lineales: (%i5) ecu1:C0-C1+C2-C3+C4-C5=8$ (%i6) ecu2:C0-3/5*C1+1/25*C2+9/25*C3-51/125*C4+477/3125*C5=10$ (%i7) ecu3:C0-1/5*C1-11/25*C2+7/25*C3+29/125*C4-961/3125*C5=11$ (%i8) ecu4:C0+1/5*C1-11/25*C2-7/25*C3+29/125*C4+961/3125*C5=18$ (%i9) ecu5:C0+3/5*C1+1/25*C2-9/25*C3-51/125*C4-477/3125*C5=20$ ad o (%i10)ecu6:C0+C1+C2+C3+C4+C5=34$ Resolvemos el sistema anterior: (%i11)linsolve([ecu1,ecu2,ecu3,ecu4,ecu5,ecu6], [C0,C1,C2,C3,C4,C5]); 2249 3043 1775 175 625 14375 ( %o11) C0 = , C1 = , C2 = , C3 = − , C4 = , C5 = 144 336 504 216 336 3024 rr Para asignar cada solución a la variable correspondiente podemos hacer lo siguiente: Bo (%i12)[C0,C1,C2,C3,C4,C5]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4]),rhs(%[5]),rhs(%[6])]; 2249 3043 1775 175 625 14375 , , ,− , , ( %o12) 144 336 504 216 336 3024 2.4. APROXIMACIÓN DE FUNCIONES 129 Por lo tanto, la función aproximada será: (%i13)f:C0+C1*legendre_p(1,x)+C2*legendre_p(2,x)+C3*legendre_p(3,x) +C4*legendre_p(4,x)+legendre_p(5,x)*C5$ (%i14)f:expand(%); ( %o14) 3125 x4 8375 x3 325 x2 7367 x 1863 14375 x5 + − − + + 384 384 192 192 384 128 Para finalizar, haremos la gráfica con los datos y con la interpolación: in (%i15)datos:[[-1,8],[-3/5,10],[-1/5,11],[1/5,18],[3/5,20],[1,34]]; 3 1 1 3 ( %o15) [−1, 8] , − , 10 , − , 11 , , 18 , , 20 , [1, 34] 5 5 5 5 ar Procedemos a introducir los datos: lim (%i16)wxplot2d([[discrete,datos],f], [x,-1,1],[style, [points,5,2], [lines,2,1]], [point_type, plus],[legend, false],[xlabel, "x"],[ylabel, "y"])$ Bo rr ad o rP re ( %o16) 130 CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES 2.4.7. Ejercicios 1. Demuestre que con las identidades siguientes: cos(kx) = eikx + e−ikx , 2 sen(kx) = eikx − e−ikx , 2i f (x) = ∞ ∞ X X 1 a0 + [ak cos(kx) + bk sen(kx)] ⇒ f (x) = ck eikx , 2 k=1 k=−∞ con: t+2π Z f (x)e−ikx dx . in 1 ck = 2π t Y que para funciones definidas en el intervalo (l, l + 2L) como: ck e ikπx L , con ck = k=−∞ 1 2L l+2L Z lim ∞ X f (x) = ar la serie de Fourier definida para funciones en el intervalo (t, t + 2π) se escribe en su forma compleja como: f (x)e− ikπx L dx . l Nota: Para los siguientes ejercicios supondremos la utilización del programa Maxima. rP re 2. Para las siguientes funciones determine la serie de Fourier calculando los coeficientes como en la sección 2.4 y compare los resultados con los cálculos hechos en el ambiente de manipulación simbólica. a) f (x) = x sen(x), si −π < x < π. b) f (x) = ex , si −π < x < π. c) f (x) = x, si 0 < x < 2. d ) f (x) = 2x − 1, si 0 < x < 1. 3. Al medir la temperatura a lo largo de una barra material obtenemos los siguientes valores: 1, 0 14, 6 2, 0 18, 5 3, 0 36, 6 ad o xi (cm) Ti (◦ C) 4, 0 30, 8 5, 0 59, 2 6, 0 60, 1 7, 0 62, 2 8, 0 79, 4 9, 0 99, 9 Encuentre, mediante el método de los mı́nimos cuadrados los coeficientes que mejor ajustan a la recta T = ax + b. rr ∞ 4. Considere el espacio vectorial, C[−1,1] , de funciones reales, continuas y continuamente diferenciables definidas en el intervalo [−1, 1]. Es claro que una posible base de este espacio de funciones la constituye el conjunto de monomios 1, x, x2 , x3 , x4 , · · · por cuanto estas funciones son linealmente independientes. Bo a) Si suponemos que este espacio vectorial está equipado con un producto interno definido por hf |gi = R1 dx f (x)g(x), muestre que esa base de funciones no es ortogonal. −1 R1 b) Utilizando la definición de producto interno hf |gi = −1 dx f (x)g(x) ortogonalize la base 1, x, x2 , x3 , x4 , · · · ∞ y encuentre los 10 primeros vectores ortogonales, base para C[−1,1] . Esta nueva base de polinomios ortogonales se conoce como los polinomios de Legendre. p R1 c) Modifique un poco la definición de producto interno hf |gi = −1 dx f (x)g(x) (1 − x2 ) y ortogonalize la ∞ base 1, x, x2 , x3 , x4 , · · · y encuentre otros 10 primeros vectores ortogonales base para el mismo C[−1,1] . Esta nueva base de polinomios ortogonales se conoce como los polinomios de Chebyshev. d ) Suponga la función h(x) = sen(3x)(1 − x2 ): 1) Expanda la función h(x) en términos de la base de monomios y de polinomios de Legendre, grafique, compare y encuentre el grado de los polinomios en los cuales difieren las expansiones. 2) Expanda la función h(x) en términos de la base de monomios y de polinomios de Chebyshev, grafique, compare y encuentre el grado de los polinomios en los cuales difieren las expansiones. 2.4. APROXIMACIÓN DE FUNCIONES 131 3) Expanda la función h(x) en términos de la base de polinomios de Legendre y de Chebyshev, grafique, compare y encuentre el grado de los polinomios en los cuales difieren las expansiones. 4) Estime en cada caso el error que se comete como función del grado del polinomio (o monomio) de la expansión. ¿Qué puede concluir respecto a la expansión en una u otra base? Año Precio 2007 133,5 2008 132,2 2009 138,7 2010 141,5 2011 144,2 2012 144,5 2013 148,6 2014 153,8 Bo rr ad o rP re lim in Realice una interpolación polinomial que permita modelar estos datos. ar 5. Los precios de un determinado producto varı́an como se muestra a continuación: CAPÍTULO 2. ESPACIOS VECTORIALES LINEALES Bo rr ad o rP re lim in ar 132 ar Bibliografı́a in [1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición (Academic Press, Nueva York) [2] Scharnhorst, K. (2009) Angles in complex vector spaces Acta Applicandae Mathematica), 69(1), 95-103 lim [3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York) [4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:) [5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition, London: Bo rr ad o rP re [6] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Engineering (Cambridge University Press) 133 ad o rr Bo lim rP re ar in 134 BIBLIOGRAFÍA ar Capı́tulo 3 Bo rr ad o rP re lim in Vectores duales y tensores 135 136 CAPÍTULO 3. VECTORES DUALES Y TENSORES La ruta de este capı́tulo Funcionales lineales lim 3.1. in ar Este capı́tulo completa el esfuerzo de formalización de conceptos que comenzamos en el capı́tulo anterior. Iniciamos con el estudio de los funcionales lineales, extendiendo el concepto de función al de una aplicación entre elementos de espacios vectoriales, lo cual nos llevará a la definición de los espacios vectoriales duales. Incorporamos el concepto de 1−forma como ese conjunto de funcionales que forman al espacio vectorial dual. Ahora el producto interno se definirá entre 1−formas y vectores. En la sección 3.2 definiremos una nueva clase de objetos matemáticos, los tensores, los cuales pueden verse como arreglos multilineales y constituyen una extensión de objetos ya conocidos: los escalares, los vectores y las 1−formas. Desarrollaremos el álgebra tensorial y sus leyes de transformación. Ejemplificamos la utilización de este concepto en Fı́sica cuando discutimos, en la sección 8, el tensor de inercia y el de esfuerzos (strees). En la sección 3.3 incursionaremos en los espacios pseudoeuclidianos para mostrar una situación en la cual podemos diferenciar 1−formas de vectores, aprovechamos además para introducir algunas nociones básicas de la teorı́a especial de la relatividad. Para finalizar, el la sección 3.4 extenderemos los conceptos de espacios vectoriales y bases discretas a espacios de funciones y bases continuas y en ese contexto discutimos algunos rudimentos de teorı́as de distribuciones. rP re En los cursos más elementales de cálculo se estudiaron funciones de una y más variables reales. Estas funciones pueden considerarse que actúan sobre vectores en R3 y podemos extender esta idea para otras que tengan como argumento vectores de un espacio vectorial abstracto. Comenzaremos con las más sencillas, las lineales, que también son conocidas como operadores lineales. Definiremos funcionales lineales como aquella operación que asocia un número complejo (o real) ∈ K a un vector |vi ∈ V, es decir: ∀ |vi ∈ V ⇒ F [|vi] ∈ C , y cumple con: F [α |v1 i + β |v2 i] ≡ α F [|v1 i] + β F [|v2 i] , ∀ |v1 i , |v2 i ∈ V y ∀ α, β ∈ K . ad o En otras palabras, un funcional lineal (o forma lineal) es un morfismo1 del espacio lineal V a un espacio unidimensional K. Notemos que cuando se escoge una base {|ei i} de un espacio vectorial V de manera que para cualquier vector |vi ∈ V se especifican sus componentes {ξ 1 } respecto a esa base, es decir, |vi = ξ i |ei i, entonces lo que se tiene para cada componente es un funcional lineal, como por ejemplo, F [|vi] = ξ 1 . Algo parecido ocurre con el producto interno, cuando en un espacio vectorial V se define el producto escalar hv |v0 i, del vector |vi con un vector fijo |v0 i, lo que tenemos es un funcional lineal F [|vi] = hv |v0 i = α ∈ K. Otro ejemplo sencillo de un funcional lineal es la integral de Riemann que podemos interpretar de la manera siguiente: Z b I [|f i] = f0 (x)f (x)dx , a 3.1.1. rr donde f (x), f0 (x) ∈ C[a,b] , es decir, pertenece al espacio vectorial de funciones reales y continuas en el intervalo [a, b] y f0 (x) es una función que se toma como fija. Espacio vectorial dual Bo El conjunto de funcionales lineales {F1 , F2 , F3 , · · · , Fn , · · · } constituyen a su vez un espacio vectorial, el cual se denomina espacio vectorial dual de V –que es el espacio directo– y se denotará como V? (aquı́ ? no es complejo conjugado). Si V es de dimensión finita n, entonces dimV = dimV? = n. Es fácil convencerse que los funcionales lineales forman un espacio vectorial ya que, dados F1 , F2 ∈ V? se tiene: (F1 + F2 ) [|vi] = F1 [|vi] + F2 [|vi] ∀ |vi ∈ V . (α F) [|vi] = α F [|vi] A este espacio lineal se le llama espacio de formas lineales y, a los funcionales se les denomina 1−formas o covectores. 1 Entenderemos por morfismo a toda regla o mapa que asigne a todo vector |vi de un espacio vectorial V un vector |wi de un espacio vectorial W y usualmente se denota por F : V ⇒ W. 3.1. FUNCIONALES LINEALES 137 Como ya lo mencionamos, en aquellos espacios lineales con producto interno definido, el mismo producto interno constituye la expresión natural del funcional. Ası́ tendremos que: Fa [|vi] ≡ ha |vi ∀ |vi ∈ V ∧ ∀ ha| ∈ V? . ar Es claro comprobar que el producto interno garantiza que los {Fa , Fb , · · · } forman un espacio vectorial: (Fa + Fb ) [|vi] = Fa [|vi] + Fb [|vi] = ha |vi + hb |vi ∀ |vi ∈ V . (α Fa ) [|vi] = hαa |vi = α∗ ha |vi = α∗ Fa [|vi] in Esta última propiedad se conoce como antilinealidad. Se establece entonces una correspondencia 1 a 1 entre kets y bras, entre vectores y funcionales lineales (o formas diferenciales): λ1 |v1 i + λ2 |v2 i λ∗1 hv1 | + λ∗2 hv2 | , ∗ ha |vi = hv |ai , lim que ahora podemos precisar de la siguiente forma: ha |λ1 v1 + λ2 v2 i = λ1 ha |v1 i + λ2 ha |v2 i , hλ1 a1 +λ2 a2 |vi = λ∗1 ha1 |vi + λ∗2 ha2 |vi . rP re Más aún, dada una base {|e1 i , |e2 i , · · · |en i} para V siempre es posible asociar una base para V? de tal manera que: |vi = ξ i |ei i hv| = ξi∗ ei , con ξ i = ei |vi ∧ ξi∗ = hv |ei i , para i = 1, 2, · · · , n . En un lenguaje arcaico (y muchos textos de mecánica todavı́a lo reproducen) se denota a la base del espacio dual ei como la base recı́proca de la base {|ei i}, este caso lo ilustraremos más adelante. Se puede ver también que si |vi = ξ i |ei i, entonces F [|vi] = F ξ i |ei i = ξ i F [|ei i] = ξ i ωi , con F [|ei i] ≡ ωi . ad o Nótese que estamos utilizando la notación de Einstein en la que ı́ndices repetidos indican suma. Nótese también que las bases del espacio dual de formas diferenciales ek llevan los ı́ndices arriba, los llamaremos ı́ndices contravariantes, mientras que los ı́ndices abajo, serán covariantes. Por lo tanto, las componentes de las formas diferenciales en una base dada, llevan ı́ndices abajo ha| = ai ei mientras que las componentes de los vectores los llevan arriba |vi = ξ j |ej i. Observe también que dada una base en el espacio directo {|ei i} existe una única base canónica en el dual definida como: ei |ej i = F i [|ej i] = δji . rr Esta 1−forma al actuar sobre un vector arbitrario resulta en: F i [|vi] = F i ξ j |ej i = ξ j F i [|ej i] = ξ j δji = ξ i Bo su componente contravariante. El conjunto de 1−formas {F i } será linealmente independientes. Si |vi = ξ i |ei i es un vector arbitrario en el espacio directo y ha| = ai ei un vector en el espacio dual, entonces: ha |vi = ai ei ξ j |ej i = a∗i ξ j ei |ej i = a∗i ξ j δji = a∗i ξ i , y para bases arbitrarias, no ortogonales, {|wi i} de V y { wi } de V? se tiene: ha |vi = wi |wj i a∗i ξ j . 3.1.2. Espacios duales y bases recı́procas Un ejemplo que ilustra las bases duales es la construcción de las llamadas bases recı́procas que mencionamos anteriormente en los ejercicios de Aplicaciones del álgebra vectorial en la página 26. Este ejemplo ilustra la pregunta de siempre: si los vectores se representan geométricamente como un segmento orientado, con módulo, dirección y sentido, como representamos geométricamente una forma lineal o covector. Los cristalógrafos lograron ejemplificar las bases duales y luego la aplicación de la difracción de rayos x a la cristalografı́a potenció utilidad de este concepto. 138 CAPÍTULO 3. VECTORES DUALES Y TENSORES ar Figura 3.1: Bases directas y recı́procas. Note como los covectores representan planos perpendiculares a dos vectores de la base directa. Figura tomada de https://commons.wikimedia.org/w/index.php?curid=457850 CC BY-SA 3.0, in Bases recı́procas y en general, es fácil ver que: w2 × w3 1 ⇒ w1 = , w1 · (w2 × w3 ) w1 · (w2 × w3 ) rP re αw1 · (w2 × w3 ) = 1 ⇒ α = lim Consideremos el problema de expandir un vector |ai con respecto a una base oblicua (no es ortogonal), {|wi i}, de tal forma que, |ai = ai |wi i. Por simplicidad, tomemos el caso R3 , de manera que a = ai wi (i = 1, 2, 3). Al proyectar el vector a sobre los ejes de algún sistema de coordenadas, es posible resolver el sistema de tres ecuaciones que resulta para las incógnitas ai . Las bases de vectores wi y de formas o covectores wi serán duales, y por contrucción satisfacen wi · wj = δij . Es decir, cada uno de los vectores bases duales es perpendicular a los otros dos de la base dual: w1 será perpendicular a w2 y w3 : w1 = α(w2 × w3 ). Como w1 · w1 = 1, entonces: wi = wj × wk , wi · (wj × wk ) (3.1) Vectores, formas y leyes de transformación rr 3.1.3. ad o donde i, j, k son permutaciones cı́clicas de 1, 2, 3. La definición (3.1) nos permite construir la base de 1-formas o covectores, a partir de su ortogonalidad con los vectores de la base directa. Notemos también que V = wi ·(wj ×wk ) es el volumen del paralelepı́pedo que soportan los vectores {wi } y que además se puede obtener una expresión análoga para los {wi } en término de los {wi }. Al ser {wi } y {wi } duales, a = aj wj ⇒ wi · a = wi · (aj wj ) = aj (wi · wj ) = aj δji = ai , con i = 1, 2, 3 y equivalentemente, el covector de a: ā = āj wj ⇒ ā · wi = (āj wj ) · wi = āj (wj · wi ) = āj δij = āi , con i = 1, 2, 3. Hemos querido enfatizar el carácter dual del covector ā al vector a y obviamente ā · a = |a|2 . De la misma ecuación (3.1) se puede ver que la representación gráfica de una forma será una superficie orientada. La figura 3.1 muestra como, a partir de una base directa de vectores oblı́cuos se construyen planos perpendiculares a esos vectores y la orientación (dirección y sentido) representan las direcciones de los vectores duales. En cristalografı́a esa base dual se le representa como los ı́ndices de Miller. Claramente si las base directa es ortonormal su dual también lo será y, más importante aún, ambas bases coinciden ei ≡ ei , y si la base original o directa es dextrógira su dual también lo será. Bo Tal y como hemos mencionado anteriormente (tempranamente en la sección 1.4.3 y luego en la sección 2.3.4), un determinado vector |ai ∈ V puede expresarse en una base ortonormal {|ej i} como: aj |ej i donde las aj son las componentes contravariantes del vector en esa base. En general, como es muy largo decir “componentes del vector contravariante” uno se refiere (y nos referiremos de ahora en adelante) al conjunto aj como un vector contravariante obviando la precisión de componente, pero realmente las aj son las componentes del vector. Adicionalmente, en esta etapa pensaremos a las bases como distintos observadores o sistemas de referencias. Con ello tendremos (algo que ya sabı́amos) que un vector se puede expresar en distintas bases y tendrá distintas componentes referidas a esa base |ai = aj |ej i = ãj |ẽj i . Ası́ una misma cantidad fı́sica vectorial se verá distinta (tendrá distintas componentes) desde diferentes sistemas de coordenadas. Las distintas “visiones” están conectadas mediante un transformación de sistema de referencia como veremos más adelante. Igualmente hemos dicho al comienzo deeste capı́tulo (sección 3.1.1) que una forma diferencial o 1-forma, hb| ∈ V? es susceptible de expresarse en una base ei del espacio dual V? como bi ei y, como el espacio está equipado 3.1. FUNCIONALES LINEALES 139 con un producto interno, entonces: ha |bi = hb |ai = bi aj ei |ej i = bi aj δji = ai bi . donde claramente: ẽi |ej i = Ãij y Aik Ãkj = δji ⇐⇒ Ãij = Aij −1 . in ei |ẽj i = Aij ; ar Con lo cual avanzamos otra vez en la interpretación de este tipo de objetos: una cantidad fı́sica escalar se verá igual (será invariante) desde distintos sistemas de referencia. Además sabemos que unas y otras componentes se relacionan como: i ei |ai = aj ei |ej i = aj δji = ãj ei |ẽj i a = Aij ãj ⇒ i ẽi |ai = ãj ẽi |ẽj i = ãj δji = aj ẽi |ej i ã = Ãij aj , rP re lim Diremos entonces que aquellos objetos cuyas componentes transforman como: ai = Aij ãj o, equivalentemente como: ãi = Ãij aj serán vectores, o en un lenguaje un poco más antiguo, vectores contravariantes2 . Tradicionalmente, e inspirados en la ley de transformación, la representación matricial de las componentes contravariantes de un vector, ei |ai = aj , para una base determinada {|ej i} se representan como una columna 1 a a2 |ai ⇒ ai = ei |ai , con i = 1, 2, 3, · · · , n ⇐⇒ . . .. an ad o De la misma manera, en el espacio dual, V? , las formas diferenciales se podrán expresar en término de una base de ese espacio vectorial como hb| = bi ei = b̃i ẽi . Las {bi } serán las componentes de las formas diferenciales o las componentes covariantes de un vector |bi, o dicho rápidamente un vector covariante o covector. Al igual que en el caso de las componentes contravariantes las componentes covariantes transforman de un sistema de referencia a otro mediante la siguiente ley de transformación: hb |ej i = bi ei |ej i = bi δji = b̃i ẽi |ej i bj = b̃i Aij ⇒ hb |ẽj i = b̃i ẽi |ẽj i = b̃i δji = bi ei |ẽj i b̃j = bi Ãij . Otra vez, objetos cuyas componentes transformen como bj = b̃i Aij los denominaremos formas diferenciales o vectores covariantes o covectores y serán representados como matrices en un arreglo tipo fila: b1 b2 · · · bn . hb| ⇒ bi = hb |ei i , con i = 1, 2, 3, · · · , n ⇐⇒ Ejemplos Bo 3.1.4. rr Quizá hasta este punto la diferencia de formas y vectores, de componentes covariantes y contravariantes, ası́ como sus esquemas de transformación es todavı́a confusa. No disponemos de ejemplos contundentes que ilustren esa diferencia. Estos serán evidentes cuando nos toque discutir las caracterı́sticas de los espacios pseudoeuclidianos en la sección 3.3. Luego, en la sección 5.1, consideraremos algunos ejemplos en coordenadas generalizadas. 1. Consideremos V = R3 como el espacio vectorial conformado por todos los vectores columna 1 ξ |vi = ξ 2 , ξ3 el cual al representarse en su base canónica {|ii i} resulta en: 1 0 0 |vi = ξ 1 0 + ξ 2 1 + ξ 3 0 = ξ 1 |i1 i + ξ 2 |i2 i + ξ 3 |i3 i = ξ i |ii i . 0 0 1 2 Algunos 0 0 0 autores prefieren utilizar la siguiente notación para las transformaciones: ai = Aij 0 aj y ai = Aij aj , por lo que δji = Aik0 Akj 0 140 CAPÍTULO 3. VECTORES DUALES Y TENSORES Sea un funcional lineal F ∈ V? , de manera que los vectores duales F[◦] ≡ hF | ↔ (w1 , w2 , w3 ), puedan ser representados por “vectores” filas. Notemos que la base de funcionales lineals ζ i [◦] ≡ ii , la definimos como: ζ i [|ij i] = ii |ij i = δji ⇒ i1 |i1 i = 1 , i1 |i2 i = 0 , i1 |i3 i = 0 , i2 |i1 i = 0 , i2 |i2 i = 1 , · · · in 2. Encontremos la base dual para el espacio vectorial V = R3 , con base ortogonal: 1 2 0 |e1 i = 1 , |e2 i = −1 , |e3 i = −1 . −1 1 −1 ar En este caso: ζ i = hii | entonces ζ 1 = (1, 0, 0), ζ 2 = (0, 1, 0), ζ 3 = (0, 0, 1) y además, 1 1 1 ξ ξ ξ ζ 1 [|vi] = (1, 0, 0) ξ 2 = ξ 1 , ζ 2 [|vi] = (0, 1, 0) ξ 2 = ξ 2 , ζ 3 [|vi] = (0, 0, 1) ξ 2 = ξ 3 . ξ3 ξ3 ξ3 lim Todo vector de ese espacio queda representado en esa base por: 1 2 0 v 1 + 2v 2 |vi = v i |ei i = v 1 1 + v 2 −1 + v 3 −1 = v 1 − v 2 − v 3 −1 1 −1 −v 1 + v 2 − v 3 ad o rP re Una vez más, sea un funcional lineal F ∈ V? , representa vectores duales F[◦] ≡ hF | ↔ (w1 , w2 , w3 ) y la base en el dual es: ei = (ai , bi , ci ). Además sabemos que: ei |ej i = δji . Por lo tanto: 1 e1 |e1 i = (a1 , b1 , c1 ) 1 = a1 + b1 − c1 = 1 −1 2 a1 = 31 1 −1 b1 = 31 = 2a1 − b1 + c1 = 0 ⇒ e |e2 i = (a1 , b1 , c1 ) 1 c1 = − 13 0 e1 |e3 i = (a1 , b1 , c1 ) −1 = −b1 − c1 = 0 −1 1 e2 |e1 i = (a2 , b2 , c2 ) 1 = a2 + b2 − c2 = 0 −1 2 e2 |e2 i = (a2 , b2 , c2 ) −1 = 2a2 − b2 + c2 = 1 1 0 e2 |e3 i = (a2 , b2 , c2 ) −1 = −b2 − c2 = 0 −1 Bo rr a2 = 31 b2 = − 61 ⇒ c2 = 61 Y finalmente: 1 e3 |e1 i = (a3 , b3 , c3 ) 1 = a3 + b3 − c3 = 0 −1 2 e3 |e2 i = (a3 , b3 , c3 ) −1 = 2a3 − b3 + c3 = 0 1 0 e3 |e3 i = (a3 , b3 , c3 ) −1 = −b3 − c3 = 1 −1 a3 = 0 b3 = − 21 ⇒ c3 = − 12 3.1. FUNCIONALES LINEALES 141 La base del dual es: e1 = ( 31 , 13 , − 13 ), e2 = ( 13 , − 16 , 16 ), e3 = (0, − 12 , − 21 ), de manera que: hF | = w1 e1 + w2 e2 + w3 e3 . in ar Notemos que, como era de esperarse: v 1 + 2v 2 v 1 + 2v 2 1 1 1 1 1 1 v1 − v2 − v3 = v1 , v1 − v2 − v3 = v2 e1 |vi = , ,− ,− , e2 |vi = 3 3 3 3 6 6 1 2 3 −v + v − v −v 1 + v 2 − v 3 v 1 + 2v 2 1 1 1 v − v2 − v3 = v3 . e3 |vi = 0, − , − 2 2 −v 1 + v 2 − v 3 lim 3. Dados los vectores: u1 = i + j + 2k, u2 = i + 2j + 3k, y u3 = i − 3j + 4k. Revisaremos si estos vectores son mutuamente ortogonales. Encontraremos la base recı́proca ui , el tensor métrico en ambas bases y para el vector a = 3u1 + 2u2 + u3 encontraremos sus componentes covariantes. Para saber si son ortogonales simplemente calculamos el producto escalar entre ellos: u1 · u2 = 9 , u1 · u3 = 6 y u2 · u3 = 7, por lo tanto no son ortogonales y adicionalmente sabemos que: ui = uj × uk ui · (uj × uk ) rP re Procederemos a calcular primero el denominador: V = u1 · (u2 × u3 ) ⇒ (i + j + 2k) · ([i + 2j + 3k] × [i − 3j + 4k]) = 6 . En general: ui = 1 2 3 Ṽ = u · (u × u ) ⇒ 3.1.5. u2 ×u3 V = u3 ×u1 V = − 35 i + 13 j + 32 k u1 ×u2 V = − 61 i − 16 j + 61 k 17 6 i − 16 j − 56 k ad o Notemos que: uj × uk V 1 u = u2 = ⇒ 3 u = 1 5 5 1 2 1 1 1 1 17 i− j− k · − i+ j+ k × − i− j+ k = . 6 6 6 3 3 3 6 6 6 6 Practicando con Maxima rr 1. Tenemos para el espacio vectorial V = R3 , la base ortogonal: |e1 i = (1, 1, −1), |e2 i = (2, −1, 1), |e3 i = (0, −1, −1) . Con F ∈ V? donde F[◦] ≡ hF | ↔ (w1 , w2 , w3 ) y ei = (ai , bi , ci ), con ei |ej i = δji . Bo Comencemos introduciendo los vectores como listas: (%i1) e1:[1,1,-1];e2:[2,-1,1];e3:[0,-1,-1]; ( %o1) [1, 1, −1] ( %o2) [2, −1, 1] ( %o3) [0, −1, −1] Efectivamente son mutuamente ortogonales: (%i4) e1.e2;e1.e3;e2.e3; 142 CAPÍTULO 3. VECTORES DUALES Y TENSORES ( %o4) 0 ( %o5) 0 ( %o6) 0 Para fines prácticos del cálculo que vamos a realizar, construiremos una matriz con los vectores como filas: 1 −1 −1 −1 1 −1 in 1 ( %o7) 2 0 ar (%i7) E:matrix([1,1,-1],[2,-1,1],[0,-1,-1]); De manera que: lim (%i8) M1:E.[a1,b1,c1]; −c1 + b1 + a1 ( %o8) c1 − b1 + 2 a1 −c1 − b1 rP re De esta forma es sencillo calcular todas las combinaciones de ei |ei i, con las condición ei |ej i = δji , y resolver los sistemas de ecuaciones para los diferentes {ai , bi , ci }. Veamos: (%i9) ec1:M1[1,1]=1;ec2:M1[2,1]=0;ec3:M1[3,1]=0; ( %o9) − c1 + b1 + a1 = 1 ( %o10) c1 − b1 + 2 a1 = 0 ( %o11) − c1 − b1 = 0 (%i12)linsolve([ec1,ec2,ec3],[a1,b1,c1]); ad o 1 1 1 ( %o12) a1 = , b1 = , c1 = − 3 3 3 (%i13)M2:E.[a2,b2,c2]; −c2 + b2 + a2 ( %o13) c2 − b2 + 2 a2 −c2 − b2 rr (%i14)ec1:M2[1,1]=0;ec2:M2[2,1]=1;ec3:M2[3,1]=0; ( %o14) − c2 + b2 + a2 = 0 Bo ( %o15) c2 − b2 + 2 a2 = 1 ( %o16) − c2 − b2 = 0 (%i17)linsolve([ec1,ec2,ec3],[a2,b2,c2]); 1 1 1 ( %o17) a2 = , b2 = − , c2 = 3 6 6 (%i18)M3:E.[a3,b3,c3]; −c3 + b3 + a3 ( %o18) c3 − b3 + 2 a3 −c3 − b3 3.1. FUNCIONALES LINEALES 143 (%i19)ec1:M3[1,1]=0;ec2:M3[2,1]=0;ec3:M3[3,1]=1; ( %o19) − c3 + b3 + a3 = 0 ( %o20) c3 − b3 + 2 a3 = 0 ( %o21) − c3 − b3 = 1 ar (%i22)linsolve([ec1,ec2,ec3],[a3,b3,c3]); De manera que la base dual ei es: (%i23)d1:[1/3,1/3,-1/3];d2:[1/3,-1/6,1/6];d3:[0,-1/2,-1/2]; (%i26)d1.d2;d1.d3;d2.d3; ( %o26) 0 ( %o27) 0 ( %o28) 0 ad o Originalmente tenı́amos que: rP re Y son mutuamente ortogonales: lim 1 1 1 ( %o23) , ,− 3 3 3 1 1 1 ,− , ( %o24) 3 6 6 1 1 ( %o25) 0, − , − 2 2 in 1 1 ( %o22) a3 = 0, b3 = − , c3 = − 2 2 |vi = v i |ei i = v 1 |e1 i + v 2 |e2 i + v 3 |e3 i Si construimos la siguiente matriz: (%i29)V:transpose(matrix(v1*e1,v2*e2,v3*e3)); v1 2 v2 0 ( %o29) v1 −v2 −v3 −v1 v2 −v3 rr Bo Podremos comprobar que efectivamente: ei |vi = v i (%i30)d1.V;d2.V;d3.V; 0 ( %o31) 0 v2 0 ( %o32) 0 0 ( %o30) v1 0 v3 (%i33)kill(all)$ 2. En este ejercicio veremos la manera de construir la matriz de transformación entre bases y el cálculo de las bases recı́procas. 144 CAPÍTULO 3. VECTORES DUALES Y TENSORES Si tenemos la siguiente transformación entre bases: |e1 i = |ji + |ki , |e2 i = |ii + |ki , |e3 i = |ii + |ji . Para calcular la matriz de transformación: |ei i = Ãji |ij i , ar podemos trabajar de la manera siguiente. Primero introducimos los vectores como una matriz y luego calculamos la transpuesta: (%i1) v1:[0,1,1]$v2:[1,0,1]$v3:[1,1,0]$ 0 ( %o2) 1 1 1 0 1 in (%i2) Aij:transpose(matrix(v1,v2,v3)); 1 1 0 lim La matriz de transformación inversa |ii i = Aji |ej i, es simplemente la matriz inversa: (%i3) A_ji:invert(%); 1 2 1 2 1 2 − 12 Es claro que Ajk Ãki = δij (%i4) A_ij.A_ji; 1 ( %o4) 0 0 0 1 0 0 0 1 ad o (%i5) kill(all)$ rP re 1 2 − 12 1 2 1 −2 ( %o3) 12 3. Con el uso del paquete vect podemos hacer algunos cálculos sencillos con vectores, como por ejemplo, el cálculo de las bases recı́procas. (%i1) load(vect)$ Dado el siguiente conjunto de vectores: rr b1 = e1 = i + j + 2k , b2 = e2 = −i − j − k , b3 = e3 = 2i − 2j + k Bo Calcularemos la base recı́proca a través de: (%i2) b1:[1,1,2]; ( %o2) [1, 1, 2] (%i3) b2:[-1,-1,-1] ( %o3) [−1, −1, −1] (%i4) b3:[2,-2,1]; ei = ej × ek , ei · (ej × ek ) 3.1. FUNCIONALES LINEALES 145 ( %o4) [2, −2, 1] Podemos comprobar si la base original bi es ortogonal calculando sus productos escalares: (%i5) b1.b2; b1.b3; b2.b3; ( %o5) − 4 ar ( %o6) 2 ( %o7) − 1 Ahora, los vectores recı́procos ei se calculan de la manera siguiente: ( %o8) 3 1 − ,− ,1 4 4 5 3 ( %o9) − , − , 1 4 4 rP re (%i9) e2:express(b3~b1)/(b3.(express(b1~b2))); lim (%i8) e1:express(b2~b3)/(b3.(express(b1~b2))); in Por lo tanto, no son ortogonales. (%i10)e3:express(b1~b2)/(b3.(express(b1~b2))); 1 1 ( %o10) ,− ,0 4 4 La base recı́proca es entonces: ad o 3 1 5 3 1 1 e1 = − i − j + k , e2 = − i − j + k , e3 = i − j 4 4 4 4 4 4 Que tampoco es ortogonal: (%i11)e1.e2; e1.e3; e2.e3; ( %o11) 17 8 1 8 1 ( %o13) − 8 Bo rr ( %o12) − El tensor métrico para la base original gij = ei · ej lo podemos construir de la manera siguiente: (%i14)gb:matrix([b1.b1,b1.b2,b1.b3],[b2.b1,b2.b2,b2.b3],[b3.b1,b3.b2,b3.b3]); 6 ( %o14) −4 2 −4 3 −1 2 −1 9 Para la base recı́proca g ij = ei · ej (%i15)ge:matrix([e1.e1,e1.e2,e1.e3],[e2.e1,e2.e2,e2.e3],[e3.e1,e3.e2,e3.e3]); 146 CAPÍTULO 3. VECTORES DUALES Y TENSORES 13 8 17 8 − 18 17 8 25 8 − 18 ( %o15) − 18 − 18 1 8 De manera que: ei · ej = gji = δji : (%i16)gb.ge; 3.1.6. 0 0 1 ar 0 1 0 in 1 ( %o16) 0 0 Ejercicios lim 1. Encuentre las bases duales para los siguientes espacios vectoriales: 2 4 a) R2 , donde: |e1 i ↔ y |e2 i ↔ . 1 1 0 2 1 b) R3 , donde: |e1 i ↔ 1 , |e2 i ↔ 1 y |e3 i ↔ 1 . −1 0 3 rP re 2. Si V es el espacio vectorial de todos los polinomios reales de grado n ≤ 1, y definimos: ζ 1 [|pi] = Z 1 p(x)dx ∧ ζ 2 [|pi] = 0 Z 2 p(x)dx , 0 donde {ζ 1 , ζ 2 } ∈ V? . Encuentre una base {|e1 i , |e2 i} ∈ V que resulte ortogonal a la dual a {ζ 1 , ζ 2 }. 3. Si V es el espacio vectorial de todos los polinomios reales de grado n ≤ 2. Y si además definimos ζ 1 [|pi] = Z 1 p(x)dx = 1 , dp(x) dx ∧ ζ 3 [|pi] = p(1) x=2 ad o 0 ζ 2 [|pi] = donde {ζ 1 , ζ 2 , ζ 3 } ∈ V? . Encuentre una base {|e1 i , |e2 i , |e3 i} ∈ V que resulte ortogonal a la dual a {ζ 1 , ζ 2 , ζ 3 }. 4. Sean |v1 i y |v2 i ∈ V y supongamos que F [|v1 i] = 0 implica que F [|v2 i] = 0 ∀ F ∈ V? . Muestre que |v2 i = α |v1 i con α ∈ K. rr 5. Sean F1 y F2 ∈ V? y supongamos que F1 [|vi] = 0 implica que F2 [|vi] = 0 ∀ |vi ∈ V. Muestre que F2 = αF1 con α ∈ K. 6. En el caso 3D tenemos que si {ei } define un sistema de coordenadas (dextrógiro) no necesariamente ortogonal, entonces, demuestre que: Bo a) ei = ej × ek , ei · (ej × ek ) i, j, k = 1, 2, 3 y sus permutaciones cı́clicas b) si los volumenes: V = e1 · (e2 × e3 ) y Ṽ = e1 · (e2 × e3 ), entonces V Ṽ = 1. c) ¿Qué vector satisface a · ei = 1? Demuestre que a es único. d ) Encuentre el producto vectorial de dos vectores a y b que están representados en un sistema de coordenadas oblicuo: Dada la base: w1 = 4i + 2j + k , w2 = 3i + 3j , w3 = 2k. Entonces encuentre: 1) Las bases recı́procas {ei }. 2) Las componentes covariantes y contravariantes del vector a = i + 2j + 3k. 7. Resuelva los problemas anteriores utilizando Maxima. 3.2. TENSORES Y PRODUCTO TENSORIAL 3.2. 147 Tensores y producto tensorial 3.2.1. ar Las funciones más simples que se pueden definir sobre un espacio vectorial son los funcionales lineales y éstos nos permiten extendernos al concepto de tensor. Para llegar a la noción de tensores ampliaremos la idea de funcionales lineales, que actúan sobre un único vector, al de funcionales bilineales (o formas bilineales) que tienen dos vectores en su argumento. Como veremos más adelante este tipo de funcionales nos revelarán un contenido geométrico de gran riqueza. Es conocido que presentar el concepto de tensores para estudiantes de pregrado o, estudiantes graduados de ingenierı́a tiene algunas barreras3 y, la principal barrera quizá sea la notación. En esta capı́tulo presentaresmos la notación que mas nos sedujo desde las épocas de estudiantes, es tomada de dos libros clásicos4 , que han marcado una huella en nuestra generación y que creemos permite su aplicación a variados campos. Tensores, una definición funcional |vi ∈ V hu| ∈ V? → ∧ T [hu| ; |vi] ∈ C . lim ∀ Entonces se debe cumplir: T [hu| ; α |v1 i + β |v2 i] ≡ αT [hu| ; |v1 i] + β T [hu| ; |v2 i] ∀ |v1 i , |v2 i ∈ V T [µ hu1 | + ν hu2 | ; |vi] ≡ µ∗ T [hu1 | ; |vi] + ν ∗ T [hu2 | ; |vi] in Definiremos como un tensor a un funcional lineal (bilineal en este caso) que asocia un elemento del campo K, complejo o real, a un vector |vi ∈ V, a una forma hu| ∈ V? , o ambas, y cumple con la linealidad. Esto es: ∀ |vi , ∈ V hu| ∈ V? . ∧ ∧ hu1 | , hu2 | ∈ V? . rP re En pocas palabras: un tensor es un funcional generalizado cuyos argumentos son vectores y/o formas5 , lo que significa que T [◦; •] es una cantidad con dos “puestos” y una vez “cubiertos” se convierte en un escalar (complejo o real). Las combinaciones son muy variadas: Un tensor, con un argumento correspondiente a un vector y un argumento correspondiente a una forma, lo podremos representar de la siguiente manera: |vi ↓ hu| ↓ ad o T ◦; •∈C tensor de tipo ⇒ 1 1 . Un tensor con dos argumentos correspondientes a vectores y uno a una forma serı́a: |v 1i |v2 i hu| ↓ ↓ ↓ T [◦, ◦; •] ⇒ T ◦ , ◦ ; • ∈ C ⇒ tensor de tipo 1 2 2 1 , rr Un tensor con dos argumentos correspondientes a formas y uno a un vector: |vi ↓ hu1 | hu2 | ↓ ↓ Bo T [◦; •, •] ⇒ T ◦ ; • , • ∈ C ⇒ tensor de tipo . En general: |v 1i |v2 i ↓ |vn i hu1 | hu2 | ↓ ↓ ↓ hum | ↓ ↓ T ◦ , ◦ ,··· , ◦ ; • , • ··· , • ∈ C ⇒ tensor de tipo m n . 3 Tal y como lo plantea Battaglia, Franco, y Thomas F. George. ”Tensors: A guide for undergraduate students.”American Journal of Physics 81 (2013): 498-511 4 Misner, C. W., K. S. Thorne, and J. A. Wheeler. Gravitation. Princeton University Press, 2017; y Cohen-Tannoudji, C., Diu, B. and Laloë, F., 1977. Quantum Mechanics vol 1 (Paris: Hermann). 5 Una presentación interesante y detallada de la utilización del concepto de tensor para el manejo de datos en computación la pueden encontrar en: Lu, H., Plataniotis, K. N., & Venetsanopoulos, A. N. (2011). A survey of multilinear subspace learning for tensor data. Pattern Recognition, 44(7), 1540-1551. 148 CAPÍTULO 3. VECTORES DUALES Y TENSORES T : V?m × Vn = V? × V? · · · V? × V? × V × V · · · V × V {z } | {z } | ⇒ C, n in m ar En ésta notación el punto y coma (;) separa las “entradas” formas de las “entradas” vectores. Es importante recalcar que el orden si importa, no sólo para las cantidades separadas por el punto y coma, sino el orden de los “puestos” vectores y “puestos” formas separados por coma, y repercutirá en las propiedades de los tensores. Por ejemplo: si el orden de las “entradas” vectores no importa, podremos permutarlas sin alterar al tensor, tendremos entonces tensores simétricos respecto a esos “puestos” o “entradas”; del mismo modo, serán tensores antisimétricos aquellos en los cuales el orden si importa y al permutar esos “puestos” o “entradas” hay un cambio de signo en el tensor. Todos estos casos serán tratados con detalle más adelante, pero vale la pena recalcar que en general, para un tensor genérico el orden de la “entradas” o “puestos” si importa pero no necesariamente se comporta como los casos reseñados anteriormente. Notemos que en el caso general un tensor es básicamente un aplicación multilineal T sobre V? × V: lim con n el orden covariante y m el orden contravariante. Hay que hacer notar que por simplicidad hemos construido el espacio tensorial a partir de una solo espacio vectorial V y su conjugado V? , pero muy bien cada espacio vectorial puede ser diferente. m Por lo tanto, un tensor es un funcional multilineal que asocia m 1−formas y n vectores con C. n Un ejemplo sencillo de un funcional bilineal sobre un espacio vectorial Vn con una base |ei i es: T [|v1 i , |v2 i] = aij ξ i ζ j (i, j = 1, 2, . . . , n) , rP re donde: |v1 i = ξ i |ei i ∧ |v2 i = ζ i |ei i . son vectores arbitrarios ∈ Vn y los aij son números. Notemos que: T [|v1 i , |v2 i] = T ξ i |ei i , ζ j |ej i = ξ i ζ j T [|ei i , |ej i] = ξ i ζ j aij . Diremos que ésta será la representación del funcional bilineal para Vn . Obviamente las formas pueden ser representadas por tensores ya que son funcionales lineales de vectores. Para finalizar, notemos lo siguiente: ad o Un vector es un tensor del tipo: 1 0 hu| ↓ ⇒ T • ∈ C. Los vectores constituyen un caso especial de tensores. Bo rr Una forma es un tensor del tipo: 0 1 |vi ↓ ⇒ T ◦ ∈ C, porque son funcionales lineales para las formas diferenciales. Un escalar es un tensor del tipo: 3.2.2. 0 0 ∈ C. Producto tensorial Como será evidente más adelante, los tensores (simples) pueden provenir del producto tensorial (exterior o directo) de espacios vectoriales. Esto es, consideraremos E1 y E2 dos espacios vectoriales con dimensiones n1 y n2 , respectivamente y vectores genéricos, |ϕ(1)i y |χ(2)i pertenecientes a estos espacios vectoriales: |ϕ(1)i ∈ E1 y |χ(2)i ∈ E2 . 3.2. TENSORES Y PRODUCTO TENSORIAL 149 Definiremos el producto tensorial (exterior o directo) de espacios vectoriales, E = E1 ⊗ E2 , si a cada par de 2 vectores |ϕ(1)i y |χ(2)i le asociamos un tensor tipo y si se cumple que: 0 hψ(1)| hυ(2)| ↓ ↓ |ϕ(1)χ(2)i ≡ |ϕ(1)i ⊗ |χ(2)i ⇔ T • , • = hψ(1) |ϕ(1)i hυ(2) |χ(2)i ∈ C , 1. La suma entre tensores de E viene definida como: ar y si además se cumplen las siguientes propiedades: |ϕ(1)χ(2)i + |ζ(1)ξ(2)i = |ϕ(1)i ⊗ |χ(2)i + |ζ(1)i ⊗ |ξ(2)i = |ϕ(1) + ζ(1)i ⊗ |χ(2) + ξ(2)i . in 2. El producto tensorial es lineal respecto a la multiplicación con números reales λ y µ: [|λϕ(1)i] ⊗ |χ(2)i = [λ |ϕ(1)i] ⊗ |χ(2)i = λ [|ϕ(1)i ⊗ |χ(2)i] = λ |ϕ(1)χ(2)i , 3. El producto tensorial es distributivo respecto a la suma: lim |ϕ(1)i ⊗ [|µχ(2)i] = |ϕ(1)i ⊗ [µ |χ(2)i] = µ [|ϕ(1)i ⊗ |χ(2)i] = µ |ϕ(1)χ(2)i . |ϕ(1)i ⊗ [|χ1 (2)i + |χ2 (2)i] = |ϕ(1)i ⊗ |χ1 (2)i + |ϕ(1)i ⊗ |χ2 (2)i [|ϕ1 (1)i + |ϕ2 (1)i] ⊗ |χ(2)i = |ϕ1 (1)i ⊗ |χ(2)i + |ϕ2 (1)i ⊗ |χ(2)i . 3.2.3. Espacios tensoriales rP re Nótese que las etiquetas (1) y (2) denotan la pertenencia al espacio respectivo. Es fácil convencerse que los tensores |ϕ(1)χ(2)i ∈ E = E1 ⊗ E2 forman un espacio vectorial y la demostración se basa en comprobar los axiomas o propiedades de los espacios vectoriales tal y como lo describimos en la sección 2.1.3: 1. La operación suma es cerrada en V : ∀ |vi i , |vj i ∈ V ⇒ |vk i = |vi i |vj i ∈ V. Esto se traduce en demostrar que sumados dos tensores |ϕ(1)χ(2)i y |ζ(1)ξ(2)i ∈ E el tensor suma también pertenece a E, con α y β pertenecientes al campo del espacio vectorial ad o α |ϕ(1)χ(2)i + β |ζ(1)ξ(2)i = |αϕ(1) + ζ(1)i ⊗ |χ(2) + βξ(2)i , y esto se cumple siempre ya que, el producto tensorial es lineal respecto a la multiplicación con números reales, y por ser E1 y E2 espacios vectoriales se cumple: |αϕ(1) + ζ(1)i = α |ϕ(1)i + |ζ(1)i ∈ E1 ⇒ |ϕ(1) + ζ(1)i ⊗ |χ(2) + ξ(2)i ∈ E . |ϕ(2) + βζ(2)i = |ϕ(2)i + β |ζ(2)i ∈ E2 rr 2. La operación suma es conmutativa y asociativa. Conmutativa: ∀ |vi i , |vj i ∈ V ⇒ |vi i |vj i = |vj i |vi i. Bo Esta primera es clara de la definición de suma: |ϕ(1)χ(2)i + |ζ(1)ξ(2)i = |ϕ(1) + ζ(1)i ⊗ |χ(2) + ξ(2)i |ζ(1)ξ(2)i + |ϕ(1)χ(2)i = |ζ(1) + ϕ(1)i ⊗ |ξ(2) + χ(2)i , por ser E1 y E2 dos espacios vectoriales. Asociativa: ∀ |vi i , |vj i , |vk i ∈ V ⇒ (|vi i |vj i) |vk i = |vj i (|vi i |vk i) Una vez más, esto se traduce en: (|ϕ(1)χ(2)i + |ζ(1)ξ(2)i) + |κ(1)κ(2)i = |ϕ(1)χ(2)i + (|ζ(1)ξ(2)i + |κ(1)κ(2)i) , con lo cual, por la definición de suma, la expresión anterior queda como: (|ϕ(1) + ζ(1)i ⊗ |ξ(2) + χ(2)i) + |κ(1)κ(2)i = |ϕ(1)χ(2)i + (|ζ(1) + κ(1)i ⊗ |ξ(2) + κ(2)i) |(ϕ(1) + ζ(1)) + κ(1)i ⊗ |(ξ(2) + χ(2)) + κ(2)i = |ϕ(1) + (ζ(1) + κ(1))i ⊗ |ξ(2) + (χ(2) + κ(2))i . 150 CAPÍTULO 3. VECTORES DUALES Y TENSORES 3. Existe un único elemento neutro: ∃ |0i / |0i |vj i = |vj i |0i = |vj i ∀ |vj i ∈ V. Es decir: |ϕ(1)χ(2)i + |0(1)0(2)i = |ϕ(1) + 0(1)i ⊗ |χ(2) + 0(2)i = |ϕ(1)i ⊗ |χ(2)i = |ϕ(1)χ(2)i . 4. Existe un elemento simétrico para cada elemento de V: ∀ |vj i ∈ V ∃ |−vj i / |vj i |−vj i = |0i. |ϕ(1)χ(2)i − |ϕ(1)χ(2)i = |ϕ(1) − ϕ(1)i ⊗ |χ(2) − χ(2)i = |0(1)i ⊗ |0(2)i = |0(1)0(2)i . ar 5. α (β |vi i) = (αβ) |vi i: α (β |ϕ(1)χ(2)i) = α (|βχ(2)i ⊗ |ϕ(1)i) = |αβχ(2)i ⊗ |ϕ(1)i = (αβ) |χ(2)i ⊗ |ϕ(1)i = (αβ) |ϕ(1)χ(2)i . in 6. (α + β) |vi i = α |vi i + β |vi i: (α + β) |ϕ(1)χ(2)i = |ϕ(1)i ⊗ |(α + β) χ(2)i = |ϕ(1)i ⊗ |αχ(2) + βχ(2)i = |ϕ(1)i ⊗ [(α |χ(2)i + β |χ(2)i)] lim = α |ϕ(1)i ⊗ |χ(2)i + β |ϕ(1)i ⊗ |χ(2)i . 7. α (|vi i |vj i) = α |vi i α |vj i: α (|ϕ(1)χ(2)i + |ζ(1)ξ(2)i) = α (|ϕ(1) + ζ(1)i ⊗ |ξ(2) + χ(2)i) = |α (ϕ(1) + ζ(1))i ⊗ |ξ(2) + χ(2)i = |αϕ(1) + αζ(1)i ⊗ |ξ(2) + χ(2)i = |αϕ(1)χ(2)i + |αζ(1)ξ(2)i = α |ϕ(1)χ(2)i + α |ζ(1)ξ(2)i . rP re Equivalentemente, podemos construir un producto tensorial entre espacios de formas diferenciales. Si E?1 y E?2 son dos espacios vectoriales duales a E1 y E2 , con dimensiones n1 y n2 , respectivamente. A estos espacios pertenecen las formas diferenciales genéricas hζ(1)| ∈ E?1 y hξ(2)| ∈ E?2 . ? ? ? Definiremos el producto tensorial de espacios vectoriales duales, E = E1 ⊗ E2 , si a cada par de formas diferen0 ciales hζ(1)| ∈ E?1 y hξ(2)| ∈ E?2 le asociamos un tensor tipo . Esto es: hζ(1)ξ(2)| = hζ(1)| ⊗ hξ(2)| . 2 Es importante aclarar que el número hϕ̃(1)χ̃(2) |ϕ(1)χ(2)i = hϕ̃(1) |ϕ(1)i · hχ̃(2) |χ(2)i , NO representa el producto interno entre los tensores, hϕ̃(1)χ̃(2)| y |ϕ(1)χ(2)i. Tal y como hemos descrito arriba, T [|ϕ(1)i , |χ(2)i] ≡ T ∗ [hϕ̃(1)| , hχ̃(2)|] = hϕ̃(1) |ϕ(1)i · hχ̃(2) |χ(2)i , 3.2.4. ad o representa las evaluaciones de los funcionales T [◦] y T ∗ [•], respectivamente. Bases para un producto tensorial Si {|ui (1)i} y {|vi (2)i} son, respectivamente, bases discretas para E1 y E2 entonces podremos construir el tensor: |ui (1)vj (2)i = |ui (1)i ⊗ |vj (2)i ∈ E , rr el cual funcionará como una base para E y, por lo tanto, podremos construir un tensor genérico de E: |ϕ(1)χ(2)i = |ϕ(1)i ⊗ |χ(2)i = ϕi χj |ui (1)vj (2)i , Bo donde ϕi y χj son las componentes de |ϕ(1)i y |χ(2)i en sus respectivas bases. En otras palabras, las componentes de un tensor en E corresponden a la multiplicación de las componentes de los vectores en E1 y E2 . Recuerde que estamos utilizando la convención de Einstein de suma tácita en ı́ndices covariantes y contravariantes, en la cual Pn ck |vk i ≡ k=1 ck |vk i. Es importante señalar que si bien un tensor genérico |Ψi ∈ E siempre se puede expandir en la base |ui (1)vj (2)i no es cierto que todo tensor de E provenga del producto tensorial de E1 y E2 . Es decir, E tiene más tensores de los que provienen el producto tensorial. Esta afirmación puede intuirse del hecho que si |Ψi ∈ E entonces: |Ψi = cij |ui (1)vj (2)i , por ser {|ui (1)vj (2)i} base para E. Es claro que dados dos números α1 y α2 habrá cij que no provienen de la multiplicación de α1 α2 . El conjunto de todas funciones bilineales T [hu| ; |vi] forman un espacio vectorial sobre el espacio directo E. Este espacio vectorial de funciones tendrá una base dada por: |ui (1)vj (2)i = |ui (1)i ⊗ |vj (2)i . 3.2. TENSORES Y PRODUCTO TENSORIAL 3.2.5. 151 Tensores, sus componentes y sus contracciones in ar Hemos mencionado anteriormente, ubicándonos en R3 , que un escalar es una cantidad que se puede especificar, independientemente del sistema de coordenadas, por un sólo número. Los vectores geométricos que dibujábamos con flechas los sustituimos ahora por tres números respecto a una base seleccionada, es decir, a través de sus tres componentes. Los escalares y los vectores son casos particulares de objetos más generales que denominamos tensores, tensores de orden o rango k y cuya especificación en cualquier sistema de coordenadas requerirá de 3k números, llamadas las componentes del tensor. Esto significa que un escalar es un tensor de orden 0 (30 = 1 componente) y un vector un tensor de orden 1 (31 = 3 componentes). Si el espacio vectorial es de dimensión n, entonces un tensor de orden k tendrá nk componentes6 . Como veremos más adelante, los tensores son mucho más que simples números respecto a un sistema de coordenadas y la clave radica en la “ley de transformación” de sus componentes, es decir, en la relación que existe entre las componentes de un tensor en un sistema de coordenadas y las componentes del mismo tensor en otro sistema de coordenadas diferente. Lo que hay detrás de todo esto es el hecho de que las leyes matemáticas que describen los fenómenos fı́sicos deben ser “invariantes” bajo transformaciones de coordenadas, como por ejemplo: traslaciones (el espacio es homogéneo) y rotaciones (el espacio es isótropo). lim Componentes de un tensor hxm (1)| S mnijk = S ↓ • , rP re Consideremos un espacio tensorial V = E?1 ⊗ E?2 ⊗ E?3 ⊗ E1 ⊗ E2 . Denominaremos componentes de un tensor, aquellos números que surgen al evaluar los funcionales (formas diferenciales o vectores) con la bases de los espacios que lo constituyen. Ası́, si {|ui (1)i} y {|xi (1)i} son base para E1 , mientras {|vj (2)i} y {|yj (2)i} lo son para E2 y 2 finalmente {|tk (3)i} para E3 , entonces las componentes de un tensor serán: 3 hy n (2)| |ui (1)i |vj (2)i |wk (3)i ↓ ↓ ↓ ↓ • ; ◦ , ◦ , ◦ ⇒ S = S mnijk xm (1), yn (2); ui (1), v j (2), tk (3) , donde hemos denotado xm (1), yn (2); ui (1), v j (2), tk (3) como el tensor base xm (1), yn (2); ui (1), v j (2), tk (3) = |xm (1)i ⊗ |yn (2)i ⊗ ui (1) ⊗ v j (2) ⊗ tk (3) . Podemos comentar varias cosas: ad o Por simplicidad hemos considerado un espacio tensorial de la forma V = E?1 ⊗ E?2 ⊗ E?3 ⊗ E1 ⊗ E2 , pero claramente pudimos haberlo construido mas general, W = E?1 ⊗ E?2 ⊗ E?3 ⊗ E4 ⊗ E5 . En este ejemplo, en la base del espacio tensorial xm (1), yn (2); ui (1), v j (2), tk (3) , hemos colocado primero su “parte” vectorial y luego su “parte” forma. Los ı́ndices de las componentes heredan esta convención S mnijk : primero irán los contravariantes y luego los covariantes. Pero lo importante es que los ı́ndices etiqueten el espacio al cual corresponde. rr Nuestra notación será: Bo • |ψ(1), φ(2)i ≡ |ψ(1)i ⊗ |φ(2)i = C ij |ui (1), vj (2)i = C̃ ij |xi (1), vj (2)i = C̄ ij |ui (1), yj (2)i. Es decir un tensor pertenciente a un espacio tensorial conformado por dos espacios vectoriales y que se pueden expresar en varias de las bases de esos espacios. • hψ(1), φ(2)| ≡ hψ(1)| ⊗ hφ(2)| = Kij ui (1), v j (2) = K̃ij xi (1), v j (2) = K̄ij ui (1), y j (2) . Igual que para el caso anterior pero a partir de 1-formas. • [ψ(1), φ(2)] ≡ hψ(1)| ⊗ |φ(2)i = Mi j ui (1); vj (2) = M̃i j xi (1); vj (2) = M̄i j ui (1); yj (2) . Un tensor mixto Es importante convenir el orden en el cual se presenten los espacios con los cuales se realiza el producto tensorial 6 Existen varias presentaciones operativas de estos conceptos para Fı́sica e Ingenierı́a, pueden consultar: Battaglia, F., & George, T. F. (2013). Tensors: A guide for undergraduate students. American Journal of Physics, 81(7), 498-511. Comon, P. (2014). Tensors: a brief introduction. IEEE Signal Processing Magazine, 31(3), 44-53. 152 CAPÍTULO 3. VECTORES DUALES Y TENSORES Es de hacer notar que la selección de las bases no es arbitraria sino que deben corresponderse, entre el espacio directo, E, y su dual E? , i.e. {|ui (1)i , |vj (2)i , |wk (3)i} ⊗ {hxm (1)| , hy n (2)|} ⇔ {|xp (1)i , |yq (2)i} ⊗ hua (1)| , v b (2) , hwc (2)| . ar Si consideramos un tensor como resultado de un producto tensorial y consideramos las bases: {|ui (1)i , hxm (1)|}, sus componentes se pueden expresar {ϕm (1)χi (1)}, vale decir: 1 ⇐⇒ |ϕ(1)i ⊗ h∆(1)| ⇒ hxm (1) |ϕ(1)i ⊗ h∆(1)| ui (1)i ⇒ {ϕm (1)χi (1)} . 1 Combinaciones lineales de tensores lim in Es claro que podremos sumar (componentes) de tensores como lo hemos hecho con la suma de (componentes) de vectores: a + b = (ax + bx ) i + (ay + by ) j + (az + bz ) k = a1 + b1 i + a2 + b2 j + a3 + b3 k = ai + bi |ii i , esto es: Rklij = αQklij + βPkl ij . Producto tensorial de tensores y el otro tipo: 2 1 el producto directo es: rP re Podemos extender aún más la idea del producto directo y extenderla para tensores. Ası́, para dos tensores, uno tipo: hζ(1)| hξ(2)| ↓ ↓ 2 ⇒ |ϕ(1)χ(2)i = |ϕ(1)i ⊗ |χ(2)i = T • , • |µ(1)κ(2)Θ(1)i , 0 |u i (1)i hε(1)| hφ(2)| ↓ ↓ ↓ ⇒ |µ(1)i ⊗ |κ(2)i ⊗ hΘ (1)| = P ◦ ; • , • , rr ad o |ϕ(1)χ(2)i ⊗ |µ(1)κ(2)Θ(1)i = |ϕ(1)i ⊗ |χ(2)i ⊗ |µ(1)i ⊗ |κ(2)i ⊗ hΘ (1)| hζ(1)| hξ(2)| |u (1)i hε(1)| hφ(2)| i ↓ ↓ ↓ ↓ ↓ = T • , • ⊗P ◦ ; • , • |u i (1)i ↓ hε(1)| hφ(2)| hζ(1)| hξ(2)| ↓ ↓ ↓ ↓ = R ◦ ; • , • , • , • . Bo En componentes será como se muestra a continuación: Rij k lm = T ij Pk lm . Un vez más, note que los puestos de los ı́ndices en las componentes de los tensores heredan las posiciones de los vectores y formas que construyeron el espacio tensorial a partir del producto directo o tensorial. Contracción de un tensor Denominaremos una contracción cuando sumamos las componentes covariantes y contravariantes, esto es, si tenemos ϕi (1)χi (1), entonces se genera un escalar independiente de la base. Esta situación será más evidente cuando definamos métricas y contracción de tensores. Por analogı́a y considerando un casomás general, dada las 2 1 mn componentes Sijk correspondiente a un tensor podremos construir un nuevo tensor a partir de una 3 2 in n mn contracción. Las componentes de este nuevo tensor serán: Sijk ⇒ Sijk ≡ Sjk . 3.2. TENSORES Y PRODUCTO TENSORIAL 153 Del mismo modo, dadas las componentes de dos tensores, P lm y Qzkij generarán componentes de nuevos tensores Rk = P lm Qmkij . Ası́: 2 ⇒ P lm 0 3 ⇒ ⇒ Rk lij = P lm Qmkij . 1 2 ij ⇒ Qzk 2 lij P ij ar Es claro que si dos tensores derivan de productos tensoriales y si {|ui (1)i} , {hum (1)|} y {|vi (2)i} son bases ortonormales para E1 , E?1 y E2 , entonces sus productos tensoriales podrán ser expresados como: [α(1); β(1)] = αl (1)βm (1) |ul (1)i ⊗ hum (1)| , |γ(1); δ(2)i = γ i (1)δ j (2) |ui (1)i ⊗ |vj (2)i , {z } | {z } | l Qm in entonces: δim lim αl (1)βm (1) |ul (1)i ⊗ hum (1)| γ i (1)δ j (2) |ui (1)i ⊗ |vj (2)i = αl (1)βm (1) γ i (1)δ j (2) {hum (1) |ui (1)i} |vj (2)i ⊗ |ul (1)i | {z } = αl (1)βk (1) γ k (1)δ j (2) |vj (2)i ⊗ |ul (1)i = P ij Qil |ul (1); vj (2)i = Rjl |ul (1); vj (2)i . Simetrización de tensores rP re Pero más aún, si |ui (1)vj (2)i = |ui (1)i ⊗ |vj (2)i ∈ E es base de E entonces se puede demostrar lo anterior sin circunscribirnos a tensores cuyas componentes provengan de multiplicación de las componentes en cada espacio vectorial. Un tensor (las componentes) será simétrico respecto a dos de sus ı́ndices si su permutación no cambia su valor: S ij = S ji , Sij = Sji , y será antisimétrico si: Aij = −Aji , Aij···kl···mn = −Aij···lk···mn , ad o Aij = −Aji , Sij···kl···mn = Sij···lk···mn , S ij···kl···mn = S ij···lk···mn , Aij···kl···mn = −Aij···lk···mn . Un tensor de rango 2, viene representado por una matriz que tendrá simétrica tendrá como máximo 6 componentes distintas. 1 1 S1 S21 S31 S1 S12 Sji = Sij = S12 S22 S32 = S21 S22 S13 S23 S33 S31 S32 32 = 9 componentes. Si la matriz es S13 S23 . S33 Bo rr Mientras que un tensor antisimétrico de segundo orden tendrá, cuando máximo, tres componentes con valor absoluto distintos de cero, 0 A12 A13 0 A23 . Aj i = −Ai j = −A21 3 3 −A1 −A2 0 Siempre es posible construir tensores simétricos y antisimétricos a partir de un tensor genérico. Esto es: Sij = 1 (Tij + Tji ) ≡ T(ij) 2 ⇐⇒ Sij···kl···mn = 1 (Tij···kl···mn + Tij···lk···mn ) = Tij···(kl)···mn 2 Aij = 1 (Tij − Tji ) ≡ T[ij] 2 ⇐⇒ Aij···kl···mn = 1 (Tij···kl···mn − Tij···lk···mn ) = Tij···[kl]···mn . 2 Es evidente que las componentes de un tensor genérico, Tij , pueden expresarse como una combinación de su parte simétrica y antisimétrica: Tij = Sij + Aij . Obviamente que algo equivalente se puede realizar para componentes contravariantes de tensores. 154 CAPÍTULO 3. VECTORES DUALES Y TENSORES 3.2.6. Tensor métrico, ı́ndices y componentes con g ij = (gij ) −1 ar Para una base genérica, {|uj i}, no necesariamente de un espacio vectorial con producto interno, ortogonal, 0 podemos definir la expresión de un tensor simétrico, que denominaremos “tensor métrico”, de la siguiente 2 manera: i |u i |u i hu | huj | j i ↓ ↓ ↓ ↓ g ◦ , ◦, = g [|ui i , |uj i] = gij ≡ gji , g • , • = g ui , uj = g ij ≡ g ji , h i . Nótese que las gij ≡ gji son las componentes del tensor g ◦, ◦ una vez que la base {|uj i} ha 1. g [|ui i , |uj i] = gij ≡ gji ≥ 0 ∀ |uj i , y si 2. g [|ui i , |uj i] = g [|uj i , |ui i] ⇒ lim in i actuado. Esto hace que podamos j definir una forma a partir del tensor métrico como g [|ui i , ◦] = u y equivalentemente un vector como g u , • = |uj i. Ambas definiciones nos llevan a pensar que el tensor métrico está asociado a una función del producto interno, vale decir g ui , uj = g ij ≡ g ji = F[ ui |uj i], que preserve la idea de métrica: F ∈ R, que sea simétrico respecto a los ı́ndices i, j y que cumpla con la desigualdad triangular. Es decir, la denominación de tensor métrico, no es gratuita, g cumple con todas las propiedades de la métrica definida para un espacio vectorial euclidiano expuestas en la sección 2.2.1, vale decir: g [|ui i , |uj i] = 0 ⇒ i = j . gij ≡ gji . 3. g [|ui i , |uj i] ≤ g [|ui i , |uk i] + g [|uk i , |uj i]: La desigualdad Triangular. rP re Si la base genérica es ortonormal, {|ui i} → {|ei i}, entonces tendremos, de manera natural: g [◦, ◦] ≡ gij ei ⊗ ej ≡ gji ej ⊗ ei y g [•, •] ≡ g ij |ei i ⊗ |ej i ≡ g ji |ej i ⊗ |ei i , (3.2) con lo cual sus componentes serán matrices simétricas gij = gji , e igualmente g ij = g ji . En general impondremos que: km j gij ui ⊗ uj g |uk i ⊗ |um i = gij g km ui |uk i uj |um i = gij g km δki δm = gij g ji = δii = n , ad o ya que i, j = 1, 2, 3, · · · , n. Con lo cual gij es la matriz inversa de g ij , es decir, hemos definido las componentes contravariantes del tensor de modo que cumplan con gik g kj = δij . También es claro que si |ai = ak |uk i, entonces: gij ui ⊗ uj |ai = ak gij ui ⊗ uj |uk i = ak gij uj |uk i ui = ak gij δkj ui = ak gik ui ≡ ai ui , con lo cual ai = ak gik . De la misma forma: ha| g ij |ui i ⊗ |uj i = ha| g ij |ui i ⊗ |uj i = g ij ha |ui i ⊗ |uj i = ak g ij uk |ui i |uj i = ak g kj |uj i ≡ aj |uj i , rr otra vez aj = ak g kj , ahora subimos el ı́ndice correspondiente. De esta manera, el tensor métrico nos permite asociar formas con vectores, componentes covariantes (formas) a componentes contravariantes (vectores) y dicho rápido y mal, pero de uso muy frecuente: el tensor métrico nos “permite subir y bajar ı́ndices”. Otra forma de verlo es combinando las propiedades del producto directo de tensores y contracción de ı́ndices: Bo g ij |ui i ⊗ |uj i ⊗ Pk lmn |ul i ⊗ |um i ⊗ |un i ⊗ uk ⇒ g ij Pk lmn |uj i ⊗ Pk lmn |ul i ⊗ |um i ⊗ |un i ⊗ uk ui i g ij Pk lmn |uj i ⊗ |ul i ⊗ |um i ⊗ |un i · uk ui i = P jlmn |uj i ⊗ |ul i ⊗ |um i ⊗ |un i | {z } ⇒ g ij Pi lmn ≡ P jlmn . δik Adicionalmente, el tensor métrico permite la contracción de ı́ndices. Ası́, dado un producto tensorial de dos vectores que se pueden expresar en una base ortonormal {|ei i}: |a, bi = |ai ⊗ |bi = ak bm |ek i ⊗ |em i ⇓ i gij e ⊗ e j k m j a |ek i ⊗ b |em i = a b gij δki δm = ak bm gkm = ak bk = hb |ai = ha |bi . k m 3.2. TENSORES Y PRODUCTO TENSORIAL 155 Es decir, el producto interno de dos vectores involucra, de manera natural, la métrica del espacio, hb |ai = ha |bi = ak bk = ak bk = ak bm gkm = ak bm g km . Obviamente la norma de un vector, también incluirá al tensor métrico: 2 k|aik = ha |ai = ai aj ei |ej i = ai ai = ai aj g ij = ai aj gij . ar Finalmente, será útil especificar la forma de construir el tensor métrico para para los espacios euclideanos (y pseudo-euclideanos que nos ocuparán en la sección 3.3) definir la métrica a través del producto escalar entre vectores de la forma g [|ui i , |uj i] = gij ≡ gji = ui · uj ⇔ g [hui | , huj |] = g ij ≡ g ji = ui · uj Métrica, elemento de lı́nea y factores de escala lim 3.2.7. in Donde · representa el producto escalar estándar de Rn . Claramente gij ≡ gji = ui · uj = δji . En los ejemplos expuestos en la sección 3.2.10, haremos uso de estas definciones. El caso más emblemático lo constituye la norma de un desplazamiento infinitesimal. Para una base genérica, {|ui i}, no necesariamente ortogonal de un espacio vectorial con producto interno, el desplazamiento infinitesimal puede expresarse como: ds2 ≡ hdr |dri = dxk uk (dxm |um i) = uk |um i dxk dxm = dxm dxm = gkm dxk dxm . (3.3) ad o rP re Si las bases de formas y vectores son ortogonales, {|ei i}, (cosa más o menos común pero no necesariamente cierta siempre) la métrica será diagonal y como en general: k|ei ik 6= 1, entonces surgen los llamados factores de escala √ hi = gii : 2 2 2 1 2 gii = ii ⇒ (ds) = h1 dx1 + h2 dx2 + h3 dx3 , (3.4) g √ donde hi = gii , con i, j = 1, 2, 3 (aquı́ no hay suma). En la sección 5.1 discutiremos con detalle la construcción y el significado de los factores de escala para sistemas de coordenadas tridimensionales, por ahora los mencionamos destacando sus consecuencias en la transformación de las componentes covariantes y contravariantes entre distintas bases de vectores. De esta manera, las componentes covariantes y contravariantes estarán relacionadas, a través de los factores de escala como: aj = gjk ak ⇒ ai = h[i] a[i] . (Aquı́ h[i] a[i] NO indica suma). En otras palabras, en aquellos sistemas de coordenadas en los cuales la métrica es diagonal pero no viene representada por la matriz unidad, subir y bajar indices puede incluir los cambios de escala. Obviamente, si la base {|ii i} es la canónica, es fácil ver que: 2 k (ds) ≡ hdr |dri = δm dxk dxm = dxm dxm . Teorema del cociente Bo 3.2.8. rr es decir: g11 = g22 = g33 = 1 , gij = 0 si i 6= j , esto significa que en coordenadas cartesianas el desplazamiento infinitesimal es la ya conocida expresión: ds2 = dx2 + dy 2 + dz 2 . Al igual que existe el producto directo entre tensores, cabe preguntarse si es posible multiplicar un tensor arbitrario (de cualquier rango) por un “objeto” desconocido ¿Ese producto será un tensor? Existe importantes situaciones fı́sicas en las cuales es aplicable esta pregunta. Si Tij son las componentes de un tensor de rango 2 y el producto Tij V i = Bj es un objeto representado por un sólo ı́ndice ¿Este objeto V i será un vector? La respuesta es siempre afirmativa, y puede ser utilizada como un criterio para identificar componente de tensores. Este criterio se denomina el Teorema del Cociente. La respuesta a ésta pregunta surge de la respuesta a una pregunta distinta pero equivalente. Supongamos que nos dan n2 números aij y un (una componente de un) vector genérico V i , si la cantidadaij Vi V j es un escalar entonces la 0 parte simétrica a(ij) = 21 (aij + aji ) será un (una componente de) tensor del tipo: . La demostración involucra 2 algunas de las ideas antes expuestas y la haremos para fijar conceptos. 156 CAPÍTULO 3. VECTORES DUALES Y TENSORES Dados dos sistemas de coordenadas xi = xi (x̃m ) y x̃j = x̃j (xm ) (con i, j = 1, 2, 3, · · · , n) se cumple que: aij xi xj = ψ = ψ̃ = ãij x̃i x̃j , donde ψ = ψ̃ constituye un escalar , y por lo tanto, derivando y utilizando la regla de la cadena: ∂xi ∂ x̃j ∂xi i = = δm , xi = xi x̃j (xm ) ⇒ m ∂x ∂ x̃j ∂xm aij − ãkl ∂ x̃k ∂ x̃l ∂xi ∂xj xi xj = 0 , in aij xi xj − ãij x̃i x̃j ≡ ar por lo que: como hay una suma en ij no se puede afirmar que la cantidad del paréntesis se anula. Como esta afirmación vale para cualquier sistema de coordenadas, seleccionaremos las componentes coordenadas en la base canónica. x2 = (0, 1, 0, · · · , 0) , · · · · · · xn = (0, 0, 0, · · · , 1) , con lo cual: a11 − ãkl lim x1 = (1, 0, 0, · · · , 0) , ∂ x̃k ∂ x̃l ∂ x̃k ∂ x̃l ∂ x̃k ∂ x̃l = 0 , a − ã = 0 , · · · , · · · a − ã = 0, 22 kl nn kl ∂x1 ∂x1 ∂x2 ∂x2 ∂xn ∂xn 1 2 (ãkl + ãlk ) y ã[kl] = 1 2 (ãkl − ãlk ) y separar el tensor: rP re Como siempre podemos hacer: ã(kl) = ãkl = ã(kl) + ã[kl] ⇒ a(mm) − ã(kl) + ã[kl] ∂ x̃k ∂ x̃l ∂ x̃k ∂ x̃l = 0 ⇒ a = ã . (mm) (kl) ∂xm ∂xm ∂xm ∂xm La parte simétrica del tensor transforma siguiendo la regla: amn = Λkm Λln ãkl y es lo que de ahora en adelante denominaremos un tensor de segundo orden. En este caso, la parte simétrica de un tensor transforma como un verdadero tensor una vez que se contrae con un par de vectores. 3.2.9. Vectores, formas, tensores y leyes de transformación Bo rr ad o En esta sección discutiremos la importancia de caracterizar objetos identificando las leyes de transformación. La invariancia bajo determinadas leyes de transformación es clave en Fı́sica y nos permite identificar propiedades fundamentales. Ya hemos visto, en la sección 1.4.4, como los esquemas de transformación de coordenadas nos han permitido diferenciar escalares y pseudoescalares y vectores de pseudovectores. En esta sección puntualizaremos como transforman vectores y formas y como esos esquemas de transformaciones los heredan los tensores. En general las afirmaciones anteriores se pueden generalizar considerando que las coordenadas que definen un determinado punto, P, expresado en un sistema de coordenadas particular, son x1 , x2 , · · · , xn y las coordenadas de ese mismo punto P, expresado en otro sistema de coordenadas son x̃1 , x̃2 , · · · , x̃n . Ambas coordenadas estarán relacionadas por: 1 x = x1 x̃1 , x̃2 , · · · , x̃n x̃1 = x̃1 x1 , x2 , · · · , xn x2 = x2 x̃1 , x̃2 , · · · , x̃n x̃2 = x̃2 x1 , x2 , · · · , xn ⇐⇒ .. .. . . n x = xn x̃1 , x̃2 , · · · , x̃n x̃n = x̃n x1 , x2 , · · · , xn En una notación más compacta lo que tenemos es: x̃i = x̃i xj ⇐⇒ xi = xi x̃j , con i, j = 1, 2, 3, · · · , n . (3.5) Retomemos lo que discutimos en la sección 3.1.3, pero ahora en el lenguaje de coordenadas. En esa oportunidad mostramos como transformaban las bases y las componentes de formas y vectores. Ahora lo generalizaremos a los tensores. Otra vez, sólo exigiremos (y es bastante) que: 1. Las funciones xi = xi (x̃m ) y x̃j = x̃j (xm ) sean al menos C 2 (función y derivada continua) 3.2. TENSORES Y PRODUCTO TENSORIAL 157 2. Que el determinante de la matriz jacobiana sean finito y distinto de cero, esto es ∂xi (x̃m ) 6= 0 ⇒ ∂ x̃j det ∂x1 ∂ x̃1 ∂x1 ∂ x̃2 ··· ∂x1 ∂ x̃n ∂x2 ∂ x̃1 ∂x2 ∂ x̃2 ··· ∂x2 ∂ x̃n ∂xn ∂ x̃1 ∂xn ∂ x̃2 ··· .. . .. . .. . 6= 0 ⇒ xi = xi (x̃m ) ⇐⇒ x̃j = x̃j (xm ) . ∂xn ∂ x̃n ar Ahora bien, una vez más, derivando y utilizando la regla de la cadena: lim in ∂xi ∂xi ∂ x̃j ∂xi j i i xi = xi x̃j (xm ) ⇒ = = δ dx̃ , ⇒ dx = m ∂xm ∂ x̃j ∂xm ∂ x̃j como hemos comprobado para los dos casos particulares estudiados con anterioridad. De ahora en adelante tendremos las siguientes ReDefiniciones: Un conjunto de cantidades a1 , a2 , · · · , an se denominarán componentes contravariantes de un vector |ai ∈ V en un punto P de coordenadas x1 , x2 , · · · , xn , si: rP re 1. dada dos bases ortonormales de vectores coordenados: {|e1 i , |e2 i , · · · , |en i} y {|ẽ1 i , |ẽ2 i , · · · , |ẽn i}, se cumple que: i e ai = ai ⇒ ãi = aj ẽi |ej i . |ai = ai |ei i = ãi |ẽi i ⇒ ẽi ai = ãi 2. o equivalentemente, bajo una transformación de coordenadas: xi = xi x̃j , con i, j = 1, 2, 3, · · · , n, estas cantidades transforman como: ãi = y donde las cantidades ∂ x̃i ∂xk ∂ x̃i k ∂xi k a ⇐⇒ ai = ã , k ∂x ∂ x̃k y ∂xi ∂ x̃k con: ∂xi ∂ x̃k = δli , ∂ x̃k ∂xl (3.6) deberán ser evaluadas en el punto P . ad o Un conjunto de cantidades {b1 , b2 , · · · , bn } se denominarán componentes covariantes de un vector hb| ∈ V? en un punto P de coordenadas x1 , x2 , · · · , xn , si: 1. dada dos bases de formas: e1 , e2 , · · · , hen | y ẽ1 , ẽ2 , · · · , hẽn | se cumple que: hb| ei = bi hb| = bi ei = b̃i ẽi ⇒ ⇒ b̃i = bj hej ẽi . hb| ẽi = b̃i 2. o equivalentemente, bajo una transformación de coordenadas xi = xi x̃j (con i, j = 1, 2, 3, · · · , n) estas cantidades transforman como: b̃k = rr y donde las cantidades: ∂ x̃i ∂xk y ∂xi ∂ x̃i ∂xi ∂ x̃k bi ⇐⇒ bk = b̃i , con: = δli , k k ∂ x̃ ∂x ∂ x̃k ∂xl ∂xi ∂ x̃k (3.7) deberán ser evaluadas en el punto P . Bo Generalizamos los conceptos anteriores de la siguiente manera. Dado un conjunto bases para las formas diferenciales {hxm (1)| , hy n (2)|}, hemos definido las componentes contravariantes de un tensor: i hx (1)| hyj (2)| ↓ ↓ T ij = T • , • ⇐⇒ T ij ≡ T 11 , T 12 , · · · , T 1n , T 21 , T 22 , · · · , T 2n , · · · , T nn , en esta visión, las componentes contravariantes en un punto P de coordenadas x1 , x2 , · · · , xn ⇔ xi = xi x̃j (con i, j = 1, 2, 3, · · · , n) transforman como: T̃ ij = donde ∂ x̃i ∂xk y ∂xi ∂ x̃k ∂ x̃i ∂ x̃j km ∂xi ∂xj km ∂xi ∂ x̃k T ⇐⇒ T ij = T̃ , con: = δli , k m k m ∂x ∂x ∂ x̃ ∂ x̃ ∂ x̃k ∂xl deberán ser evaluadas en el punto P . Esto nos permite construir el caso más general. 158 CAPÍTULO 3. VECTORES DUALES Y TENSORES Si {|ti (1)i , |uj (2)i , · · · , |vk (m)i} y hxe (1)| , y f (2) , · · · , hz g (n)| son bases para los vectores y las formas, respectivamente, las componentes de un tensor: f |vk (m)i hxe (1)| hy (2)| hz g (n)| |ti (1)i |uj (2)i ↓ ↓ ↓ ↓ ↓ ↓ Tijk mn = T ◦ , ◦, , · · · , ◦ ; • , • , · · · , • , ∂ x̃i ∂ x̃k ∂xa ∂xd ∂xi ∂xk ∂ x̃a ∂ x̃d p···q i···k · · · · · · T ⇐⇒ T = · · · · · · T p···q , e···g ∂xp ∂xq ∂ x̃e ∂ x̃g a···d ∂ x̃p ∂ x̃q ∂xe ∂xg a···d nuevamente con: 3.2.10. ∂xi ∂ x̃k ∂ x̃k ∂xl = δli y donde las cantidades Ejemplos ∂ x̃i ∂xk y ∂xi ∂ x̃k (3.8) deberán ser evaluadas en el punto P . lim T̃e···gi···k = in ar ñ···ñ serán un conjunto de cantidades: T1···11···1 , T1···12···1 , · · · , T1···1···1 , T1···1ñ···1 , T2···1ñ···1 , · · · , Tm̃···11···1 , · · · , Tm̃··· m̃ que se denominarán las componentes contravariantes y covariantes respectivamente, de un tensor mixto en un punto P de coordenadas x1 , x2 , · · · , xn . Bajo una transformación de coordenadas xi = xi x̃j (con i, j = 1, 2, 3, · · · , n) estas cantidades transforman como: rP re 1. Productos tensoriales, vectores y matrices: Para fijar los conceptos que hemos desarrollado en las secciones 3.2.2, y 3.2.5 consideremos dos espacios vectoriales V1 , V2 y sus duales V1? y V2? cuyos vectores y formas pueden ser representados como 1 1 u v u2 ? |vi = v 2 ∈ V1 , hv| = (v1 v2 v3 ) ∈ V1? y |ui = u3 ∈ V2 , hu| = (u1 u2 u3 u4 ) ∈ V2 3 v u4 ad o Para ejemplificar las componentes y bases de los espacios tensoriales a partir de los espacios vectoriales y sus duales previamente identificados, podemos entonces definir la siguiente operación, como el producto tensorial: 1 1 v v u1 v 1 u2 v 1 u3 v 1 u4 |v(1)i ⊗ hu(2)| ≡ [v(1)u? (2)] = v 2 ⊗ (u1 u2 u3 u4 ) = v 2 u1 v 2 u2 v 2 u3 v 2 u4 ∈ V3 = V1 ⊗ V2? . v3 v 3 u1 v 3 u2 v 3 u3 v 3 u4 y del mismo modo el dual del producto anterior 1 z1 z w1 z 2 z 2 w1 ∗ hw(1)| ⊗ |z(2)i ≡ [w (1)z(2)] = (w1 w2 w3 ) ⊗ z 3 = z 3 w1 z4 z 4 w1 rr z 1 w2 z 2 w2 z 3 w2 z 4 w2 z 1 w3 z 2 w3 ∈ V3? = V1? ⊗ V2 . z 3 w3 z 4 w3 Notemos que tanto [v(1)u? (2)] como [v? (1)u(2)] son funcionales bilineales tal y como lo definimos en 3.2.2. Es fácil convencerse que [v(1)u∗ (2)] y [v∗ (1)u(2)] son tensores duales uno del otro. Bo Consideremos que si {|e1 (1)i , |e2 (1)i , |e3 (1)i} es una base para V1 con { e1 (1) , e2 (1) , e3 (1) } y su dual en V?1 , entonces, éstas pueden ser definidas como: 1 0 0 |e1 (1)i = 0 , |e2 (1)i = 1 , |e3 (1)i = 0 , e1 (1) = (1 0 0) , e2 (1) = (0 1 0) , e3 (1) = (0 0 1) . 0 0 1 De igual forma las bases para V2 y V2? pueden ser definidas como 1 0 0 1 |e1 (2)i = 0 , |e2 (2)i = 0 , |e3 (2)i = 0 0 0 0 , |e4 (2)i = 1 0 0 0 , 0 1 3.2. TENSORES Y PRODUCTO TENSORIAL 159 y repectivamente: e1 (2) = (1 0 0 0) , e2 (2) = (0 1 0 0) , e3 (2) = (0 0 1 0) , e4 (2) = (0 0 0 1) , definido, podemos construir la siguiente base para el espacio 0 0 0 , e1 (1) ; e2 (2) = |e1 (1)i ⊗ e2 (2) = 0 0 0 1 0 0 0 0 0 0 0 , 0 0 e1 (1) ; e3 (2) = |e1 (1)i ⊗ e3 (2) = 0 0 0 e2 (1) ; e1 (2) = |e2 (1)i ⊗ e1 (2) = 1 0 0 e2 (1) ; e3 (2) = |e2 (1)i ⊗ e3 (2) = 0 0 0 e3 (1) ; e1 (2) = |e3 (1)i ⊗ e1 (2) = 0 1 0 e3 (1) ; e3 (2) = |e3 (1)i⊗ e3 (2) = 0 0 0 0 , 0 0 0 , 0 0 0 , 0 0 0 , 0 0 0 , 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 1 0 , 0 0 0 , 0 0 1 , 0 0 0 , 0 0 0 . 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 1 in 0 0 0 0 e1 (1) ; e4 (2) = |e1 (1)i ⊗ e4 (2) = 0 0 0 e2 (1) ; e2 (2) = |e2 (1)i ⊗ e2 (2) = 0 0 0 e2 (1) ; e4 (2) = |e2 (1)i ⊗ e4 (2) = 0 0 0 e3 (1) ; e2 (2) = |e3 (1)i ⊗ e2 (2) = 0 0 0 e3 (1) ; e4 (2) = |e3 (1)i⊗ e4 (2) = 0 0 lim 1 0 0 rP re 0 0 0 ar Entonces con el producto tensorial previamente tensorial V3 = V1 ⊗ V2? : 1 0 0 e1 (1) ; e1 (2) = |e1 (1)i ⊗ e1 (2) = 0 0 0 0 0 0 Invocando la correspondencia entre kets y bras que expresamos en 3.1.1 construimos la base tensorial dual i e (1) ; ej (2) = ei (1) ⊗ |ej (2)i ∈ V3? y tendremos 0 0 0 0 0 0 , e1 (1) ; e2 (2) = 0 0 0 1 0 0 0 0 0 0 0 0 , e1 (1) ; e3 (2) = 0 0 0 0 1 0 0 0 0 0 0 0 , 0 0 0 0 , e2 (1) ; e1 (2) = 0 0 0 0 , e2 (1) ; e4 (2) = 0 0 0 1 , e3 (1) ; e3 (2) = 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 , e2 (1) ; e2 (2) = 0 0 0 0 , e3 (1) ; e1 (2) = 0 0 0 0 , e3 (1) ; e4 (2) = 1 0 0 0 0 0 0 0 0 0 0 0 , 0 0 1 0 , 0 0 0 0 . 0 1 ad o 1 1 0 e (1) ; e1 (2) = 0 0 Bo rr 0 1 0 e (1) ; e4 (2) = 0 1 0 2 0 e (1) ; e3 (2) = 0 0 0 3 0 e (1) ; e2 (2) = 0 0 0 0 0 0 0 0 1 0 0 0 0 0 Como no tenemos definido un producto interno entre tensores y sus duales no podemos afirmar que esta base sea ortogonal, pero es claro que ambos conjuntos de vectores {[ek (1) ; em (2)]} y sus duales ei (1) ; ej (2) son linealmente independientes en V3 y V3? , respectivamente. Por lo tanto, cualquier tensor, [v(1) ; u∗ (2)] ∈ V3 se puede expresar como combinación lineal de esta base |v(1)i ⊗ hu(2)| ≡ [v(1) ; u∗ (2)] = v i uj ei (1) ; ej (2) ≡ Uji ei (1) ; ej (2) , 160 CAPÍTULO 3. VECTORES DUALES Y TENSORES donde los Uji = v i uj son las componentes del tensor en esta base. Equivalentemente, el tensor [w∗ (1) ; z(2)] ∈ V3? , también podrá expresarse en la base dual hw(1)| ⊗ |z(2)i ≡ [w∗ (1) ; z(2)] = ei (1) ; ej (2) z j wi ≡ ei (1) ; ej (2) Wij . Otra vez, los Wij = z j wi son las componente del tensor [w∗ (1) ; z(2)] en la base ei (1) ; ej (2) . ar 2. Bases recı́procas y tensores métricos.En este punto analizaremos dos ejemplos en los cuales construiremos los tensores métricos a partir de dos bases para el R3 . uj × uk , ui · (uj × uk ) lim ui = in a) Bases oblicuas, bases recı́procas y tensores métricos. Consideremos una base genérica oblicua para R3 , formada por los vectores: u1 = i + j + 2k, u2 = i + 2j + 3k, y u3 = i − 3j + 4k. Revisaremos si estos vectores son mutuamente ortogonales. Encontraremos la base recı́proca ui , el tensor métrico en ambas bases y para el vector a = 3u1 + 2u2 + u3 encontraremos sus componentes covariantes. Para saber si son ortogonales simplemente calculamos el producto escalar entre ellos: u1 · u2 = 9 , u1 · u3 = 6 y u2 · u3 = 7, por lo tanto no son ortogonales y adicionalmente sabemos que: rP re que no es otra cosa que la receta para construir la base recı́proca, que en el lenguaje de formas y vectores coincide con la base dual, es decir la base del espacio de 1-formas. En general la base dual será: 1 1 5 u = u2 V×u3 = 17 6 i − 6j − 6k uj × uk u2 = u3 V×u1 = − 53 i + 13 j + 32 k ui = ⇒ V 3 u = u1 V×u2 = − 16 i − 16 j + 61 k , donde V = u1 · (u2 × u3 ) ⇒ (i + j + 2k) · ([i + 2j + 3k] × [i − 3j + 4k]) = 6 . Notemos que el volumen unitario del espacio dual se construye: 17 1 5 5 1 2 1 1 1 1 Ṽ = u1 · (u2 × u3 ) ⇒ i− j− k · − i+ j+ k × − i− j+ k = . 6 6 6 3 3 3 6 6 6 6 ad o Construimos entonces el tensor métrico para 1 1 u ·u g̃ ij = g̃ ji = ui ⊗ uj = u2 · u1 u3 · u1 la base recı́proca como: 35 u1 · u2 u1 · u3 4 u2 · u2 u2 · u3 = − 16 3 7 u3 · u2 u3 · u3 − 12 − 16 3 10 3 1 3 7 − 12 1 3 1 12 , mientras que para la base original: rr u1 · u1 gij = gji = ui ⊗ uj = u2 · u1 u3 · u1 u1 · u2 u2 · u2 u3 · u2 u1 · u3 6 u2 · u3 = 9 u3 · u3 6 6 7 . 26 9 14 7 Bo Y, como debe ser, 6 ui ⊗ uj = gij = 9 6 9 14 7 35 6 4 7 − 16 3 7 26 − 12 − 16 3 10 3 1 3 7 − 12 1 3 1 12 1 = 0 0 0 1 0 0 0 . 1 Entonces, para un vector dado por: a = 3u1 + 2u2 + u3 , podemos calcular sus componentes covariantes de la manera siguiente: a1 = g11 a1 + g12 a2 + g13 a3 = (6)(3) + (9)(2) + (6)(1) = 42 j a2 = g21 a1 + g22 a2 + g23 a3 = (9)(3) + (14)(2) + (7)(1) = 62 ai = gij a = a3 = g31 a1 + g32 a2 + g33 a3 = (6)(3) + (7)(2) + (26)(1) = 58 Esto es: a = a1 i + a2 j + a3 k = 42u1 + 62u2 + 58u3 . 3.2. TENSORES Y PRODUCTO TENSORIAL 161 b) Bases ortogonales, bases recı́procas y tensores métricos. El segundo ejemplos será construir una base dual a una base de vectores mutuamente ortogonales, para ello consideraremos los siguientes vectores w1 = i + j + 2k , w2 = −i − j + k , w3 = 3i − 3j . Ortogonalidad: w1 · w2 = 0 , w1 · w3 = 0 y w2 · w3 = 0 . Son ortogonales. La base recı́proca se construye a partir de: wj × wk , wi · (wj × wk ) ar wi = donde el denominador es: in V = w1 · (w2 × w3 ) ⇒ (i + j + 2k) · ([−i − j + k] × [3i − 3j]) = 18 , y por lo tanto: wj × wk V w2 ×w3 V = 16 i + 61 j + 13 k w3 ×w1 V = − 13 i − 31 j + 13 k w1 ×w2 V = 16 i − 61 j lim wi = 1 w = w2 = ⇒ 3 w = rP re El volumen recı́proco, como era de esperarse: 1 1 1 1 1 1 1 1 1 i+ j+ k · − i− j+ k × i− j = , Ṽ = w1 · (w2 × w3 ) ⇒ 6 6 3 3 3 3 6 6 18 mientras que el tensor métrico para la base recı́proca es: 1 w · w1 w1 · w2 ij ji i j w2 · w1 w2 · w2 ḡ = ḡ = w ⊗ w = w3 · w1 w3 · w2 y para la base original ad o w1 · w1 gij = gji = wi ⊗ wj = w2 · w1 w3 · w1 w1 · w2 w2 · w2 w3 · w2 1 w1 · w3 6 w2 · w3 = 0 w3 · w3 0 w1 · w3 6 w2 · w3 = 0 0 w3 · w3 0 1 3 0 0 3 0 0 0 1 18 0 0 . 18 Entonces el vector a = 3w1 + 2w2 + w3 = a1 w1 + a2 w2 + a3 w3 , tendrá como componentes covariantes a1 = g11 a1 = (6)(3) = 18 j a2 = g22 a2 = (3)(2) = 6 ai = gij a = a3 = g33 a3 = (18)(1) = 18 Bo rr Esto es: a = a1 i + a2 j + a3 k = 18w1 + 6w2 + 18w3 . Notemos que si la base original hubiese sido ortonormal: √ √ w1 = (i + j + 2k)/ 6 , w2 = (−i − j + k)/ 3 , entonces: gij = ḡ ij 1 = 0 0 0 1 0 √ w3 = (3i − 3j)/ 18 , 0 a1 = a1 0 a2 = a2 ⇒ 1 a3 = a3 3. Un ejemplo detallado de transformación de tensores Ilustremos ahora las transformaciones de tensores bajo cambios de la base del espacio tensorial. Esta vez, consideraremos que un tensor tendrá componentes Tj i cuando se expresa como combinación lineal de la base ei (1); ej (2) = |ei (1)i ⊗ ej (2) donde la base {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} son los vectores unitarios cartesianos para el espacio vectorial R3 . Esto es 1 0 0 |e1 i = |ii = 0 ; |e2 i = |ji = 1 , |e3 i = |ki = 0 0 0 1 162 CAPÍTULO 3. VECTORES DUALES Y TENSORES y su base dual he1 | = hi| = (1 0 0), he2 | = hj| = (0 1 0), he3 | = hk| = (0 0 1), Consideremos un tensor en la base tensorial ei (1); ej (2) se expresa como: 2 Tji = 2 1 1 3 2 3 4 . 2 ar Este ejercicio consiste en ver cómo calcular las expresiones de los siguientes tensores: T̃ij , T̃ij y T̃ ij , si consideramos una nueva base: in |w̃1 i = |ii , |w̃2 i = |ii + |ji y |w̃3 i = |ii + |ji + |ki ⇔ hw̃1 | = hi| , hw̃2 | = hi| + hj| y hw̃3 | = hi| + hj| + hk| , lim Nótese que la nueva base no es ortogonal , w̃k |w̃i i = 6 δik , con lo cual no se cumplen muchas cosas, entre k ellas: |w̃k i w̃ 6= 1. Pero sin duda se cumple que para transformar componentes de un tensor tendremos siempre la relación ∂ x̃k ∂xj i k T . T̃m = ∂xi ∂ x̃m j k j rP re x̃ ∂x Tenemos que identificar las matrices de transformación ∂∂x i y ∂ x̃m . Estas matrices de transformación son las mismas que transforman componentes (contravariantes) de vectores y las componentes (covariantes) de covectores o formas, i.e. ∂ x̃i k ∂xm ãi = a ⇔ ã = am k ∂xk ∂ x̃k y además son las mismas matrices que devuelven el cambio de un sistema de coordenadas a otro: ai = ∂xi k ã ∂ x̃k ⇔ ak = Adicionalmente, estas matrices son una la inversa de la otra ∂ x̃m ãm . ∂xk ∂xi ∂ x̃k ∂ x̃k ∂xj = δji . Para identificar esas matrices recordamos que un vector genérico transforma de la siguiente manera: |ai = aj |ej i = ãj |w̃j i , por lo tanto: ad o |ai = aj |ej i = ã1 |w̃1 i + ã2 |w̃2 i + ã3 |w̃3 i = ã1 |e1 i + ã2 (|e1 i + |e2 i) + ã3 (|e1 i + |e2 i + |e3 i) , donde hemos sustituido la expresión de la base ˜i w̃ en términos de la base {|ej i} con lo cual: |ai = a1 |e1 i + a2 |e2 i + a3 |e3 i = ã1 + ã2 + ã3 |e1 i + ã2 + ã3 |e2 i + ã3 |e3 i . Bo rr Lo que nos lleva al siguiente sistema de ecuaciones: a1 = ã1 + ã2 + ã3 ∂xi k a2 = ã2 + ã3 ⇒ ai = ã ⇒ ∂ x̃k a3 = ã3 ∂x1 ∂ x̃1 = 1; ∂x1 ∂ x̃2 = 1; ∂x1 ∂ x̃3 =1 ∂x2 ∂ x̃1 = 0; ∂x2 ∂ x̃2 = 1; ∂x2 ∂ x̃3 =1 ∂x3 ∂ x̃1 = 0; ∂x3 ∂ x̃2 = 0; ∂x3 ∂ x̃3 =1 Es de hacer notar que dado que la base: {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} es ortonormal, se tiene que: |ai = aj |ej i = ãi |w̃i i ⇒ ei ai = aj ei |ej i = aj δji = ai = ãk ei |w̃k i ⇒ ∂xi = ei |w̃k i . ∂ x̃k Este mismo procedimiento se puede aplicar para expresar el vector |ai como una combinación lineal de los vectores |w̃j i: |ai = ãj |ẽj i = aj |ej i = a1 |e1 i + a2 |e2 i + a3 |e3 i = a1 |w̃1 i + a2 (|w̃2 i − |w̃1 i) + a3 (|w̃3 i − |w̃2 i) , 3.2. TENSORES Y PRODUCTO TENSORIAL 163 esto es: ã1 = a1 − a2 ∂ x̃k i ã2 = a2 − a3 a ⇒ ⇒ ãk = ∂xi ã3 = a3 ∂ x̃1 ∂x2 ∂ x̃1 ∂x1 = 1; ∂ x̃2 ∂x1 = 0; ∂ x̃2 ∂x2 = 1; ∂ x̃3 ∂x1 = 0; ∂ x̃3 ∂x2 = 0; ∂ x̃1 ∂x3 = −1; ∂ x̃2 ∂x3 ∂ x̃3 ∂x3 =0 = −1 =1 Nótese que, como era de esperarse: ∂x ∂ x̃ = δji ∂ x̃k ∂xj 1 ⇒ 0 0 1 1 0 1 1 1 0 1 0 −1 0 1 1 −1 = 0 0 1 0 0 1 0 0 0 . 1 ar k in i Con las expresiones matriciales para las transformaciones, estamos en capacidad de calcular, componente a componente, las representación del tensor dado en la nueva base: Veamos: = = + ∂ x̃1 ∂xj i T ∂xi ∂x̃1 j ∂ x̃1 ∂x1 1 T + ∂x1 ∂ x̃1 1 ∂ x̃1 ∂x1 3 T + ∂x3 ∂ x̃1 1 es decir: T̃11 = ∂x2 1 ∂x3 1 ∂ x̃1 ∂x1 2 ∂x2 2 ∂x3 2 T + T T + T + T + ∂ x̃1 2 ∂ x̃1 3 ∂x2 ∂ x̃1 1 ∂ x̃1 2 ∂ x̃1 3 ∂x2 3 ∂x3 3 T + T , ∂ x̃1 2 ∂ x̃1 3 rP re T̃11 ∂ x̃k ∂xj i T . ∂xi ∂ x̃m j lim k T̃m = 1 · 1 T11 + 0 T21 + 0 T31 − 1 · 1 T12 + 0 T22 + 0 T32 + 0 1 T13 + 0 T23 + 0 T33 = T11 − T12 = 2 − 2 = 0 . ad o Del mismo modo para T̃21 : T̃21 = = ∂x2 1 ∂x3 1 ∂ x̃1 ∂x1 2 ∂x2 2 ∂x3 2 T + T T + T + T + ∂ x̃2 2 ∂ x̃2 3 ∂x2 ∂ x̃2 1 ∂ x̃2 2 ∂ x̃2 3 ∂x2 3 ∂x3 3 T + T , ∂ x̃2 2 ∂ x̃2 3 rr + ∂ x̃1 ∂xj i T ∂xi ∂x̃2 j ∂ x̃1 ∂x1 1 T + ∂x1 ∂ x̃2 1 ∂ x̃1 ∂x1 3 T + ∂x3 ∂ x̃2 1 T̃21 = Bo resultando: = 1 · 1 T11 + 1 T21 + 0 T31 − 1 · 1 T12 + 1 T22 + 0 T32 + 0 1 T13 + 1 T23 + 0 T31 T11 + T21 − T12 + T22 = (2 + 1) − (2 + 3) = −2 . Se puede continuar término a término (el lector debe terminar los cálculos) o realizar la multiplicación de las matrices provenientes de la transformación de componentes de tensores. Vale decir: k j 1 −1 0 2 1 3 1 1 1 0 −2 −3 ∂ x̃ ∂x k 1 −1 2 3 4 0 1 1 = 1 2 4 . T̃m = Tji ⇔ 0 ∂xi ∂ x̃m 0 0 1 1 2 2 0 0 1 1 3 5 Hay que resaltar el especial cuidado que se tuvo en la ubicación de las matrices para su multiplicación. Si x̃k ∂xj ∂ x̃k k i bien en la expresión T̃m = ∂∂x i ∂ x̃m Tj las cantidades ∂xi son números y no importa el orden con el cual se multipliquen, cuando se escriben como matrices debe respetarse la “concatenación interna de ı́ndices”. Esto 164 CAPÍTULO 3. VECTORES DUALES Y TENSORES k es, cuando queremos expresar T̃m como una matriz, donde el ı́ndice contravariante k indica filas y el ı́ndice covariante m las columnas, fijamos primero estos ı́ndices y luego respetamos la “concatenación de ı́ndices” covariantes con los contravariantes. Esta es la convención para expresar la multiplicación de matrices en la notación de ı́ndices7 . Esto es: ∂ x̃k ∂xj ∂ x̃k ∂xj i k i k T T . ⇒ T̃ = T̃m = m j ∂xi ∂ x̃m j ∂xi ∂ x̃m k j in ar x̃ ∂x i Los objetos ∂∂x i , Tj y ∂ x̃m fueron sustituidos (en sus puestos correspondientes) por su representación matricial. Con lo cual hemos encontrado la representación matricial T̃ij de las componentes del tensor T en la base {|w̃1 i , |w̃2 i , |w̃3 i} 1 T̃1 T̃21 T̃21 0 −2 −3 2 4 . T̃ij = T̃12 T̃22 T̃32 = 1 3 3 3 1 3 5 T̃1 T̃2 T̃3 lim Para encontrar la expresión de T̃ij (T̃ij = g̃ik T̃jk ), requeriremos las componentes covariantes y contravariantes del tensor métrico g̃ik que genera esta base. Para ello recordamos que para una base genérica, {|w̃j i}, no necesariamente ortogonal, de un espacio vectorial con producto interno, podemos definir la expresión de un tensor que denominaremos tensor métrico como: ∂xm ∂xn 0 gmn ≡ hem |w̃i i hen |w̃j i gmn . un tensor del tipo ⇒ g̃ij = 2 ∂ x̃i ∂ x̃j rP re Recordemos que la métrica covariante gij generada por una base ortonormal {|ei i} ≡ {|ii i} es: g11 = 1 , g22 = 1 , g33 = 1 , g12 = g21 = g13 = g31 = g23 = g32 = 0 . Es decir: gij = g ij = gji 1 ⇐⇒ 0 0 0 1 0 0 0 . 1 Con lo cual, para el caso de la base genérica no ortonormal {|w̃j i} tenemos dos formas de calcular las componentes covariantes y contravariantes del tensor métrico. ad o La primera es la forma directa: g̃ij = hem |w̃i i hen |w̃j i gmn . Esto es: g̃11 = hen |w̃1 i hem |w̃1 i gnm = e1 |w̃1 i e1 |w̃1 i + e2 |w̃1 i e2 |w̃1 i + e3 |w̃1 i e3 |w̃1 i 2 = e1 |w̃1 i = 1 g̃12 = hen |w̃1 i hem |w̃2 i gnm = e1 |w̃1 i e1 |w̃2 i + e2 |w̃1 i e2 |w̃2 i + e3 |w̃1 i e3 |w̃2 i = e1 |w̃1 i e1 |w̃2 i = 1 g̃13 = hen |w̃1 i hem |w̃3 i gnm = e1 |w̃1 i e1 |w̃3 i + e2 |w̃1 i e2 |w̃3 i + e3 |w̃1 i e3 |w̃3 i = e1 |w̃1 i e1 |w̃3 i = 1 Bo rr g̃21 = hen |w̃2 i hem |w̃1 i gnm = e1 |w̃2 i e1 |w̃1 i + e2 |w̃2 i e2 |w̃1 i + e3 |w̃2 i e3 |w̃1 i = e1 |w̃2 i e1 |w̃1 i = 1 g̃22 = hen |w̃2 i hem |w̃2 i gnm = e1 |w̃2 i e1 |w̃2 i + e2 |w̃2 i e2 |w̃2 i + e3 |w̃2 i e3 |w̃2 i = e1 |w̃2 i e1 |w̃2 i e2 |w̃2 i e2 |w̃2 i = 2 g̃23 = hen |w̃2 i hem |w̃3 i gnm = e1 |w̃2 i e1 |w̃3 i + e2 |w̃2 i e2 |w̃3 i + e3 |w̃2 i e3 |w̃3 i = e1 |w̃2 i e1 |w̃3 i + e2 |w̃2 i e2 |w̃3 i = 2 g̃31 = hen |w̃3 i hem |w̃1 i gnm = e1 = e1 |w̃3 i e1 |w̃1 i = 1 g̃32 = hen |w̃3 i hem |w̃2 i gnm = e1 = e1 |w̃3 i e1 |w̃2 i + e2 |w̃3 i g̃33 = hen |w̃3 i hem |w̃3 i gnm = e1 = e1 |w̃3 i e1 |w̃3 i + e2 |w̃3 i |w̃3 i e1 |w̃1 i + e2 |w̃3 i e2 |w̃1 i + e3 |w̃3 i e3 |w̃1 i |w̃3 i e1 |w̃2 i + e2 |w̃3 i e2 |w̃2 i + e3 |w̃3 i e3 |w̃2 i e2 |w̃2 i = 2 |w̃3 i e1 |w̃3 i + e2 |w̃3 i e2 |w̃3 i + e3 |w̃3 i e3 |w̃3 i e2 |w̃3 i + e3 |w̃3 i e3 |w̃3 i = 3 7 Quizá una forma de comprobar si los ı́ndices están bien concatenados se observa si se “bajan” los ı́ndices contravariantes pero se colocan antes que los covariantes. Esto es, Tji → Tij . Ası́, la multiplicación de matrices queda representada de la siguiente forma: Cji = Aik Bjk → Cij = Aik Bkj y aquı́ es claro que ı́ndices consecutivos están “concatenados” e indican multiplicación. 3.2. TENSORES Y PRODUCTO TENSORIAL 165 De manera que: g̃ij ⇒ g̃11 = 1 , g̃12 = 1 , g̃13 = 1 , g̃21 = 1 , g̃22 = 2 , g̃23 = 2 , g̃31 = 1 , g̃32 = 2 , g̃33 = 3 . ar Consecuentemente podemos “arreglarlo como una matriz”8 de la siguiente forma: 1 1 1 2 −1 0 −1 2 −1 . g̃ij ≡ g̃ji ⇐⇒ 1 2 2 ⇒ g̃ ij ≡ g̃ ji = (g̃ij ) ⇐⇒ −1 1 2 3 0 −1 1 in Nótese que también podrı́amos haber procedido, y en términos “matriciales”, de la siguiente forma: 1 0 0 1 0 0 1 1 1 1 1 1 j i ∂x ∂x gij ⇒ 1 1 0 0 1 0 0 1 1 = 1 2 2 . g̃km = ∂ x̃k ∂ x̃m 1 1 1 0 0 1 0 0 1 1 2 3 g̃km = ∂xj ∂xi g ij ∂ x̃k ∂ x̃m −→ lim Nuevamente es bueno aclarar que para conservar la convención de ı́ndices y poder representar la multiplicación de matrices, los ı́ndices deben estar consecutivos, por lo tanto, hay que trasponer la representación matricial para multiplicarlas. Es por eso que en el cálculo anterior aparece como primera matriz la transpuesta de la última. El cálculo se debe hacer como se muestra a continuación: g̃km = Πik gij Πjm −→ g̃km = Π̄ki gij Πjm . rP re Finalmente, estamos en capacidad de obtener las representaciones matriciales para los tensores: T̃ij , T̃ij , T̃ ij . T −2 −3 0 1 1 2 4 = −2 2 3 . 3 5 −3 4 5 0 −2 −3 2 3 6 1 1 1 2 4 = 4 8 15 . ⇐⇒ T̃km = 1 2 2 1 1 3 5 5 11 20 1 2 3 2 −1 0 2 −1 −1 0 −2 −3 2 −1 = 0 −1 2 . 2 4 −1 ⇐⇒ T̃ kn = 1 0 −1 1 −1 0 2 1 3 5 T̃ij = (T̃ji )T n T̃km = g̃kn T̃m ad o n mk T̃ kn = T̃m g̃ 0 ⇐⇒ T̃ij = 1 1 Bo rr Quisiéramos ejemplificar una forma “rápida y furiosa” (pero sucia) de calcular la métrica generada por una determinada base genérica. La idea es que, violentando toda nuestra notación e idea de tensores, construimos la métrica a partir de los vectores base definiéndola como g̃ij = hw̃i |w̃i i, de esta manera: hw̃1 |w̃1 i hw̃1 |w̃2 i hw̃1 |w̃3 i g̃ij = hw̃2 |w̃1 i hw̃2 |w̃2 i hw̃2 |w̃3 i hw̃3 |w̃1 i hw̃3 |w̃2 i hw̃3 |w̃3 i hi |ii hi| [|ii + |ji] hi| [|ii + |ji + |ki] 1 1 1 = 1 2 2 . [hi| + hj|] |ii [hi| + hj|] [|ii + |ji] [hi| + hj|] [|ii + |ji + |ki] = [hi| + hj| + hk|] |ii [hi| + hj| + hk|] [|ii + |ji] [hi| + hj| + hk|] [|ii + |ji + |ki] 1 2 3 Dejamos al lector, la reflexión si esta forma “rápida de calcular la métrica” a partir de unos vectores base es general o, si en su defecto, es una coincidencia únicamente válida para este caso. 4. Otros ejemplos con tensores cartesianos a) Dado los tensores: 1 Tij = 3 1 8 Recordemos 0 4 3 2 1 , 4 1 Ei = 4 . 3 que hemos insistido que las matrices representan tensores mixtos 166 CAPÍTULO 3. VECTORES DUALES Y TENSORES La parte simétrica de Tij es: Para la parte antisimétrica de Tij : 1 1 1 3 Aij = [Tij − Tji ] = 2 2 1 0 4 3 2 1 1 + 0 4 2 0 4 3 2 1 1 − 0 4 2 3 8 4 3 0 4 + 3 8 −1 2 1 1 3 = 3 2 3 4 3 4 1 0 1 1 3 = 3 2 −1 4 3 4 1 −3 0 2 Por lo tanto: −3 0 2 1 1 −2 = 3 0 1 0 4 3 1 −2 . 0 2 1 . 4 in 2 1 3 Tij = Sij + Aij = 2 3 3 4 . 8 3 8 4 ar 1 1 1 3 Sij = [Tij + Tji ] = 2 2 1 b) Dados Tji , ai y bi ∈ R3 con: 3 1 , 4 0 4 1 5 a= 2 −5 y −2 b= 5 . 4 rP re 1 Tji = 3 3 lim Para calcular Tij E j hacemos lo siguiente: C1 = T11 E 1 + T12 E 2 + T13 E 3 = (1)(1) + (0)(4) + (2)(3) = 7 1 2 3 C2 = T21 E 1 + T22 E 2 + T23 E 3 = (3)(1) + (4)(4) + (1)(3) = 22 Ci = Ti1 E + Ti2 E + Ti3 E = C3 = T31 E 1 + T32 E 2 + T33 E 3 = (1)(1) + (3)(4) + (4)(3) = 25 ad o Supongamos que Tji , a y b están expresados en coordenadas cartesianas. Vamos a calcular: Aij ai bj , Sij ai aj y Aij bi bj , donde Sij y Akl son, respectivamente, las partes simétrica y antisimétrica del tensor Tji . La métrica en coordenadas cartesianas viene dada por: 1 0 0 gij = 0 1 0 . 0 0 1 Tendremos que: 1 1 1 Sij = (Tij + Tji ) = 3 2 2 3 0 4 1 Bo rr Nótese que la expresión matricial para Tij ≡ métrica en este espacio. Del mismo modo: 1 0 1 1 3 4 Aij = (Tij − Tji ) = 2 2 3 1 1 3 1 + 0 3 4 3 4 1 3 2 1 1 = 3 2 4 6 3 8 2 gik Tjk es la misma que para Tji debido a la forma de la 3 1 1 − 0 4 3 3 4 1 3 0 1 1 = 3 2 4 0 −3 0 0 por lo tanto: ai Aij bj = 1 2 ai Sij aj = 1 2 bi Aij bj = 0 . 5 5 2 2 6 2 . 8 −5 −5 0 3 0 −3 0 0 3 8 2 2 3 6 0 −2 87 0 5 = − , 2 0 4 6 5 2 2 = 1, 8 −5 0 0 , 0 3.2. TENSORES Y PRODUCTO TENSORIAL 167 5. Sistema genérico de coordenadas. Dado un sistema genérico de coordenadas oblicuas: |e1 i = a |ii + b |ji , |e2 i = c |ii + d |ji . a) Para una base arbitraria, {|ei i}, la métrica viene definida por: ar gij ≡ gji = g [|ei i , |ej i] ≡ ei |ej i 1 2 e |e1 i e1 |e2 i a + b2 ac + bd gij = = . ac + bd c2 + d2 e2 |e1 i e2 |e2 i b) Un vector genérico: |vi = vx |ii + vy |ji, en estas coordenadas se escribe como: |e2 i = c |ii + d |ji |ii = ⇔ |vi = vx |ii + vy |ji = 1 ∆ (d |e1 i − b |e2 i) (−c |e1 i + a |e2 i) lim con ∆ = ad − bc, por lo cual: |ji = 1 ∆ in |e1 i = a |ii + b |ji vx vy (d |e1 i − b |e2 i) + (−c |e1 i + a |e2 i) ∆ ∆ rP re v v vy vy x x |e1 i − b − a |e2 i . = d −c ∆ ∆ ∆ ∆ c) Consideremos ahora una base y un tensor de manera concreta. √ √ 2 2 |e2 i = |ii + |ji , 2 2 |e1 i = |ii , Tji 4 1 = 2 4 . ad o Encontremos primero la expresión matricial para el tensor T̃ij 9 . En general: ∂ x̃k ∂xn T̃ij = gik T̃jk = gik m Tnm j , ∂x ∂ x̃ rr Identificando: donde: ∂ x̃1 ∂x1 = d ∂ x̃1 ∆ , ∂x2 Bo ∂ x̃1 j ∂ x̃1 1 ∂ x̃1 2 d c v = v + v = vx − vy , ∂xj ∂x1 ∂x2 ∆ ∆ ṽy = ṽ 2 = ∂ x̃2 j ∂ x̃2 1 ∂ x̃2 2 b a v = v + v = − vx + vy , j 1 2 ∂x ∂x ∂x ∆ ∆ √ 2 2 ,d √ 1 √ 2 2 ∂ x̃2 ∂x1 = √ = 22 , c = −∆ , Como a = 1, b = 0, c = gik ⇒ ṽx = ṽ 1 = ! 2 2 ∂ x̃2 ∂x2 = a ∆. entonces: ∂ x̃k ⇒ ∂xm , 1 b −∆ y 1 0 −1 √ 2 , ∂xn = ∂ x̃j 1 0 √1 2 √1 2 ∂ x̃n ∂xj −1 ! ⇒ 1 0 √1 2 √1 2 Finalmente: √ T̃ij = 9 Ayuda: 2 2 1 √ 2 2 dada una matriz genérica Aij = ! 1 A C B D 1 0 −1 √ 2 4 1 , su inversa será 2 4 D AD−BC C − AD−BC = B − AD−BC A AD−BC 4 √5 2 ! . √ 3 2 11 2 . ! . 168 CAPÍTULO 3. VECTORES DUALES Y TENSORES 6. Cartesianas y polares, otra vez El ejemplo más simple, y por ello clásico y emblemático de cambio de coordenadas, lo constituye las expresiones de un mismo vector en dos sistemas de coordenadas en el plano: Cartesianas {|ii , |ji} y polares {|ur i , |uθ i}. Esto es, para un vector |ai: |ai = ax |ii + ax |ji = a1 |e1 i + a2 |e2 i |ai = ar |ur i + aθ |uθ i = ã1 |ẽ1 i + ã2 |ẽ2 i . y |ur i = cos(θ) |ii + sen(θ) |ji |uθ i = −sen(θ) |ii + cos(θ) |ji , y con lo cual: sen(θ) cos(θ) hur |ii huθ |ii hur |ji huθ |ji hi |ur i hj |ur i hi |uθ i hj |uθ i ≡ cos(θ) −sen(θ) Para la transformación inversa se tiene: ei |ẽj i = Aij ⇐⇒ Aij = y por lo tanto: |ii = cos(θ) |ur i − sen(θ) |uθ i Por otro lado, si: ≡ cos(θ) −sen(θ) sen(θ) cos(θ) . |ji = sen(θ) |ur i + cos(θ) |uθ i . y rP re Cumpliendo además con: cos(θ) −sen(θ) cos(θ) sen(θ) cos(θ) −sen(θ) . in lim ẽi |ej i = Ãij ⇐⇒ Ãij = ar Al expresar una base en términos de la otra obtenemos: sen(θ) cos(θ) 1 0 = 0 1 ⇐⇒ Aik Ãkj = δji . |ai = ar |ur i + aθ |uθ i ≡ ã1 |ẽ1 i + ã2 |ẽ2 i = ax |ii + ax |ji ≡ a1 |e1 i + a2 |e2 i , tendremos que: i con lo cual: ⇐⇒ ar aθ = cos(θ) −sen(θ) ad o ã = Ãij aj ar = ax cos(θ) + ay sen(θ) sen(θ) cos(θ) y ax ay = ax cos(θ) + ay sen(θ) −ax sen(θ) + ay cos(θ) , aθ = −ax sen(θ) + ay cos(θ) . Del mismo modo: i y ⇐⇒ rr a = Aij ãj ax ay = cos(θ) −sen(θ) sen(θ) cos(θ) y ar aθ = ar cos(θ) − aθ sen(θ) ar sen(θ) + aθ cos(θ) ay = ar sen(θ) + aθ cos(θ) . Bo ax = ar cos(θ) − aθ sen(θ) 7. Pensando en componentes Arriba consideramos los cambios de base entre cartesianas y polares. A partir de cambios de la base construimos la matriz de transformación entre sus componentes. Ahora pondremos la atención en las componentes. En general, podemos pensar que las componentes de los vectores pueden ser funciones de las otras. Consideremos el ejemplo anterior con esta visión para estudiarlo con más detalle en dos y tres dimensiones. Caso bidimensional Tendremos que un punto en el plano viene representado en coordenadas cartesianas por dos números (x, y) y en coordenadas polares por otros dos números (r, θ). Siguiendo el ejemplo anterior un punto P , en el plano lo describimos como: |P i = rP |ur i = xP |ii + yP |ji . 3.2. TENSORES Y PRODUCTO TENSORIAL 169 Veamos como están relacionadas estas dos descripciones, para este caso en el cual las ecuaciones de transformación son: rP = rP (x, y) = x̃1 = x̃1 x1 , x2 xP = xP (r, θ) = x1 = x1 x̃1 , x̃2 ⇐⇒ θ = θP (x, y) = x̃2 = x̃2 x1 , x2 yP = yP (r, θ) = x2 = x2 x̃1 , x̃2 y explı́citamente: 1 2 xP = rP cos(θ) ⇒ x = x̃ cos(x̃ ) yP = rP sen(θ) ⇒ x2 = x̃1 sen(x̃2 ) r = px2 + y 2 P P P y θ = arctan yP xP q 2 2 (x1 ) + (x2 ) 2 ⇒ x̃2 = arctan xx1 ⇒ x̃1 = ar 1 in Es claro que ambas coordenadas están relacionadas y que se puede invertir la relación. 1 x̃1 = x̃1 x1 , x2 x = x1 x̃1 , x̃2 ⇐⇒ . x̃2 = x̃2 x1 , x2 x2 = x2 x̃1 , x̃2 lim Se debe pedir, eso si, dos cosas razonables: a) que las funciones xi = xi (x̃m ) y x̃j = x̃j (xm ) sean al menos C 2 (función y derivada continua) b) que el determinante de la matriz Jacobiana sea finito, 6= 0 . rP re ∂xi x̃k det ∂ x̃j Más aún, si: xi = xi x̃j xk ⇒ ∂xi ∂xi ∂ x̃j ∂xi j i i = = δ ⇒ dx = dx̃ , k ∂xk ∂ x̃j ∂xk ∂ x̃j con lo cual intuimos dos cosas: a) que las componentes de un vector, |P i, deben transformar bajo un cambio de coordenadas como: ∂xi x̃k j i p̃ . p = ∂ x̃j ∂xi ∂ x̃k ∂ x̃i ∂xk ad o b) Las matrices jacobianas y son una la inversa de la otra. Veamos si es cierto para el caso de vectores en el plano. Para ello calculamos la matriz jacobiana: i 1 ⇒ ∂x1 (x̃1 ,x̃2 ) ∂ x̃1 ∂x2 (x̃1 ,x̃2 ) ∂ x̃1 ∂x1 (x̃1 ,x̃2 ) ∂ x̃2 ∂x2 (x̃1 ,x̃2 ) ∂ x̃2 = cos(x̃2 ) −x̃1 sen(x̃2 ) sen(x̃2 ) x̃1 cos(x̃2 ) , rr ∂x x̃ , x̃ ∂ x̃j 2 Bo y seguidamente, identificando |P i = xP |ii + yP |ji = rP |ur i 1 1 ∂xi x̃1 , x̃2 j p cos(x̃2 ) −x̃1 sen(x̃2 ) p̃ i p = p̃ ⇒ = . p2 sen(x̃2 ) x̃1 cos(x̃2 ) 0 ∂ x̃j Igualmente, si calculamos la inversa de la matriz jacobiana: ! 1 !−1 √ x2 cos(x̃2 ) sen(x̃2 ) ∂xi x̃1 , x̃2 1 ) +(x2 )2 (x = = −sen(x̃2 ) cos(x̃2 ) −x2 ∂ x̃j x̃1 x̃1 1 2 2 2 (x ) +(x ) x2 (x1 )2 +(x2 )2 x1 (x1 )2 +(x2 )2 √ , tendremos: p̃1 0 = √ x1 (x1 )2 +(x2 )2 −x2 (x1 )2 +(x2 )2 √ x2 (x1 )2 +(x2 )2 x1 (x1 )2 +(x2 )2 p1 p2 ∂ x̃i x1 , x2 j ⇒ p̃ = p . ∂xj i 170 CAPÍTULO 3. VECTORES DUALES Y TENSORES Caso tridimensional Consideremos nuevamente dos sistemas de coordenadas: uno cartesiano x1 = x, x2 = y, x3 = z y otro esférico x̃1 = r, x̃2 = θ, x̃3 = φ . Tal y como hemos supuesto anteriormente el punto P vendrá descrito por: |P i = rP |ur i = xP |ii + yP |ji + zP |ki , de nuevo ar x = x (r, θ, φ) = x1 = x1 x̃1 , x̃2 , x̃3 r = r (x, y, z) = x̃1 = x̃1 x1 , x2 , x3 θ = θ (x, y, z) = x̃2 = x̃2 x1 , x2 , x3 y = y (r, θ, φ) = x2 = x2 x̃1 , x̃2 , x̃3 ⇐⇒ 3 3 1 2 3 φ = φ (x, y, z) = x̃3 = x̃3 x1 , x2 , x3 z = z (r, θ, φ) = x = x x̃ , x̃ , x̃ lim in Las ecuaciones de transformación serán: xP = rP sen(θ) cos(φ) ⇒ x1 = x̃1 sen(x̃2 ) cos(x̃3 ) yP = rP sen(θ)sen(φ) ⇒ x2 = x̃1 sen(x̃2 )sen(x̃3 ) zP = rP cos(θ) ⇒ x3 = x̃1 cos(x̃2 ) rP re y las transformaciones inversas: q p 2 2 2 1 2 2 2 rP = xP + yP + zP ⇒ x̃ = (x1 ) + (x2 ) + (x3 ) 2 φ = arctan xyPP ⇒ x̃2 = arctan xx1 √ √ 2 x2P +yP (x1 )2 +(x2 )2 3 ⇒ x̃ = arctan θ = arctan zP x3 ad o Con lo cual la matriz de las derivadas para esta transformación en particular será: sen (θ) cos (φ) −rsen (θ) sen (φ) r cos (θ) cos (φ) ∂xi x̃1 , x̃2 , x̃3 = sen (θ) sen (φ) rsen (θ) cos (φ) r cos (θ) sen (φ) ∂ x̃j cos (θ) 0 −rsen (θ) 2 3 1 2 3 sen x̃ cos x̃ −x̃ sen x̃ sen x̃ x̃1 cos x̃2 cos x̃3 x̃1 sen x̃2 cos x̃3 x̃1 cos x̃2 sen x̃3 . = sen x̃2 sen x̃3 2 cos x̃ 0 −x̃1 sen x̃2 Mientras que la inversa es: i 1 2 3 ∂ x̃ x , x , x ∂xj = sen (θ) cos (φ) sen(φ) − rsen(θ) Bo rr = sen (θ) sen (φ) cos(θ) cos(φ) r √ 2 x2 2 x +y +z −y x2 +y 2 xz √ (x2 +y 2 +z 2 ) x2 +y 2 Dejaremos al lector comprobar que, efectivamente, ∂xi x̃1 , x̃2 , x̃3 j i p = p̃ ⇐⇒ ∂ x̃j cos(φ) rsen(θ) cos(θ)sen(φ) r cos (θ) 0 − sen(θ) r y x2 +y 2 +z 2 x x2 +y 2 yz √ (x2 +y 2 +z 2 ) x2 +y 2 √ √ z x2 +y 2 +z 2 √ 0 − x2 +y 2 (x2 +y 2 +z 2 ) . ∂ x̃i x1 , x2 , x3 j p̃ = p . ∂xj i 8. Algunos tensores en Fı́sica: Esfuerzos, Inercia y Energı́a libre de un medio elástico En este punto vamos a ejemplificar la utilización de los tensores en varios ámbitos de la Fı́sica, en particular de la Mecánica. Para comenzar consideraremos el tensor de esfuerzos para describir las tensiones internas de cuerpos sometidos a fuerzas externas10 . Haremos el análisis tanto para el caso de dos como de tres dimensiones. Luego a continuación consideraremos el tensor de inercia y su impacto en la dinámica de cuerpos en movimiento. 10 Una presentación más contemporánea del tensor de esfuerzos la pueden encontrar en De Prunelé, E. (2007). Linear strain tensor and differential geometry. American Journal of Physics, 75(10), 881-887. 3.2. TENSORES Y PRODUCTO TENSORIAL 171 rP re lim in ar a) El tensor de esfuerzos (stress) caso 2D Supongamos un cuerpo que se encuentra en equilibrio y está sometido a un conjunto de fuerzas externas. Para facilitar las cosas consideremos el efecto de esas fuerzas sobre un plano que contiene a un determinado punto P (ver figura 3.2 cuadrante Ia). Es decir, vamos a considerar los efectos de las componentes de todas las fuerzas sobre ese plano y obviaremos el efecto del resto de las componentes. Como observamos en la figura 3.2 Ib y Ic, si cortamos la superficie en dos lı́neas (AB y A0 B 0 ), podemos ver que el efecto del conjunto de fuerzas externas es distinto sobre P , en la dirección perpendicular a cada una de esas lı́neas. De hecho, al “cortar” la superficie las fuerzas que aparecen sobre las lı́neas AB (y A0 B 0 ) eran fuerzas internas y ahora son externas al nuevo cuerpo “cortado”. Ası́, estas fuerzas por unidad de longitud11 sobre el punto P existen como un conjunto de fuerzas que generan esfuerzos (stress). Por lo tanto, es claro que los esfuerzos sobre un punto dependen del punto, de las fuerzas externas y de la dirección del efecto. Para irnos aclarando consideremos un elemento de área infinitesimal ds sobre la cual actúa un conjunto de fuerzas externas, las cuales podemos descomponer como normales y tangenciales a la lı́nea sobre la cual están aplicadas (ver figura 3.2 cuadrante II). Es costumbre denotar los esfuerzos normales y tangenciales por σ y τ respectivamente. ↑ Y2 = σ2 dx −→ X2 = τ2 dx dx ↑ Y1 = τ1 dy Y3 = τ3 dy ↑ dy ds dy dA = dxdy ⇒ → X1 = σ1 dy X = σ dy → 3 3 dx ↑ Y4 = σ4 dx → X4 = τ4 dx Consideramos la segunda ley de Newton aplicada a cada diferencial de masa dm y obtendremos: τ1 dy + σ2 dx + τ3 dy + σ4 dx = 0 = (σ2 + σ4 ) dx + (τ1 + τ3 ) dy X Fext = dm a = 0 ⇒ i σ1 dy + τ2 dx + σ3 dy + τ4 dx = 0 = (τ2 + τ4 ) dx + (σ1 + σ3 ) dy con lo cual: σ2 = −σ4 , τ1 = −τ3 , τ2 = −τ4 , σ1 = −σ3 . ad o Como se trata de una situación en equilibrio, también la sumatoria de torques se tendrá que anular. Esto significa que: dy (τ1 dy) dx 2 − (τ2 dx) 2 = 0 ⇒ τ1 = τ2 = τ3 = τ4 , dy (τ3 dy) dx − (τ dx) = 0 4 2 2 Bo rr entonces, nos damos cuenta que existen sólo tres cantidades independientes: dos esfuerzos normales σ1 y σ2 ; y un esfuerzo tangencial τ1 . Adicionalmente notamos que los esfuerzos tienen que ver con la dirección de la fuerza y la superficie sobre la cual va aplicada. Con ello podemos diseñar la siguiente notación para los esfuerzos: σij . El primer ı́ndice indica la dirección de la fuerza y el segundo la dirección de la normal de la superficie donde está aplicada. Ası́, tal y como muestra la figura (ver figura 3.2 cuadrante II) σ1 ≡ σxx , −σ4 ≡ σyy , τ2 ≡ σxy ≡ σyx . El cambio de signo se debe a lo incómodo de la notación: σ4 ≡ σy−y ya que la normal de lado 4 apunta en la dirección −y. Es importante también señalar que los esfuerzos en cualquier punto contenido en el diferencial de área dA = dxdy deben ser considerado constantes, o lo que es lo mismo, que podemos hacer tender a cero el área del diferencial y con ello asociar los esfuerzos σij a un punto P contenido en dA sobre la cual hemos calculado los esfuerzos. En esta misma lı́nea de razonamiento, nos podemos preguntar cuál es la expresión de los esfuerzos cuando se miden respecto a una superficie genérica, definida por un vector normal n (ver figura 3.2 cuadrante III). Es decir, queremos conocer los esfuerzos medidos en el punto P y en la dirección n, es decir, σnn . 11 En el caso tridimensional, las fuerzas que generan los esfuerzos serán definidas como fuerzas por unidad de área. Ese caso lo veremos en la próxima sección. CAPÍTULO 3. VECTORES DUALES Y TENSORES rP re lim in ar 172 Figura 3.2: Tensor de Esfuerzos (stress) en 2 dimensiones Por lo tanto, tendremos que: → σxx dy + σxy dx = σnn ds cos(φ) + σsn ds sen(φ) ad o x y → σyy dx + σyx dy = σnn ds sen(φ) − σsn ds cos(φ) Ahora bien, dado que dy = ds cos(φ) y dx = ds sen(φ), entonces podemos expresar: = σxx cos2 (φ) + σxy sen(φ) cos(φ) + σyx sen(φ) cos(φ) + σyy sen2 (φ) σsn = σxx sen(φ) cos(φ) + σxy sen2 (φ) − σyx cos2 (φ) − σyy sen(φ) cos(φ) rr σnn Bo y si ahora nos damos cuenta que si construimos una matriz: x cos(φ) sen(φ) An Axs i = Aj = , Ayn Ays sen(φ) − cos(φ) entonces: σnn = Axn Axn σxx + Axn Ayn σxy + Ayn Axn σyx + Ayn Ayn σyy ⇒ σnn = Ain Ajn σij σsn = Axs Axn σxx + Axs Ayn σxy + Ays Axn σyx + Ays Ayn σyy ⇒ σsn = Ais Ajn σij coni, j = x, y coni, j = x, y es decir: σkl = Aik Ajl σij , con i, j, k, l = n, s . Como ya hemos mencionado, y veremos más adelante con más detalle, cualquier objeto que transforme como σkl = Aik Ajl σij lo llamaremos tensor de segundo orden. 173 lim Figura 3.3: Tensor de Esfuerzos en 3 dimensiones in ar 3.2. TENSORES Y PRODUCTO TENSORIAL b) El tensor de esfuerzos (caso 3D) Podemos proceder como en el caso anterior estableciendo las siguientes condiciones de equilibrio: X X Fext =0 y τ ext = 0, i i σxx dydz , rP re con ello construimos un volumen (cúbico) diferencial y construimos los esfuerzos normales y tangenciales, los cuales serán: σyy dxdz , σzz dxdy , σxz dxdy , σyz dxdy , σxy dxdz . Siguiendo el mismo proceso que involucra imponer el equilibrio, es fácil demostrar que al igual que el caso anterior, el tensor de esfuerzos σij cumple con: σxz = σzx , σyz = σzy , σxy = σyx . Bo rr ad o Tendremos 6 componentes (tres normales y tres tangenciales) independientes. Es decir, si bien el tensor de esfuerzos σij viene representado por una matriz 3 × 3 y por lo tanto tiene 9 elementos, sólo 6 son independientes. Vayamos ahora el caso general para un tensor de esfuerzos en un medio elástico. Para ello construimos un tetraedro regular tal y como muestra la figura 3.3, y sobre su cara genérica asociada a un vector normal n una fuerza F: Fx = σxn dSn i Fy = σyn dSn F = F ii = Fx i + Fy j + Fz k ⇒ ⇒ F i = σji nj dS ⇒ F = σ · dS . Fz = σzn dSn De ésta manera se especifica como la fuerza actúa sobre un determinado elemento de superficie. Es claro que la condición de equilibrio se traduce en: X 1 1 1 Fxi = 0 ⇒ σxn dSn − σxx dy dz − σxy dx dz − σxz dx dy = 0 , 2 2 2 X 1 1 1 Fyi = 0 ⇒ σyn dSn − σyx dy dz − σyy dx dz − σyz dx dy = 0 , 2 2 2 X 1 1 1 Fzi = 0 ⇒ σzn dSn − σzx dy dz − σzy dx dz − σzz dx dy = 0 . 2 2 2 174 CAPÍTULO 3. VECTORES DUALES Y TENSORES Si consideramos la proyección de dSn sobre cada uno de los planos del sistema cartesiano tendremos: dS n cos (i; n) = 12 dy dz = dS n Axn 1 n n y dS cos (j; n) = 2 dx dz = dS An ⇒ σxn = σxx Axn + σxy Ayn + σxz Azn , dS n cos (k; n) = 12 dx dy = dS n Azn y equivalentemente: y σzn = σzx Axn + σzy Ayn + σzz Azn , ar σyn = σyx Axn + σyy Ayn + σyz Azn in las cuales se conocen como las relaciones de Cauchy. Estas relaciones representan los esfuerzos sobre la superficie con normal n. Ahora bien, dado que: F = σdS es una relación vectorial podemos proyectar en la dirección ûm : ûm · F = ûm · (σdS) ⇒ F m = σnm dS n = σim Ain dS n = σim Ain dS n , lim por lo tanto: σmn dS n = σmi Ain dS n ⇒ σmn dS n = σki Akm Ain dS n , con i, j = x, y, z . rP re Una vez más, podemos ver que transforma como un tensor. c) El Tensor de inercia Consideremos el caso de un sistema de n partı́culas. La cantidad de movimiento angular para este sistema vendrá dada por: X L= m(i) r(i) × v(i) , i donde hemos indicado que la i−ésima partı́cula que está en la posición r(i) tiene una velocidad v(i) . Si las distancias entre las partı́culas, y entre las partı́culas con el origen de coordenadas, es constante, podremos expresar la velocidad de cada una de ellas como: v(i) = ω × r(i) , ¿Por qué? Donde ω es la velocidad angular instantánea del sistema. Entonces tendremos que: X X m(i) ω r(i) · r(i) − r(i) ω · r(i) , L= m(i) r(i) × ω × r(i) = i ad o i y para cada partı́cula se cumple que las componentes de la cantidad de movimiento angular serán: h X i k m r(i)m − r(i) ω m r(i)m . Lk = m(i) ω k r(i) i k l Si vemos que ω(i) = δlk ω(i) entonces: k h m(i) δlk ω l rr L = X m r(i) r(i)m − k r(i) m ω r(i)m i " = X l ω(i) i Bo δlk m r(i) r(i)m − k r(i) r(i)l # i | es decir: l Lk = ω(i) Ilk , m(i) donde: Ilk = X {z Ilk } m k m(i) δlk r(i) r(i)m − r(i) r(i)l . i Ilk El objeto se conoce como el tensor de inercia y corresponde a 9 cantidades (sólo 6 son independientes porque es un tensor simétrico). En coordenadas cartesianas se verá de la siguiente forma: P P P 2 2 m y + z − i m(i) x(i) y(i) − i m(i) x(i) z(i) (i) i (i) (i) Ixx Ixy Ixz P P P 2 2 Iyy Iyz Ilk = − i m(i) x(i) y(i) − i m(i) y(i) z(i) i m(i) x(i) + z(i) Iyx = P P P Izx Izy Izz 2 2 − i m(i) x(i) z(i) + y − i m(i) y(i) z(i) m x (i) i (i) (i) 3.2. TENSORES Y PRODUCTO TENSORIAL 175 Por ahora, nos contentaremos con esta construcción y en los ejercicios le propondremos que muestre que es un tensor. d ) Energı́a libre para un medio elástico Consideremos el siguiente par de tensores provenientes de la teorı́a de elasticidad: 0 ∂uk 1 1 1 ∂ui + , uik = uik − um uik = (∂k ui + ∂i uk ) ≡ δi , k i 2 2 ∂x ∂x 3 m k 0 + Kull δji . ar y construyamos el tensor de esfuerzos como: pij = 2λ uij 1 2 (∂ m um + ∂m um ) = ∂ m um , con lo cual: lim donde: um m = in Calculemos la energı́a libre para el medio elástico, definida como: F = 12 pij uji . Tenemos que: 1 m i 2λ l i i i i 0 l i i l i pj = 2λ uj + Kul δj = 2λ uj − um δj + Kul δj = 2λuj + ul δj K − , 3 3 2λ 1 λ 2λuij + ull δji K − uji = λuij uji + ull δji uji K− 3 2 3 1 λ 2 ull = λ ui1 u1i + ui2 u2i + ui3 u3i + K− 2 3 2 1 λ = λ u11 u11 + u21 u12 + u31 u13 + u12 u21 + u22 u22 + u32 u23 + u13 u31 + u23 u32 + u33 u33 + K− ull 2 3 2 λ 1 2 2 2 K− ull = λ u11 + u22 + u33 + 2 u12 u21 + u23 u32 + u31 u13 + 2 3 2 2λ 1 ull + 2λ u12 u21 + u23 u32 + u31 u13 K+ = 2 3 1 2λ 2 = K+ (∂x ux + ∂y uy + ∂z uz ) + 2λ (∂x uy ∂y ux + ∂y uz ∂z uy + ∂z ux ∂x uz ) . 2 3 Practicando con Maxima ad o 3.2.11. 1 i j 1 p u = 2 j i 2 rP re F = Tensores y Maxima Bo rr Maxima presenta dos paquetes para la manipulación de tensores, paquetes en constante desarrollo todavı́a. Estos paquetes son ctensor, manipulación de componentes y el paquete itensor, manipulación indexada. En la manipulación por componentes los tensores se representan por arreglos o matrices. En la manipulación indexada los tensores se representan por funciones de sus ı́ndices covariantes, contravariantes y de derivadas. Los ı́ndices covariantes se especifican mediante una lista que será el primer argumento del objeto indexado, siendo los ı́ndices contravariantes otra lista que será el segundo argumento del mismo objeto indexado. Si al objeto indexado le falta cualquiera de estos grupos de ı́ndices, entonces se le asignará al argumento correspondiente la lista vacı́a [ ]. Ası́, g([a, b], [c]) representa un objeto indexado llamado g, el cual tiene dos ı́ndices covariantes (a, b), un c ı́ndice contravariante (c) y no tiene ı́ndices de derivadas, es decir, gab (%i1) load(itensor)$ (%i2) imetric(g); (%i3) ishow(g([j,k],[])*g([i,l],[])*a([],[i,j]))$ ( %t3) ai j gj k gi l (%i4) ishow(contract(%))$ ( %t4) ak l (%i5) ishow(kdelta([i],[k])*a([k,l],[]))$ 176 CAPÍTULO 3. VECTORES DUALES Y TENSORES ( %t5) δik ak l (%i6) ishow(contract(%))$ ( %t6) ai l La identidad δij δji = 3 (%i7) ishow(contract(kdelta([i], [j])*kdelta([j], [i])))$ ar ( %t7) kdelta (%i8) ishow(ev(%,kdelta))$ in ( %t8) 3 El sı́mbolo de Levi-Civita: lim (%i9) levi_civita([1, 2, 3]);levi_civita([1, 3, 2]);levi_civita([3, 3, 2]); ( %o9) 1 ( %o10) − 1 ( %o11) 0 ( %t12) εi j k εi j k rP re (%i12)expr:ishow(’levi_civita([],[i,j,k])*’levi_civita([i,j,k],[]))$ Aquı́ es necesario utilizar la función lc2kdt( ) que simplifica expresiones que contengan el sı́mbolo de Levi-Civita, para convertirlas en expresiones con la delta de Kronecker siempre que esto sea posible.12 (%i13)ishow(lc2kdt(expr))$ ( %t13) δik δji − 3 δjk δkj + δij δjk − 3 δik δki − 3 δij δji + 27 (%i14)ishow(contract(expand(%)))$ ad o ( %t14) 27 − 7 δ (%i15)ishow(ev(%,kdelta))$ ( %t15) 6 (%i16)kill(all)$ rr Transformación de tensores y Maxima Bo Como ya mencionamos, Maxima contiene un paquete para manipular componentes de tensores: ctensor. La manipulación en componentes se realiza en términos de matrices. La métrica se almacena en la matriz lg y la métrica inversa se obtiene y almacena en la matriz ug. En un ejemplo visto con anterioridad se especificaba las componentes de un tensor en coordenadas cartesianas, esto es: 2 1 3 To = Tji = 2 3 4 , en la base: {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ji , |ki} . 1 2 2 Para luego representarlo en la nueva base: |w̃1 i = |ii, |w̃2 i = |ii + |ji y |w̃3 i = |ii + |ji + |ki. Entonces necesitamos calcular: ∂ x̃k ∂xj i k T ⇒ Tn = αβTo = T̃m = ∂xi ∂ x̃m j 12 En ocaciones, la función lc2kdt( ) hace uso del tensor métrico. Si el tensor métrico no fue previamente definido con imetric, se obtiene un mensaje de error. 3.2. TENSORES Y PRODUCTO TENSORIAL Como vimos cuando hacı́amos los cálculos: 1 −1 0 k ∂ x̃ 1 −1 , = 0 α= ∂xi 0 0 1 177 1 ∂x 0 = β= ∂ x̃k 0 i 1 1 0 1 1 . 1 in lim rP re (%i1) To:matrix([2,1,3],[2,3,4],[1,2,2]); 2 1 3 ( %o1) 2 3 4 1 2 2 (%i2) alpha:matrix([1,-1,0],[0,1,-1],[0,0,1]); 1 −1 0 ( %o2) 0 1 −1 0 0 1 (%i3) beta:matrix([1,1,1],[0,1,1],[0,0,1]); 1 1 1 ( %o3) 0 1 1 0 0 1 (%i4) Tn:alpha.To.beta; 0 −2 −3 4 ( %o4) 1 2 1 3 5 ar Respetando “la concatenación interna de ı́ndices” podemos realizar la multiplicación de matrices. Una vez que hemos calculado el nuevo tensor Tn = T̃ij en la nueva base, podemos calcular: T̃ ij , T̃ij . Pero podemos utilizar la métrica para las coordenadas nuevas y con el paquete ctensor hacer las respectivas contracciones. (%i5) load(ctensor)$ (%i6) ct_coordsys(cartesian3d)$ ad o Introducimos la métrica g̃ik : (%i7) lg:matrix([1,1,1],[1,2,2],[1,2,3]); 1 1 1 ( %o7) 1 2 2 1 2 3 Para tener la métrica inversa g̃ ik escribimos: rr (%i8) cmetric()$ Bo (%i9) ug; 2 ( %o9) −1 0 −1 2 −1 0 −1 1 Para calcular T̃ij = g̃ik T̃jk hacemos lo siguiente: (%i10)lg.Tn; 2 3 ( %o10) 4 8 5 11 6 15 20 Y para calcular T̃ ij = T̃ki g̃ kj procedemos ası́: (%i11)Tn.ug; 178 CAPÍTULO 3. VECTORES DUALES Y TENSORES 2 −1 −1 ( %o11) 0 −1 2 −1 0 2 (%i12)kill(all)$ Es posible, y a manera de completar esta primer acercamiento con la librerı́a de tensores, calcular la métrica a partir de una transformación de coordenadas, como vimos en la sección anterior, ejemplo 7. Escribimos las coordenadas que queremos utilizar, en este caso esféricas, utilizando la función ct coordsys. ar (%i1) load(ctensor)$ in (%i2) ct_coordsys([r*sin(theta)*cos(phi),r*sin(theta)*sin(phi),r*cos(theta),[r,theta,phi]])$ Y le pedimos al programa que calcule el tensor métrico, al que le asigna el nombre lg. (%i3) cmetric()$ lim El tensor métrico gij es entonces rP re (%i4) lg:trigsimp(lg); 1 0 0 0 ( %o4) 0 r2 0 0 r2 sin2 θ Y la métrica inversa g ij , el programa la identifica con la etiqueta ug (%i5) trigsimp(ug); 1 0 0 0 ( %o5) 0 r12 1 0 0 r2 sin 2θ 3.2.12. Ejercicios ad o 1. Si Aijk es un tensor covariante de orden 3 y B lmno un tensor contravariante de orden 4, pruebe que Aijk B jkno es un tensor mixto de orden 3. 2. Dados los tensores: 1 3/2 5/2 3 , 4 9/2 1/3 T i = 2/3 , 1 gji = g ij 1 = gij = 0 0 0 1 0 0 0 . 1 rr 1/2 Rji = 2 7/2 Encuentre: a) La parte simétrica Sji y antisimétrica Aij de Rji . Bo b) Rkj = gik Rji , Rki = g jk Rji , Tj = gij T i ¿Qué se concluye de estos cálculos? c) Rji Ti , Rji T j , Rji Ti T j . d ) Rji Sij , Rji Aji , Aji T i , Aji T i Tj . e) Rji − 2δji Rll , (Rji − 2δji Rll )Ti , (Rji − 2δji Rll )Ti T j . 3. Demuestre que si Sji representa un tensor simétrico y Aij uno antisimétrico, entonces, Sji Aji = 0. 4. Dado Fijk un tensor totalmente antisimétrico respecto a sus ı́ndices ijk, demuestre que el rotor de Fijk definido como sigue, también será un tensor. rot [Fijk ] = ∂m Fijk − ∂i Fjkm + ∂j Fkmi − ∂k Fmij ≡ ∂Fijk ∂Fjkm ∂j Fkmi ∂k Fmij − + − . m i j ∂x ∂x ∂x ∂xk 3.2. TENSORES Y PRODUCTO TENSORIAL 179 5. Consideremos un tensor B con componentes Bij , un tensor A con componentes Ai y el producto: Bij Aj = Ci . Esta última expresión se puede interpretar como la acción de B sobre A que consiste en producir un nuevo tensor C que tendrá una magnitud y una dirección diferente a A. Podremos estar interesados en encontrar todos los vectores que NO son rotados por B, es decir, que estarı́amos interesados en resolver la ecuación: ar Bij Aj = λAi , donde λ es un escalar. in Si estos vectores existen se denominan vectores caracterı́sticos o “autovectores” de B y sus direcciones: direcciones principales o caracterı́sticos. Más aún, los ejes determinados por las direcciones principales se denominan ejes principales de B. Los valores de las componentes Bij en el sistema de coordenadas determinado por los ejes principales se denominan valores caracterı́sticos o “autovalores” de B. lim Ahora, como lo ilustramos en los ejemplos, consideremos un sistema conformado por n partı́culas de masas iguales: m1 , m2 , . . . mn = m, distribuidas en el plano xy, y sea Iij el tensor de inercia con respecto a un sistema rectangular de coordenadas. Por ser un caso en 2D, el tensor de inercia tendrá solamente cuatro componentes. a) Encuentre: I11 = Ixx , I22 = Iyy y I12 = Ixy = I21 = Iyx . rP re b) Si un vector A coincide con el eje principal de Iij entonces debe satisfacer la ecuación: (I11 − λ)A1 + I12 A2 = 0 j j j Ii Aj = λAi ⇒ (Ii − λδi )Aj = 0 ⇒ I12 A1 + (I22 − λ)A2 = 0 Encuentre la solución (no trivial) para λ, es decir, resuelva: λ2 − λ(I11 + I22 ) + I11 I22 − (I12 )2 = 0. c) ¿Cómo se interpreta el hecho de que I12 = 0? d ) Si I12 6= 0 y λ1 6= λ2 , entonces, para cada valor de λ se puede encontrar un vector (autovector) A(λ1 ) y A(λ2 ) resolviendo el sistema de dos ecuaciones. Demuestre que las direcciones de estos vectores tienen pendientes, respecto al sistema de coordenada, dadas por: tan(θ1 ) = ad o e) Demuestre que: λ1 − I11 , I12 tan(2θ1 ) = tan(2θ2 ) = tan(θ2 ) = λ2 − I11 . I12 2I12 π , donde θ2 = θ1 + , I11 − I22 2 es decir: A(λ1 ) ⊥ A(λ2 ) . rr f ) ¿Cuáles son las componentes del tensor de inercia en el sistema de coordenadas determinado por los ejes principales? Bo 6. En este ejercicio generalizamos la definición del momento de inercia para cuerpos continuos, el cual se define como: Z i Ij = dvρ (r) δji xk xk − xi xj , con xi = {x, y, z} y dv = dx dy dz . V a) Muestre que Iji es un tensor. b) Considere un cubo de lado l y masa total M tal que tres de sus aristas coinciden con un sistema de coordenadas cartesiano. Encuentre el tensor momento de inercia, Iji . 7. Dados dos sistemas de coordenadas ortogonales O (x, y, z) y Õ (x̃, ỹ, z̃), donde el sistema de coordenadas Õ se obtiene rotando a O, π/6 alrededor del eje z y π/2 alrededor del eje x̃, con lo cual los ejes ỹ y z coinciden. a) Si tenemos los vectores: A = i + 2j + 3k , Expréselos en el sistema de coordenadas Õ B = 2i + j + 3k . (x̃, ỹ, z̃). 180 CAPÍTULO 3. VECTORES DUALES Y TENSORES b) El tensor de esfuerzos (tensiones normales y tangenciales a una determinada superficie) se expresa en el sistema O (x, y, z) como: P1 0 P4 Pji = 0 P2 0 . 0 0 P3 (x̃, ỹ, z̃)? 8. Suponga un sistema de coordenadas ortogonales generalizadas q 1 , q 2 , q 3 las cuales tienen las siguiente relación funcional con las coordenadas cartesianas: ar ¿Cuál será su expresión en el sistema de coordenadas Õ b) Encuentre los vectores base para este sistema de coordenadas. in q 1 = x + y; q 2 = x − y; q 3 = 2z . a) Compruebe que el sistema q 1 , q 2 , q 3 conforma un sistema de coordenadas ortogonales lim c) Encuentre el tensor métrico y el elemento de volumen en estas coordenadas. d ) Encuentre las expresiones en el sistema q 1 , q 2 , q 3 para los vectores: A = 2j , B = i + 2j , C = i + 7j + 3k . e) Encuentre en el sistema q 1 , q 2 , q 3 las expresiones para las siguientes relaciones vectoriales : A × B, A · C, (A × B) · C . rP re ¿Qué puede decir si compara esas expresiones en ambos sistemas de coordenadas? f ) Considere los siguientes tensores y vectores en coordenadas cartesianas : 1/3 1 1/2 1 3/2 5/2 3 , T i = 2/3 , gji = g ij = gij = 0 Rji = 2 1 0 7/2 4 9/2 y encuentre sus expresiones para el nuevo sistema de coordenadas q 1 , q 2 , q 3 . 3.3. 0 1 0 0 0 . 1 Vectores, tensores y espacios pseudoeuclidianos Bo rr ad o Hasta este punto la descripción de formas representadas por un bra: ha| ≡ ak ek ha sido casi estética. Hemos insistido que las componentes de las formas tienen subı́ndices, mientras que sus vectores bases, ek , deben tener superı́ndices, pero no hemos visto clara la necesidad de esa definición. Un ejemplo, un tanto tı́mido lo desarrollamos en en la sección 3.1.2, 137, donde mencionamos que las bases recı́procas de vectores podrı́an jugar el papel de bases para el espacio dual. Quizá el ejemplo más emblemático y simple, donde se observa la diferencia entre formas (bras) y vectores (kets) es el caso de los espacios minkowskianos. Estos espacios, también llamados pseudoeuclidianos, presentan una variante en la definición de producto interno, de tal forma que: hx| xi no es necesariamente positivo, y si hx| xi = 0 no necesariamente implica que |xi ≡ |0i. La consecuencia inmediata es que la definición de norma N (|vi i) ≡ k|vi ik, que vimos anteriormente, no es necesariamente positiva. Vale decir que tendremos vectores con norma positiva, k|vi ik > 0, pero también vectores con norma negativa o cero: k|vi ik ≤ 0. Con lo cual la definición de distancia, entendida como la norma de la resta de vectores, d (|xi , |yi) ≡ k|xi − |yik, tampoco será necesariamente positiva. Esto es, que las distancias serán negativas, positivas o nulas: d (|xi , |yi) < 0, d (|xi , |yi) = 0 y d (|xi , |yi) > 0. Si extendemos la noción de distancia para que albergue las posibilidades de distancias nula y negativas, entonces la definición del tensor métrico para espacios pseudoeuclidianos también debe cambiar. <0 =0 g [|xi i , |xj i] = gij ≡ gji >0 En resumen <0 <0 <0 =0 =0 =0 hx| xi = ⇒ d (|xi , |yi) = ⇒ g [|xi i , |xj i] = >0 >0 >0 3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS 181 Este tipo de espacios luce como un excentricidad más de los matemáticos y una curiosidad de estudio es ver como organizar los conceptos que aprendimos de los espacios euclidianos y extenderlos a otros espacios. Quizá se hubiera quedado ası́, como una curiosidad matemática si los fı́sicos no hubieran sacado partido de estas particularidades para describir el comportamiento de la naturaleza. En la próxima sección analizaremos el caso de espacios minkowskianos de dimensión 4, que denominaremos M4 . 3.3.1. Espacios minkowskianos y η αβ |eα i ⊗ |eβ i ≡ η βα |eβ i ⊗ |eα i , in ηαβ heα | ⊗ eβ ≡ ηβα eβ ⊗ heα | ar Consideremos un espacio tetradimensional expandido por una base ortonormal: {|e0 i , |e1 i , |e2 i , |e3 i}. Los vectores {|e1 i , |e2 i , |e3 i} corresponden con la base canónica de R3 . Este espacio vectorial M4 tendrá asociado un espacio dual: e0 , e1 , e2 , e3 a través de una métrica: Lo interesante del caso es que: a1 = −a1 , a2 = −a2 , rP re aα = aσ ησα ⇒ a0 = a0 , lim con α, β = 0, 1, 2, 3, y donde: η00 = η 00 = 1, η11 = η 11 = −1, η22 = η 22 = −1, η33 = η 33 = −1 (con ηαβ = 0 para α 6= β). Se dice que η tiene signo −2.13 Tal y lo como presentamos en la sección 3.2, podemos asociar componentes covariantes y contravariantes a través de la métricas. Si |ai = aσ |eσ i, entonces: ηαβ heα | ⊗ eβ |ai = aσ ηαβ heα | ⊗ eβ |eσ i = aσ ηαβ eβ |eσ i heα | = aσ ηαβ δσβ heα | = aσ ηασ heα | ≡ aα heα | . a3 = −a3 . Es decir, en este caso, porque la métrica tiene signo −2, bajar los ı́ndices espaciales (µ = i = 1, 2, 3) es cambiar el signo a las componentes14 . Dicho con más propiedad, las componentes espaciales contravariantes (µ = i = 1, 2, 3) tienen signos contrarios a las componentes covariantes. De la misma manera que se expuso anteriormente en la sección 3.2: ha| η αβ |eα i ⊗ |eβ i = aσ heσ | η αβ |eα i ⊗ |eβ i = aσ η αβ heσ |eα i |eβ i = aσ η αβ δασ |eβ i = aσ η σβ |eβ i ≡ aβ |eβ i . ad o y otra vez, aσ = η σα aα , y habrı́a cambio de signo cuando se bajan los ı́ndices 1, 2, 3 para la métrica con signo −2 que hemos considerado anteriormente. Del mismo modo se “suben” y se “bajan” ı́ndices para componentes de tensores: η αβ Pαγσ ≡ P βγσ . Por su parte, el producto interno de dos vectores en un espacio de Minkowski involucra, de manera natural, la métrica del espacio. Esto es: rr ha |bi = hb |ai = aα bα = bα aα = aα bβ ηαβ = aα bβ η αβ = a0 b0 − a1 b1 − a2 b2 − a3 b3 = a0 b0 − a1 b1 − a2 b2 − a3 b3 . Una vez más, la norma de un vector, también incluirá al tensor métrico: 2 Bo k|aik = ha |ai = aα aβ heα |eβ i = aα aα = aα aβ η αβ = aα aβ ηαβ = a0 a0 − a1 a1 − a2 a2 − a3 a3 . El caso más conocido lo constituye la norma de un desplazamiento infinitesimal, en un espacio tetradimensional, el cual puede expresarse como: ds2 ≡ hdr |dri = (dxα hwα |) dxβ |wβ i = dxβ dxβ = ηαβ dxα dxβ = dt2 − dx2 , con: dx2 = dx1 2 + dx2 2 2 + dx3 . 13 Realmente el signo −2 es una convención, se puede también considerar η µν de signo +2, con η00 = −1, η11 = +1, η22 = +1, η33 = +1. 14 Otra vez, para la métrica con signo −2, el cambio de signo entre componentes covariantes y contravariantes se da para la componente, µ=0 182 CAPÍTULO 3. VECTORES DUALES Y TENSORES 3.3.2. Un toque de Relatividad Especial La genialidad de Albert Einstein fue haber entendido que tenı́a que incorporar el tiempo como otra coordenada más, vale decir, que los eventos que ocurren en la naturaleza están etiquetados por cuatro números: (t, x, y, z) ≡ (x0 , x1 , x2 , x3 )15 . El rápido desarrollo de la comprensión de las ideas relativistas muestra que estaban en el ambiente de la época de comienzos de 1900, y una vez más la simplicidad como prejuicio se impuso. Sólo dos suposiciones están en el corazón de la Relatividad Especial: ar 1. El principio de la Relatividad: Las leyes de la Fı́sica son idénticas en todos los sistemas de referencia inerciales. 2. La universalidad de la velocidad de la luz en el vacı́o: La velocidad de la luz en el vacı́o es siempre la misma, y es independiente de la velocidad de la fuente de luz respecto a un observador en particular. rP re lim in En términos matemáticos estas dos audaces suposiciones se concretan en una simple suposición matemática: el producto interno entre dos elementos de este espacio tetradimensional, debe conservarse para una familia de vectores base. Luego vendrá la asociación de observadores fı́sicos -o sistemas de coordenadas- con los miembros de la familia de vectores base, pero la idea es la misma que planteamos para los espacios euclidianos en 2.2.3: el producto interno -y consecuentemente, la norma de los elementos del espacio vectorial y la distancia entre éstos- es el mismo independientemente de la base en la cual expanda el espacio vectorial. La primera de las interpretaciones es el cómo representamos los eventos en el espacio-tiempo. Supongamos el caso unidimensional en el espacio, vale decir los eventos ocurren en un punto de la recta real x = x1 , y en un tiempo determinado, por lo tanto podremos asociar al evento un vector evento: → (x0 , x1 ). A continuación nos preguntamos que representan las distancias (espacio-temporales) entre estos dos eventos. Tal y como vimos, las distancias entre dos elementos de un espacio vectorial puede ser construida a partir de la norma (de la resta de coordenadas) y la norma a partir del producto interno: < 0 conexión tipo espacio: eventos desconectados causalmente. = 0 conexión tipo luz: posible conexión causal a través de rayos de luz. || |y − xi ||2 ≡ hy − x |y − xi > 0 conexión tipo tiempo: posible conexión causal. ad o Con esta primera interpretación de los valores de la norma y la visión tetradimensional, el espacio-tiempo, dividido en pasado, presente y futuro, se puebla de eventos que pueden estar o no relacionados causalmente tal y como muestra la figura 3.4. rr La preservación del producto interno para todos los observadores era intuitiva en los espacios euclidianos y, al mantenerla para los pseudoeuclidianos nos traerá consecuencias nada intuitivas en nuestra idea intuitiva de “realidad”. Para el caso de la formulación de la Relatividad Especial, añadimos un supuesto más: las componentes del tensor métrico son invariantes bajo transformaciones de coordenadas, esto es: Bo g [|eµ i , |eν i] ≡ g̃ [|ẽµ i , |ẽν i] ⇔ ηαβ = η̃αβ , con: {|eµ i} y {|ẽµ i} dos bases que se conectan a través de una transformación de coordenadas: xµ = xµ (x̃α ) ⇔ x̃µ = x̃µ (xα ) . Figura 3.4: Cono de luz, espacio-tiempo y eventos. Construyamos ahora el tipo de transformación de coordenadas que mantiene estos dos supuestos16 : 15 Una discusión sobre la necesidad de incorporar los conceptos de relatividad especial en los programas de estudio de Fı́sica mediante la utilización del álgebra geométrica la pueden encontrar en Baylis, W. E. (2004). Relativity in introductory physics. Canadian journal of physics, 82(11), 853-873. 16 Estamos suponiendo que observadores, sistemas de coordenadas y sistemas de referencia son conceptos equivalentes. 3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS 183 1. El producto interno de dos vectores es independiente de la base que expande el espacio vectorial. 2. Las componentes del tensor métricos son invariantes bajo transformaciones de coordenadas. Si el producto interno de dos vectores es independiente de la base que expanda el espacio vectorial, tendremos: hx |yi = hx̃ |ỹi xα yα = x̃α ỹα ⇔ ⇔ xα y β ηαβ = x̃α ỹ β η̃αβ , y como lo vimos en 3.2.9 las componentes de vectores, bajo cambio de coordenadas, transforman como: ∂ x̃ν α ∂ x̃µ β ∂ x̃ν ∂ x̃µ ∂ x̃i k a ⇒ xα yα = x̃α ỹα ⇔ xα y β ηαβ = x y η̃νµ = xα y β α β η̃νµ , k α β ∂x ∂x ∂x ∂x ∂x ar ãi = ∂ x̃ν ∂ x̃µ ∂ x̃ν ∂ x̃µ η̃νµ ≡ ηνµ . α β ∂x ∂x ∂xα ∂xβ Ahora bien, si derivamos (3.9) respecto a xγ tendremos que: 2 ν ∂ x̃ ∂ x̃µ ∂ x̃ν ∂ 2 x̃µ 0 = ηνµ + . ∂xα ∂xγ ∂xβ ∂xα ∂xβ ∂xγ (3.9) lim ηαβ = in con lo cual concluimos que: rP re Como la cantidad dentro del paréntesis se anula podemos jugar con ésta para descubrir algunas consecuencias ocultas. Es de hacer notar que esa cantidad tiene tres ı́ndices libres y por lo tanto son 64 ecuaciones que se anulan. Eso significa que le podemos añadir y sustraer cualesquiera otras con los ı́ndices intercambiados. Supongamos que al paréntesis anulado le añadimos una con los ı́ndices α y γ intercambiados y, adicionalmente, le sustraemos una con los ı́ndices γ y β intercambiados. Claramente, estamos añadiendo y sustrayendo ceros. 2 ν ∂ x̃ ∂ x̃µ ∂ x̃ν ∂ 2 x̃µ ∂ 2 x̃ν ∂ x̃µ ∂ x̃ν ∂ 2 x̃µ ∂ 2 x̃ν ∂ x̃µ ∂ x̃ν ∂ 2 x̃µ 0 = ηνµ + + + − − . ∂xα ∂xγ ∂xβ ∂xα ∂xβ ∂xγ ∂xγ ∂xα ∂xβ ∂xγ ∂xβ ∂xα ∂xα ∂xβ ∂xγ ∂xα ∂xγ ∂xβ ad o Con este truco, vemos que el último término anula el segundo y el penúltimo el cuarto, de forma y manera que nos queda: ∂ 2 x̃ν ∂ x̃µ 0 = 2ηνµ α γ β , ∂x ∂x ∂x Con lo cual la única posibilidad que resulta es la siguiente: 0= ∂ 2 x̃ν ⇒ x̃ν = Λνµ xµ + aν , ∂xα ∂xγ (3.10) rr con: Λνµ y aν constantes. Las transformaciones lineales (3.10) se conocen como las transformaciones, inhomogéneas, de Lorentz o también las transformaciones de Poincaré. Estas transformaciones forman un grupo y, uno de los posibles subgrupos lo constituye el conjunto de transformaciones propias de Lorentz de la forma: Λ00 = 1, Λi0 = Λ0j = 0, y Λij = Rji , Bo con: i, j = 1, 2, 3, y donde Rji es una matriz de rotación. Supongamos el caso más sencillo de este grupo de transformaciones: aν = 0, en la ecuación (3.10). Explı́citamente hemos identificado una transformación de la forma: 0 α 1 α 2 α 3 x̃α = Λα 0 x + Λ 1 x + Λ2 x + Λ3 x , la cual, por construcción, deja invariante el intervalo tetradimensional: ds2 = c2 dt2 − dx1 − dx2 − dx3 = ηµν dxµ dxν , con ηµν el tensor métrico. Aquı́ c es la constante que representa la velocidad de la luz en el vacı́o. Por razones de conveniencia se escoge un sistema de unidades donde c = 117 . 17 Un sistema de unidades denominado sistema de unidades geometrizado en el cual la velocidad de la luz y la constante de gravitación universal se toman como la unidad: c = G = 1. 184 CAPÍTULO 3. VECTORES DUALES Y TENSORES Es inmediato demostrar que este tipo de transformaciones deja invariante el intervalo. Primero, notemos que: µ η̃ µν = Λµα Λνβ η αβ ⇒ η µν ηνγ = δγµ = Λµα Λνβ η αβ ηνγ ⇒ Λµα Λα γ = δγ y como dx̃µ = Λµα dxα , entonces: ds̃2 = η̃µν dx̃µ dx̃ν ≡ ηµν Λµα dxα Λνβ dxβ = ηαβ dxα dxβ = ds2 . in ar Para construir una de las expresiones más utilizadas del grupo de Lorentz consideramos la siguiente situación: un observador, x̃µ , ve moverse una partı́cula con una velocidad v, mientras que un segundo observador, xµ , la percibe en reposo. Entonces, para el observador que registra la partı́cula en reposo resulta que dxi = 0, y: = Λ00 dt dt̃ µ µ α dx̃ = Λα dx ⇒ dx̃i = Λiα dxα = Λi0 dt con i = 1, 2, 3. Ahora bien, las ecuaciones anteriores nos imponen: dx̃ dx̃i ⇒ vi = dt̃ dt̃ ⇒ Λi0 = v i Λ00 . Además, tenemos que: con una solución de la forma: Λ00 = γ , donde: 2 − Λ10 2 − Λ20 2 − Λ30 2 , rP re η̃αβ = Λµα Λνβ ηµν ⇒ 1 = Λµ0 Λν0 ηµν = Λ00 lim v= Λi0 = γ v i , 1 1 1 ≡√ ≡r γ=p h i, i 2 1 − v vi 1 − (v) 2 2 2 1 − (v 1 ) + (v 2 ) + (v 3 ) los otros términos Λij no quedan unı́vocamente determinados porque está de por medio la arbitrariedad de una rotación Rji . Por ello, una selección arbitraria pero razonable de todos los términos Λij es: ad o Λij = δji + v i vj γ−1 γ−1 ≡ δji + v i vj k . (v)2 v vk rr De esta forma quedan determinados todos los elementos de las transformaciones de Lorentz. Los observadores lorentzianos son los equivalentes a los observadores galileanos en las teorı́as newtonianas: son observadores que se mueven uno respecto al otro con una velocidad constante y, desempeñan el mismo papel que los observadores inerciales. Quizá la consecuencia más impactante de la necesidad de vincular mediciones de distintos observadores lorentzianos a través de transformaciones de Lorentz, lo ilustra la evolución distinta del tiempo medido por los diferentes observadores. Un observador en reposo respecto a un reloj, ve avanzar el tiempo con tic separados por dt = ∆t, ya que su reposo respecto al reloj implica: dxi = 0, por lo tanto la separación espacio temporal será: ds2 = dt2 − (dxi )2 = (∆t) 2 ⇒ dt = ∆t , Bo mientras que un segundo observador, en movimiento, tendrá el mismo elemento de lı́nea pero expresado como: ∆t ds̃2 = dt̃2 − (dx̃i )2 = 1 − v2 dt̃ ⇒ dt̃ = √ , 1 − v2 y ésta última ecuación claramente indica que el tiempo evoluciona más lento para relojes en movimiento. 3.3.3. Ejemplos 1. En este ejemplo vamos a repetir, para el caso bidimensional, lo expuesto de manera general en la sección anterior. Como vimos, las transformaciones de Lorentz relacionan las coordenadas del espacio-tiempo medidas por un observador O de un evento, con las coordenadas medidas por otro observador Õ del mismo evento. El observador O lo representaremos por las coordenadas {t, x, y, z} = {x0 , x1 , x2 , x3 }, mientras que el observador 3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS 185 Õ por {t̃, x̃, ỹ, z̃} = {x̃0 , x̃1 , x̃2 , x̃3 }. Para lo que sigue, supondremos que cuando los observadores coincidan los relojes de ambos marcarán t = t0 = 0. La ecuación (3.10), x̃ν = Λνµ xµ , t̃ = x̃0 = Λ00 x0 + Λ01 x1 + Λ02 x2 + Λ03 x3 x̃ = x̃1 = Λ10 x0 + Λ11 x1 + Λ12 x2 + Λ13 x3 ỹ = x̃2 = Λ20 x0 + Λ21 x1 + Λ22 x2 + Λ23 x3 3 = Λ30 x0 + Λ31 x1 + Λ32 x2 + Λ33 x3 z̃ = x̃ ar la podemos expandir en lo que realmente es: = Λ00 x0 + Λ01 x1 = Λ00 t + Λ01 x x̃ = x̃1 = Λ11 (x1 − vt) = Λ11 (x − vt) ỹ = x̃2 = x2 = y z̃ = x̃3 = x3 = z lim t̃ = x̃0 in Vamos a suponer que Õ se mueve respecto a O, con velocidad v, únicamente en la dirección x, es decir, ỹ = y y z̃ = z. Se supone entonces que t̃ no dependerá ni de y ni de z y que cuando x̃ = 0 entonces x = vt. Todo esto hace que el sistema de ecuaciones anterior se simplifique de manera significativa: rP re Debemos determinar los coeficiente Λ00 , Λ01 y Λ11 . Para tal fin vamos a suponer que cuando t̃ = t = 0 un pulso de luz es emitido desde el origen de coordenadas. Recordemos que en ese instante ambos observadores coinciden. Como suponemos además que la velocidad de la luz es constante, la onda de luz se propagará en todas las direcciones de manera que cada observador podrá describirla mediante la ecuación de una esfera cuyo radio aumenta con el tiempo a velocidad c. Esto es: x̃2 + ỹ 2 + z̃ 2 = c2 t̃2 Por lo tanto: y x2 + y 2 + z 2 = c2 t2 . (Λ11 (x − vt))2 + y 2 + z 2 = c2 (Λ00 t + Λ01 x)2 . ad o Al desarrollar esta última ecuación obtenemos: 2 2 Λ11 x − 2xvt + v 2 t2 + y 2 + z 2 = 2 2 2 2 Λ11 − c2 Λ01 x + y 2 + z 2 − 2xt Λ11 v + c2 Λ00 Λ01 = 2 2 c2 Λ00 t2 + 2Λ00 Λ01 xt + Λ01 x2 2 2 2 c2 Λ00 − v 2 Λ11 t . rr Como ambos observadores registran la misma onda de luz, entonces: 2 2 Λ11 − c2 Λ01 = 1 2 Λ11 v + c2 Λ00 Λ01 = 0 2 2 c2 Λ00 − v 2 Λ11 = c2 . Bo Al resolver este sistema de tres ecuaciones con tres incógnitas resulta: Si definimos γ = 1 Λ11 = Λ00 = q 1− q 1 2 1− vc2 , v2 c2 Λ01 = v q c2 1 − . v2 c2 , las transformaciones de Lorentz quedan entonces de la forma: v t̃ = t − 2 x γ , c x̃ = (x − vt) γ , ỹ = y , z̃ = z . Existen las transformaciones inversas que se pueden obtener de la misma manera que las anteriores. v t = t̃ + 2 x̃ γ , x = x̃ + v t̃ γ , y = ỹ , z = z̃ . c 186 CAPÍTULO 3. VECTORES DUALES Y TENSORES Notemos que cuando el observador Õ se mueve a velocidades muy pequeñas en comparación a c, entonces el factor γ tiende a la unidad: v c ⇒ γ → 1, por lo tanto: t̃ = t , x̃ = x − vt , ỹ = y , z̃ = z . que no son más que la transformación de Galileo. ar 2. Si un observador Õ determina que dos eventos ocurren en el mismo lugar, pero separados en el tiempo; entonces, un observador O ¿cómo los apreciarı́a? Veamos dos situaciones diferentes. in Consideremos a una persona sentada en un tren en movimiento, observador Õ, esta persona enciende y apaga rápidamente una linterna dos veces, con una diferencia de 15 minutos entre un evento y el otro. Entonces para Õ será dos eventos que ocurren en el mismo lugar. Pero para el observador O que se encuentra en tierra los eventos habrán ocurrido en lugares diferentes, y esto no parece tener ningún conflicto con nuestra experiencia e intuición. lim Si Õ sigue en su asiento del tren y observa que dos personas, uno a cada extremo del vagón (a unos 30 mts), encienden las linternas al mismo tiempo, entonces para Õ será un evento simultáneo, pero para el observador en tierra O que ve al tren alejarse determinará que la persona de la parte trasera encendió la linterna un poco antes que la persona apostada en la parte delantera. Esto tal vez si nos resulte algo extraño. rP re Consideremos que el tren viaja a 36 m/s (≈ 130 Km/h) entonces, esta pequeña velocidad se refleja en el factor γ de la manera siguiente: v v2 1 = 1,2 × 10−7 → 2 = 1,44 × 10−14 → γ = p ≈ 1,000000000000007 . c c 1 − 1,44 × 10−14 Cuando consideramos la primera situación, la diferencia entre un evento y el otro era de 15 minutos (900 seg), y para el observador en tierra ambos eventos ocurren en dos lugares diferentes: x1 y x2 , x1 = x̃1 + v t̃1 γ , x2 = x̃2 + v t̃2 γ , de manera que: ad o x2 − x1 = x̃2 + v t̃2 γ − x̃1 + v t̃1 γ = (x̃2 − x̃1 ) γ + t̃2 − t̃1 vγ . Pero: x̃2 = x̃1 y t̃2 − t̃1 = 15 min. Por lo tanto: x2 − x1 = (900 s)(36 m.s−1 )γ = 32400m = 32,4Km . Bo rr Para la segunda situación, el observador en tierra puede dar fe que los dos eventos ocurren en tiempos diferentes: t1 y t2 , v v t1 = t̃1 + 2 x̃1 γ , t2 = t̃2 + 2 x̃2 γ , c c de manera que: v v v t2 − t1 = t̃2 + 2 x̃2 γ − t̃1 + 2 x̃1 γ = t̃2 − t̃1 γ + (x̃2 − x̃1 ) 2 γ , c c c con: t̃2 = t̃1 y x̃2 − x̃1 = 30 metros, resulta: t2 − t1 = (30 m) 36 m.s−1 γ = 1,2 × 10−14 s . (3 × 108 m.s−1 )2 Intervalo de tiempo muy pequeño pero diferente de cero: el observador en tierra no aprecia que los eventos fueron simultáneos. Este valor tan pequeño, obviamente, es debido a que el factor γ es casi la unidad. Notemos que si el tren viajara a una velocidad cercana a c, digamos v = 0,99999999 c, entonces: v v2 1 = 0,99999999 → 2 = 0,99999998 → γ = √ ≈ 7071,06780 . c c 1 − 0,99999998 3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS 187 por lo que: 36 m.s−1 γ = 8,49 × 10−11 s . t2 − t1 = (30 m) (3 × 108 m.s−1 )2 En vista de lo anterior, se podrı́a esperar que ocurran cosas curiosas con las longitud de los objetos. Supongamos que el observador que viaja en el tren coloca su laptop en el piso y mide su longitud. Esto significa que la computadora está en reposo para Õ y, en la dirección del eje x, la laptop mide x̃2 − x̃1 según Õ. Para el observador que está en tierra la laptop viaja a una velocidad vt, de manera que: ar x̃2 − x̃1 = [(x2 − x1 ) − v(t2 − t1 )] γ , Practicando con Maxima lim 3.3.4. in Para el observador que se encuentra en reposo la laptop mide x2 − x1 , medida en el instante t2 = t1 . Por lo tanto: x̃2 − x̃1 x2 − x1 = . γ ¡La laptop se contrae por el factor γ! 1. En los grandes aceleradores de partı́culas se puede producir piones cargados cuando se hace colisionar protones de gran energı́a con algún blanco preparado para este fin. Se conoce que los piones tienen una vida media muy corta: 1,77 × 10−8 seg. Lo que esto significa es, que una vez que se producen los piones, la mitad de ellos se habrá desintegrado en un tiempo de 1,77 × 10−8 seg. rP re Los experimentos en el acelerador reflejan el hecho de que la intensidad del haz de piones que emerge del blanco, y que viaja a 0,99 c, se reduce a la mitad una vez que recorren 37,2 mts. Pero sucede que si los piones viajan a 0,99 c = 2,968 × 108 m/s cuando estos hayan decaı́do a la mitad la distancia que habrán recorrido es d = vt: (%i1) d:(2.968*10^8*(m/s))*(1.77*10^(-8)*s); ( %o1) 5,25336 m ¿Y entonces por qué el experimento mide que viajaron 37,2 mts? Bueno, no estamos considerando los efectos relativistas que están contenidas en las transformaciones de Lorentz: ad o t2 − t1 = (t̃2 − t̃1 )γ ⇒ ∆t = ∆t̃γ , donde ∆t̃ es el tiempo propio, el tiempo medido por un reloj respecto a la partı́cula en movimiento, es decir, el sistema de referencia donde el pion se encuentra en reposo. Calculemos, primeramente el factor γ: rr (%i2) gamma:1/sqrt(1-(0.99)^2); ( %o2) 7,088812050083354 Bo Por lo tanto, la vida media de los piones medida desde el laboratorio es: (%i3) Delta_t:(1.77*10^(-8)*s)*gamma; ( %o3) 1,254719732864754 × 10−7 s Según las personas que miden el experimento, y que están en el sistema en reposo, los piones viven ≈ 1,255 × 10−7 s, y por lo tanto viajan una distancia: x = (0,99c)∆t (%i4) (2.968*10^8*(m/s))*Delta_t; ( %o4) 37,24008167142589 m 188 CAPÍTULO 3. VECTORES DUALES Y TENSORES 2. Procederemos ahora a resolver con Maxima el sistema que nos condujo a las transformaciones impropias de Lorentz. Primero, escribamos una lista que contiene el sistema de ecuaciones: (%i5) sis:[L11^2-c^2*L01^2=1,L11^2*v+c^2*L01*L00=0,c^2*L00^2-v^2*L11^2=c^2]; 2 L11 − c2 L01 2 = 1, v L11 2 + c2 L00 L01 = 0, c2 L00 2 − v 2 L11 2 = c2 ar ( %o5) Es importante agregar la información de que v > 0, y que además v < c, para evitar soluciones complejas. El comando assume nos permite restringir el valor de los parámetros. in (%i6) assume(v>0,c>v); ( %o6) [v > 0, c > v] lim Procedemos a resolver el sistema de ecuaciones, lo podemos hacer con ayuda del comando solve: (%i7) S:solve(sis,[L11,L00,L01]); √ √ c c−vv v+c c , L00 = √ , L01 = , ( %o7) L11 = √ c√v 2 − c3 c2 − v 2 c2 − v 2 √ c c−vv v+c c , L00 = − √ , L01 = − , L11 = √ 2 − v2 2 − v2 c v 2√ − c3 c c √ c c c−vv v+c L11 = − √ , L00 = √ , L01 = , 2 2 2 2 c√v 2 − c3 √ c −v c −v c c c−vv v+c L11 = − √ , L00 = − √ , L01 = − c v 2 − c3 c2 − v 2 c2 − v 2 rP re Seleccionamos la primera de las listas anteriores y factorizamos con la rutina factor: (%i8) map(factor,S[1]); 3.3.5. √ c c c−vv √ L11 = √ , L00 = √ , L01 = c (v − c) v + c c2 − v 2 c2 − v 2 ad o ( %o8) Ejercicios rr 1. En el espacio euclidiano 3D, y en coordenadas cartesianas, no distinguimos entre vectores y 1−formas debido a que sus componentes transforman de la misma manera. Demuestre que: Bo a) ãi = Λij aj ∧ b̃j = Λij bi , son la misma transformación si la matriz Λij es igual a la transpuesta de su inversa, es decir, si es ortogonal. b) Considere dos observadores O : x, y ↔ x1 , x2 y Õ : x̃, ỹ ↔ x̃1 , x̃2 y sus sistemas de coordenadas asociados. 1) Considere la siguiente transformación de coordenadas de Galileo: √ x̃1 = V 1 t + √ 2 1 2 2 x − x 2 2 √ y x̃2 = √ 2 1 2 2 x + x , 2 2 con V 1 una constante que representa la velocidad relativa entre O − Õ, y t al tiempo (parámetro de esta transformación). A continuación suponga una partı́cula que describe un movimiento respecto a O siguiendo una trayectoria recta, esto es x2 = αx1 , donde α es una constante. Encuentre cómo lo describirı́a el observador Õ respecto a sus coordenadas (x̃1 , x̃2 ). 3.3. VECTORES, TENSORES Y ESPACIOS PSEUDOEUCLIDIANOS 189 2) Considere ahora la generalización de la transformación de coordenadas anterior: √ √ √ √ 2 1 2 2 2 1 2 2 1 1 2 2 x̃ = V t + x − x y x̃ = V t + x + x , 2 2 2 2 con V 1 y V 2 las componentes de una velocidad relativa entre O − Õ, y t al tiempo. Muestre que la norma de cualquier vector queda invariante respecto a una transformación de coordenadas como la anterior y encuentre la matriz de transformación. ar 2. Un acelerador produce partı́culas que tienen una vida promedio de 5µs. Estas logran alcanzar una velocidad de 0,6c. in a) Un observador que se encuentra en reposo en el laboratorio ¿qué tiempo de vida media le atribuirá a las partı́culas? b) ¿Qué distancia promedio viajan las partı́culas en el acelerador? lim c) Si suponemos que existe un observador en reposo con respecto a la partı́cula ¿Qué distancia se desplazará éste observador antes de que la partı́cula se desintegre? 3. Un elemento de área cuadrada se encuentra en reposo para un observador O. Encuentre el área medida por un observador en movimiento Õ si éste lleva una velocidad de 0,85c a lo largo de la diagonal del cuadrado. rP re 4. Consideremos un vehı́culo se mueve con una velocidad V con respecto a un observador fijo en tierra O, y un pasajero dentro del vehı́culo que se mueve con una velocidad ṽ con respecto al vehı́culo. Sabemos de los cursos básicos que la velocidad del pasajero respecto al observador fijo en tierra es simplemente la suma: v = ṽ + V . Nos podemos preguntar sobre la forma en que se suman las velocidades en la teorı́a especial de la relatividad, es decir, ¿Cómo se suman las velocidades si consideramos las transformaciones de Lorentz? Demuestre que se suman como: ṽ + V . v= 1 + ṽ cV2 5. Dado un espacio minkowskiano y un observador O que describe los eventos en el espacio-tiempo respecto a un sistema de coordenadas {xα }, donde α = 0, 1, 2, y η = diag[−1, 1, 1] el tensor métrico. Considere entonces la siguiente transformación de coordenadas: x̃1 = γ(x1 − βx0 ) y x̃2 = x2 , ad o x̃0 = γ(x0 − βx1 ) , con γ = p 1 1 − β2 . Donde β = v/c es la velocidad relativa entre O y Õ. a) Otra vez, suponga que una partı́cula describe una linea recta respecto a O: x2 = αx1 , con α igual a una constante. Encuentre cómo lo describirı́a el otro observador Õ respecto a sus coordenadas (x̃0 , x̃1 , x̃2 ). α rr b) Encuentre la expresión para la transformación de coordenadas, ∂∂xx̃β = Λα̃ β (transformación de Lorentz) entre estos sistemas relativistas y muestre como la norma: xα xα = xα xβ ηαβ , de cualquier vector se conserva. Bo 6. Considere el tensor de Maxwell definido como: 0 Ex Ey Ez x z −E 0 −cB cB y Fµα = y z −E cB 0 −cB x z y x −E cB cB 0 , otra vez con: ηµν −1 0 = 0 0 0 0 0 1 0 0 . 0 1 0 0 0 1 donde E = (E x , E y , E z ) y B = (B x , B y , B z ) son los campos eléctricos y magnéticos (respectivamente), medidos por un observador O. a) Si un observador mide un campo eléctrico E = E x i y ningún campo magnético ¿Cuáles campos, Fµα , medirá otro observador que viaja con una velocidad respecto al primero de β = vi? b) Muestre que las ecuaciones de Maxwell: ∇ × B − ∂ µν F ≡ F µν ,ν = 4πJ µ , ∂xν ∂ ∂t E = 4πJ , y ∇ · E = 4πρ se pueden expresar como: donde J µ = (cρ, J 1 , J 2 , J 3 ) y J = (J 1 , J 2 , J 3 ) , 190 CAPÍTULO 3. VECTORES DUALES Y TENSORES c) Considere la identidad de Bianchi de la forma: ∂Fνγ ∂Fγµ ∂Fµν + + ≡ ∂γ Fµν + ∂µ Fνγ + ∂ν Fγµ ≡ Fµν ,γ + Fνγ ,µ + Fγµ ,ν = 0 , γ µ ∂x ∂x ∂xν y demuestre que las otras dos ecuaciones ∇ · B = 0 y ∇ × E − expresiones F µν ,ν = 4πJ µ ∂ ∂t B = 0, también están contenidas en las in ar 7. El dual de un tensor B de rango 2, cuadridimensional, puede ser definido de manera que sus componentes vienen dadas por: 1 B ij = ijkl Bkl . 2! Muestre que B transforma como: a) Un tensor de rango 2 bajo rotaciones. b) Un pseudotensor bajo inversiones. 9. Demuestre que c2 B2 − E2 es un escalar de Lorentz. Bo rr ad o rP re 10. Resuelva los ejercicios anteriores utilizando Maxima. lim 8. Construya F µα , el dual del tensor de Maxwell F µα . 3.4. ESPACIOS DE FUNCIONES 3.4. 191 Espacios de funciones 3.4.1. ar Los conceptos de espacios vectoriales discretos que hemos estudiado hasta ahora, finitos o infinitos, se pueden extender a espacios de funciones, en donde los vectores del espacio vectorial y las bases son funciones {|Fn (x)i}. La generalización de bases discretas a continuas se hace transformando el ı́ndice de las sumatorias en la variable de una integral, de manera que los ı́ndices se convierten en variables continuas definidas en intervalos finitos o infinitos. Como primer paso para el estudio de estos espacios introduciremos un nuevo objeto matemático, que como veremos más adelante, es de gran importancia y utilidad. La función delta de Dirac in Recordemos que la delta de Kronecker δij que definimos con anterioridad es una cantidad que toma valores discretos: δij = 1 si i = j y δij = 0 si i 6= j. Es posible construir una extensión de este objeto matemático para que los ı́ndices puedan tomar cualquier valor real. lim Veamos la siguiente sucesión de funciones gaussianas: r n −nx2 e , δn (x) = π tal que: Z ∞ δn (x)dx = 1 , n > 0 . rP re −∞ A medida que el parámetro n aumenta su valor, la curva gaussiana δn (x) será cada vez más alta y más angosta, y si n → ∞ la curva será entonces infinitamente más alta e infinitamente más angosta, pero siempre conservando que el área bajo la curva será igual a la unidad. Figura 3.5: δn (x) para tres valores diferentes de n. Esto nos permite definir la “función”: δ(x) → ∞ si n −nx2 e ⇒ π ad o r δ(x) = lı́m n→∞ δ(x) = 0 x→0 si x 6= 0 rr Por tener este comportamiento tan particular no se le suele llamar función, sino una distribución, y si el punto del máximo es un punto diferente de x = 0, podemos escribir: r n −n(x−x0 )2 δ(x − x0 ) = lı́m e , n→∞ π Bo donde x0 es el punto donde la gaussiana alcanza su valor máximo. En general, este proceso de limite puede aplicarse a funciones cuya área bajo la curva sea la unidad: Z ∞ G(x)dx = 1 , −∞ de manera que: Z ∞ 0 nG(n(x − x ))f (x )dx lı́m n→∞ 0 0 Z = −∞ = ∞ lı́m n→∞ lı́m n→∞ G(n(x − x0 ))f (x0 ) d(nx0 ) −∞ Z ∞ τ G(τ )f x − dτ = f (x) . n −∞ Si se intercambian los procesos de lı́mite e integración: Z ∞h i f (x) = lı́m nG(n(x − x0 )) f (x0 )dx0 ⇒ δ(x − x0 ) = lı́m nG(n(x − x0 )) ≡ δ(x, x0 ) , −∞ n→∞ n→∞ 192 CAPÍTULO 3. VECTORES DUALES Y TENSORES por lo tanto: ∞ Z δ(x − x0 )f (x0 )dx0 ⇒ f (x) = −∞ δ(x, x0 ) → ∞ si x → x0 δ(x, x0 ) = 0 si x 6= x0 La principal propiedad de la delta de Dirac, δ(x − x0 ), es que: Z ∞ f (x)δ(x − x0 )dx = f (x0 ) , ar −∞ es decir, actúa parecido a como lo hace la delta de Kronecker cuando se contrae uno de sus ı́ndices con las componentes de un vector: aj = δji ai , en el sentido que de todos lo valores selecciona sólo uno. Además, si f (x) = 1 entonces: Z ∞ in δ(x − x0 )dx = 1 . −∞ rP re lim Existen algunas representaciones integrales basadas en el hecho de que δ(x − x0 ) únicamente existe en x = x0 , por ejemplo: Z ∞ Z x=x0 +ε f (x)δ(x − x0 )dx = f (x)δ(x − x0 )dx , −∞ x=x0 −ε Z b f (x0 ) si a ≤ x0 ≤ b f (x)δ(x − x0 )dx = a 0 si x0 < a ó x0 > b Y la función escalón de Heaviside: Z x H(x − x0 ) = δ(x − x0 )dx = −∞ 1 si 0 si x ≥ x0 ⇒ δ(x − x0 ) = x ≤ x0 dH(x − x0 ) . dx Algunas de las tantas propiedades de la delta de Dirac son las siguientes: • xδ(x) = 0 • f (x)δ(x − x0 ) = f (x0 )δ(x − x0 ) ad o • δ(ax) = • δ(x2 − a2 ) = 1 2|a| n • xn+1 d dxδ(x) =0 n [δ(x − a) + δ(x + a)] • δ(r − r0 ) = δ(x − x0 )δ(y − y0 )δ(z − z0 ) 3.4.2. δ(x) |a| • δ(x − x0 ) = δ(x0 − x) • R f (r)δ(r − r0 )dV = f (r0 ) Bases continuas Bo rr Tal y como vimos anteriormente, la representación de un vector |ai en un espacio vectorial abstracto V puede darse en término de una base ortonormal de vectores (discreta y finita BDF = {|e1 i , |e2 i , |e3 i , · · · |en i} o discreta e infinita BDI = {|e1 i , |e2 i , |e3 i · · · |en i · · · }) de la forma: i c |ei i = ei ai |ei i ⇐ BDF = {|e1 i , |e2 i , |e3 i · · · |en i} |ai = i c |ei i = ei ai |ei i ⇐ BDI = {|e1 i , |e2 i , |e3 i · · · |en i · · · } donde en ambos casos: ci = ei ai = cj ei |ej i = cj δji . Recapitulemos ahora algunos puntos que hemos tratado con anterioridad, y con el fin de aclarar conceptos, para el caso de bases discretas de funciones {|ei (x)i}. La relación de ortogonalidad viene dada, como hemos mencionado, por: hen (x)|em (x)i = Z a b n e∗n (x)em (x)dx = Θn δm , 3.4. ESPACIOS DE FUNCIONES 193 y con una norma definida como: b Z 2 k|ei (x)ik = hen (x)|en (x)i = 2 |en (x)| dx = Θn . a ar La base será ortonormal si Θn = 1. Con una base {|ei (x)i} definida, es posible representar cualquier función |f (x)i cuadrado integrable, es decir que cumpla con: Z b 2 |f (x)| dx 6= ∞ , a en una combinación lineal de la base dada: |f (x)i = C i |ei (x)i i e (x) f (x)i = C j i e (x) ej (x)i = C j δji i Z =C = in Las cantidades C i , las componentes de |f (x)i, se obtienen de la siguiente manera: b f (x)e∗i (x)dx , lim a Resulta conveniente para los cálculos que vienen a continuación cambiar i → n y x → x0 , de manera que: b Z n f (x0 )e∗n (x0 )dx0 . C = a rP re Por lo tanto: n " X Z |f (x)i = C |en (x)i ⇒ |f (x)i = = f (x b f (x0 ) X a Utilizando la delta de Dirac: Z b Z |f (x)i = f (x0 )δ(x − x0 )dx0 = a 0 )e∗n (x0 )dx0 |en (x)i = a n Z # b XZ n b f (x0 )e∗n (x0 )en (x)dx0 a e∗n (x0 )en (x)dx0 . n " b 0 f (x ) a # X e∗n (x0 )en (x) dx0 ⇒ δ(x − x0 ) = ad o n X e∗n (x0 )en (x) . n Esta última relación viene a ser una generalización de la relación de cierre mencionada en la sección 2.3.4, y se conoce como condición de completitud para la base {|ei (x)i}, además, también resulta ser una representación en serie para la delta de Dirac. De todo esto surgen algunas propiedades fundamentales: Z b 2 |f (x)| = a X 2 |C n | . n Bo rr Se dice que el conjunto {|ei (x)i} es completo si para |f (x)i = C i |ei (x)i, entonces se tiene que: Si |f (x)i = C i |ei (x)i y |g(x)i = E i |ei (x)i, entonces hf (x)|g(x)i = Cn∗ E n . Es posible pasar de estos espacios vectoriales discretos, donde las bases son un conjunto numerable de elementos {en (x)}, a espacios vectoriales de funciones con las bases dadas por funciones y donde el ı́ndice n pasa a ser una variable continua. Recordemos que en la sección 2.3.4 hablábamos de un conjunto de funciones {|e1 i , |e2 i , |e3 i , · · · , |en i · · · } definidas por: |e0 i = 1, |e2n−1 i = cos(nx) y |e2n i = sen(nx), con n = 1, 2, 3, · · · , la base discreta de Fourier. Base que también podemos escribir de la forma compleja, como se muestra a continuación: nπ 1 1 |en (x)i = √ ei L x = √ eikx , 2L 2L con n = −∞ . . . ∞ y − L ≤ x ≤ L . 194 CAPÍTULO 3. VECTORES DUALES Y TENSORES Cuando n aumenta indefinidamente, también lo hará la cantidad k = nπ L , convirtiéndose entonces en una variable → 0. Notemos que los ı́ndices de la delta de Kronecker δnm = δnn0 pueden tomar los continua, es decir, ∆k = ∆nπ L Lk Lk0 0 valores: n = π , n = π , y en el proceso de L → ∞ se convertirán en: L π Lk Lk 0 δnn0 → δ − =δ (k − k 0 ) = δ (k − k 0 ) . π π π L ar De esta manera, la base ortonormal quedará escrita en función de las variables continuas k y x, como se muestra a continuación: 1 |e(k, x)i = √ eikx . 2π in El hecho de que sean ortonormales se refleja en la siguiente condición (que es una extensión de la expresión para el producto interno de bases discretas) b Z e(k, x)∗ e(k 0 , x) dx = δ(k − k 0 ) , he(k, x)|e(k, x)i = con α≤k ≤β, a≤x≤b a lim Al ser el conjunto de funciones {|e(k, x)i} una base, toda función del mismo espacio vectorial se puede expandir en esa base como: Z β |f (x)i = C(k)e(k, x)dk . α rP re En correspondencia con el caso de las bases discretas, el coeficiente C(k) viene a ser algo parecido a las componentes de |f (x)i. Y para calcularlas se procede como se muestra a continuación: "Z # Z Z Z b he(k 0 , x) |f (x)i = β e(k 0 , x)∗ f (x) dx = a b β e(k 0 , x)∗ e(k, x) dx dk = C(k) α C(k)δ(k − k 0 )dk = C(k 0 ) . a α Volvamos a cambiar la notación para los ı́ndices: k 0 → k, x → x0 en la última ecuación: Z b C(k) = e(k, x0 )∗ f (x0 )dx0 , a por lo tanto: β |f (x)i = C(k) |e(k, x)i dk = 0 a Z # β f (x ) α y la relación: "Z b Z ad o Z 0 ∗ e(k, x ) e(k, x)dk dx0 = Z α b f (x0 )δ(x − x0 )dx0 , a β e(k, x0 )∗ e(k, x)dk = δ(x − x0 ) , α rr será la relación de cierre para el conjunto no numerable de funciones ortonormales. Una integral como la que nos permitió definir C(k), digamos, del tipo: Z Bo F (k) = b f (x0 )e(k, x0 )∗ dx0 Z β ⇒ |f (x)i = a F (k)e(k, x)dk , α √ es lo que se denomina una transformada de f (x). Más adelante veremos que si la base, es por ejemplo eikx / 2π, la transformada será la de Fourier. En el espacio vectorial de funciones de cuadrado integrable L2 , definidas en R3 , tendremos que: ∞ Z ∞ X i i 3 0 ∗ 0 0 |F i = c |ei i ≡ e F i |ei i = d r ξi (r ) f (r ) |ei i , i=0 que se reescribe en términos de funciones como: ∞ Z X f (r) = i=0 ∞ −∞ −∞ d3 r0 ξi∗ (r0 ) f (r0 ) ξi (r) . 3.4. ESPACIOS DE FUNCIONES 195 R P y , por lo cual: "∞ # X 3 0 0 ∗ 0 d r f (r ) ξi (r ) ξi (r) , Es claro que se pueden intercambiar los sı́mbolos de Z ∞ f (r) = −∞ i=0 | {z G(r0 ,r) } ar la función G(r0 , r), que depende de los argumentos r0 y r, vive dentro de las integrales y convierte: Z ∞ d3 r0 f (r0 ) G(r0 , r) . f (r) = −∞ Z ∞ d3 r0 f (r0 ) δ(r0 − r) . f (r) = −∞ in Podemos ver entonces que: lim En resumen, la generalización de bases discretas a continuas se hace transformando el ı́ndice de la sumatoria en la variable de una integral: Z Z Z |Ψi = dα c (α) |wα i ⇒ c (β) = hwβ |Ψi = dα c (α) hwβ |wα i = dα c (α) δ (α − β) . Ası́, para los conceptos expresados hasta ahora se tiene el siguiente tabla resumen: 3.4.3. Discreta ui |uj i = δji P∞ 1 = j=0 |uj i uj P∞ |F i = i=0 ci |ui i ci = P ui F i ∞ hG| F i = i=0 g i∗ fi P∞ 2 hF | F i = i=0 |fi | Continua hwβ |w R α i = δ (α − β) 1 = dα |wα i hwα | R |Ψi = dα c (α) |wα i c (β)R = hwβ |Ψi hG| F i = dα g ∗ (α) f (α) R 2 hF | F i = dα |f (α)| rP re Propiedad\Base Ortogonalidad Cierre Expansión Componentes Producto Interno Norma Bases de ondas planas y la transformada de Fourier ad o En las teorı́as de oscilaciones es de gran importancia considerar el problema de la transformada de Fourier. Recientemente vimos que una función f (x) puede representarse de la forma: Z β |f (x)i = C(k)e(k, x)dk , α Bo rr si la función f (x) está definida en (−∞, ∞) y √ si tomamos al conjunto de vectores base al conjunto de funciones continuas y ortonormales {e(k, x)} como {eikx / 2π}, entonces la integral anterior la podemos escribir de la forma: Z ∞ 1 |f (x)i = √ F(k)eikx dk , (3.11) 2π −∞ R Si utilizamos la relación de ortogonalidad: he(k, x)|e(k, x)i = e(k, x)e(k 0 , x)∗ dx = δ(k − k 0 ), resulta: Z ∞ 0 ei(k−k )x dx = 2πδ(k − k 0 ) . Donde: −∞ 1 |F(k)i = √ 2π Z ∞ f (x)e−ikx dx . −∞ A las variables x y k se les denominan variables conjugadas de Fourier (no conjugadas como en variable compleja) y a F(k) la transformada de Fourier de f (x) (y viceversa). Notemos que si sustituimos F(k) en la otra integral, ecuación (3.11), entonces: Z ∞Z ∞ Z ∞ 0 1 f (x)eik(x−x ) dk dx0 ⇒ |f (x0 )i = f (x)δ(x − x0 ) dx0 . 2π −∞ −∞ −∞ 196 CAPÍTULO 3. VECTORES DUALES Y TENSORES Por otra parte, podemos ver que la integral para F(k) se puede hacer en dos partes: Z ∞ Z 0 Z ∞ 1 1 1 f (x)e−ikx dx ⇒ √ f (x)e−ikx dx + √ f (x)e−ikx dx . |F(k)i = √ 2π −∞ 2π −∞ 2π 0 ar Si sustituimos x → −x, en la primera integral de la ecuación anterior resulta: Z ∞ Z ∞ 1 1 ikx |F(k)i = √ f (−x)e f (x)e−ikx dx . dx + √ 2π 0 2π 0 Dos casos podemos considerar: Si la función es par, f (x) = f (−x): Z ∞ f (x)e ikx ∞ Z f (x)e dx + −ikx 0 0 r Z ∞ 2 dx = f (x) cos(kx) dx , π 0 in 1 |F(k)i = √ 2π lim entonces, de la transformada al hacer F(k) = F(−k) se tiene: r Z ∞ 2 |f (x)i = F(k) cos(kx) dk . π 0 Estas dos funciones se conocen como las transformadas coseno de Fourier. 1 |F(k)i = √ 2π ∞ Z rP re Si la función es impar, f (x) = −f (−x): f (−x)e 0 ikx ∞ Z dx − f (−x)e −ikx r dx = i 0 2 π Z ∞ f (x)sen(kx) dx . 0 Ahora al hacer F(k) = −F(−k) se tiene: r |f (x)i = 2 π Z ∞ F̃(k)sen(kx) dk , 0 donde F̃ (k) = iF (k). Tenemos ahora las transformadas seno de Fourier. ad o La generalización a Rn es obvia. Si f = f (r), entonces: 1 |f (r)i = √ 2π n1 Z ∞ Z ∞ F(k)ei(k·r) dk , ··· −∞ −∞ donde dk = dk1 dk2 dk3 . . . dkn . Para la transformada: rr 1 |F(k)i = √ 2π n1 Z ∞ Z ∞ ··· −∞ f (r)e−i(k·r) dr , −∞ Bo donde dr = dx1 dx2 dx3 . . . dxn , representa el elemento de volumen en Rn . Ondas planas Como un ejemplo de lo anterior, consideraremos la base de las ondas planas. Si a k la llamaremos s y a la variable x el tiempo t, vale decir: Z ∞ Z ∞ 1 1 F (s) = √ dt eist f (t) f (t) = √ ds e−ist F (s) . 2π −∞ 2π −∞ De esta manera, a la función F (s) se le denomina la distribución espectral de f (t) y a |F (s)|2 la densidad espectral, es decir, la intensidad de la onda en el intervalo [s, s + ∆s]. Esto significa que la energı́a total es: Z ∞ E= |F (s)|2 ds . −∞ 3.4. ESPACIOS DE FUNCIONES 197 También podemos reescribir las transformadas en términos de la posición y el momento: Z ∞ Z ∞ 1 1 dp ei(px/~) ψ̄ (p) ψ̄ (p) = √ dx e−i(px/~) ψ (x) . ψ (x) = √ 2π~ −∞ 2π~ −∞ vp∗ (x) por lo cual: Z ∞ ψ (x) = Z dp vp (x) ψ̄ (p) ∞ dx vp∗ (x) ψ (x) . ψ̄ (p) = −∞ in vp (x) ar Hemos tenido cuidado de incluir los factores de normalización adecuados para el caso de las descripciones en Mecánica Cuántica. Estas fórmulas pueden ser reinterpretadas en función de los conceptos anteriormente expuestos y podemos definir una base continua de la forma: Z ∞ Z ∞ 1 1 1 1 i(px/~) −i(px/~) ψ (x) = √ dp √ dx √ e ψ̄ (p) ψ̄ (p) = √ e ψ (x) , 2π~ −∞ 2π~ 2π~ −∞ 2π~ {z } {z } | | −∞ √ 1 ei(px/~) . 2π~ lim Diremos que la función ψ (x) está expresada en la base de ondas planas vp (x) = Nótese lo siguiente: El ı́ndice p de vp (x) varı́a de forma continua entre −∞ a ∞. rP re 1 ei(px/~) ∈ / L2 , es decir, no pertenece al espacio vectorial de funciones de cuadrado integrable Que vp (x) = √2π~ ya que su norma diverge: Z ∞ Z ∞ 1 2 hvp | vp i = → ∞. dx |vp (x)| = dx 2π~ −∞ −∞ Que las proyecciones de ψ (x) sobre la base de ondas planas es: ψ̄ (p) = hvp | ψi. La relación de cierre para esta base se expresa como: Z Z ∞ Z 1= dα |vα i hvα | dp vp∗ (x0 ) vp (x) = −∞ ∞ −∞ dp 1 i[p(x0 −x)/~] e = δ (x0 − x) , 2π~ ad o mientras que de la definición de producto interno se obtiene: Z ∞ Z ∞ 1 i[x(p0 −p)/~] hvp0 | vp i = e = δ (p0 − p) . dx vp∗0 (x) vp (x) = dx 2π~ −∞ −∞ rr En este mismo orden de ideas, podemos construir otra base continuaξr0 (r) a partir de la utilización de las propiedades de la delta de Dirac. Esto es: Z ∞ Z ∞ ψ (r) = d3 r0 ψ (r0 ) δ(r0 − r) ψ (r0 ) = d3 r ψ (r) δ (r − r0 ) , | {z } −∞ −∞ ξr0 (r) Bo por lo cual la reinterpretación es inmediata: Z ∞ ψ (r) = d3 r0 ψ (r0 ) ξr0 (r) , Z ∞ ψ (r0 ) = hξr0 | ψi = con: −∞ −∞ d3 r ξr∗0 (r) ψ (r) , más aún, la ortogonalidad queda garantizada por la relación de cierre: Z ∞ Z ∞ hξr0 | ξr0 i = d3 r0 ξr∗0 (r) ξr0 (r0 ) = d3 r0 δ (r − r0 ) δ (r0 − r0 ) = δ (r0 − r) , −∞ −∞ al igual que: Z hξr0 | ξr00 = ∞ −∞ d3 r ξr∗0 (r) ξr00 (r) = Z ∞ −∞ d3 r δ (r − r0 ) δ (r − r00 ) = δ (r00 − r0 ) . 198 CAPÍTULO 3. VECTORES DUALES Y TENSORES 3.4.4. Las representaciones |ri y |pi A partir de las bases de ondas planas vp0 (x), y de distribuciones, ξr0 (r), construimos las llamadas representaciones |ri y |pi de la forma siguiente. Primero asociamos: ξr0 (r) |r0 i ∧ vp0 (x) |p0 i . in ar De esta forma, dada las bases {ξr0 (r)} y {vp0 (x)} para el espacio vectorial V definiremos dos “representaciones”: la representación de coordenadas, |r0 i , y la representación de momentos |p0 i de V, respectivamente. De tal modo que: Z ∞ Z hr0 | r00 i = d3 r ξr∗0 (r) ξr00 (r) = δ (r00 − r0 ) ⇒ 1 = d3 r0 |r0 i hr0 | , −∞ Z Z ∞ Z ∞ 1 −i(r0 ·p0 /~) e = δ (p00 − p0 ) ⇒ 1 = d3 p0 |p0 i hp0 | . d3 r d3 r vp∗00 (r) vp0 (r) = hp0 | p00 i = 2π~ −∞ −∞ lim Podemos entonces expresar el producto interno para la representación de coordenadas como: Z Z 3 d r0 |r0 i hr0 | |Ψi = d3 r0 φ∗ (r0 )ψ(r0 ) , hΦ |Ψi = hΦ| {z } | 1 rP re y equivalentemente para la representación de momentos: Z Z 3 hΦ |Ψi = hΦ| d p0 |p0 i hp0 | |Ψi = d3 p0 φ∗ (p0 )ψ(p0 ) , {z } | 1 por lo cual hemos encontrado que: Z |Ψi = d3 r0 |r0 i hr0 | Ψi = ψ(r0 ) = hr0 |Ψi Z d3 p0 |p0 i hp0 | Ψi , ψ(p0 ) = hp0 |Ψi , y ad o que es la representación de |Ψi en coordenadas, ψ(r0 ), y en momentos, ψ(p0 ). Adicionalmente cuando |Ψi = |pi tendremos que: Z Z i i 1 1 3 0 0 0 d3 r00 δ (r00 − r0 ) e ~ (p0 ·r0 ) = e ~ (p0 ·r0 ) , hr0 |p0 i = hr0 | d r0 |r0 i hr0 | |p0 i = 3/2 3/2 (2π~) (2π~) {z } | 1 Bo rr con lo cual ψ(p0 ) puede considerarse la transformada de Fourier de ψ(r0 ), y denotaremos de ahora en adelante las bases |r0 i ≡ |ri y |p0 i ≡ |pi. Estos ı́ndices continuos, r0 y p0 , representan tres ı́ndices continuos r (x, y, z) y p (px , py , pz ). La proyección de un vector abstracto |Ψi en la representación |ri será considerada como su expresión en el espacio de coordenadas, igualmente su proyección hp |Ψi será su expresión en el espacio de los momentos. Eso nos permitirá hacer corresponder los elementos de espacios vectoriales abstractos con elementos de un espacio vectorial de funciones. Por lo tanto todas las fórmulas de proyección quedan como: hr |Ψi = ψ(r) y hp |Ψi = ψ(p) . mientras que las relaciones de cierre y ortonormalización son: hr| r0 i = δ (r0 − r) hp| pi = δ (p0 − p) Z y 1= Z y 1= d3 r |ri hr| , d3 p |pi hp| . Por su parte, la relación de cierre hará corresponder a la expresión del producto interno de dos vectores, tanto en la representación de las coordenadas como en la representación de momentos, en una de la forma: Z Z Z Z hΦ| d3 r |ri hr| |Ψi = d3 r φ∗ (r) ψ(r) ∧ hΦ| d3 p |pi hp| |Ψi = d3 p φ̄∗ (p) ψ̄(p) , 3.4. ESPACIOS DE FUNCIONES 199 donde φ̄∗ (p) y ψ̄(p) son las transformadas de Fourier de φ∗ (r) y ψ(r), respectivamente. La afirmación anterior queda evidentemente demostrada del cambio entre las bases |ri y |pi. Esto es: 1 ∗ hr |pi = hp |ri = (2π~) i 3/2 e ~ (p·r) , por lo cual: Z d3 p |pi hp| |Ψi = d3 p hr |pi hp| Ψi = Z 1 (2π~) 3/2 i d3 p e ~ (p·r) ψ̄(p) , e inversamente: ψ(p) = hp |Ψi = hp| 3 d r |ri hr| |Ψi = Z Z 1 3 d r hp |ri hr| Ψi = 3/2 Bo rr ad o rP re lim (2π~) i d3 r e− ~ (p·r) ψ(r) . in Z ar Z ψ(r) = hr |Ψi = hr| 200 CAPÍTULO 3. VECTORES DUALES Y TENSORES 3.4.5. Ejemplos 1. Una distribución de carga eléctrica puede escribirse de manera sencilla utilizando la delta de Dirac a través de la siguiente integral: Z q= ρ(r)dV , V ar de manera que para una carga puntual localizada en r = r0 se tiene que: Z Z ρ(r)dV ⇒ ρ(r) = qδ(r − r0 ) . q = q δ(r − r0 )dV = V {z } | =1 δ(αx) = δ(x) , α in 2. Demostremos que: α > 0. Z ∞ Z ∞ f (x)δ(αx)dx = −∞ f y 1 1 δ(y) dy = α α α −∞ por lo tanto: δ(αx) = Z ∞ f −∞ δ(x) α . lim Entonces, haremos el siguiente cambio de variable: y = αx. y α f (0) = α δ(y)dy = Z ∞ f (x)δ(x)dx , −∞ rP re La condición α > 0 es porque se debe tener en cuenta que la función delta de Dirac es par, es decir, δ(αx) = δ(−αx). De manera que resulta más apropiado escribir: δ(αx) = 3. Demostremos ahora que: δ(g(x)) = X δ(x − α) |g 0 (α)| α , δ(x) . |α| g(α) = 0 ∧ g 0 (α) 6= 0 . Podemos ver que para la función g(x), en los intervalos donde se hace cero, se tiene: ad o g(x) ≈ g(α) + (x − α)g 0 (α) , −ε < α < ε . De manera que si sumamos para todos esos intervalos: Z ∞ Z X Z α+ε f (x)δ(g(x))dx = f (x)δ ((x − α)g 0 (α)) dx = −∞ α ∞ −∞ α−ε f (x) X δ (x − α) α |g 0 (α)| Bo rr donde hemos utilizado el resultado del ejemplo anterior. Por lo tanto: δ(g(x)) = X δ (x − α) α |g 0 (α)| . 4. Podemos ver la transformada de Fourier de la derivada de una función. Si Z ∞ Z (ik)n ∞ 1 d √ |f (x)i = √ F(k)eikx dk ⇒ |f (x)i = F(k)eikx dk . dxn 2π −∞ 2π −∞ dx , 3.4. ESPACIOS DE FUNCIONES 201 5. Encontremos la transformada de Fourier de la siguiente función: nπ ω0 nπ ω0 La función f (t) representa un tren de ondas finito con n ciclos en el intervalo dado, como se aprecia en la figura 3.6. Por el hecho de ser f (t) una función impar, podemos utilizar la transformada seno de Fourier: Z nπ ω0 2 √ f (t)sen(ωt) dt |F(ω)i = 2π 0 Z nπ ω0 2 = √ sen(ω0 t)sen(ωt) dt . 2π 0 Resolviendo la integral obtenemos la distribución espectral: ar t < − nπ ω0 ∧ t > in 0 − nπ ω0 < t < lim f (t) = sen(ω0 t) Figura 3.6: f (t) con: n = 6 y ω0 = π. donde τ = nπ ω0 . Se puede demostrar que los lı́mites: rP re 2 [ω0 sen (τ ω) cos (nπ) − ω cos (τ ω) sen (nπ)] 1 sin [τ (ω0 − ω)] sin [τ (ω0 + ω)] √ |F(ω)i = =√ − , 2(ω0 − ω) 2(ω0 + ω) 2π (ω 2 − ω0 2 ) 2π lı́m |F(ω)i = lı́m |F(ω)i = 0 . ω0 →∞ ω→∞ ad o Se puede apreciar también que el primer término, de la expresión entre corchetes, es el de mayor relevancia debido a que en el denominador aparece la diferencia: ω0 − ω. En la Figura 3.7 se muestra la función de distribución y en ella podemos notar que a medida que n crece la función |F(ω)i es una delta de Dirac en ω = ω0 = π. Por otro lado, es fácil ver que los ceros ocurren cuando: Bo rr ω0 − ω 1 2 3 = ± ,± ,± ... ω0 n n n Figura 3.7: F(ω) con: n = 6 y ω0 = π. 202 CAPÍTULO 3. VECTORES DUALES Y TENSORES 3.4.6. Practicando con Maxima ar Estudiaremos en este módulo como calcular transformadas integrales de Fourier con Maxima. Disponemos de las siguientes funciones: fourint(f,x) que calcula y devuelve la lista de los coeficientes integrales de Fourier de f (x) definida en el intervalo (−∞, ∞). La función fourintcos (f,x) que devuelve los coeficientes integrales de los cosenos f (x) en (0, ∞) y la función fourintsin(f,x) que retorna los coeficientes integrales de los senos f (x) en (0, ∞) Vamos a aclarar a que se refieren cuando se habla de los coeficientes integrales. Para Maxima si f (x) es una función definida en (−∞, ∞) la transformada de Fourier exponencial es: Z ∞ Z ∞ 1 izx f (x) e dx ⇔ f (x) = f (x) e−izx dz . F (f, z) = 2π −∞ −∞ in Como vimos anteriormente podemos tener los siguientes casos: lim La función es par: f (−x) = f (x), entonces: F (f, −z) = F (f, z) y podemos utilizar la representación en transformadas coseno de Fourier: 1 F (f, z) = Fcos (f, z) . 2 La función es impar: f (−x) = −f (x), entonces: F (f, −z) = −F (f, z) y podemos utilizar la representación en transformadas seno de Fourier: i F (f, z) = Fsen (f, z) . 2 rP re La función no es par ni impar. Pero f (x) siempre se puede escribir como la suma de una función par f+ (x) y una impar f− (x): 1 1 f (x) = f+ (x) + f− (x) = [f (x) + f (−x)] + [f (x) − f (−x)] , 2 2 de manera equivalente: 1 i Fcos (f+ , z) + Fsen (f− , z) . 2 2 F (f, z) = F (f+ + f− , z) = Entonces, la librerı́a fourie lo que genera es la transformada de Fourier de la forma: ad o F (f, z) = i 1 a z + bz . 2 2 Veamos algunos ejemplos: 1. Consideremos la siguiente función par: f = x2 e−|x| , con x ∈ (−∞, ∞) . −∞ Bo rr Podemos intentar resolver la integral que define la transformada de Fourier de manera “manual” o directa: Z ∞ x2 e−|x| e−ikx dx . (%i1) f:x^2*exp(-abs(x)); ( %o1) x2 e−|x| (%i2) integrate(exp(-%i*k*x)*f,x,minf,inf); Z ∞ ( %o2) x2 e−|x|−i k x dx −∞ Lo que significa que el programa no supo resolverla. Intentemos ahora utilizar las funciones propias del programa. 3.4. ESPACIOS DE FUNCIONES 203 (%i3) load(fourie)$ (%i4) fourint(f,x); 2 2 z 6 +3 z 4 +3 z 2 +1 ( %t4) az = − 6 z2 z 6 +3 z 4 +3 z 2 +1 π ar ( %t5) bz = 0 ( %o5) [ %t4, %t5] (%i6) ratsimp(%t4),factor; π (z 2 + 1) in ( %o6) az = − 4 3 z2 − 1 3 lim Esta es la notación que el programa utiliza para decirnos que la transformada es " # 4 3 k2 − 1 2 3 k2 − 1 1 − F (k) = =− 3 3 . 2 π (k 2 + 1) π (k 2 + 1) (%i17)fourintcos(f,x); 2 ( %t7) az = 2 z 6 +3 z 4 +3 z 2 +1 − π ( %o7) [ %t7] rP re Notemos que el cálculo anterior se corresponde a la transformada coseno de Fourier: 6 z2 z 6 +3 z 4 +3 z 2 +1 (%i8) ratsimp(%t7),factor; π (z 2 + 1) 3 ad o ( %o8) az = − 4 3 z2 − 1 Podemos intentar resolver directamente la integral para la transformada coseno de Fourier. Para tal fin escribimos toda la expresión a resolver. (%i9) Fz:ratsimp(1/%pi*integrate(cos(x*z)*f,x,0,inf)),factor; rr ( %o9) − 2 3 z2 − 1 π (z 2 + 1) 3 Bo Incluso podemos probar calculando la transformada inversa y verificar que los cálculos son correctos. (%i10)integrate(exp(-%i*z*x)*Fz,z,minf,inf); Is x positive, negative or zero? p; ( %o10) x2 e−x (%i11)integrate(exp(-%i*z*x)*Fz,z,minf,inf); Is x positive, negative or zero? n; ( %o11) x2 ex 2. Consideremos la siguiente función impar: f = xe−|x| . 204 CAPÍTULO 3. VECTORES DUALES Y TENSORES (%i12)f:x*exp(-abs(x)); ( %o12) x e−|x| (%i13)fourint(f,x); ( %t13) az = 0 π (z 4 4z + 2 z 2 + 1) ar ( %t14) bz = ( %o14) [ %t13, %t14] 4z π (z 2 + 1) 2 lim ( %o15) bz = in (%i15)ratsimp(%t14),factor; (%i16)fourintsin(f,x); ( %t16) bz = π (z 4 4z + 2 z 2 + 1) rP re ( %o16) [ %t16] (%i17)ratsimp(%t16),factor; ( %o17) bz = 4z π (z 2 + 1) 2 ad o Esto significa que la transformada seno de Fourier es: " # i 4k 2i k F (k) = = 2 . 2 π (k 2 + 1)2 π (k 2 + 1) Realicemos nuevamente el cálculo pero integrando para comparar. (%i18)Fz:%i*ratsimp(1/%pi*integrate(sin(x*z)*f,x,0,inf)),factor; 2iz π (z 2 + 1) 2 rr ( %o18) Vamos a calcular la transformada inversa: Bo (%i19)integrate(exp(-%i*z*x)*Fz,z,minf,inf); Is x positive, negative or zero? p; ( %o19) x e−x (%i20)integrate(exp(-%i*z*x)*Fz,z,minf,inf); Is x positive, negative or zero? n; ( %o20) x ex 3. Dada la siguiente función que no es par ni impar: f (x) = (x − 1)e(−|x|) . 3.4. ESPACIOS DE FUNCIONES 205 (%i21)f:(x-1)*exp(-abs(x)); ( %o21) (x − 1) e−|x| (%i22)fourint(f,x); ( %t22) az = − 2 + 1) 4z ( %t23) bz = π (z 4 + 2 z 2 + 1) ar π (z 2 (%i24)az:ratsimp(%t22),factor; bz:ratsimp(%t23),factor; 2 π (z 2 + 1) 4z ( %o25) bz = 2 π (z 2 + 1) (%i26)Fz:1/2*rhs(az)+%i/2*rhs(bz),factor; z2 − 2 i z + 1 π (z 2 + 1) 2 rP re ( %o26) − lim ( %o24) az = − De nuevo, la transformada inversa para verificar: (%i27)integrate(exp(-%i*z*x)*Fz,z,minf,inf); Is x positive, negative or zero? p; ( %o27) (x − 1) e−x ad o (%i28)integrate(exp(-%i*z*x)*Fz,z,minf,inf); Is x positive, negative or zero? n; ( %o28) (x − 1) ex (%i29)kill(all)$ rr 4. Resolvamos ahora el ejemplo 5 donde la función era: f (t) = sen(ω0 t) . Bo (%i1) load(fourie)$ (%i2) f:sin(w0*t); ( %o2) sin (w0 t) Como la función es impar, podemos intentar: (%i3) fourintsin(f,t); ( %t3) bz = z+w0 t) − 2 lı́mt→∞ − sin(t 2 z+2 w0 π sin(t z−w0 t) 2 w0−2 z in ( %o23) [ %t22, %t23] 206 CAPÍTULO 3. VECTORES DUALES Y TENSORES ( %o3) [ %t3] ¡Intento fallido! Podemos probar resolviendo la integral. (%i4) tau:n*%pi/w0; Is nw0 positive, negative or zero? p; √ nω 2 (w0 − ω) sin π n w0+π + (−w0 − ω) sin w0 ( %o5) − √ 2 π 2 w0 − 2 ω 2 π n w0−π n ω w0 ar (%i5) Fw:sqrt(2/%pi)*ratsimp(integrate(sin(t*omega)*f,t,0,tau)); in Asignemos los valores numéricos a los parámetros: (%i6) n:6$ w0:%pi$ lim (%i7) Fw:ev(Fw); 2 √ πω π2 + (−ω − π) sin 6 π −6 2 (π − ω) sin 6 π ω+6 π π √ ( %o7) − π (2 π 2 − 2 ω 2 ) Grafiquemos ahora la transformada F (w): rP re (%i8) wxplot2d([Fw], [omega,0,3*%pi])$ Bo rr ad o ( %o8) 3.4.7. Ejercicios 1. Si: 1 0 x < − 2n 1 n − 2n < x < δn (x) = 1 0 x < 2n demuestre que: Z ∞ f (0) = lı́m n→∞ para f (x) continua en x = 0. 1 2n f (x)δn (x)dx , −∞ 3.4. ESPACIOS DE FUNCIONES 207 2. Para: n 1 . π 1 + n2 x2 δn (x) = Demuestre lo siguiente: ∞ Z δn (x)dx = 1 . −∞ 3. Si: ar 2 2 n δn (x) = √ e−n x . π Demuestre que: 4. Demuestre la siguiente relación: Z dδ(x) = −δ(x) . dx in x ∞ δ 0 (x)f (x)dx = −f (0) . −∞ rP re a) Escriba las condiciones de ortogonalidad y cierre. b) Demuestre: R∞ 1) −∞ sen(kx)sen(k 0 x)dx = πδ(k − k 0 ). R∞ 2) −∞ cos(kx) cos(k 0 x)dx = πδ(k − k 0 ). R∞ 3) −∞ sen(kx) cos(k 0 x)dx = 0. lim 5. Dadas las siguientes funciones ortonormales: 1 1 √ sen(kx) , √ cos(kx) , con: 0 ≤ k < ∞ , −∞ ≤ x < ∞ . a) |e(k, x)i = π π 1 √ eikx , con: − ∞ ≤ k < ∞ , −∞ ≤ x < ∞ . b) |e(k, x)i = 2π 6. Demuestre que si: n , π(1 + n2 x2 ) δn (x) = entonces: Z ∞ ad o δn dx = 1 . −∞ 7. Dada la siguiente sucesión de funciones: δn (x) = 1 2nπ sen(nx/2) sen(x/2) 2 . Bo rr Demuestre que δn (x) es una distribución delta de Dirac al calcular " 2 # Z ∞ 1 sen(nx/2) f (x) dx = f (0) . lı́m n→∞ 2nπ −∞ sen(x/2) 8. Encuentre las transformadas de Fourier de las siguientes funciones: a) f (x) = −x e , 0, x>0 b) f (x) = x<0 h(1 − a|x|) , |x| < 1 a |x| > 1 a 0, 9. Dad F (k) como la transformada de Fourier, en tres dimensiones, de f (r) y Fd (k) la transformada de Fourier, tridimensional, de ∇f (r). Demuestre que: Fd (k) = −ik(k) . 10. Resuelva los ejercicios anteriores con Maxima. CAPÍTULO 3. VECTORES DUALES Y TENSORES Bo rr ad o rP re lim in ar 208 ar Bibliografı́a in [1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición (Academic Press, Nueva York) [2] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva York) lim [3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York) [4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:) [5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition, London: [6] Hauser, W (1971) Introduction to Principles of Electromagnetism (Addison-Wesley Pub Co Reading) rP re [7] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Engineering (Cambridge University Press) [8] Santaló, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires) [9] Schutz, B. (1980) Geometrical Methods in Mathematical Physics (Cambridge University Press, Londres) Bo rr ad o [10] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York ) 209 ad o rr Bo lim rP re ar in 210 BIBLIOGRAFÍA ar Capı́tulo 4 Bo rr ad o rP re lim in Matrices, determinantes y autovectores 211 212 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES La ruta de este capı́tulo Operadores lineales in 4.1. ar En el capı́tulo anterior definimos los funcionales lineales como un morfismo de un espacio vectorial lineal V a un espacio unidimensional K. Esta misma idea se puede extender a morfismos de un espacio vectorial V1 a un espacio vectorial V2 , sobre el mismo campo K. Desarrollaremos estos conceptos a través de los operadores lineales en la sección 4.1, y en la sección 4.2 señalaremos algunos de los operadores lineales de mayor relevancia. En la sección 4.3 estableceremos una correspondencia uno-a-uno entre operadores lineales y matrices y la dependencia de ésta correspondencia con las bases del espacio vectorial. Luego, en la sección 4.4 presentaremos un conjunto de matrices fundamentales junto con sus operaciones. En la sección 4.5, veremos algunos de los métodos más comunes para la resolución de sistemas de ecuaciones lineales. Y para finalizar, las secciones 4.6 y 4.7 estarán dedicadas al importante tema de la representación espectral de un operador: el problema de autovalores y autovectores. |v 0 i = T |vi lim Definiremos como operador lineal (o transformación lineal) a una operación que asocia un vector |vi ∈ V1 un vector |v 0 i ∈ V2 y que respeta la linealidad, es decir esta función de V1 → V2 cumple con: T [α |v1 i + β |v2 i] = α T |v1 i + β T |v2 i ∀ / |v1 i y |v2 i ∈ V1 . (4.1) Sencillamente, algo que actúe sobre una suma de vectores en V1 y que es equivalente a la suma de sus actuaciones sobre los vectores suma, es decir, a la suma en V2 . Podemos ilustrar este tipo de transformación con varios ejemplos: T [(x, y, z)] = (x, 2y, 3z) rP re 1. Las siguientes transformaciones: |x0 i = T |xi → (x0 , y 0 , z 0 ) = T {(x, y, z)}, claramente son lineales T [α (x1 , y1 , z1 ) + β (x2 , y2 , z2 )] = αT [(x1 , y1 , z1 )] + βT [(x2 , y2 , z2 )] , entonces: T [(αx1 + βx2 , αy1 + βy2 , αz1 + βz2 )] (αx1 + βx2 , 2 [αy1 + βy2 ] , 3 [αz1 + βz2 ]) ad o T {(x, y, z)} = (z, y, x) = α (x1 , 2y1 , 3z1 ) + β (x2 , 2y2 , 3z2 ) = (αx1 + βx2 , 2 [αy1 + βy2 ] , 3 [αz1 + βz2 ]) . T [α (x1 , y1 , z1 ) + β (x2 , y2 , z2 )] = αT [(x1 , y1 , z1 )] + βT [(x2 , y2 , z2 )] , igual que en el caso anterior: T {(αx1 + βx2 , αy1 + βy2 , αz1 + βz2 )} = α (z1 , y1 , x1 ) + β (z2 , y2 , x2 ) (αz1 + βz2 , αy1 + βy2 , αx1 + βx2 ) = (αz1 + βz2 , αy1 + βy2 , αx1 + βx2 ) . rr 2. Cosas tan sencillas como la multiplicación por un número es una transformación (u operador) lineal, esto es, una transformación T : V → V tal que Bo T |vi = |v 0 i = λ |vi ⇒ T [α |vi + β |wi] = αT |vi + βT |wi = αλ |vi + βλ |wi . Obviamente, si λ = 1 tenemos la transformación identidad que transforma todo vector en sı́ mismo; si λ = 0 tendremos la transformación cero, vale decir que lleva a todo |vi ∈ V a al elemento cero |0i. 3. La definición de producto interno también puede ser vista como una transformación (operador) lineal T : V → R T |vi = λ hu |vi ≡ λ . Otra vez: T [α |vi + β |wi] = hu| [α |vi + β |wi] = α hu |vi + β hu |wi , por lo tanto es lineal. Esto implica que también la proyección de un determinado |vi ∈ V sobre un subespacio S es un operador lineal, y lo denotaremos como: [|si hs|] |vi = hs |vi |si = |vs i , con |si y |vs i ∈ S . 4.1. OPERADORES LINEALES 213 Esta idea se extiende fácilmente para un proyector T : Vm → Sn con m > n, de tal modo que para un vector |vi ∈ Vm Pm |vi ≡ |ui i ui m |vi = ui |vim |ui i = |vm i , con {hui |} una base de Sn . Es claro que estamos utilizando la convención de Einstein para la suma de ı́ndices. una vez más, in a través de n × m números, aij , organizados de la siguiente forma: i = 1, 2, · · · , m i i j y = aj x con j = 1, 2, · · · , n ar 4. Las ecuaciones lineales también pueden verse como transformaciones lineales. Esto es, considere una transformación lineal T : Vn → Vm . Por lo tanto asociaremos |yi = T |xi ⇒ y 1 , y 2 , y 3 , · · · , y m = T x1 , x2 , x3 , · · · , xn , lim T [α |vi + β |wi] = T α v 1 , v 2 , v 3 , · · · , v n + β w1 , w2 , w3 , · · · , wn = αaij v j + βaij wj = T αv 1 + βw1 , αv 2 + βw2 , αv 3 + βw3 , · · · , αv n + βwn j = aij (αv + βw) = αaij v j + βaij wj = aij αv j + βwj . 5. La derivada es un operador lineal → |y 0 i = D |yi → D [y(x)] ≡ dy(x) d [y(x)] ≡ ≡ y 0 (x) , dx dx rP re |v 0 i = T |vi es claro que D [αf (x) + βg(x)] = αD[f (x)] + βD[g(x)] ≡ αf 0 (x) + βg 0 (x) . Igualmente podemos asociar un operador diferencial de cualquier orden a una derivada del mismo orden, esto es d2 y(x) ≡ y 00 (x) , dx2 d3 y(x) |y 000 i = D3 |yi → D3 [y(x)] ≡ ≡ y 000 (x) , dx3 .. . E dn y(x) y (n) = Dn |yi → Dn [y(x)] ≡ ≡ y (n) (x) . dxn D2 |yi → D2 [y(x)] ≡ ad o |y 00 i = rr 6. Del mismo modo, cualquier ecuación diferencial lineal es un ejemplo de operador lineal, digamos y 00 − 3 y 0 + 2 y = D2 − 3D + 2 y(x) , es claro que si y(x) = αf (x) + g(x) la linealidad es evidente: 00 0 Bo (αf (x) + g(x)) − 3 (αf (x) + g(x)) + 2 (αf (x) + g(x)) = α (f 00 − 3 f 0 + 2 f ) + g 00 − 3 g 0 + 2 g ↑↓ 2 2 D − 3D + 2 (αf (x) + g(x)) = D − 3D + 2 αf (x) + D2 − 3D + 2 g(x) ; 7. La integral también es un operador lineal: g(x) = Rx a f (t)dt T [f (t)]. 8. Otros ejemplos tı́picos son los operadores de transformaciones integrales Z b F (s) = K (s, t) f (t)dt T [f (t)] , a donde K (s, t) es una función conocida de s y t, denominada el núcleo de la transformación. Si a y b son finitos la transformación se dirá finita, de lo contrario infinita. 214 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES ∞ Ası́, si f (t) = αf1 (t) + f2 (t) con f1 (t) y f2 (t) ∈ C[a,b] es obvio que: Z b Z b Z K (s, t) [αf1 (t) + βf2 (t)] = α K (s, t) f1 (t)dt + β F (s) = a F (s) a = αF (s1 ) + βF (s2 ) b K (s, t) f2 (t)dt , a T [αf1 (t) + βf2 (t)] = αT [f1 (t)] + βT [f2 (t)] . f (t) = T−1 {F (s)} R∞ F (s) = ∞ Z Fourier de senos y cosenos 0 F (s) = Z ∞ −∞ Z Hankel ∞ F (s) = f (t) = γ−i∞ est F (s)ds ∞ sen(st) F (s)ds cos(st) 0 Z ∞ e−ist F (s)ds −∞ ∞ Z f (t) = sJn (ts)F (s)ds 0 Z ∞ ts−1 f (t)dt f (t) = rP re F (s) = 0 4.1.1. R γ+i∞ f (t) = tJn (st)f (t)dt 0 Mellin Z eist f (t)dt F (s) = 1 2πi f (t) = sen(st) f (t)dt cos(st) 0 Fourier compleja e−st f (t)dt lim Laplace in F (s) = T {f (t)} Nombre ar Dependiendo de la selección del núcleo y los limites tendremos distintas transformaciones integrales, en Fı́sica las más comunes son: 1 2πi R γ+i∞ γ−i∞ s−t F (s)ds Espacio vectorial de operadores lineales ad o Es posible construir un conjunto de operadores lineales {A, B, C · · · } : V1 →V2 y constituir un espacio vectorial lineal si se dispone entre ellos de la operación suma y la multiplicación por un número. Ası́, claramente, dado {A, B, C · · · }, y definida A [α |v1 i + β |v2 i] = α A |v1 i + β A |v2 i (λA + B) |vi ≡ λA |vi + B |vi / B [α |v1 i + β |v2 i] = α B |v1 i + β B |v2 i es directo comprobar que: (λA + B) [α |v1 i + β |v2 i] = λA [α |v1 i + β |v2 i] + B [α |v1 i + β |v2 i] = λ (α A |v1 i + β A |v2 i) +α B |v1 i + β B |v2 i rr = λ (α A |v1 i +α B |v1 i) + β A |v2 i + β B |v2 i = λα (A |v1 i + B |v1 i) + β (A |v2 i + B |v2 i) . Igualmente, se cumple que (A + B) + C = A+ (B + C), con A, B y C lineales en V, Bo [(A + B) + C] |vi = (A + B) |vi + C |vi ∀ |vi ∈ V1 = A |vi + B |vi + C |vi = A |vi + (B + C) |vi = [A+ (B + C)] |vi , del mismo modo se puede comprobar fácilmente A + B = B + A. Ahora bien, si definimos la transformación cero de V1 → V2 tal que O |vi = |0i ∀ |vi ∈ V1 , que asigna el vector |0i ∈ V2 ∀ |vi ∈ V1 , entonces el operador lineal O será el elemento neutro respecto a la suma de operadores. Finalmente, el elemento simétrico queda definido por (−A) |vi = −A |vi ⇒ (A − A) |vi = O |vi = |0i . Con ello queda demostrado que los operadores lineales forman un espacio vectorial el cual de ahora en adelante denominaremos L (V1 , V2 ). 4.1. OPERADORES LINEALES 4.1.2. 215 Composición de operadores lineales El producto o composición de dos operadores lineales, A y B se denotará AB y significará que primero se aplica B y al resultado se aplica A. Esto es: AB |vi = A (B |vi) = A |ṽi = |ṽ 0 i . (AB) C = A (BC) ; α (AB) = (αA) B = A (αB) ; (A1 + A2 ) B = A1 B + A2 B ; A (B1 + B2 ) = AB1 + AB2 . ar La composición de funciones cumple con las siguientes propiedades: [A, B] = AB − BA / lim in Es decir, que la composición de operadores es asociativa y distributiva a la suma y que conmuta respecto a la multiplicación por números. Por otro lado si I es el operador identidad: I |vi = |vi ⇒ AI = IA = A. En general AB 6= BA, por lo tanto podemos construir el conmutador de estos operadores como: [AB − BA] |vi = AB |vi − BA |vi . Es inmediato comprobar algunas de las propiedades más útiles de los conmutadores: [A, B] = − [B, A] rP re [A, (B + C)] = [A, B] + [A, C] [A, BC] = [A, B] C + B [A, C] [A, [B, C]] = − [B, [C, A]] − [C, [A, B]] . Un par de ejemplos inmediatos se derivan de la composición de operadores: 1. Potencias de operadores. Uno de los ejemplos más útiles en la composición de operadores lo constituyen las potencias de los operadores, las cuales provienen de la aplicación consecutiva de un mismo operador, A1 = A ; A2 = AA ; ad o A0 = I ; A3 = A2 A = AAA · · · es claro que las potencias de operadores cumplen las propiedades estándares de las potencias de números m An+m = An Am ; (An ) = Anm . Dn P n−1 = |0i dn dn i Pn−1 (x) = ai x = 0 , n dx dxn Bo rr Llamaremos operadores nilpotentes de grado n a los operadores An 6= 0, del tipo An |vi = |0i ∀ |vi ∈ V1 y |0i ∈ V2 . Es decir, un operador que lleva cualquier vector |vi al elemento neutro de V2 . El ejemplo más notorio es el operador diferencial con P n−1 perteneciente al espacio de polinomios de grado n − 1. ∞ 2. Operador ecuaciones diferenciales. Si consideramos el espacio de funciones f (x) ∈ C[a,b] podemos construir un operador diferencial a0 + a1 D + a2 D2 + · · · + an Dn |f i ⇒ a0 + a1 d d2 dn + a2 2 + · · · + an n dx dx dx f (x) , con {a0 , a1 , a2 , · · · an } coeficientes constantes. De este modo, por ejemplo: D2 − 3D + 2 y = (D − 1) (D − 2) y ⇒ d2 d − 3 + 2 y(x) = y 00 − 3 y 0 + 2 y . dx2 dx 216 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES 4.1.3. Proyectores ar La notación de Dirac se hace particularmente conveniente para representar proyectores. Hasta ahora, hemos relacionado un funcional lineal, un bra hw| del espacio dual V∗ , con un vector ket |vi del espacio vectorial directo V a través de su producto interno hw| vi, el cual es, en general, un número complejo. Ahora escribiremos esta relación entre vectores y formas diferenciales de una manera diferente: la relación entre hw| y |vi un ket |Ψi o un bra hΦ| arbitrarios puede ser: |vi hw| Ψi |vi hw| ⇒ hΦ |vi hw| λ hw| = hλw| = hw| λ hw| λ |vi = λ hw| vi = hw| vi λ A |λvi = Aλ |vi = λA |vi . y lim λ |vi = |λvi = |vi λ, in La primera será la multiplicación del vector |vi por el número complejo hw| Ψi, mientras que la segunda relación será la multiplicación de la forma hw| por el complejo hΦ |vi. Es imperioso señalar que el orden en la escritura de los vectores y formas es crı́tico, sólo los números complejos λ se pueden mover con impunidad a través de estas relaciones. Por lo tanto, dado un vector |vi, podemos construir un proyector P|vi a lo largo del vector |vi, P|vi ≡ |vi hv| , con hv| vi = 1 , P|vi [α |z1 i + β |z2 i] |vi hv| [α |z1 i + β |z2 i] además: P2|vi rP re siempre y cuando este operador lineal cumpla: = α P|vi |z1 i + β P|vi |z2 i , = |vi hv| α |z1 i + |vi hv| β |z2 i = α |vi hv |z1 i + β |vi hv |z2 i , = P|vi P|vi P|vi |zi = ⇐⇒ (|vi hv|) (|vi hv|) = |vi hv| (|vi hv|) (|vi hv|) |zi = |vi hv |vi hv |zi = |vi hv |zi = P|vi |zi . | {z } 1 ad o Ası́, el operador P|vi actuando sobre el vector |Ψi representará la proyección de |Ψi a lo largo de |vi P|vi |Ψi = |vi hv| Ψi ≡ hv| Ψi |vi . Es inmediato construir un proyector de un vector sobre un subespacio Sq . Sea: {|e1 i , |e2 i , |e3 i , · · · , |eq i} un conjunto ortonormal de vectores que expande Sq , por lo tanto, definiremos el proyector Pq al proyector sobre el subespacio Sq de la forma: q , rr Pq = |ei i ei es claro que ∀ |vi ∈ V se tiene: Bo δji z }| { P2q |vi = Pq Pq |vi ⇒ P2q |vi = |ei i ei q |ej i ej q |vi = |ei i ei |ej i ej |vi = |ej i ej |vi ≡ Pq |vi , es decir, P2q = Pq . 4.1.4. Ejemplos 1. Dados dos operadores lineales tales que: AB = −BA, A2 = I, B2 = I y [A, B] = 2iC . a) Mostraremos que: C2 = I y que [B, C] = 2iA. [A, B] = AB − BA = 2iC ⇒ 2AB = 2iC ⇒ ABAB = −C2 ⇒ −AABB = −C2 ⇒ I = C2 [B, C] = −i (BAB − ABB) = 2iA ⇒ −i (BAB − A) = 2iA ⇒ −i (−BBA − A) = 2iA 4.1. OPERADORES LINEALES 217 b) Seguidamente, evaluamos [[[A, B] , [B, C]] , [A, B]]. [[[A, B] , [B, C]] , [A, B]] = [[2iC, 2iA] , 2iC] = 8 [[AB, iA] , AB] = 8i [(ABA − AAB) , AB] = 8i [−2B, AB] = 16i (BAB − ABB) = 32iA . 2. Dados dos operadores vectoriales A y B que conmutan entre ellos y con L, tales que: [A, B] = [A, L] = [L, B] = 0 . ar Demostramos entonces la relación: [A · L, B · L] = i~ (A × B) · L . Veamos: in [A · L, B · L] = i~εklm Al B m Lk = Al B m i~εklm Lk = Al B m [Ll , Lm ] = Al B m Ll Lm − Al B m Lm bm Ll = Al Ll B m Lm − B m Lm Al Ll . lim 3. En Mecánica Clásica la cantidad de momento angular viene definida como L = r × p. Para pasar a Mecánica Cuántica se asocia r y p con los operadores posición y cantidad de movimiento los cuales, al operar sobre la función de onda nos proveen: ∂ ∂ hr |ψi = −i~ ψ(r) hr| X |ψi = x hr |ψi = x ψ(r) hr| Px |ψi = −i~ ∂x ∂x hr| Z |ψi = z hr |ψi = z ψ (r) hr| Pz |ψi = rP re hr| Y |ψi = y hr |ψi = y ψ (r) ∂ ∂ hr| Py |ψi = −i~ hr |ψi = −i~ ψ(r) ∂y ∂y −i~ ∂ ∂z hr |ψi = −i~ ∂ ψ(r) . ∂z En coordenadas cartesianas, en la representación de coordenadas {|ri} tendremos que: hr| R |ψi = r ψ(r) y hr| Px |ψi = −i~ ∇ ψ(r) . ad o De forma que en Mecánica Cuántica las componentes cartesianas del operador cantidad de movimiento angular son hr| L |ψi = −i~ (r×∇) ψ(r) , hr| L |ψi = −i~ ∂ ∂ y −z ∂z ∂y ∂ ∂ ∂ ∂ ψ(r)i − i~ z −x ψ(r)j − i~ x −y ψ(r)k . ∂x ∂z ∂y ∂x Bo rr Utilizando las definiciones anteriores mostraremos que el conmutador de las componentes cartesianas de la cantidad de movimiento angular cumple con: [Lx , Ly ] |ψi = i~Lz |ψi , donde: L1 = L1 = Lx ; L2 = L2 = Ly ; L3 = L3 = Lz . En general: [Ll , Lm ] = i~εlmn Ln . Dado que: [L1 , L2 ] |ψi = [Lx , Ly ] |ψi = (Lx Ly − Ly Lx ) |ψi , entonces: ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ −z z −x − z −x y −z ψ(r] ∂z ∂y ∂x ∂z ∂x ∂z ∂z ∂y ∂ ∂ ∂ ∂ ∂ ∂ = y z −x −z z −x ∂z ∂x ∂z ∂y ∂x ∂z ∂ ∂ ∂ ∂ ∂ ∂ − z −z −z y +x y ψ (r) . ∂x ∂z ∂y ∂z ∂z ∂y [Lx , Ly ] |ψi = y 218 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES Con lo cual: ∂ ∂ ∂2 ∂ 2 ∂ [Lx , Ly ] |ψi = yz +y − xy 2 − z − zx ∂z∂x ∂x ∂z ∂y∂x ∂y∂z ∂ ∂ ∂ ∂ ∂ ∂ 2 ∂ − zy −z − yx 2 − zx −x ψ(r) = y −x ψ(r) . ∂x∂z ∂y∂x ∂z ∂z∂y ∂y ∂x ∂y Practicando con Maxima 1. Si tenemos la siguiente transformación, |x0 i = T |xi: entonces, para que sea una transformación lineal debe satisfacer lo siguiente: T [α |vi] = αT [|vi]. (%i1) f(x,y,z):=[2*x+y,x-z,x+y+z,y+z]; ( %o1) f (x, y, z) := [2x + y, x − z, x + y + z, y + z] rP re El lado derecho de la igualdad es: lim T [|v1 i + |v2 i] = T [|v1 i] + T [|v2 i]. in T : R3 → R4 , T [(x, y, z)] = (2x + y, x − z, x + y + z, y + z) , ar 4.1.5. (%i2) ld:f(x1+x2,y1+y2,z1+z2),factor; ( %o2) [y2 + y1 + 2 x2 + 2 x1 , − (z2 + z1 − x2 − x1 ) , z2 + z1 + y2 + y1 + x2 + x1 , z2 + z1 + y2 + y1 ] El lado izquierdo, (%i3) li:f(x1,y1,z1)+f(x2,y2,z2),factor; ad o ( %o3) [y2 + y1 + 2 x2 + 2 x1 , − (z2 + z1 − x2 − x1 ) , z2 + z1 + y2 + y1 + x2 + x1 , z2 + z1 + y2 + y1 ] Por lo tanto: (%i4) ld-li,ratsimp; rr ( %o4) [0, 0, 0, 0] Para la segunda condición Bo (%i5) f(alpha*x,alpha*y,alpha*z)-alpha*f(x,y,z); ( %o5) [−α (y + 2 x) + α y + 2 α x, −α z − α (x − z) + α x, −α (z + y + x) + α z + α y + α x, −α (z + y) + α z + α y] (%i6) factor(%); ( %o6) [0, 0, 0, 0] 2. Consideremos ahora la siguiente transformación, |x0 i = T |xi: T : R3 → R3 , T [(x, y, z)] = x2 , y + z, z 2 . 4.1. OPERADORES LINEALES 219 (%i7) f(x,y,z):=[x^2,y+z,z^2]; ( %o7) f (x, y, z) := [x2 , y + z, z 2 ]; El lado derecho: ( %o8) ar (%i8) ld:f(x1+x2,y1+y2,z1+z2),factor; h i 2 2 (x2 + x1 ) , z2 + z1 + y2 + y1 , (z2 + z1 ) in El lado izquierdo: ( %o9) 2 x2 + x1 2 , z2 + z1 + y2 + y1 , z2 2 + z1 2 Por lo tanto: (%i10)ld-li,ratsimp; rP re ( %o10) [2 x1 x2 , 0, 2 z1 z2 ] lim (%i9) li:f(x1,y1,z1)+f(x2,y2,z2),factor; No es una transformación lineal. 3. Dadas las siguientes transformaciones de R3 → R3 : A [(x, y, z)] = (2x − z, x + z, x) , B [(x, y, z)] = (z, x, y) . Veamos si conmutan, es decir, [A, B] = AB − BA = 0. Podemos ver que AB = A[B |xi] = (2z − y, z + y, z) y BA = B[A |xi] = (x, 2x − z, x + z). ad o (%i11)A(x,y,z):=[2x-z,x+z,x]; ( %o11) A(x, y, z) := [2x − z, x + z, x] (%i12)B(x,y,z):=[z,x,y]; rr ( %o12) B(x, y, z) := [z, x, y] (%i13)[x,y,z]: [z, x, y]; Bo ( %o13) [x, y, z] : [z, x, y] (%i14)AB:A(x,y,z); ( %o14) [2z − y, z + y, z] (%i15)kill(x,y,z); ( %o15) done (%i16)[x,y,z]:[2*x-z, x+z,x]; ( %o16) [2x − z, z + x, x] 220 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES (%i17)BA:B(x,y,z); ( %o17) [x, 2x − z, z + x] (%i18)AB-BA; ar ( %o18) [2 z − y − x, 2 z + y − 2 x, −x] 4.1.6. in Por lo tanto no conmutan. Ejercicios lim 1. Diga si las siguientes transformaciones, |x0 i = T |xi son lineales a) T : R3 → R2 , T [(x, y, z)] = (x + y, x + z). b) T : R3 → R3 , T [(x, y, z)] = (x, y, y + z). c) T : R3 → R3 , T [(x, y, z)] = (x, x + y, x − y). d ) T : R3 → R4 , T [(x, y, z)] = (x + y, x + z, 2x + y + z, y − z). rP re e) T : R3 → R3 , T [(x, y, z)] = (sen(x), cos(y), 0). 2. Cuál de las siguientes transformaciones definidas sobre V3 son lineales a) T |xi = |xi + |ai donde |ai es un vector constante diferente de cero. b) T |xi = |ai. c) T |xi = ha |xi |ai. d ) T |xi = ha |xi |xi. ad o 3. Considere las siguientes operaciones en el espacio de los polinomios en x y diga si corresponden a transformaciones lineales: a) La multiplicación por x. b) La multiplicación por x2 . b) La diferenciación. 4. Suponga que AB = BA. Demuestre que: 2 a) (A + B) = A2 + 2AB + B2 . 3 rr b) (A + B) = A3 + 3A2 B + 3AB2 + B3 . ¿Cómo cambian las fórmulas anteriores si AB 6= BA? Bo 5. Suponga que un operador L puede ser escrito como la composición de otros dos operadores L = L− L+ con [L− , L+ ] = I. Demostrar que: Si L |xi = λ |xi y |yi = L+ |xi entonces L |yi = (λ + 1) |yi y |zi = L− |xi entonces L |zi = (λ − 1) |zi . y, del mismo modo, demuestre que: Si L |xi = λ |xi Por ello es costumbre denominar a L+ y L− los operadores de “subidas” y de “bajada” respectivamente, ya que ellos construyen otros vectores con autovalores mayores (menores) en una unidad al vector operado. 6. Resuelva los problemas anteriores utilizando Maxima. 4.2. TIPOS DE OPERADORES 4.2. 221 Tipos de operadores A : V1 → V2 ⇒ A |vi = |v 0 i , con |vi ∈ V1 y |v 0 i ∈ V2 . ar Discutiremos en esta sección algunas de las propiedades más resaltantes que caracterizan a los operadores lineales. Además, tal y como están definidas las transformaciones lineales tiene sentido estudiar si ellas poseen la caracterı́stica de ser: inyectivas, sobreyectivas y biyectivas. Las transformaciones lineales tendrán nombres particulares para cada uno de estos casos. Como ya fue señalado, una transformación lineal es una función, aplicación, operador o mapeo cuyos dominios y rangos son subconjuntos de espacios vectoriales y que hemos simbolizado como: Espacio nulo e imagen de un operador lim 4.2.1. in En en lenguaje de la teorı́a de conjuntos a los elementos |v 0 i ∈ V2 se les denomina la imagen de |vi debido a A. Si S es un subconjunto de V1 , entonces al conjunto de todas la imágenes, que denotaremos por A(S), se le denomina la imagen de S debido a la aplicación de A en V1 . A la imagen del dominio de V1 , A{V1 }, se le llama el rango de A y es un subespacio de V2 . El conjunto de todos los |vi ∈ V1 / A |vi = |0i, se denomina espacio nulo, núcleo o kernel (núcleo en alemán) de la transformación A y lo denotaremos como ℵ (A). En sı́mbolos diremos que: ℵ (A) = {|vi ∈ V1 ∧ A |vi = |0i} . rP re Adicionalmente, ℵ (A) ⊂ V1 , es decir, será un subespacio de V1 . La prueba de esta afirmación es inmediata. Dados |v1 i , |v2 i ∈ ℵ (A), con A un operador lineal, es claro que: A |v1 i = |0i ⇒ α1 A |v1 i + α2 A |v2 i = |0i = A (α1 |v1 i + α2 |v2 i) , A |v2 i = |0i por la misma razón se tiene que el elemento neutro está contenido en ℵ (A), esto es: A |α vi = |0i ∀ |vi ∈ V1 ∧ ∀ α ∴ A |0i = |0i si α = 0, ad o por lo tanto, queda demostrado que ℵ (A) es un subespacio de V1 . Por otra parte, definiremos la imagen (rango o recorrido) de A, y la denotaremos como: A {V} = {|v 0 i ∈ V2 ∧ A |vi = |v 0 i} , rr igualmente = (A) ⊂ V2 también será un subespacio de V2 ya que si |vi = α1 |v1 i + α2 |v2 i y dado que A es un operador lineal, se cumple que: Bo A α1 |v1 i + α2 |v2 i = α1 A |v1 i + α2 A |v2 i = α1 |v10 i + α2 |v20 i . {z } | {z } | {z } | {z } | |vi |v 0 i |v10 i |v20 i Es claro que si V es de dimensión finita n, el rango A {V} también será de dimensión finita n y tendremos: dim [ℵ (A)] + dim [A {V}] = dim [V] , vale decir, que la dimensión del núcleo más la dimensión del recorrido o imagen de una transformación lineal es igual a la dimensión del dominio. Para demostrar esta afirmación supongamos que dim [V] = n y que {|e1 i , |e2 i , |e3 i · · · |ek i} ∈ V es una base de ℵ (A), donde k = dim [ℵ (A)] ≤ n. Como el conjunto: {|e1 i , |e2 i , |e3 i · · · |ek i} ∈ V, entonces estos elementos forman una base y por lo tanto, son linealmente independientes. Ademas, necesariamente estos vectores formarán parte de una base mayor de V, esto es: {|e1 i , |e2 i , |e3 i , · · · , |ek i , |ek+1 i , · · · , |ek+r−1 i , |ek+r i} ∈ V será una base de V, donde k + r = n. El esquema de la demostración será el siguiente: 222 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES primero probaremos que los r elementos {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} forman una base para A {V}. Esto significa que estarı́amos probando que: dim{A {V}} = r, k + r = n, y por lo tanto (4.2.1). luego hay que demostrar que los elementos {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} son linealmente independientes. ar Si los r elementos {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} expanden A {V} entonces cualquier elemento |wi ∈ A {V} / |wi = A |vi = C i |Aei i , con |Aei i = A |ei i . Ahora bien, analicemos con cuidado los lı́mites de la suma implı́cita del ı́ndice i = 1, 2, · · · , k + r |wi = C i |Aei i = C 1 |Ae1 i + C 2 |Ae2 i + · · · + C k |Aek i + C k+1 |Aek+1 i + · · · + C k+r |Aek+r i . | {z } ya que A|e1 i=A|e2 i=A|e3 i···=A|ek i=|0i in =|0i lim Por lo tanto {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} expanden A {V}. Ahora bien, para demostrar que son base, demostraremos que son linealmente independientes. Para ello supondremos que: k+1 k+2 ∃ C ,C , · · · , C k+r / C i |Aei i = 0 , con i = k + 1, k + 2, · · · , k + r , y tenemos que demostrar que C k+1 = C k+2 = · · · = C k+r = 0. Entonces C i |Aei i = C i A |ei i = A C i |ei i = 0 , con i = k + 1, k + 2, · · · , k + r , rP re esto significa que el elemento |vi = C i |ei i ∈ ℵ (A), con i = k + 1, k + 2, · · · , k + r. Con lo cual, dado que: ∀ |vi ∈ ℵ (A) , |vi = C i |ei i , con i = 1, 2, · · · , r , entonces se puede hacer la siguiente resta: |vi − |vi = k X i=1 C i |ei i − k+r X C i |ei i = |0i , i=k+1 ad o y como los {|e1 i , |e2 i , |e3 i , · · · , |ek i , |ek+1 i , · · · , |ek+r−1 i , |ek+r i} son una base de V entonces resulta que los coeficientes: C k+1 = C k+2 = · · · = C k+r = 0. Si el espacio vectorial V es de dimensión infinita, entonces al menos uno de los dos subespacios ℵ (A) o A {V} será de dimensión infinita. A continuación ejemplificaremos algunos casos que ilustran lo que representa un espacio nulo. 1. Transformación identidad: Sea I : V1 →V2 , la transformación identidad, entonces ∀ |vi ∈ V1 / I |vi = |vi ⇒ ℵ (I) = {|0i} ⊂ V1 ∧ A {V} ≡ V1 . Bo rr 2. Sistemas de ecuaciones lineales: En Vn las soluciones a los sistemas de ecuaciones lineales representan el espacio nulo, ℵ (A), para vectores de Vn A11 A12 · · · A1n x1 0 A21 A22 x2 0 · · · A |xi = |0i . .. = .. Aij xi = 0 , .. .. . . . An1 An2 Ann xn 0 con j ecuaciones (j = 1, 2, · · · , n). Recordemos que estamos utilizando la convención de Einstein para suma de ı́ndices. 2 3. Ecuaciones diferenciales ordinarias: Sea C[−∞,∞] el espacio vectorial de todas las funciones continuas 2 doblemente diferenciables. Definimos A : C[−∞,∞] → C[−∞,∞] como la transformación lineal D2 − 1 tal que 2 para todas las y(x) ∈ C[−∞,∞] se cumple: 2 d − 1 y(x) = y 00 − y = 0 . A |xi = |0i D2 − 1 y(x) = 0 dx2 El núcleo o espacio nulo de A, ℵ (A), lo constituye el conjunto de soluciones para la mencionada ecuación diferencial. Por lo tanto, el problema de encontrar las soluciones de la ecuación diferencial es equivalente a encontrar los elementos del núcleo de A. 4.2. TIPOS DE OPERADORES 4.2.2. 223 Operadores biyectivos e inversos Se dice que A : V1 →V2 es biyectiva (uno a uno o biunı́voco) si dados |v1 i , |v2 i ∈ V1 , ∧ |v 0 i ∈ V2 , se tiene que: A |v1 i = |v 0 i ∧ A |v2 i = |v 0 i ⇒ |v1 i = |v2 i , in ar es decir, será biyectiva si A transforma vectores distintos de V1 en vectores distintos de V2 . Más aún, se puede afirmar que una transformación lineal A, será biyectiva si y sólo si ℵ (A) = {|0i}. Vale decir, si el subespacio nulo está constituido, únicamente por el elemento neutro del espacio vectorial. La demostración es sencilla. Supongamos que A es biyectiva y que A |vi = |0i, entonces |vi = |0i, es decir, A |0i = |0i, por consiguiente ℵ (A) = {|0i}. Recı́procamente, si ℵ (A) = {|0i} ∧ ⇒ A |v1 i − A |v2 i = |0i = A |v1 i − |v2 i ⇒ |v1 i = |v2 i . | {z } A |v1 i = A |v2 i |v1 i−|v2 i=0 rP re lim La importancia de las transformaciones lineales biyectivas reside en la posibilidad de definir inversa, debido a que siempre existe en V2 un vector |v 0 i asociado a través de A con un vector |vi ∈ V1 . Diremos que A−1 : V2 →V1 es el inverso de A, si A−1 A = I = AA−1 . Habrı́a que hacer un par de comentarios al respecto. El primero es que, tal y como hemos enfatizado arriba, en general, los operadores no conmutan entre si, y los inversos no son una excepción. Es decir, deberı́a existir (y de hecho existen) inversas por la izquierda A−1 A e inversas por la derecha AA−1 . Por simplicidad e importancia en Fı́sica obviaremos esta dicotomı́a y supondremos que A−1 A = I = AA−1 . El segundo comentario tiene que ver con la existencia y unicidad del inverso de un operador lineal. Algunos operadores tienen inverso, otros no, pero aquellos que tienen inverso, ese inverso será único. Supongamos: A−1 1 A |vi = |vi −1 −1 −1 −1 ∧ ⇒ A−1 A |vi ⇒ A−1 1 A |vi − A2 A |vi = |0i = A1 − A2 1 = A2 . | {z } −1 A2 A |vi = |vi −1 −1 A1 =A2 ad o Ahora bien, un operador lineal A tendrá inverso si y sólo si para cada vector |v 0 i ∈ V2 ∃ |vi ∈ V1 / A |vi = |v 0 i. Es decir, cada vector |v 0 i está asociado con uno y sólo un vector |vi a través de la transformación lineal A. Dejaremos sin demostración esta afirmación pero lo importante es recalcar que para que exista inverso la transformación lineal A, tiene que ser biyectiva y esto implica que se asocia uno y sólo un vector de V1 con otro de V2 . Diremos que dos espacios vectoriales V1 , V2 son isomorfos si existe una transformación A : V1 → V2 ⇒ |v 0 i = A |vi , denominada isomorfismo1 , tal que: 1. A es biyectiva. rr 2. A es lineal: A [α |v1 i + β |v2 i] = α A |v1 i + β A |v2 i ∀ |v1 i y |v2 i ∈ V1 . Bo El que A sea biyectiva nos garantiza que existe la transformación inversa A−1 , que también será biyectiva. Es decir, podrı́amos hablar de manera equivalente de una transformación F : V2 → V1 . Volveremos a este tema más adelante. Todavı́a podemos añadir algunas demostraciones que resultan ser consecuencias de las afirmaciones anteriores. Sea la transformación lineal A : V1 → V2 y supongamos además que A ∈ L (V1 , V2 ). Entonces las siguientes afirmaciones son válidas y equivalentes: 1. A es biyectiva en V1 . 2. A es invertible y su inversa A−1 : A {V1 } → V1 es lineal. 3. ∀ |vi ∈ V1 , A {|vi} = |0i ⇒ |vi = |0i. Esto es, el espacio nulo ℵ (A) únicamente contiene al elemento neutro de V1 . 1 Se dice que una transformación lineal es un monomorfismo si A es inyectiva, un epimorfismo si A es sobreyectiva y un isomorfismo si es biyectiva. 224 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES Si ahora suponemos que V1 tiene dimensión finita, digamos dim [V1 ] = n, las siguientes afirmaciones serán válidas y equivalentes: 1. A es biyectiva en V1 . 2. Si {|u1 i , |u2 i , |u3 i , · · · , |un i} ∈ V1 son linealmente independientes, entonces, el conjunto de transformaciones lineales: {A {|u1 i} , A {|u2 i} , A {|u3 i} , · · · , A {|un i}} ∈ A {V1 } también será linealmente independiente. 3. dim [A {V1 }] = n. Operadores adjuntos in 4.2.3. ar 4. Si {|e1 i , |e2 i , |e3 i , · · · , |en i} ∈ V1 es una base de V1 , entonces {A {|e1 i} , A {|e2 i} , A {|e3 i} , · · · , A {|en i}} ∈ A {V1 } es una base de A {V1 }. |vi ⇐⇒ hv| ⇒ lim En la sección 4.1, definimos la acción de un operador lineal A : V → W de tal forma que A |vi = |v 0 i. En esta sección definiremos los operadores A† : V∗ → W∗ , de tal forma que hv 0 | = hv| A† , donde V∗ y W∗ son los duales de V y W, respectivamente. Diremos que el operador A† es el adjunto de A2 . Entonces, discutimos en la sección 3.1.1, a cada vector (ket) |vi le está asociado una forma lineal (bra) hv|, a cada ket transformado A |vi = |v 0 i le corresponderá un bra transformado hv 0 | = hv| A† . En pocas palabras: |v 0 i = A |vi ⇐⇒ hv 0 | = hv| A† . Si A es lineal, A† también lo será, dado que a un vector |wi = λ1 |z1 i + λ2 |z2 i le corresponde un bra hw| = λ∗1 hz1 | + λ∗2 hz2 |.3 Por lo tanto, |w0 i = A |wi = λ1 A |z1 i + λ2 A |z2 i , por ser A lineal, entonces rP re |w0 i ⇐⇒ hw0 | ≡ hw| A† = (λ∗1 hz1 | + λ∗2 hz2 |) A† ≡ λ∗1 hz10 | + λ∗2 hz20 | = λ∗1 hz1 | A† + λ∗2 hz2 | A† . Es claro que a partir de la definición de producto interno tendremos: ∗ hx̃| yi = hy| x̃i Esta última relación ∀ hx| A† |yi = hy| A |xi † ∗ |x̃i = A |xi , |yi ∈ V ⇒ hx| A† |yi = hy| A |xi ∀ |xi , |yi ∈ V . ∗ ∀ |xi , |yi ∈ V , (4.2) † nos permite asociar A con A. Esto es, conociendo las propiedades de A las extendemos a A y es a partir de esta relación que podemos deducir las propiedades de los operadores adjuntos: † † † † A† = A , (λA) = λ∗ A† , (A + B) = A† + B† , (AB) = B† A† . ad o Esta última propiedad es fácilmente demostrable y es educativa su demostración. Dado que |v 0 i = AB |vi, y además se tiene que: |v̄i = B |vi † ⇒ hv 0 | = hv̄| A† = hv| B† A† = hv| (AB) . 0 |v i = A |v̄i rr A partir de las propiedades anteriores se deriva una más útil relacionada con el conmutador, † [A, B] = − A† , B† = B† , A† . Las conclusiones a las que llegamos resultan ser que, para obtener el adjunto de una expresión, se debe proceder de la siguiente manera: Bo Cambiar constantes por sus complejas conjugadas λ λ∗ . Cambiar los kets por sus bras asociados y viceversa (bras por kets): |vi hv|. Cambiar operadores lineales por sus adjuntos A† A. Inviertir el orden de los factores. † De este modo (|vi hw|) = |wi hv| , que se deduce fácilmente de la consecuencia de la definición de producto interno † ∗ ∗ ∗ hx| |vi hw| |yi = hy| (|vi hw|) |xi = hy| |vi hw| |xi = hx| |wi hv| |yi . 2 En la literatura también encontrarán que A† es el hermı́tico conjugado de A, pero hemos creı́do conveniente llamarlo únicamente el adjunto de A para evitar confusiones con operadores hermı́ticos. 3 La correspondencia es antilineal, note la conjugación de los números λ y λ . 1 2 4.2. TIPOS DE OPERADORES 4.2.4. 225 Operadores hermı́ticos Existe un conjunto de operadores que se denominan hermı́ticos o autoadjuntos. Un operador hermı́tico (o autoadjunto) será aquel para el cual su adjunto es el mismo operador: A† = A4 . Entonces, a partir de (4.2) tendremos: ∗ hx| A† |yi ≡ hx| A |yi = hy| A |xi . 4.2.5. ar Estos operadores juegan el rol de los números reales en el sentido de que son “iguales a su propio complejo conjugado” y se utilizan como los observables en la Mecánica Cuántica. Claramente los proyectores son operadores autoadjuntos † por construcción: P†|vi ≡ (|vi hv|) = |vi hv| . Operadores unitarios in Por definición, un operador será unitario si su inversa es igual a su adjunto: U−1 = U† ⇒ U† U = UU† = I. De estos operadores podemos decir varias cosas: lim Las transformaciones unitarias dejan invariante al producto interno y consecuentemente la norma de vectores y esto se demuestra fácilmente. Dados dos vectores |xi , |yi sobre los cuales actúa un operador unitario |x̃i = U |xi ⇒ hỹ |x̃i = hy| U† U |xi = hy |xi . |ỹi = U |yi Es claro que si A es hermı́tico, A† = A, el operador U = eiA es unitario. † rP re U = eiA ⇒ U† = e−iA = e−iA ⇒ UU† = eiA e−iA = I = U† U = e−iA eiA . El producto de dos operadores unitarios también es unitario. Esto es, si U y V son unitarios entonces: † † (UV) (UV) = V† U U V = V† V = I |{z} I ⇔ † † (UV) (UV) = U† V V U = U† U = I |{z} I La invariancia del producto interno implica que los operadores unitarios aplican una base ortogonal en otra: U {|ei i} − → {|ẽi i}. Veamos, si {|ei i} es una base para V entonces: 4.2.6. ⇒ ẽi |ẽj i = ẽi U |ej i = ei U† U |ej i = ei |ej i = δji . ad o |ẽj i = U |ej i Funciones de operadores Para construir funciones de operadores lineales, procedemos por analogı́a, basándonos en el primero de los ejemplos de la sección 4.1.2. Vale decir que se puede construir un “polinomio” en potencias de los operadores a partir de la idea: Pn (x) = a0 + a1 x + · · · + an xn = ai xi Pn (A) |vi = [a0 + a1 A + · · · + an An ] |vi = ai Ai |vi , ∀ |vi ∈ V1 . Bo rr Si nos saltamos todos los detalles de convergencia de la serie anterior –los cuales dependerán de los autovalores de A y de su radio de convergencia– y nos inspiramos en el desarrollo de una función F (z) como una serie de potencias de z en un cierto dominio, es posible expresar la función de un operador, F (A), como una serie de potencias del operador A, esto es: F (z) = ai z i F (A) |vi = ai Ai |vi . Tal y como se hace en el caso de funciones, “desarrollamos por Taylor” la función como una serie de potencias del operador: "∞ # ∞ X X zn An (n) (n) F (z) = f (0) F (A) |vi = f (0) |vi , (4.3) n! n! n=0 n=0 de esta manera podemos expresar la exponencial de un operador A, como "∞ # X An A2 An A e |vi = |vi = I + A + + ··· + · · · |vi . n! 2! n! n=0 4 Si A† = −A el operador lineal se denomina antihermı́tico. 226 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES En este caso hay que hacer una acotación, dado que, en general, [A, B] 6= 0 ⇒ eA eB 6= eB eA 6= eA+B . Esta afirmación se corrobora de manera inmediata al desarrollar las exponenciales: #" ∞ # "∞ ∞ # "∞ X Bm X X An Bm X An |vi = |vi , eA eB |vi = n! m! n! m! m=0 n=0 m=0 n=0 "∞ ∞ # # ∞ X X Bn Am X Am |vi = |vi , m! n! m! n=0 m=0 m=0 #" y sólo en el caso en que [A, B] = 0 in se tiene "∞ # X (A + B)n eA+B |vi = |vi , n! n=0 ar ∞ X Bn e e |vi = n! n=0 " B A 4.2.7. Diferenciación de operadores lim es decir, si [A, B] = 0 ⇒ eA eB = eB eA = eA+B . La demostración no es inmediata y la haremos al final de la próxima sección en la cual desarrollaremos el concepto de derivada de operadores. rP re Distinguiremos dos casos en la diferenciación de operadores: uno cuando el operador depende de una variable y A(t) diferenciamos respecto esa variable, dedt |vi y otro cuando diferenciamos respecto al operador mismo: dFdB(B) . Empecemos por considerar operadores A(t), es decir que pueden depender de una variable arbitraria t. Podremos entonces definir la derivada como: dA(t) A (t + ∆t) − A(t) = lı́m . ∆t→0 dt ∆t Como era de esperarse, con esta definición se cumplirán todas las propiedades de las derivadas de funciones5 . Empecemos por considerar el caso más simple: A(t) = At, el operador dependen linealmente de la variable t. Si At queremos conocer la expresión para dedt , para este caso elemental recordemos que "∞ # " # 2 n X (At)n (At) (At) eAt |vi = |vi = I + At + + ··· + · · · |vi , (4.4) n! 2! n! n=0 ad o por lo tanto, tendremos: "∞ # "∞ # "∞ # "∞ # n X d (At)n X ntn−1 An X tn−1 An−1 d X (At) deAt |vi = |vi = |vi = |vi = A |vi . dt dt n=0 n! dt n! n! (n − 1)! n=0 n=0 n=0 | {z } eAt deAt |vi = eAt A |vi ≡ AeAt |vi dt ⇒ eAt , A = 0 . Bo rr Nótese que la suma es hasta infinito, por lo tanto, al cambiar de ı́ndice p = n − 1, p sigue variando hasta infinito y la serie es la misma que la anterior. Finalmente, obtendremos6 : En general también es fácil demostrar que [F (A), A] = 0 ya que a partir del desarrollo (4.3) se hace evidente ! ! ∞ ∞ X X An An (n) (n) f (0) A≡A f (0) , n! n! n=0 n=0 Ahora bien, cuando se presenta la siguiente situación: d eAt eBt deAt Bt deBt |vi = e |vi + eAt |vi = AeAt eBt |vi + eAt BeBt |vi = eAt AeBt |vi + eAt eBt B |vi , dt dt dt 5 Más adelante, en la sección 4.3.6 consideraremos la expresión matricial de los operadores y serán evidentes estas propiedades que aquı́ presentamos sin mayores justificaciones. 6 Es inmediato comprobarlo si consideramos la expansión 4.4 4.2. TIPOS DE OPERADORES 227 hay que cuidar el orden en el cual se presentan lo operadores. En particular en la expresión anterior hemos utilizado que siempre se cumple eBt , B = 0, pero no hemos supuesto (ni conocemos) nada de [A, B]. Si, adicionalmente, [A, B] = 0 podremos factorizar eAt eBt y tendremos d eAt eBt |vi = (A + B) eAt eBt |vi , dt ar pero si [A, B] 6= 0, el orden de aparición de los operadores es MUY importante. Para construir la expresión de la derivada de una función de operador respecto a su argumento, probaremos la siguiente afirmación: dF (B) . (4.5) Si [A, [A, B]] = [B, [A, B]] = 0 ⇒ [A, F (B)] = [A, B] dB in Esta relación es fácilmente demostrable si suponemos [A, B] = I, el operador identidad. Obviamente aquı́ se cumple que: [A, B] = I ⇒ [A, [A, B]] = [B, [A, B]] = 0 . En ese caso es facil demostrar que ABn − Bn A = nBn−1 : n lim · · · B}A · · · B}A = (I + BA) BB · · · B} − BB ABn − Bn A = ABB · · · B}−BB | {z | {z | {z | {z n n−1 n · · · B} − BB · · · B}A = I Bn−1 + B (I + BA)BB | {z | {z n n−2 = 2Bn−1 + B2 (I + BA)BB · · · B} − BB · · · B}A = · · · = nBn−1 . | {z | {z n n−3 rP re Para demostrar la relación (4.5) “desarrollamos en serie de Taylor” la función F (B) en el conmutador " # ∞ ∞ ∞ ∞ X X X X Bn [A, Bn ] nBn−1 Bn−1 fn fn fn fn [A, F (B)] = A, = = [A, B] = [A, B] n! n! n! (n − 1)! n=0 n=0 n=0 n=0 dF (B) . dB = [A, B] ? Para el caso más general: si [A, C] = [B, C] = 0 con C = [A, B] ⇒ [A, F (B)] = [A, B] dFdB(B) , se procede del mismo modo. Probamos primero que: con C = [A, B] ⇒ [A, Bn ] = ABn − Bn A = n [A, B] Bn−1 . Tendremos: ad o si [A, C] = [B, C] = 0 , ABn − Bn A = ABB · · · B}−BB · · · B}A = (C + BA) BB · · · B} − BB · · · B}A | {z | {z | {z | {z n n−1 rr = CB n−1 n + B (C + BA)BB · · · B} − BB · · · B}A | {z | {z n−1 = 2CB Bo n n−2 n n−1 + B (C + BA)BB · · · B} − BB · · · B}A = · · · = nCBn−1 = n[A, B] B | {z | {z 2 n n−3 con lo cual es inmediato demostrar que: " # ∞ ∞ ∞ ∞ X X X X Bn [A, Bn ] nBn−1 Bn−1 [A, F (B)] = A, fn = fn = [A, B] fn = [A, B] fn n! n! n! (n − 1)! n=0 n=0 n=0 n=0 = [A, B] dF (B) . dB La fórmula de Glauber Ahora estamos en capacidad de demostrar limpiamente la fórmula de Glauber: 1 eA eB = eA+B e 2 [A,B] . , 228 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES Para demostrarla, procedemos a considerar un operador F(t) = eAt eBt , por lo tanto: dF(t) deAt eBt |vi = |vi = AeAt eBt |vi + eAt BeBt |vi = A + eAt Be−At eAt eBt |vi dt dt = A + eAt Be−At F(t) |vi . Ahora bien, dado que: [A, [A, B]] = [B, [A, B]] = 0 ⇒ [A, F (B)] = [A, B] dFdB(B) , es decir: dF(t) dt ar entonces: eAt , B = t [A, B] eAt ⇒ eAt B = BeAt + t [A, B] eAt , |vi = A + eAt Be−At F(t) |vi = (A + B + t [A, B]) F (t) |vi , n o 2 (A+B)t+ t2 [A,B] , in por tanteo uno puede darse cuenta que: F(t) = e 4.2.8. Ejemplos lim cumple con la ecuación anterior, por lo tanto absorbiendo t en los operadores correspondientes llegamos a la fórmula 1 de Glauber: eA eB = eA+B e 2 [A,B] . 1. Sean A y B dos operadores hermı́ticos y un operador unitario definido como: U = A + iB. Mostraremos que [A, B] = 0 y A2 + B2 = I. Comenzamos con [A, B] = 0: † † rP re UU† = U† U = (A + iB) (A + iB) = (A + iB) (A + iB) ⇒ (A + iB) (A − iB) = (A − iB) (A + iB) BA − AB = −BA + AB ⇒ [B, A] = −[B, A] ⇒ [B, A] = 0 . Continuamos con la segunda de las afirmaciones, que se puede demostrar, a partir de: † UU† = I ⇒ (A + iB) (A + iB) = (A + iB) (A − iB) = A2 + B2 + i (BA − AB) ⇒ I = A2 + B2 . 2. Un operador cantidad de movimiento generalizado se define como aquel conjunto de operadores hermı́ticos que cumplen con: [Jy , Jz ] = i~Jx ad o [Jx , Jy ] = i~Jz [Jz , Jx ] = i~Jy , es decir [Ji , Jj ] = i~ijk Jk , con ijk el sı́mbolo de Levy-Civita (Aquı́ los ı́ndices repetidos NO indican suma). Adicionalmente, definimos los siguientes operadores: J2 = J2x + J2y + J2z ; J+ = Jx + iJy J− = Jx − iJy . Demostremos que: J2 , J+ = J2 , J− = J2 , Jz = 0 . Bo rr Para probar esta propiedad se puede demostrar de forma genérica que J2k , Jm = 0, donde los ı́ndices k, m = 1, 2, 3 ≡ x, y, z, esto es 2 Jk , Jm = [Jk Jk , Jm ] = Jk Jk Jm − Jm Jk Jk = Jk Jk Jm − (i~mkl Jl + Jk Jm ) Jk . Notemos que [Ji , Jj ] = i~ijk Jk ⇒ Jm Jk = i~mkl Jl + Jk Jm , y que hemos realizado esa sustitución en el segundo de los términos de arriba. Desarrollando y realizando una sustitución equivalente obtenemos: 2 Jk , Jm = Jk Jk Jm − i~mkl Jl Jk − Jk (i~mkn Jn + Jk Jm ) , y claramente J2k , Jm = 0, por cuanto los ı́ndices no suman pero si son mudos, y mkl = −mlk . 2 Jk , Jm = Jk Jk Jm − i~mkl Jl Jk − i~mkn Jk Jn − Jk Jk Jm , al conmutar los cuadrados de las componentes con cualquiera de las componentes, y dado que los conmutadores son lineales, entonces queda demostrado que: 2 J , J± = J2x + J2y + J2z , Jx ± iJy = J2y , Jx + J2z , Jx ± i J2x , Jy ± i J2z , Jy = 0 . 4.2. TIPOS DE OPERADORES 4.2.9. 229 Practicando con Maxima Consideremos la siguiente transformación lineal: T : R3 → R4 , T [(x, y, z)] = (2x + y, x − z, x + y + z, y + z) . Podemos preguntarnos si es una transformación biyectiva, para averiguarlo calculemos el núcleo de la transformación. Hagamos entonces lo siguiente: ar (%i1) solve([2*x+y=0,x-z=0,x+y+z=0,y+z=0],[x,y,z]); ( %o1) [[x = 0, y = 0, z = 0]] ( %o2) [[x = − %r1 , y = %r1 , z = %r1 ]] . lim (%i2) solve([x+y=0,x+z=0,2*x+y+z=0,y-z=0],[x,y,z]); in De manera que ℵ (T) = (0, 0, 0) ∈ R3 y la transformación es biyectiva. Consideremos ahora la transformación lineal: T : R3 → R4 , T [(x, y, z)] = (x + y, x + z, 2x + y + z, y − z) rP re Por lo tanto ℵ (T) = {(−λ, λ, λ) , λ ∈ R}. En este caso, la transformación no es biyectiva. Notemos que el vector |ei = (−1, 1, 1) resulta ser el vector base para subespacio vectorial núcleo, por lo tanto, la dimensión de este espacio vectorial es: dim [ℵ (T)] = 1. Como veremos más adelante una base en el espacio imagen o rango es el conjunto: {T [(1, 0, 0)] , T [(0, 1, 0)] , T [(0, 0, 1)]}. Por lo tanto, podemos hacer los siguientes cálculos: (%i3) T(x,y,z):=[x+y,x+z,2*x+y+z,y-z]; ( %o3) T (x, y, z) := [x + y, x + z, 2x + y + z, y − z] ad o (%i4) M:matrix(T(1,0,0),T(0,1,0),T(0,0,1))$ 1 1 2 0 ( %o4) 1 0 1 1 0 1 1 −1 La función triangularize devolverá una matriz equivalente, pero en la forma triangular superior de la matriz M, obtenida por eliminación gaussiana. rr (%i5) triangularize(M); 1 1 2 0 ( %o5) 0 −1 −1 1 0 0 0 0 Bo 4 Eso significa que una base para el rango T{R } será: {(1, 1, 2, 0) , (0, −1, −1, 1)}, es decir, la dimensión se éste 4 = 2. subespacio vectorial es dim T R Por lo tanto: dim [ℵ (T)] + dim T R4 = dim R3 ⇒ 1 + 2 = 3 . Consideremos ahora el siguiente espacio vectorial V3 = {(x, y, z) : x + y + z = 0} en R3 , y la siguiente transformación lineal de V3 → V3 F (x, y, z) = (x + y + z, x + y − z, 2z) , (%i6) F(x,y,z):=[x+y+z,x+y-z,2*z]; ( %o6) F (x, y, z) := [x + y + z, x + y − z, 2z] Ahora bien, para obtener el núcleo de la transformación resolvemos 230 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES (%i7) linsolve([x+y+z=0,x+y-z=0,2*z=0],[x,y,z]); solve: dependent equations eliminated: (1) ( %o7) [x = %r1 , y = − %r1 , z = 0] La solución es: x = C, y = −C y z = 0, por lo tanto, una base para el espacio ℵ [F ] es: {(1, −1, 0)}. Si ahora evaluamos la transformación F para la base canónica resulta lo siguiente: in ar (%i8) Img:matrix(F(1,0,0),F(0,1,0),F(0,0,1)); 1 1 0 ( %o8) 1 1 0 1 −1 2 lim Reduciremos la matriz anterior pero esta vez con la función echelon, que al igual que triangularize devuelve la forma escalonada de la matriz M , obtenida por eliminación gaussiana, pero normalizando el primer elemento no nulo de cada fila. (%i9) echelon(Img); 1 1 0 ( %o9) 0 1 −1 0 0 0 rP re Es decir, una base para el espacio imagen o rango es el conjunto: {(1, 1, 0), (0, 1, −1)}. Podemos también calcular una base para V3 = {(x, y, z) : x + y + z = 0} (%i10)linsolve(x+y+z=0,[x,y,z]); ( %o10) [x = − %r3 − %r2 , y = %r3 , z = %r2 ] Es una solución del tipo: x = −C3 − C2 , y = C3 y z = C2 . Una base vendrá dada por: {(−1, 1, 0), (−1, 0, 1)}. Si evaluamos la transformación dada en esta base, resulta: ad o (%i11)matrix(F(-1,1,0),F(-1,0,1)); 0 0 0 ( %o11) 0 −2 2 El espacio vectorial tiene como base {(0, −2, 2)}. 4.2.10. Ejercicios rr 1. Considere los siguientes operadores: A = A† hermı́tico, K = −K† antihermı́tico; U−1 = U† unitario, P y Q dos operadores genéricos. Pruebe las siguientes afirmaciones: Bo a) En general: −1 † 1) P† = P−1 . −1 2) (PQ) = Q−1 P−1 3) Si [P, Q] = 0, entonces P(Q)−1 = (Q)−1 P b) Si A es hermı́tico entonces à = U−1 AU también será un operador hermı́tico. c) Si K es antihermı́tico entonces K̃ = U−1 KU es también lo será. En particular eso se cumple para K̃ = iA. Es decir, podemos construir un operador antihermı́tico a partir de uno hermı́tico. d ) Dados dos operadores A y B, hermı́ticos, su composición AB, será hermı́tica si y sólo si A y B conmuntan. e) Si S es un operador real y antisimétrico7 y I el operador unidad, pruebe: 1) Los operadores (I − S) y (I + S) conmutan. 7 Esto es S† ≡ ST = −S con ST el traspuesto de S. 4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES 231 −1 1 1 C + C† + C − C† . 2 2 donde C + C† representa su parte hermı́tica y C − C† su parte antihermı́tica. 4.3. Representación matricial de operadores in C= ar 2) El operador (I − S) (I + S) es simétrico, mientras que (I − S) (I + S) es ortogonal.8 cos(θ) sen(θ) f ) Considere una matriz ortogonal de la forma R = , encuentre la expresión para S −sen(θ) cos(θ) −1 que reproduce R = (I − S) (I + S) . √ 2. Si un operador lineal C genérico, entonces pruebe que C + C† y i C − C† , con i = −1, serán hermı́ticos. Esto, obviamente implica que siempre podremos separar un operador lineal como: lim Dados dos vectores |v1 i y |v2 i definiremos como el elemento de matriz del operador A al producto interno de dos vectores hv2 | (A |v1 i) ≡ A(|v1 i,|v2 i) , (4.6) rP re es claro que A(|v1 i,|v2 i) será en general un número complejo, pero además el valor de ese número dependerá de los vectores |v1 i y |v2 i con los cuales se haga la operación (4.6). El paso más importante para asociar un conjunto de números a un operador lo constituye realizar la operación (4.6) con los elementos de una base del espacio vectorial donde opera A. Supongamos un operador lineal A en el espacio vectorial de transformaciones lineales L (V,W) donde dim (V) = n y dim (W) = m, y sean {|e1 i , |e2 i , |e3 i , · · · , |en i} y {|ẽ1 i , |ẽ2 i , |ẽ3 i , · · · , |ẽm i} bases ortonormales9 para V y W respectivamente. Entonces en la ecuación (4.6) cada uno de los vectores A |ei i ∈ W nos conduce a: β β ẽβ A |ei i = Aα i ẽ |ẽα i = Ai con i = 1, 2, .., n y α , β = 1, 2, .., m . (4.7) ad o Las cantidades Aβj son la representación del operador A respecto a las bases {|en i} y {|ẽm i} de V y W respectivamente. Es decir, definiremos una matriz Aβj como un arreglo de números donde el superı́ndice, β, indica fila y el subı́ndice, j, columna: 1 1 A1 A1 A12 · · · A1n 2 A21 A21 A22 A n A11 A12 · · · A1n . Aβj = . , .. , . . . . . . An1 An2 Ann An1 Bo rr Es importante señalar que cambiando el orden de los vectores dentro de la base cambia la representación matricial del operador. Esto significa que la organización de los número Aβj dependerá del orden que le demos a los vectores en las bases {|ei i} y {|ẽi i}. Definitivamente, las matrices son uno de los objetos más útiles de las matemáticas que permiten “aterrizar” conceptos y calcular cantidades. La palabra matriz fue introducida en 1850 por James Joseph Sylvester10 y su teorı́a desarrollada por Hamilton11 y Cayley12 . Si bien los fı́sicos las consideramos indispensables, no fueron utilizadas de manera intensiva hasta el aparición de la Mecánica Cuántica alrededor de 1925. es AT = A−1 con AT el traspuesto de A. hemos mencionado con anterioridad, las bases no necesariamente deben ser ortogonales (o mejor ortonormales), pero uno siempre puede ortogonalizarlas (y ortonormalizarlas) 10 James Joseph Sylvester (1814-1897 Londres, Inglaterra) Además de sus aportes con Cayley a la teorı́a de las matrices, descubrió la solución a la ecuación cúbica y fue el primero en utilizar el término discriminante para categorizar cada una de las raı́ces de la ecuación. Para vivir tuvo que ejercer de abogado durante una década. Por fortuna, otro matemático de la época (Arthur Cayley) frecuentaba los mismos juzgados y tribunales y pudieron interactuar. Por ser judı́o tuvo cantidad de dificultades para conseguir trabajo en la Academia. 11 Sir William Rowan Hamilton (1805 - 1865, Dublin, Irlanda) Sus contribuciones en el campo de la óptica, dinámica del cuerpo rı́gido, teorı́a de ecuaciones algebraicas y teorı́a de operadores lineales. 12 Arthur Cayley (1821, Richmond, 1895, Cambridge, Inglaterra) En sus cerca de 900 trabajos cubrió casi la totalidad de las áreas de las matemáticas de aquel entonces. Sus mayores contribuciones se centran el la teorı́a de matrices y la geometrı́a no euclidiana. No consiguió empleo como matemático y tuvo que graduarse de abogado para ejercer durante más de 15 años, durante los cuales publicó más de 250 trabajos en matemáticas. 8 Esto 9 Como 232 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES 4.3.1. Álgebra elemental de matrices El álgebra de operadores que definimos en la sección 4.1.1, puede ser traducida al lenguaje de matrices. Por comodidad supondremos un único espacio vectorial, V ≡ W y, por lo tanto nos basta una base ortogonal {|en i}. De este modo, es claro que se obtienen nuevamente las conocidas relaciones para matrices cuadradas A1n + Bn1 A2n + Bn2 . n n An + B n in Con lo cual tenemos la suma de matrices que todos hemos visto en los cursos básicos 1 1 1 A1 + B11 A12 + B21 · · · B1 B21 · · · Bn1 A1 A12 · · · A1n 2 2 2 2 2 2 2 2 2 2 A1 A2 Bn An A1 + B 1 A2 + B 2 B1 B2 = + .. .. .. .. .. .. .. . . . . . . . An1 + B1n B1n B2n Ann An1 An2 Ann ar ei A + B |ej i = ei A |ej i + ei B |ej i = Aij + Bji . An1 An2 Ann = A1k B1k A2k B1k .. . rP re que se traduce en la tradicional multiplicación de matrices: 1 1 B1 B21 · · · Bn1 A1 A12 · · · A1n 2 A21 A22 Bn2 An B12 B22 × .. . . .. .. . .. . lim De igual modo, para la representación de composición de operadores que consideramos en la sección 4.1.2 tendremos: ei AB |ej i = ei A I B |ej i = ei A |ek i ek B |ej i = ei A |ek i ek B |ej i = Aik Bjk , B1n B2n Ann Ank B1k A1k B2k A2k B2k .. . ··· .. . A1k Bnk A2k Bnk , Ank Bnk como ya sabı́amos AB 6= BA → Aik Bjk 6=Bki Akj . Finalmente, es claro que la multiplicación de un número por una matriz es la multiplicación de todos sus elementos por ese número ei αA |ej i = α ei A |ej i = αAij . 4.3.2. Bases y la representación matricial de operadores ad o Como es claro de la ecuación (4.7) la representación matricial de un operador depende de las bases de V y W, respectivamente. A continuación discutiremos algunos ejemplos particulares. Representación diagonal rr Dado un operador lineal A ∈ L (V,W), donde dim (V) = dim (W) = n, y sea {|ei i} una base ortonormal para V y W. Entonces, si adicionalmente se da el caso que A |ei i = λi |ei i , la representación matricial será diagonal ej A |ei i = Aji = ej |ei i = λi δij . Bo Es importante señalar que λi δij , en la ecuación anterior, no se puede interpretar como suma, sino sencillamente que se repite para cada ı́ndice i. Adicionalmente, que esta afirmación también es válida para dim (V) 6= dim (W) pero por simplicidad seguimos trabajando con matrices cuadradas. Representación matricial de operadores adjuntos y hermı́ticos Consideremos la representación matricial de un operador adjunto, tal y como lo desarrollamos en la sección 4.2.3, ∗ i ∗ A† j = ei A† |ej i = ej A |ei i = Aji , vale decir: la matriz que representa el operador adjunto A† , es la traspuesta conjugada de la matriz que representa al operador A. i Si el operador es hermı́tico: A† = A ⇒ A† j = Aij . Por lo tanto, las matrices hermı́ticas son simétricas respecto a la diagonal y los elementos de la diagonal son números reales. 4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES 233 Aquı́ vale la pena reexpresar, con matrices, algunas de las propiedades que arriba expusimos: † † i † ∗ † A† → ei A† |ej i = A† j = Aji = Aij y ∗ † ∗ (λA) → ei λA† |ej i = ej λA |ei i = λ∗ ej A |ei i = λ∗ ei A† |ej i = λ∗ A† , pero más interesante es: 4.3.3. † = (Ajk )∗ (Bik )∗ = (A† )kj (B † )ik = (B † )ik (A† )kj =→ B† A† . ar † † (AB) → ei (AB) |ej i = Aik Bjk Representación matricial y transformaciones Ski lim in Hemos dicho que dada una una base particular en el espacio de acción de un operador, éste quedará representado por una matriz adaptada a esa base. Por lo tanto, si cambiamos la base que genera la representación, ese mismo operador tendrá otra matriz como representación. Por comodidad volvamos a suponer un único espacio vectorial, V ≡ W, pero ahora supondremos que este espacio vectorial V tiene dos base discretas ortonormales {|ei i} y {|ẽi i}. Entonces las representaciones matriciales de A: Ãij = ẽi A |ẽj i y Aij = ek A |em i, están relacionadas por: (4.8) ẽi A |ẽj i = ẽi |ek i ek A (|em i hem |) |ẽj i = ẽi |ek i ek A |em i hem |ẽj i ⇔ Ãij = Ski Akm S̃jm , | {z } | {z } S̃jm rP re donde Ãij es la representación del operador A en la base {|ẽj i} y Akm en la base {|em i}. Más aún, siempre podremos expresar unos vectores base en términos de los otros de tal forma que: −1 n n n m |ẽj i = S̃jm |em i = S̃jm (Sm |ẽn i) ⇒ hẽn |ẽj i = δjn = S̃jm Sm ≡ Sm S̃j ⇒ S̃ji = Sji , (4.9) con lo cual la relación (4.8), Ãij = Ski Akm S̃jm , puede ser reescrita como Ãij = Ski Akm Sjm −1 ⇔ à = SAS−1 ⇒ A = S−1 ÃS. (4.10) ad o Diremos que dos representaciones matriciales Aij y Ãkm , de un mismo operador A, son similares si están relacionadas entre si por (4.10), donde la matriz de transformación Ski y su inversa se construyen a partir de los productos internos de las bases. Esa misma afirmación se puede refrasear por el hecho que dos operadores à y A están relacionados por una transformación de similaridad (4.10) constituyen distintas representaciones de un mismo operador. ∗ Adicionalmente, por la definición de producto interno, ek |ẽm i = hẽm |ek i y tomando en cuenta (4.9), tendremos: k ∗ k k −1 S̃m = (Skm ) ≡ S † m = Sm , rr es decir, las matrices de productos internos que transforman las representaciones matriciales de los operadores, son unitarias y la relación (4.8) puede escribirse también como: m (4.11) Ãij = Ski Akm S̃jm ⇔ Ãij = Ski Akm S † j . Bo En este caso, diremos que las representaciones matriciales de A están relacionadas a una transformación unitaria del tipo (4.11). 4.3.4. Traza de operadores La traza, Tr (A), de un operador A es la suma de los elementos diagonales de su representación matricial A. Esto es, dado un operador A y una base ortogonal {|ei i} para Vn , entonces: Tr (A) = ek A |ek i = Akk . La traza de la representación matricial de un operador es, por ejemplo: 1 2 3 Aij = 4 5 6 ⇒ Tr (A) = Aii = 15 . 7 8 9 234 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES Propiedades de la Traza Claramente la traza es lineal: Tr (A+λB) = Tr (A) + λTr (B), ya que Tr (A + λB) = ek A + λB |ek i = ek A |ek i + λ ek B |ek i = Tr (A) + λTr (B) . La traza de un producto conmuta, esto es, Tr (AB) = Tr (BA), y es fácilmente demostrable: I ar Tr (AB) = ek AB |ek i = ek A|em i hem |B |ek i = ek B|em i hem |A |ek i = Tr (BA) . | {z } | {z } I in Recuerde que ek B |em i y ek A |ek i son números que pueden ser reordenados. Donde una vez más hemos utilizado las dos relaciones de cierre |ẽm i hẽm | = |ek i ek = I. Del mismo modo es fácil demostrar que la traza de un triple producto de matrices respeta la ciclicidad del orden de la matrices en el producto: Tr (ABC) = Tr (BCA) = Tr (CAB). lim Invariancia de la Traza La traza de una matriz no depende de la base que seleccionemos, es un invariante que caracteriza al operador independientemente de la base en la cual se represente. Entonces, a partir de (4.8) tendremos: Akk = ek A |ek i = ek |ẽm i hẽm | A |ek i = hẽm | A|ek i ek ẽm i = hẽm | A |ẽm i = Ãm m. | {z } | {z } I rP re I Nótese que primero hemos introducido |ẽm i hẽm |, luego hemos reubicado el término ek |ẽm i, para el lado derecho y, finalmente, hemos identificado el término |ek i ek como el operador unidad. Es claro que la traza caracteriza al operador independiente de su representación matricial. 4.3.5. Un paréntesis determinante ad o El determinante de un operador, A, se define como una aplicación de su representación matricial, ei A |ej i en R, es decir, asocia un número real con la representación matricial del operador, y se define como: det |A| = εijk··· A1i A2j A3k · · · ≡ A11 A21 .. . A12 A22 An1 An2 ··· .. A1n A2n , . Ann Bo rr donde los elementos de la representación matricial se expresan como Aij = ei A |ej i y hemos generalizado el tensor de Levi-Civita que presentamos en la sección 1.4.1, de tal forma que: 0, si cualesquiera dos ı́ndices son iguales 1, si los ı́ndices i, j, k · · · constituyen una permutación cı́clica de 1, 2, 3 · · · n εijk··· = εijk··· = −1, si los ı́ndices i, j, k · · · constituyen una permutación anticı́clica de 1, 2, 3 · · · n Un ejemplo simplificado de esta asociación para el caso de representaciones matriciales 3 × 3 es el siguiente: A11 i A21 e A |ej i = A31 A12 A22 A32 A13 A23 ⇒ det |A| = εijk A1i A2j A3k = A33 A11 A21 A31 A12 A22 A32 A13 A23 A33 , con lo cual det |A| = ε123 A11 A22 A33 + ε312 A13 A21 A32 + ε231 A12 A23 A31 + ε132 A11 A23 A32 + ε321 A13 A22 A31 + ε213 A12 A21 A33 = A11 A22 A33 + A13 A21 A32 + A12 A23 A31 − A11 A23 A32 − A13 A22 A31 − A12 A21 A33 . 4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES 235 Propiedades de los determinantes 1. det |A| = det |AT |, donde AT es el operador traspuesto de A, esto es claro para las representaciones matriciales T ei A |ej i = Aij = ej A |ei i . Esta propiedad proviene de la definición del ı́ndice de Levi-Civita: det |A| = εijk··· A1i A2j A3k · · · = εijk··· Ai1 Aj2 Ak3 · · · = det |AT | , que se traduce en que si se intercambian filas por columnas el determinante no se altera. A12 A22 A32 A13 A23 A33 = A11 A12 A13 A21 A22 A23 A31 A32 A33 . ar A11 A21 A31 2. Si dos filas o dos columnas son idénticas el determinante se anula A1i A2i A3k εiik··· Ai1 Ai2 Ak3 ··· = ··· = 0, A11 A11 A31 ⇔ A12 A12 A32 A13 A13 A33 in ε iik··· = 0. lim 3. Si multiplicamos una fila o una columna por un número, el determinante queda multiplicado por el número εijk··· A1i λA2j A3k · · · = λεijk··· A1i A2j A3k · · · = λ det |A| εijk··· Ai1 Aj2 λAk3 · · · = λεijk··· Ai1 Aj2 Ak3 · · · = λ det |A| , A11 A21 A31 rP re de aquı́ claramente se desprende que si una fila o una columna es cero (λ = 0) el determinante se anula. Más aún, si dos filas o dos columnas son proporcionales A1i = λA2j el determinante se anula, por cuanto se cumple la propiedad anterior: λA12 λA22 λA32 Resulta obvio que: A13 A23 A33 = A11 A21 λA31 0 0 0 A13 A23 A33 A11 A21 A31 ad o al igual que: A11 A21 A31 λA11 λA21 λA31 A13 A23 A33 = A11 λA11 A31 A12 λA12 A32 A12 A22 λA32 = A13 λA13 A33 A11 A21 0 =λ A13 A23 λA33 A12 A22 0 A11 A21 A31 =λ A11 A21 A31 A13 A23 0 = 0, A11 A21 A31 A13 A23 A33 A12 A22 A32 =λ A13 A23 A33 A11 A11 A31 . A12 A12 A32 A13 A13 A33 = 0. rr 4. Si se intercambian dos filas o dos columnas cambia de signo el determinante. Bo det |A| = εijk··· A1i A2j A3k · · · = A11 A21 .. . A12 A22 An1 An2 ··· .. A1n A2n . ⇒ εijk··· A1j A2i A3k · · · = − det | ei Ā |ej i | , Ann donde en la representación matricial ei Ā |ej i se han intercambiando un par de columnas. Claramente las propiedades del ı́ndice de Levi-Civita, obliga al cambio de signo det |Ã| = − det |A| . Nótese que las propiedades anteriores nos lleva a reescribir el determinante de un operador de la siguiente manera: β γ det |A| = εαβγ··· det |A| = εijk··· Aiα Ajβ Akγ · · · ⇐⇒ det |A| = εαβγ··· det |A| = εijk··· Aα i Aj Ak · · · claramente, si αβγ · · · ⇐⇒ 123 · · · obtenemos nuevamente la definición anterior. Si se intercambian dos filas o dos columnas, el determinante cambia de signo debido al intercambio de dos ı́ndices griegos. Si dos filas o dos columnas son iguales el determinante se anula debido a la propiedad de sı́mbolo de Levi-Civita con ı́ndices griegos. 236 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES 5. El determinante de la composición de operadores es el producto de los determinantes det |AB| = det |A| det |B| . Antes de proceder a la demostración de esta importante propiedad jugaremos un poco más con las propiedades de las matrices. Si A es un operador con una representación matricial m × n y B es uno con una representación α matricial n × p, entonces tendremos (AB) = Aα B, esto es, la α-ésima fila de AB es igual a la multiplicación de la α-ésima fila de A, por toda la matriz B. l α α α α α Cjα = Aα B ⇒ C = (A , A , A , · · · A , ) l j j 1 2 3 n B21 B22 B1n B2n ··· .. . Bn1 Bn2 . n Bn lim Tendremos entonces: B11 B12 .. . in ar i Veamos: Cji = (AB)j = Ail Bjl , por lo tanto la α-ésima fila: det |A| det |B| = det |A| εijk··· B1i B2j B3k · · · = εijk··· Aiα Ajβ Akγ · · · εabc··· B1a B2b B3c · · · , rP re que siempre puede ser rearreglado como: β γ i β j γ k εijk··· Aα εijk··· B1i B2j B3k · · · = Aα i Aj Ak · · · i B1 Aj B2 Ak B3 · · · = det |AB| . Veamos este desarrollo para el caso de matrices 3 × 3: det |A| det |B| = + + con lo cual: ε123 A11 A22 A33 + ε312 A13 A21 A32 + ε231 A12 A23 A31 + ε132 A11 A23 A32 ε321 A13 A22 A31 + ε213 A12 A21 A33 . ε123 B11 B22 B33 + ε312 B31 B12 B23 + ε231 B21 B32 B13 ε132 B11 B32 B23 + ε321 B31 B22 B13 + ε213 B21 B12 B33 , rr ad o = A11 A22 A33 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 − B11 B32 B23 − B31 B22 B13 − B21 B12 B33 + A13 A21 A32 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33 + A12 A23 A31 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33 − A11 A23 A32 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33 − A13 A22 A31 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33 − A12 A21 A33 B11 B22 B33 + B31 B12 B23 + B21 B32 B13 + B11 B32 B23 + B31 B22 B13 + B21 B12 B33 . Bo Como son números se pueden arreglar de la siguiente forma: = A11 A22 A33 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33 + A13 A21 A32 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33 + A12 A23 A31 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33 − A11 A23 A32 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33 − A13 A22 A31 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33 − A12 A21 A33 B11 B22 B33 + B12 B23 B31 + B13 B21 B32 − B11 B23 B32 − B13 B22 B31 − B12 B21 B33 = εijk Aiα B1α Ajλ B2λ Akµ B3µ . Por lo tanto: εijk Aiα B1α Ajλ B2λ Akµ B3µ = det |A| det |B| = det |AB|. (4.12) 4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES 237 La invariancia del determinante El resultado de expresado en la ecuación (4.12) tiene varias consecuencias importantes: 1. El determinante del operador inverso es el inverso del determinante, es decir: det |A−1 | = 1 = det |A|−1 . det |A| I = A−1 A ⇒ det |I| = det |AA−1 | = det |A| det |A−1 | = 1 ⇒ det |A−1 | = ar Esta afirmación es fácilmente demostrable 1 . det |A| in 2. La segunda consecuencia es todavı́a más importante: el determinante de un operador no depende de su representación matricial. Es decir, el determinante, al igual que la traza, asocia un número real al operador, independientemente de su representación matricial: lim det |A| ≡ det | ei A |ej i | = det | ẽi A |ẽj i | ≡ det |Ã| . Es inmediato darse que cuenta que al aplicar la función determinante a la ecuación (4.10) se tiene: det |Ãij | = det |Ski Akm Sjm −1 | ≡ det |Ski | det |Akm | det | Sjm −1 | = det |Ski | det |Akm | 1 = det |Akm | . det |Sjm | rP re Con lo cual queda demostrada la invariancia del determinante de representaciones matriciales de operadores en bases ortonormales. Fórmula de Laplace La fórmula de Laplace permite expresar el determinate de una matriz en términos de sus matrices menores o cofactores, matrices que definiremos en la siguiente sección. det |A| = n X Aij (Ac )ij , para cualquier i . (4.13) j=1 Diferenciación de operadores y representación matricial ad o 4.3.6. Retomemos, ahora en el lenguaje de representaciones matriciales de operadores, lo que desarrollamos en la sección 4.2.7. Dado un operador A(t), el cual supondremos dependiente de una variable arbitraria t, podremos definir la derivada como: A (t + ∆t) − A(t) dA(t) = lı́m , ∆t→0 dt ∆t rr por lo tanto, si uk A |ui i = Aki entonces: k Bo u dA(t) |ui i = dt dA(t) dt k i d dAki k = u A(t) |ui i = = dt dt dA11 dt dA21 dt dA12 dt dA22 dt dAn 1 dAn 2 dt dt .. . ··· .. dA1n dt dA2n dt . dAn n dt . La regla es simple, la representación matricial de la derivada de un operador será la derivada de cada uno de sus elementos. Por ejemplo: x x2 2 1 2x 0 d . 1 e−x 5x = 0 −e−x 5 dx 3 2 3x 3 cos(x) 9x 0 −sen(x) De igual forma tendremos las reglas usuales de la diferenciación y por lo tanto se cumplirá d (A(t) + B(t)) d (A(t)) d (B(t)) = + , dt dt dt 238 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES es decir: uk d (A(t) + B(t)) d d uk (A(t) + B(t)) |ui i = uk A(t) |ui i + uk B(t) |ui i |ui i = dt dt dt d d = uk A(t) |ui i + uk B(t) |ui i dt dt dA(t) dB(t) d (A(t)) d (B(t)) = uk |ui i + uk |ui i = + . dt dt dt dt ar Del mismo modo se cumplirá: d (A(t)B(t)) dA(t) dB(t) = B(t) + A(t) , dt dt dt lim d d d (A(t)B(t)) |ui i = uk A(t)B(t) |ui i = uk A(t)I B(t) |ui i dt dt dt = uk A(t) |um i hum | B(t) |ui i uk in con la precaución que no se puede modificar el orden de aparición de los operadores. Es fácil ver que: d uk A(t) |um i m d hum | B(t) |ui i hu | B(t) |ui i + uk A(t) |um i dt dt dA(t) dB(t) = uk |um i hum | B(t) |ui i + uk A(t) |um i hum | |ui i . dt dt = Ejemplos rP re 4.3.7. 1. Si tenemos un matriz B, 2 × 3, de la forma B= 3 1 1 0 −2 4 , y1 = 3x1 + x2 − 2x3 y2 = x1 + 0x2 + 4x3 . rr esto es: ad o y suponemos las bases canónicas para V3 y V2 : {|i1 i , |i2 i , |i3 i} y {|i1 i , |i2 i}, respectivamente, entonces la matriz B representa la transformación B : V3 → V2 que lleva un vector genérico |xi = (x1 , x2 , x3 ) a un vector genérico |yi = (y1 , y2 ) tal que: x1 y1 3 1 −2 3 1 −2 x2 = B= ⇒ B |xi = |yi ⇒ , 1 0 4 1 0 4 y2 x3 Es claro que la representación matricial dependerá de la base en la cual se exprese. Bo 2. Si suponemos el operador diferencial D (·) = d(·) dx cuyo dominio está conformado por el espacio vectorial de los polinomios de grado ≤ 3, entonces tendremos que: D (·) : P3 → P2 . En este caso las bases podrı́an ser: 2 3 2 3 2 |pi i = 1, x, x , x y |p̃j i = 1, x, x de P y P respectivamente. Al operar (diferenciar) sobre d(1) dx d(x) dx D |pj i ⇒ d(x2 ) dx d(x3 ) dx |pj i ∈ P3 y expresar ese resultado en la base de P2 tenemos: = 0 = 0 · 1 + 0 · x + 0 · x2 = 1 = 1 · 1 + 0 · x + 0 · x2 = 2x = 0 · 1 + 2 · x + 0 · x2 = 3x2 = 0 · 1 + 0 · x + 3 · x2 0 ⇒ hp̃α | D |pj i = 0 0 1 0 0 0 2 0 0 0 . 3 4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES 239 in ar Los coeficientes de esa expansión serán las columnas de la matriz que los representa. Para enfatizar, los elementos de una matriz, no sólo dependen de la base sino del orden en el cual la base se presente. Consideremos que la base de P2 viene representada por |p̂j i = x2 , x, 1 , la representación matricial del operador D (·) = d(·) dx será: d(1) = 0 = 0 · x2 + 0 · x + 0 · 1 dx d(x) = 1 = 0 · x2 + 0 · x + 1 · 1 0 0 0 3 dx ⇒ hp̂α | D |pj i = 0 0 2 0 . D |pj i ⇒ d(x2 ) 0 1 0 0 = 2x = 0 · x2 + 2 · x + 0 · 1 dx d(x3 ) = 3x2 = 3 · x2 + 0 · x + 0 · 1 dx 1 0 0 0 2 0 1 0 1 0 1 3 1 0 0 0 0 2 0 1 3 1 0 1 0 1 0 0 1 1 = 2 ⇒ 1 + 2x + 3x2 , 3 y equivalentemente: 3 = 2 ⇒ 3x2 + 2x + 1 , 1 rP re 0 0 0 lim Se puede ver que D |pj i es: ¡Es el mismo polinomio! Recuerde que las componentes del vector multiplican a los vectores bases en el mismo orden. rr ad o 3. Construyamos la representación para el mismo operador D del ejemplo anterior, pero ahora en las siguientes bases: |pi i = 1, 1 + x, 1 + x + x2 , 1 + x + x2 + x3 y |p̃i i = 1, x, x2 de P3 y P2 , respectivamente. Entonces, nuevamente vemos que D |pj i implica: d(1) = 0 = 0 · 1 + 0 · x + 0 · x2 dx d(1+x) = 1 = 1 · 1 + 0 · x + 0 · x2 dx 0 1 1 1 ⇒ hp̃α | D |pj i = 0 0 2 2 . 2 d 1+x+x ( ) 0 0 0 3 = 1 + 2x = 1 · 1 + 2 · x + 0 · x2 dx d(1+x+x2 +x3 ) = 1 + 2x + 3x2 = 1 · 1 + 2 · x + 3 · x2 dx Bo 4. Dada la siguiente transformación: T : R3 → R4 , T [(x, y, z)] = (x + y, x − 2z, x + 2y + 3z, y − 2z) . y tomemos como bases los conjuntos: |ei i = {(1, 1, 0), (1, 0, 1), (0, 1, 1)} ∈ R3 , |ẽi i = {(1, 1, 1, 1), (0, 1, 1, 1), (0, 0, 1, 1), (0, 0, 0, 1)} ∈ R4 . Queremos encontrar la representación matricial del operador T, esto es Tji = ẽi T |ej i = ẽi Cjk |ẽk i ≡ Cjk ẽi ẽk i , por lo tanto los Cjk son los coeficientes de la expansión de los vectores base de R3 transformados. Es decir T |e1 i = C1k |ẽk i , T |e2 i = C2k |ẽk i , T |e3 i = C3k |ẽk i , y T |e4 i = C4k |ẽk i . 240 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES Entonces, podemos hacer las siguientes expansiones: T [(1, 1, 0)] = (2, 1, 3, 1) = C11 (1, 1, 1, 1) + C12 (0, 1, 1, 1) + C13 (0, 0, 1, 1) + C14 (0, 0, 0, 1) , y al resolver para {C11 , C12 , C13 , C14 } obtener: {C11 = 2, C12 = −1, C13 = 2, C14 = −2}. Para la siguiente base de R3 resolviendo para {C21 , C22 , C23 , C24 } se obtiene: {C21 = 1, C22 = −2, C23 = 5, C24 = −6}. Y finalmente, para: ar T [(1, 0, 1)] = (1, −1, 4, −2) = C21 (1, 1, 1, 1) + C22 (0, 1, 1, 1) + C23 (0, 0, 1, 1) + C24 (0, 0, 0, 1) , in T [(0, 1, 1)] = (1, −2, 5, −1) = C31 (1, 1, 1, 1) + C32 (0, 1, 1, 1) + C33 (0, 0, 1, 1) + C34 (0, 0, 0, 1) , resulta: {C31 = 1, C32 = −3, C33 = 7, C34 = −6}. Por lo tanto, la representación matricial que hemos obtenido será: = C1k ẽ1 ẽk i = C11 ẽ1 ẽ1 i + C12 ẽ1 ẽ2 i + C13 ẽ1 ẽ3 i + C14 ẽ1 ẽ4 i , T21 = C2k ẽ1 ẽk i = C21 ẽ1 ẽ1 i + C22 ẽ1 ẽ2 i + C23 ẽ1 ẽ3 i + C24 ẽ1 ẽ4 i , · · · lim T11 Vale decir: = 2 · 4 + (−1) · 3 + 2 · 2 + (−1) · 1 = 7 , T21 = 1 · 4 + (−2) · 3 + 5 · 2 + (−6) · 1 = 2 , ··· rP re T11 Si continuamos haciendo todas las cuentas, para todas las demás componentes, tendremos la siguiente matriz: 7 2 3 5 1 2 . hẽj | T |ei i = 4 2 4 1 −2 −1 ad o La ecuación para la transformación de cualquier vector es entonces: 1 x̃ 7 2 3 2 x̃ 5 1 2 T |x̃i i = Tij |xj i ⇒ x̃3 = 4 2 4 1 −2 −1 x̃4 1 x x2 . x3 Pedimos al lector repetir los cálculos pero considerando las bases: rr |ei i = {(1, 1, 0), (1, 0, 1), (0, 1, 1)} ∈ R3 , |ẽi i = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} ∈ R4 ; y también las siguientes bases canónicas Bo |ei i = {(1, 0, 0), (0, 1, 0), (0, 0, 1)} ∈ R3 , |ẽi i = {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)} ∈ R4 . ¿Qué puede concluir de los resultados obtenidos de este último par de bases? 5. Para la matriz 3 A= 1 4 −2 2 2 −3 , 1 2 el desarrollo de Laplace (4.13) para la primera fila (i = 1) es: det |A| = A11 (Ac )11 + A12 (Ac )12 + A13 (Ac )13 2 −3 1 −3 = 3 − (−2) +2 1 2 4 2 = 3(7) + 2(14) + 2(−7) = 35 . 1 4 2 1 4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES 241 6. En Mecánica Clásica la cantidad de momento angular viene definida como L = r × p. Para pasar a Mecánica Cuántica se asocia r y p con los operadores posición y cantidad de movimiento los cuales, al operar sobre la función de onda nos proveen lo siguiente: ∂ ∂ hr |ψi = −i~ ψ (r) hr| X |ψi = x hr |ψi = x ψ (r) hr| Px |ψi = −i~ ∂x ∂x hr| Py |ψi = hr| Z |ψi = z hr |ψi = z ψ (r) hr| Pz |ψi = −i~ ∂ ∂y hr |ψi = −i~ ∂ ∂ hr |ψi = −i~ ψ (r) −i~ ∂z ∂z hr| Px |ψi = −i~ ∇ ψ (r) . lim y in En coordenadas cartesianas, en la representación de coordenadas {|ri} tendremos que hr| R |ψi = r ψ (r) ∂ ψ (r) ∂y ar hr| Y |ψi = y hr |ψi = y ψ (r) De forma que en Mecánica Cuántica las componentes cartesianas del operador cantidad de movimiento angular son: hr| L |ψi = −i~ (r×∇) ψ (r) hr| L |ψi = −i~ ∂ ∂ −z y ∂z ∂y ψ (r) i − i~ ∂ ∂ −x z ∂x ∂z ∂ ∂ −y ψ (r) j − i~ x ψ (r) k . ∂y ∂x rP re Utilizando las definiciones anteriores vamos a mostrar que el conmutador de las componentes cartesianas de la cantidad de movimiento angular cumple la siguiente relación [Lx , Ly ] |ψi = i~Lz |ψi , con: L1 = L1 = Lx ; L2 = L2 = Ly ; L3 = L3 = Lz . En general, [Ll , Lm ] = i~εlmn Ln . ad o Dado que: [L1 , L2 ] |ψi = [Lx , Ly ] |ψi = (Lx Ly − Ly Lx ) |ψi ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ = −i~ y −z −x −x −z z − z y ψ (r) ∂z ∂y ∂x ∂z ∂x ∂z ∂z ∂y ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ ∂ z −x −z z −x − z y −z −x y −z ψ (r) . = y ∂z ∂x ∂z ∂y ∂x ∂z ∂x ∂z ∂y ∂z ∂z ∂y rr Con lo cual: Bo = = ∂ ∂ ∂2 ∂ 2 ∂ yz +y − xy 2 − z − zx ∂z∂x ∂x ∂z ∂y∂x ∂y∂z ∂ ∂ ∂ ∂ 2 ∂ − zy −z − yx 2 − zx −x ψ (r) ∂x∂z ∂y∂x ∂z ∂z∂y ∂y ∂ ∂ y −x ∂x ∂y ψ (r) . 7. Consideremos que el espacio de estados para un determinado sistema fı́sico viene expandido por la base ortonormal {|u1 i , |u2 i , |u3 i}. Definamos dos operadores Lz y S de la siguiente manera: Lz |u1 i = |u1 i , S |u1 i = |u3 i , Lz |u2 i = 0 , S |u2 i = |u2 i , Lz |u3 i = − |u3 i , S |u3 i = |u1 i . 242 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES con lo cual: u1 Lz S |u1 i − u1 SLz |u1 i u2 Lz S |u1 i − u2 SLz |u1 i u3 Lz S |u1 i − u3 SLz |u1 i ar a) Calculemos la representación matricial en la base {|u1 i , |u2 i , |u3 i} del operador: [Lz , S]. La matriz será: u1 Lz S − SLz |u1 i u1 Lz S − SLz |u2 i u1 Lz S − SLz |u3 i 2 2 u2 Lz S − SLz |u1 i u Lz S − SLz |u2 i u Lz S − SLz |u3 i 3 3 3 u Lz S − SLz |u1 i u Lz S − SLz |u2 i u Lz S − SLz |u3 i u1 Lz S |u2 i − u1 SLz |u2 i u1 Lz S |u3 i − u1 SLz |u3 i u2 Lz S |u3 i − u2 SLz |u3 i , u3 Lz S |u3 i − u3 SLz |u3 i in u2 Lz S |u2 i − u2 SLz |u2 i u3 Lz S |u2 i − u3 SLz |u2 i 0−0 u [Lz , S] |uj i = i 0−0 0−0 0−0 (−1) − 1 0−0 lim de donde: 1 − (−1) 0−0 0−0 0 = 0 −2 0 0 0 2 0 . 0 rP re b) ¿Lz , S y [Lz , S] serán biyectivas? Veamos. Por definición S es biyectiva ya que cada vector tiene su imagen, Lz no lo es por cuanto el vector |u2 i no tiene imagen y, finalmente [Lz , S] tampoco será biyectiva dado que ui [Lz , S] |uj i no tiene inversa ya que det ui [Lz , S] |uj i = 0. c) Calculemos la dimensión del dominio, del rango y del núcleo de la transformaciones Lz , S y [Lz , S]. Lz S [Lz , S] Rango 2 3 2 Núcleo 1 0 2 ad o dado que [Lz , S] |u2 i = 0 . Dominio 3 3 3 8. Buscaremos la expresión matricial para los operadores lineales de Pauli: R2 7−→ R2 sabiendo que actúan como: σz |+i = |+i , σz |−i = − |−i , σx |+ix = |+ix , σx |−ix = − |−ix , σy |+iy = |+iy , σy |−iy = − |−iy con: rr |+i 1 0 Bo Ahora bien: x 1 1 , |+ix = √ [|+i + |−i] , |−ix = √ [|+i − |−i] , 2 2 1 1 |+iy = √ [|+i + i |−i] , |−iy = √ [|+i − i |−i] . 2 2 , |−i h+ |+ix = 1 , 0 1 x h+ |−ix =x h− |+ix = 0 , x h− |−ix = 1 , h+ |+iy = 1 , y h+ |−iy =y h− |+iy = 0 , y h− |−iy = 1 . n o Es decir, los vectores {|+ix , |−ix } y |+iy , |−iy forman bases ortonormales, por lo que los vectores {|+i , |−i} se pueden expresar en término de esas bases como: y 1 |+i = √ [|+ix + |−ix ] , 2 1 |−i = √ [|+ix − |−ix ] , 2 i 1 h |+i = √ |+iy + |−iy , 2 i −i h |−i = √ |+iy − |−iy . 2 4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES Ası́ las expresiones matriciales serán: h+| σz |+i i (σz )j = h−| σz |+i 243 h+| σz |−i 1 0 = h−| σz |−i . 0 −1 i Para (σx )j : h+| σx |+i i h+| σx |−i (σx )j = [ h+| +x h−|] σx [|+ix + |−ix ] 1 x = 2 [x h+| −x h−|] σx [|+ix + |−ix ] [ h+| +x h−|] [|+ix − |−ix ] 1 x = 2 [x h+| −x h−|] [|+ix − |−ix ] 1 = i h+| σy |+i h+| σy |−i h−| σy |+i h−| σy |−i Bo rr 1 2 4.3.8. h i [y h+| +y h−|] σy |+iy + |−iy h i i [y h+| −y h−|] σy |+iy + |−iy h i [y h+| +y h−|] |+iy − |−iy h i i [y h+| −y h−|] |+iy − |−iy 0 −i i 0 = [x h+| −x h−|] [|+ix + |−ix ] h i −i [y h+| +y h−|] σy |+iy − |−iy h i [y h+| −y h−|] σy |+iy − |−iy h i −i [y h+| +y h−|] |+iy + |−iy h i − [y h+| −y h−|] |+iy + |−iy . Practicando con Maxima 1. Consideremos la transformación lineal del ejercicio resuelto con anterioridad: T : R3 → R4 , T [(x, y, z)] = (x + y, x − 2z, x + 2y + 3z, y − 2z) . (%i1) load(vect)$ ad o 1 2 = [x h+| +x h−|] [|+ix + |−ix ] = [x h+| −x h−|] σx [|+ix − |−ix ] 0 Y finalmente, para (σy )j : i 1 (σy )j = [x h+| +x h−|] σx [|+ix − |−ix ] rP re 0 in h−| σx |−i lim h−| σx |+i ar 244 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES (%i2) T(x,y,z):=[x+y,x-2*z,x+2*y+3*z,y-2*z]; ( %o2) T (x, y, z) := [x + y, x − 2z, x + 2y + 3z, y − 2z] Escribimos ahora los vectores de la base en R4 : ar (%i3) e1:[1,1,1,1];e2:[0,1,1,1];e3:[0,0,1,1]; e4:[0,0,0,1]; ( %o3) [1, 1, 1, 1] ( %o4) [0, 1, 1, 1] in ( %o5) [0, 0, 1, 1] ( %o6) [0, 0, 0, 1] lim Entonces: (%i7) linsolve(T(1,1,0)-C11*e1-C12*e2-C13*e3-C14*e4,[C11,C12,C13,C14]); ( %o7) [[C11 = 2, C12 = −1, C13 = 2, C14 = −2]] ( %o8) [2, −1, 2, −2] rP re (%i8) [C11,C12,C13,C14]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4])]; (%i9) linsolve(T(1,0,1)-C21*e1-C22*e2-C23*e3-C24*e4,[C21,C22,C23,C24]); ( %o9) [[C21 = 1, C22 = −2, C23 = 5, C24 = −6]] (%i10)[C21,C22,C23,C24]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4])]; ( %o10) [1, −2, 5, −6] ad o (%i11)linsolve(T(0,1,1)-C31*e1-C32*e2-C33*e3-C34*e4,[C31,C32,C33,C34]); ( %o11) [[C31 = 1, C32 = −3, C33 = 7, C34 = −6]] (%i12)[C31,C32,C33,C34]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4])]; rr ( %o12) [1, −3, 7, −6] Calculemos ahora las componentes de la representación matricial: Bo (%i13)T11: C11*(e1.e1) + C12*(e1.e2) +C13*(e1.e3) + C14*(e1.e4); ( %o13) 7 (%i14)T21: C21*(e1.e1) + C22*(e1.e2) +C23*(e1.e3) + C24*(e1.e4); ( %o14) 2 (%i15)T31: C31*(e1.e1) + C32*(e1.e2) +C33*(e1.e3) + C34*(e1.e4); ( %o15) 3 (%i16)T12: C11*(e2.e1) + C12*(e2.e2) +C13*(e2.e3) + C14*(e2.e4); 4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES 245 ( %o16) 5 (%i17)T22: C21*(e2.e1) + C22*(e2.e2) +C23*(e2.e3) + C24*(e2.e4); ( %o17) 1 (%i18)T32: C31*(e2.e1) + C32*(e2.e2) +C33*(e2.e3) + C34*(e2.e4); ar ( %o18) 2 (%i19)T13: C11*(e3.e1) + C12*(e3.e2) +C13*(e3.e3) + C14*(e3.e4); (%i20)T23: C21*(e3.e1) + C22*(e3.e2) +C23*(e3.e3) + C24*(e3.e4); lim ( %o20) 2 in ( %o19) 4 (%i21)T33: C31*(e3.e1) + C32*(e3.e2) +C33*(e3.e3) + C34*(e3.e4); ( %o21) 4 (%i22)T14: C11*(e4.e1) + C12*(e4.e2) +C13*(e4.e3) + C14*(e4.e4); rP re ( %o22) 1 (%i23)T24: C21*(e4.e1) + C22*(e4.e2) +C23*(e4.e3) + C24*(e4.e4); ( %o23) − 2 (%i24)T34: C31*(e4.e1) + C32*(e4.e2) +C33*(e4.e3) + C34*(e4.e4); ( %o24) − 1 ad o Por lo tanto, la matriz que representa a la transformación es la siguiente: (%i25)matrix([T11,T21,T31],[T12,T22,T32],[T13,T23,T33],[T14,T24,T34]); 2 1 2 −2 3 2 4 −1 rr 7 5 ( %o25) 4 1 Podemos repetir los cálculos pero ahora con la base canónica: Bo (%i26)e1:[1,0,0,0];e2:[0,1,0,0];e3:[0,0,1,0]; e4:[0,0,0,1]; ( %o26) [1, 0, 0, 0] ( %o27) [0, 1, 0, 0] ( %o28) [0, 0, 1, 0] ( %o29) [0, 0, 0, 1] Por ser la base ortonormal el cálculo de la representación matricial de la transformación es directa: (%i30)linsolve(T(1,1,0)-C11*e1-C12*e2-C13*e3-C14*e4,[C11,C12,C13,C14]); ( %o30) [C11 = 2, C12 = 1, C13 = 3, C14 = 1] 246 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES (%i31)[C11,C12,C13,C14]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4])]; ( %o31) [2, 1, 3, 1] (%i32)linsolve(T(1,0,1)-C21*e1-C22*e2-C23*e3-C24*e4,[C21,C22,C23,C24]); (%i33)[C21,C22,C23,C24]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4])]; ( %o33) [1, −1, 4, −2] in (%i34)linsolve(T(0,1,1)-C31*e1-C32*e2-C33*e3-C34*e4,[C31,C32,C33,C34]); ( %o34) [C31 = 1, C32 = −2, C33 = 5, C34 = −1] La representación matricial que resulta ahora es: lim (%i35)[C31,C32,C33,C34]:[rhs(%[1]),rhs(%[2]),rhs(%[3]),rhs(%[4])]; ( %o35) [1, −2, 5, −1] 1 −1 4 −2 1 −2 5 −1 (%i37)kill(all)$ rP re (%i36)matrix([2,1,1],[1,-1,-2],[3,4,5], [1,-2,-1]); 2 1 ( %o36) 3 1 2. Dada una transformación T : R2 → R3 , donde una base para R3 es: ad o |ei i = {(1, 2, 1), (1, 1, 0), (0, 0, 3)} ∈ R3 , y las imágenes de esta base respecto a la base canónica en R2 son: T [|e1 i] = (3, 3) , T [|e2 i] = (6, 3) , T [|e3 i] = (3, 6) . ¿Qué transformación está asociada a las coordenadas canónicas en R3 ? rr Escribamos los vectores. (%i1) e1:[1,2,1];e2:[1,1,0];e3:[0,0,3]; Bo ( %o1) [1, 2, 1] ( %o2) [1, 1, 0] ( %o3) [0, 0, 3] Ahora introducimos las imágenes: (%i4) Te1:[3,3];Te2:[6,3];Te3:[3,6]; ( %o4) [3, 3] ( %o5) [6, 3] ( %o6) [3, 6] ar ( %o32) [C21 = 1, C22 = −1, C23 = 4, C24 = −2] 4.3. REPRESENTACIÓN MATRICIAL DE OPERADORES 247 Respecto a estas coordenadas la transformación tiene la siguiente representación vectorial: (%i7) A:matrix(Te1,Te2,Te3); 3 ( %o7) 6 3 3 3 6 ar Lo que queremos es buscar la representación matricial de la transformación pero respecto a la base canónica, por lo tanto debemos buscar primero el cambio de base a la base canónica en R3 (%i8) E:invert(matrix([1,2,1],[1,1,0],[0,0,3])); 1 3 − 13 1 3 in 2 −1 0 lim −1 ( %o8) 1 0 En la base canónica la transformación tiene la siguiente representación: (%i9) AE:transpose(E.A); 10 5 −4 −2 1 2 rP re ( %o9) Por lo tanto la transformación es: (%i10)T(x,y,z):=[10*x-4*y+z,5*x-2*y+2*z]; ( %o10) T (x, y, z) := [10x − 4y + z, 5x − 2y + 2z] Podemos verificar si el resultado es el correcto. ad o (%i11)solve(T(1,2,1)-a*[1,0]-b*[0,1],[a,b]); ( %o11) [[a = 3, b = 3]] (%i12)solve(T(1,1,0)-a*[1,0]-b*[0,1],[a,b]); ( %o12) [[a = 6, b = 3]] rr (%i13)solve(T(0,0,3)-a*[1,0]-b*[0,1],[a,b]); Bo ( %o13) [[a = 3, b = 6]] 4.3.9. Ejercicios 1. Considere el espacio P(t) de polinomios de grado N en t, vale decir, |f it ↔ d operador T = exD ≡ exp(xD), con D = dt . PN n=0 a0 tn , considere además un a) Muestre que T |pit = |pit+x , esto es que el operador T puede ser considerado un operador traslación espacial para los polinomios P(t) de grado N . b) Considere que el espacio de polinomios está definido en el intervalo [−1, 1], que definimos un producR1 to interno de la forma hf | gi = −1 f g dt y un espacio de polinomios de grado N = 2. ¿Cuál es la representación matricial de T en la base de polinomios de Legendre {P0 , P1 , P2 }? 248 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES 2. Heredando el formalismo de la Mecánica Clásica, se construye en Mecánica Cuántica el operador hamiltoniano, hermı́tico, para un sistema unidimensional como: H= P2 + V(X) , 2m donde H, P y X son operadores, y V(X) un operador que es una función de otro operador. Adicionalmente, uno puede construir el siguiente operador: [X, P] = i~I. ar a) Determine los siguientes conmutadores: [H, P], [H, X] y [H, XP]. b) Suponga que H |ψn i = En |ψn i y entonces calcule la representación matricial del siguiente operador hψ m | [A, H] |ψn i, para un operador arbitrario A. in 3. Considere la representación matricial de un operador en la base canónica de la forma: 1 a A= 0 1 4. Si Mij (t) cos(ωt) −sen(ωt) = Demuestre que: lim ¿Existirá algún operador B, no singular, tal que D = B−1 AB, con D un operador diagonal? Si ese fuera el caso ¿Cuál serı́a la representación matricial de ese operador B, en la base canónica? Justifique su respuesta. sen(ωt) cos(ωt) . rP re d2 M(t) = −ω 2 M(t) . dt2 5. Dada a matriz: 1 Aji = 1 0 Evalúe: A2 , A3 , AAx . 6. Dada la matriz: ad o 0 Aji = −i 0 1 1 1 0 0 −1 0 1 . 1 i 0 . 0 Demuestre que An = AAA... = I, con n 6= 0. rr 7. Considere el siguiente “operador vectorial” σ = σx i + σy j + σz k, donde las matrices σx , σy , σz se conocen como operadores de Pauli y su representación matricial en la base canónica es: 0 1 0 −i 1 0 1 0 σx = , σy = , σz = , I= . 1 0 i 0 0 −1 0 1 El vector dirección puede escribirse como: Bo n = sen(θ) cos(φ)i + sen(θ)sen(φ)j + cos(θ)k = nx i + ny j + nz k , con lo cual: σ · n = nx σx + ny σy + nz σz . A partir de todo lo anterior calcule la representación matricial del siguiente operador en la base canónica i exp ψ σ·n . 2 8. Dadas las siguientes matrices: √ 2/2 √ 0 √0 Lx = 2/2 √ 0 2/2 , 0 2/2 0 √0 Ly = −i 2/2 0 Demuestre las siguientes reglas de conmutación: √ i 2/2 √0 −i 2/2 √0 i 2/2 , 0 −1 Lz = 0 0 0 0 0 0 . 0 1 4.4. UN ZOOLÓGICO DE MATRICES CUADRADAS 249 a) Lx Ly − Ly Lx = iLz . b) Ly Lz − Lz Ly = iLx . c) Lz Lx − Lx Lz = iLy . d ) L2x + L2y + L2z = 2. 9. Calcule los siguientes determinantes: 2 0 0 , 1 1 2 2 1 2 − x2 3 3 2 3 2 3 1 5 1 9 − x2 , 1 0 3 −2 0 1 −3 1 2 −2 4 −2 3 1 −2 0 , 10. Utilizando las propiedades de los determinantes resuelva para x x+4 x−3 x x+5 x−1 x+1 11. Utilizando la propiedad lineal de los determinantes calcule: ∆= a+b c+d = 0. 5 0 −1 6 −3 0 3 0 −4 −1 −1 7 5 1 2 3 −2 −5 2 3 . lim x+2 x+3 x−2 −2 1 3 2 0 ar 0 1 0 in 2 0 2 n+p q+r . rP re 12. Encuentre el determinante de la matriz 4 × 4 definida por la función: Aij = 1 . i+j−x 13. Muestre que si las filas de un determinante de orden n son linealmente independientes, entonces sus columnas son también linealmente independientes. ad o 14. Dada la representación matricial de un operador: 1 1 1 1 3 −3 3 −3 . −3 a) Encuentre la representación diagonal y la base que diagonaliza esta matriz. b) Muestre que la traza y el determinante de ambas representaciones matriciales coinciden. c) Encuentre la matriz de transformación a la representación diagonal. rr 15. Pruebe que la representación matricial, 2 × 2 más general para un operador unitario y simétrico (vale decir: SS† = I y ST = S) puede ser escrita como: √ αe2iβ i 1 − α2 ei(β+γ) √ S= , i 1 − α2 ei(β+γ) αe2iγ Bo con α, β y γ parámetros reales y, adicionalmente 0 ≤ α ≤ 1. 16. Resuelva los ejercicios anteriores utilizando Maxima. 4.4. Un zoológico de matrices cuadradas A continuación presentaremos un conjunto de matrices importantes y de operaciones que serán de gran utilidad para el resto de desarrollo del tema13 . Es bueno tener en mente que las matrices pueden tener todas sus elementos reales, diremos que son matrices pertenecientes al espacio vectorial de matrices reales Rn×m o tener como elementos números complejos, en este caso diremos que pertenecen al espacio vectorial de matrices complejas Cn×m . 13 Para mayores detalles sobre éstas y otros tipos de matrices pueden consultar Antony, R. and Alemayehu, H., A NOTE ON SPECIAL MATRICES, Italian journal of pure and applied mathematics, (2015), 587-604. 250 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES 4.4.1. Matriz unidad y la matriz nula La matriz unitaria es aquella que sólo tiene elementos en la diagonal iguales a la unidad I ⇒ Iji = δji ., y el resto cero. Mientras que la matriz nula es aquella con todos los elementos iguales a cero O ⇒ 0ij = 0 . 4.4.2. Matriz diagonal y diagonal a bloques Matriz transpuesta lim 4.4.3. superior e inferior: Ď31 Ď41 D32 Ď42 , y Ď33 Ď43 0 Ď44 D̂11 D̂12 D̂ji = D̂3 1 D̂14 0 D̂22 D23 D̂24 0 0 D̂33 D̂34 0 0 . 0 D̂44 rP re También tenemos las triangulares 1 Ď1 Ď21 0 Ď22 Ďji = 0 0 0 0 in ar Una matriz diagonal es aquella que contiene elementos únicamente en la diagonal las demás componentes son cero: Aij = 0 ∀ i 6= j. Como veremos más adelante, existen algunos métodos para reducir una matriz a su forma diagonal. Una propiedad importante de estas matrices es que conmutan entre si, es decir, AB = BA, si A y B son diagonales. Podemos tener matrices diagonales a bloques, vale decir: 1 D1 D21 0 0 D12 D22 0 0 . Dji = 0 0 D33 D43 0 0 D34 D44 Tal y como discutimos en la sección 4.3.2, cuando desarrollamos el concepto de matrices hermı́ticas conjungadas, la matriz transpuesta es aquella que se obtiene intercambiando filas por columnas: A = Aij ⇒ AT = Aji . Si A = AT , (Aij = Aji ), se dice que A es simétrica. Y si A = −AT , (Aij = −Aji ), es llamada antisimétrica. Por lo tanto, una matriz cuadrada se puede representar por la suma de una matriz simétrica y una antisimétrica A= 4.4.4. 1 1 A + AT + A − AT . 2 2 Matriz de cofactores ad o A una matriz A le podemos asociar una de cofactores Ac de 1 a1 a12 a13 i Aij = a21 a22 a23 ⇒ (Ac )j = 3 3 3 a1 a2 a3 la manera siguiente: 1 1 (Ac )1 2 (Ac )1 c 3 (A )1 1 (Ac )3 2 (Ac )3 . c 3 (A )3 (Ac )2 2 (Ac )2 c 3 (A )2 i rr Donde los (Ac )j forman la matriz de cofactores, estos cofactores son: 1 Bo (Ac )1 = (−1) 2 2+1 3 3+1 (Ac )1 = (−1) (Ac )1 = (−1) 4.4.5. 1+1 a22 a32 a23 a33 , (Ac )2 = (−1) a12 a32 a13 a33 , (Ac )2 = (−1) a12 a22 a13 a23 , (Ac )2 = (−1) 1 1+2 2 2+2 3 3+2 a21 a31 a23 a33 , (Ac )3 = (−1) a11 a31 a13 a33 , (Ac )3 = (−1) a11 a21 a13 a23 , (Ac )3 = (−1) 1 1+3 2 2+3 3 3+3 a21 a31 a22 a32 , a11 a31 a12 a32 , a11 a21 a12 a22 . Matriz adjunta Llamaremos matriz adjunta, adj [A], a la traspuesta de la matriz de cofactores de una determinada matriz: T T i j adj [A] = (Ac ) ⇒ adj Aij = (Ac )j = (Ac )i . 4.4. UN ZOOLÓGICO DE MATRICES CUADRADAS 1 2 3 −3 Por ejemplo: A = 4 5 6 ⇒ adj [A] = 6 7 8 9 −3 Una matriz será autoadjunta si adj [A] = A. 4.4.6. 251 6 −3 −12 6 . 6 −3 Matriz singular 4.4.7. ar A es singular si det |A| = 0. Si det |A| = 6 0, existirá un número r máximo de vectores filas, o columnas, linealmente independientes, llamaremos a ese número, 0 ≤ r ≤ n, el rango de la matriz. Matriz inversa lim AB = I → ei AB |ej i = δji → Aik Bjk = δji . in Hemos visto que dada una transformación lineal biyectiva, podemos definir una inversa para esa transformación lineal. Esa transformación lineal tendrá como representación un matriz. Por lo tanto, dado un operador lineal A diremos que otro operador lineal B será su inverso (por la derecha) si Algunas propiedades importantes: A−1 4.4.8. −1 = A, rP re Ahora bien, como conocemos la matriz Aik y la suponemos no singular (det Aik 6= 0) al tomar un j fijo tendremos un sistema de n ecuaciones lineales inhomogéneo con n incógnitas: Bj1 , Bj2 , Bj3 , · · · Bjn . Al resolver el sistema tendremos la solución. Un procedimiento para encontrar la inversa es el método de eliminación de Gauss-Jordan. Veamos como funciona para una matriz 3 × 3: 1 A1 A12 A13 1 0 0 B11 B21 B31 1 0 0 Gauss-Jordan A21 A22 A23 0 1 0 0 1 0 B12 B22 B32 . → 3 3 3 A1 A2 A3 0 0 1 0 0 1 B13 B23 B33 AT Matriz ortogonal −1 = A−1 T , A† −1 = A−1 † , (AB) −1 = B−1 A−1 . ad o Anteriormente mencionamos, en la sección 1.4.3, que en el espacio real R3 podemos tener una transformación de coordenadas cartesianas: (x, y, z) → (x̃, ỹ, z̃) que consiste en rotar, un ángulo θ, uno de los sistemas respecto al otro. Si la rotación se hace, digamos alrededor del eje z, la relación entre las coordenadas es la siguiente: 1 x̃ = x cos(θ) + y sen(θ) x̃ = x1 cos(θ) + x2 sen(θ) ỹ = −x sen(θ) + y cos(θ) ⇒ x̃2 = −x1 sen(θ) + x2 cos(θ) ⇒ x̃i = α̃ji xj . 3 z̃ = z x̃ = x3 rr Si la longitud desde el origen a algún punto P del espacio es la misma para ambos sistemas de coordenadas xi xi = x̃i x̃i = (α̃ki xk )(α̃ij xj ) = xk xj α̃ij α̃ki . Bo entonces se tiene que cumplir que: α̃ij α̃ki = δkj . Este resultado es una consecuencia de haber impuesto la condición para que las longitudes sean las mismas en ambos sistemas de coordenadas y se conoce como la condición de ortogonalidad. En el lenguaje de la matrices reales la condición P de ortogonalidad se puede enunciar de diferentes formas, todas ellas equivalentes: AT A = AAT = j i j T −1 I, A = A , i Ai Ak = δk . y diremos que la matrices que las satisfacen son matrices ortogonales. 4.4.9. Matrices complejas Las matrices con todas sus componentes reales no permite estudiar problemas que pueden aparecer en algunas ramas de la Fı́sica, como en la Mecánica Cuántica. Por lo tanto, de necesita generalizar nuestro estudio a espacios vectoriales a el de espacios vectoriales de matrices complejas: Cn×n , donde en las componentes de las matrices aparecen números complejos. Cuando las matrices son complejas surgen generalizaciones que podemos considerar, como mostramos a continuación. 252 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES La matriz adjunta o matriz transpuesta conjugada. Estas matrices se construyen tomado el complejo conjugado de cada elemento y luego la transpuesta de la matriz. Se acostumbra denotarlas con A† = (A∗ )T = (AT )∗ . La matriz hermı́tica. Son aquellas matrices que satisfacen la siguiente ecuación: A† = A . Notemos que si A es real, entonces A† = AT , y por lo tanto las matrices hermı́ticas reales son matrices simétricas. La matriz normal. Se llama matriz normal a aquella que satisface A† A = AA† . in ar La matriz unitaria. La matriz A es unitaria si: A† = A−1 . Si A es real, entonces A−1 = AT , de manera que las matrices unitarias reales son ortogonales. Es decir, las matrices unitarias son el análogo a las matrices ortogonales reales y son de fundamental importancia en la Mecánica Cuántica porque dejan la norma de los vectores invariantes. 4.4.10. Ejemplos 3 1 1 4 1 . 2 rP re 2 1. Queremos hallar la matriz inversa de A = 2 −1 lim Existe una relación importante entre matrices normales y matrices unitarias y es el hecho de que una matriz A es normal, si y sólo si, existe una matriz diagonal D y una unitaria U tal que: A = UDU† . Más adelante veremos que los valores en la diagonal de D se denominan los autovalores de A y las columnas de U son los autovectores de A. Utilizando el método de Gauss-Jordan. Entonces, escribimos la siguiente matriz aumentada: 1 0 0 2 3 4 2 1 1 0 1 0 . 0 0 1 −1 1 2 la sumamos con la primera 0 0 2 3 4 1 0 → 0 2 3 0 1 −1 1 2 ad o Si multiplicamos la segunda fila por −1 y 2 3 4 1 2 1 1 0 −1 1 2 0 Ahora multiplicamos la tercera 2 3 0 2 −1 1 fila por 2 y sumamos con la 0 0 4 1 2 3 1 −1 0 → 0 0 1 2 0 0 Bo rr Multiplicamos la primera fila por −2 y sumamos con la 2 3 4 1 0 0 0 2 3 1 −1 0 → 0 5 8 1 0 2 Multiplicamos la segunda fila por −8/3 y sumamos con −3 −4 −1 0 −1 0 2 0 2 3 1 1 0 → 0 5 8 1 0 2 fila obtenemos: 1 0 0 1 −1 0 . 0 0 1 primera fila 3 2 5 1 1 1 4 3 8 0 0 −1 0 . 0 2 tercera −4 0 0 −1 2 5 0 3 8 −1 1 1 0 2 −1 0 . 0 2 la tercera, luego multiplicamos esa segunda fila por −4 0 0 −1 1 5 0 0 8 −1 5 1 0 2 −8 −6 . 0 2 Multiplicamos la tercera fila por −1/5 y sumamos con la segunda fila, luego multiplicamos esa tercera fila por −5/8 −4 −1 0 −1 −4 −1 0 −1 0 2 0 2 0 1 0 5 −8 −6 → 0 1 0 5 −8 −6 . 0 5 8 1 0 2 0 0 1 −3 5 4 4.4. UN ZOOLÓGICO DE MATRICES CUADRADAS 253 Se suma la primera fila con la segunda y luego se multiplica esta primera fila que resulta por −1/4. 0 2 −1 2 1 −4 −1 0 −1 1 0 0 0 5 −8 −6 → 0 1 0 5 −8 −6 . 1 0 5 4 −3 5 4 0 0 1 −3 0 0 1 2 1 −8 −6 . 5 4 ar Por lo tanto, la matriz inversa es: A−1 −1 = 5 −3 Calculemos ahora la matriz cofactor: 2 2 3 3 4 (Ac )1 = (−1) (Ac )1 = (−1) 1 3 1 4 −3 2 2 4 3 4 2 2 −3 2 = 7 , (Ac )2 = (−1) −2 1 2 2 = 6 , (Ac )2 = (−1) −2 2 2 −3 2 1 1 = 14 , (Ac )3 = (−1) 3 5 = 2 , (Ac )2 = (−1) 3 1 2 2 −3 1 4 4 5 = −2 , (Ac )3 = (−1) rP re 1 (Ac )1 = (−1) lim in adj[A] . 2. También se puede obtener la matriz inversa de la siguiente manera: A−1 = det|A| 3 −2 2 2 −3 . Primero procedemos a calcular el determinante det |A| = Dada la siguiente matriz: A = 1 4 1 2 3 −2 2 1 2 −3 = 35 . 4 1 2 3 3 4 6 = 11 , (Ac )3 = (−1) 2 1 = −7 , −2 1 3 1 = −11 , −2 2 = 8. ad o Por lo tanto, la matriz cofactor y la adjunta son: 7 14 −7 7 6 2 −2 11 . Ac = 6 −2 −11 ⇒ adj [A] = 14 2 11 8 −7 −11 8 Y ahora si, la matriz inversa: A−1 6 2 −2 11 . −11 8 Practicando con Maxima rr 4.4.11. 7 1 14 = 35 −7 Bo En este ejercicio vamos a introducir algunos comandos básicos que nos permitirán realizar operaciones tı́picas con matrices. Dada la siguiente matriz: (%i1) A:matrix([1,2,3],[4,8,5],[9,5,4]); 1 2 3 ( %o1) 4 8 5 9 5 4 La transpuesta es: (%i2) transpose(A); 1 4 9 ( %o2) 2 8 5 3 5 4 254 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES El comando adjoint(A) calcula el adjunto de la matriz A. La matriz adjunta es la transpuesta de la matriz de cofactores de A. (%i3) adjoint(A); 7 7 −14 7 ( %o3) 29 −23 −52 13 0 ar Para la matriz inversa: in (%i4) invert(A); 1 1 2 − 13 − 13 13 29 1 23 − 13 ( %o4) − 91 91 4 1 −7 0 7 (%i5) determinant(A); lim ( %o5) − 91 (%i6) invert(A),detout; 7 7 −14 29 −23 7 −52 13 0 ( %o6) − 91 rP re Si se quiere, se puede calcular la inversa con el determinante afuera: Podemos comprobar que A−1 A = I (%i7) invert(A).A; 1 0 0 ( %o7) 0 1 0 0 0 1 ad o Para calcular la menor (i, j) de la matriz, es decir, eliminar la fila i y la columna j de una matriz se debe escribir: (%i8) minor(A,2,2); 1 3 ( %o8) 9 4 rr Para generar una matriz triangular superior a partir de una matriz dada se debe usar el siguiente comando: triangularize(). El comando echelon() es equivalente pero normaliza a 1 el primer elemento no nulo de cada fila utilizando el método de eliminación de Gauss-Jordan. Bo (%i9) triangularize(A); 1 2 3 ( %o9) 0 −13 −23 0 0 91 (%i10)echelon(A); 1 2 3 ( %o10) 0 1 23 13 0 0 1 Con el paquete nchrpl se puede calcular la traza de una matriz (%i11)load(nchrpl)$ (%i12)mattrace(A); 4.4. UN ZOOLÓGICO DE MATRICES CUADRADAS 255 ( %o12) 13 Consideremos ahora la matriz ([1, %i, 0], [1, 2 ,-%i], [%i, 1, 2] ); 0 −i 2 ar (%i13)M:matrix 1 i ( %o13) −1 2 i 1 1 1 (1−x)i 2 (1 − x) lim (%i14)(1-x)^M; i 1−x (1 − x) 2 1 (1 − x) ( %o14) 1−x i (1 − x) 1−x (%i15)domxexpt:false$ in Para el exponente de matrices tenemos la opción domxexpt (true o false). Cuando es true el exp(M ) se interpreta como la matriz cuyo elemento i, j es igual a exp(M [i, j]). En el otro caso, exp(M ) se interpreta como (x)M . (%i16)(1-x)^M; 1 −1 ( %o16) (1 − x) i i 2 1 0 −i 2 rP re Y en cuanto al cálculo del rango de una matriz (%i17)rank(M); ( %o17) 3 4.4.12. ad o (%i18)kill(all)$ Ejercicios 1. Considere las matrices: 0 A= i −i −i 0 i √ i −i , 0 3 1 B= √ 1 8 2 √ −√ 2 6 0 √ − 3 −1 . 2 Bo rr Diga si son: (a) reales, (b) diagonales, (c) simétricas, (d) antisimétricas, (e) singulares, (f) ortogonales, (g) hermı́ticas, (h) antihermı́ticas, (i) unitarias o (j) normales. 10 3i 2. Dada una matriz hermı́tica H = , construya la matriz unitaria U, tal que U† HU = D donde D −3i 0 es una matriz real y diagonal. 3. Utilizando el método de eliminación de Gauss-Jordan encuentre la inversa de la matriz: 1 2 3 A= 4 8 5 9 5 4 4. Encuentre la matriz inversa de las siguientes matrices: 2 A= 1 −3 4 −2 3 3 −2 , 2 1 B= 1 0 1 1 1 0 1 , 1 1/2 1/2 C= 1/2 1/2 1/2 1/2 −1/2 −1/2 1/2 −1/2 1/2 −1/2 1/2 −1/2 . −1/2 1/2 256 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES Además, calcule: BT (A)−1 B y (2A + (B)−1 BT )AT . 5. Considere matrices ortogonales, reales 3 × 3 las cuales, adicionalmente cumplen con: det |M| = 1. a) ¿Cuántos parámetros reales son necesarios para caracterizar unı́vocamente a este tipo de matrices? b) ¿Este tipo de matrices forman grupo bajo la multiplicación de matrices? ar c) Si ahora considera la matrices ortogonales reales con det |M| = −1 ¿Este tipo de matrices formarán grupo bajo la multiplicación? Justifique su respuesta. 6. Si A y B son dos matrices hermı́ticas que no conmutan: AB − BA = iC , entonces pruebe que C es hermı́tica. 7. Si A = exp (iαB) , α ∈ R. Demuestre que si B es hermı́tica entonces A es unitaria. in 8. Pruebe que el producto directo de dos matrices unitarias resulta en una matriz unitaria. 4.5. Sistemas de ecuaciones lineales lim 9. Resuelva los problemas anteriores utilizando Maxima. Una de las aplicaciones más útiles del álgebra de matrices es la resolución de sistemas de ecuaciones lineales. A11 x1 + A12 x2 + · · · A1n xn = c2 .. . rP re A21 x1 + A22 x2 + · · · A2n xn = c1 1 m 2 m n Am 1 x + A2 x + · · · An x = cm , Este sistema puede ser expresado de una forma más compacta: i α Aα i x =c y α = 1, 2, .., m , por lo tanto, tendremos m ecuaciones lineales para n incógnitas x1 , x2 , · · · xn . Las cantidades Aα i resultan ser las componentes de la matriz de los coeficientes. Si todos los ci son cero el sistema se denomina homogéneo, en caso contrario inhomogéneo. Puede resultar que el conjunto de las incógnitas {xi } represente una solución, infinitas soluciones o que simplemente no exista una solución para el sistema. Este problema puede ser pensado como un problema de un operador A en el espacio vectorial de transformaciones lineales L (V, W), donde dim (V) = n y dim (W) = m, con las cα las componentes del vector transformado: ad o con i = 1, 2, .., n i |ci = A |xi → cα = Aα i x . Bo rr El operador A aplicará todo vector de V en algún subespacio (o todo el espacio) de W. A este subespacio se le denomina el rango o recorrido de A y su dimensión es igual al rango de la matriz A. Si A es no singular, entonces existe algún subespacio de V que es aplicado al vector cero de W, es decir, se cumple que A |x0 i = |0i, donde al conjunto de vectores {|x0 i} se le llama el espacio nulo de A. A continuación, mostraremos algunos métodos para la resolución de sistemas de ecuaciones lineales. 4.5.1. Eliminación de Gauss-Jordan Uno de los métodos más utilizados es el de la eliminación de Gauss-Jordan, el cual se basa en el intercambio de ecuaciones y la multiplicación apropiada e inteligente por constantes y resta de ecuaciones. La idea es construir una matriz triangular superior para poder luego despejar desde abajo. Veamos como se aplica el método para resolver el sistema de ecuaciones. Primeramente escribimos el siguiente arreglo: a 2 3 −1 5 b 4 4 −3 3 , c −2 3 −1 1 4.5. SISTEMAS DE ECUACIONES LINEALES 257 entonces para eliminar x de la fila c (o la ecuación c) sumamos la fila a con la c, a + c y esta nueva ecuación será la nueva c a 5 2 3 −1 b 4 4 −3 3 , 0 c 6 0 6 −2 a 2 b0 0 c0 0 3 −2 6 −1 −1 −2 5 −7 , 6 a 2 b0 0 c00 0 3 −2 0 −1 −1 −5 5 −7 . −15 ar ahora −2a + b será la nueva b in finalmente 3b0 + c0 −5z = −15 → z = 3 , lim Este sistema es equivalente al primer sistema de ecuaciones, el lector puede verificar que poseen el mismo determinante. Po lo tanto, la solución emerge rápidamente: −2y − z = −7 → −2y − 3 = −7 → y = 2 , 2x + 3 (2) − 3 = 5 → x = 1 . Es bueno recalcar que los sistemas de ecuaciones lineales no necesariamente tienen solución y a veces tienen más de una solución. El método de la matriz inversa rP re 4.5.2. El análisis matricial nos puede ayudar a investigar sobre las posibles soluciones de un sistema de ecuaciones lineales, como vimos, en notación de matrices el sistema se puede escribir de la manera siguiente: 1 1 1 A1 A12 · · · A1n x c A21 A22 · · · A2n x2 c2 .. .. = .. ⇒ AX = C . .. . . . . Am 1 Am 2 ··· Am n xn cm ad o Podemos considerar a cada columna de la matriz A como un vector, entonces el rango r de la matriz A será igual al número de vectores linealmente independientes, este número es también la dimensión del espacio vectorial que expanden estos vectores. Con respecto a las posibles soluciones del sistema podemos decir: 1. Si C pertenece al rango de A y además r = n, entonces todos los vectores del conjunto son linealmente independientes y el sistema tendrá como única solución al conjunto {x1 , x2 , . . . xn }. Bo rr 2. Si C pertenece al rango de A y además r < n, entonces únicamente r vectores serán linealmente independientes. Esto significa que podremos escoger los coeficientes de los n − r vectores de manera arbitraria sin dejar de satisfacer el sistema. Por tanto, existirá un número infinito de soluciones, que expanden un espacio vectorial de dimensión n − r. 3. La otra posibilidad es que el sistema no tenga solución, en este caso C no pertenece al rango de A. Cuando el sistema es homogéneo, C = O, claramente existe una solución que viene a ser la trivial: {x1 = x2 = · · · = xn = 0}, además, si r = n ésta será la única solución. Es bueno anotar que si hay menos ecuaciones que incógnitas (m < n) entonces automáticamente r < n, por lo tanto un conjunto de ecuaciones lineales homogéneas con menos ecuaciones que incógnitas siempre tiene una infinidad de soluciones. Debemos considerar el importante caso cuando m = n, es decir, la matriz A es cuadrada y existe igual número de ecuaciones como de incógnitas. Al ser cuadrada la matriz se tiene que la condición r = n implica que la matriz es no singular (det |A| = 6 0). El caso r < n se corresponde a que det |A| = 0. Para resolver el sistema de ecuaciones consideremos lo siguiente: dada la matriz A, n × n no singular, entonces A tiene una matriz inversa, tal que: AX = C ⇒ X = A−1 C . 258 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES 4.5.3. Factorización LU El método de la matriz inversa es relativamente simple, pero laborioso cuando se trata de resolver sistemas de ecuaciones muy grandes. La factorización o descomposición LU (Lower-Upper) es una técnica, existen varias de este tipo, para factorizar una matriz como el producto de una matriz triangular inferior y una matriz triangular superior. Si A es un matriz cuadrada no singular, entonces: AX = C ⇒ A = LU , in ar las matrices L y U serán únicas. Este método es básicamente una versión de el método de Gauss-Jordan, pero es más eficiente a la hora de ser implementado en algoritmos computacionales tanto algebraicos como numéricos. Para matrices 3 × 3 el método se implementa de la siguiente manera. 1 1 0 0 U11 U21 U31 U1 U21 U31 , L21 U21 + U22 L21 U31 + U32 A = L21 1 0 0 U22 U32 = L21 U11 3 1 3 1 3 2 3 1 3 2 3 3 3 3 L1 U1 L1 U2 + L2 U2 L1 U3 + L2 U3 + U3 0 0 U3 L1 L2 1 lim las nueve incógnitas se obtienen igualando con las componentes conocidas de la matriz A. Con L y U determinadas tenemos entonces que LUX = C , por lo tanto, se debe realizar los cálculos en dos partes: y luego UX = Y . rP re primero LY = C Con la matrices L y U se puede calcular el determinante de la matriz A de una manera más directa, es fácil ver que: n Y Uii . det |A| = det |L| det |U| = det |U| = i=1 4.5.4. Método de Cramer Un método alternativo para resolver sistemas de ecuaciones lineales es la conocida regla de Cramer. El funcionamiento del método lo podemos ilustrar con un sistema de tres ecuaciones y tres incógnitas: = c1 A21 x1 A31 x1 = c2 ad o A11 x1 + A12 x2 + A13 x3 + + A22 x2 A32 x2 + + A23 x3 A33 x3 = c3 , Como mencionamos anteriormente, el determinate de una matriz, det |A| = |A|, A11 A21 A31 rr |A| = A12 A22 A32 A13 A23 A33 , Bo no cambia bajo la operación, por ejemplo, de sumarle a la primera columna las cantidades: |A| = A11 A21 A31 A12 A22 A32 A13 A23 A33 = A11 + (x2 /x1 )A12 + (x3 /x1 )A13 A21 + (x2 /x1 )A22 + (x3 /x1 )A23 A31 + (x2 /x1 )A32 + (x3 /x1 )A33 lo cual es igual a: 1 |A| = 1 x c1 c2 c3 A12 A22 A32 A13 A23 A33 ≡ 1 |∆1 | . x1 Se puede hacer lo mismo con las otras dos columnas para obtener: x1 = |∆1 | , |A| x2 = |∆2 | , |A| x3 = |∆3 | . |A| A12 A22 A32 A13 A23 A33 4.5. SISTEMAS DE ECUACIONES LINEALES 259 Donde los determinantes, |∆n |, son los determinantes de Cramer: |∆1 | = c1 c2 c3 A12 A22 A32 A13 A23 A33 , |∆2 | = A11 A21 A31 c1 c2 c3 A13 A23 A33 , |∆3 | = A11 A21 A31 A12 A22 A32 c1 c2 c3 . Se puede demostrar que si |A| = 6 0, entonces la solución ası́ obtenida es única. Ejemplos 1. Resolver el sistema: 2x1 + 4x2 + 3x3 = 4 , x1 − 2x2 − 2x3 = 0 , −3x1 + 3x2 + 2x3 = −7 . 1 3 x 4 −2 x2 = 0 , 2 x3 −7 lim Este sistema de ecuaciones se puede escribir como: 2 4 AX = C ⇒ 1 −2 −3 3 in Utilizando el método de la matriz inversa. donde A es la matriz de los coeficientes. resulta que 2 4 −3 1 −2 4 2 13 7 0 = −3 . −18 −8 −7 4 rP re Luego de calcular la matriz inversa de A entonces 1 x 1 X = A−1 C ⇒ x2 = 11 3 x ar 4.5.5. Existe entonces una única solución al sistema, que es: {x1 = 2, x2 = −3, x3 = 4}. 2. Resolver el mismo sistema de ecuaciones anteriormente estudiado: 2x1 + 4x2 + 3x3 = 4 , x1 − 2x2 − 2x3 = 0 , −3x1 + 3x2 + 2x3 = −7 . Pero utilizando el método de factorización LU. La matriz de los coeficientes es: ad o 2 A= 1 −3 Cálculo de L y U rr 2 1 −3 4 −2 3 U11 3 −2 = L21 U11 L31 U11 2 4 −2 3 3 −2 2 U21 2 1 L1 U2 + U22 L31 U21 + L32 U22 U31 L21 U31 + U32 3 1 L1 U3 + L32 U32 + U33 Bo Con los valores de inicio: U11 = 2, U21 = 4, U31 = 3 se procede a resolver las ecuaciones: L21 U11 = 1 L21 U21 + U22 = −2 L31 U21 + L32 U22 = 3 L31 U11 = −3 L21 U31 + U32 = −2 L31 U31 + L32 U32 + U33 = 2 por lo tanto 1 A = LU = 1/2 −3/2 Resolvemos primero LY = C, lo cual 1 0 1/2 1 −3/2 −9/4 0 1 −9/4 0 2 0 0 1 0 4 −4 0 3 −7/2 −11/8 es bastante fácil 1 1 0 y 4 y =4 y 2 = −2 0 y2 = 0 ⇒ 3 3 1 y −7 y = − 11 2 260 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES Con este resultado resolvemos: UX = Y, y obtenemos la solución 1 1 2 4 3 x 4 x =2 0 −4 −7/2 x2 = −2 ⇒ x2 = −3 3 0 0 −11/8 x3 −11/2 x =4 3. Resolver, nuevamente, el sistema de ecuaciones: Utilizando ahora los determinantes de Cramer. 2 A = XC ⇒ 1 −3 1 3 x 4 −2 x2 = 0 ⇒ |A| = 11 . 2 x3 −7 4 −2 3 in Esto es: 4 0 −7 4 −2 3 3 −2 2 = 22 , 2 1 −3 |∆2 | = 4 0 −7 3 −2 2 de manera que 4.5.6. 22 = 2, 11 x2 = − = −33 , 33 = −3 , 11 x3 = |∆3 | = 2 1 −3 4 −2 3 44 = 4. 11 rP re x1 = lim Los diferentes determinantes de Cramer son: |∆1 | = ar 2x1 + 4x2 + 3x3 = 4 , x1 − 2x2 − 2x3 = 0 , −3x1 + 3x2 + 2x3 = −7 . Practicando con Maxima 1. Resolveremos el siguiente sistema se ecuaciones lineales por el método de Gauss-Jordan 2x1 + 4x2 + 3x3 = 4 1 2 3 = 0 1 2 3 = −7 x − 2x − 2x −3x + 3x + 2x ad o Introducimos el sistema de ecuaciones: (%i1) ecu1:2*x1+4*x2+3*x3=4; ecu2:x1-2*x2-2*x3=0; ecu3:-3*x1+3*x2+2*x3=-7; ( %o1) 3x3 + 4 x2 + 2 x1 = 4 ( %o2) − 2 x3 − 2 x2 + x1 = 0 rr ( %o3) 2x3 + 3 x2 − 3 x1 = −7 Construimos la matriz de coeficientes y la denominaremos A Bo (%i4) A:coefmatrix([ecu1,ecu2,ecu3],[x1,x2,x3]); 2 ( %o4) 1 −3 4 −2 3 3 −2 2 Le agregamos la columna con los elementos independientes (%i5) M:addcol(A,[4,0,-7]); 2 ( %o5) 1 −3 4 −2 3 −3 −2 2 4 0 −7 4 0 −7 = 44 . 4.5. SISTEMAS DE ECUACIONES LINEALES 261 Reducimos la matriz M utilizando el algoritmo de Gauss-Jordan. (%i6) echelon(M); 1 ( %o6) 0 0 −2 1 0 −2 0 7 8 1 2 1 4 ar De la última fila es fácil determinar que x3 = 4. Los otros dos valores que resultan son x2 = −3 y x1 = 2. Por supuesto podemos recurrir al cálculo directo: in (%i7) linsolve([ecu1,ecu2,ecu3],[x1,x2,x3]); ( %o7) [x1 = 2, x2 = −3, x3 = 4] 2x1 + 4x2 + 3x3 1 2 3 1 2 3 x − 2x − 2x −3x + 3x + 2x pero ahora por el método de la matriz inversa. lim 2. Resolvamos nuevamente el mismo sistema = 4 = 0 = −7 ( %o8) 3 x3 + 4 x2 + 2 x1 = 4 ( %o9) − 2 x3 − 2 x2 + x1 = 0 ( %o10) 2 x3 + 3 x2 − 3 x1 = −7 La matriz de cofactores: rP re (%i8) ecu1:2*x1+4*x2+3*x3=4; ecu2:x1-2*x2-2*x3=0; ecu3:-3*x1+3*x2+2*x3=-7; ad o (%i11)A:coefmatrix([ecu1,ecu2,ecu3],[x1,x2,x3]); 2 ( %o12) 1 −3 4 −2 3 3 −2 2 La matriz inversa de A la denominaremos Ainv, y la calcularemos con el determinante afuera: rr (%i13)Ainv:invert(A),detout; Bo ( %o13) 2 4 −3 1 −2 13 7 −18 −8 11 La matriz con los términos inhomogéneos lo llamaremos C: (%i14)C:matrix([4,0,-7]); ( %o14) 4 0 −7 Para que finalmente podamos hacer la siguiente multiplicación de matrices: (%i15)X:Ainv.C; 262 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES 2 ( %o15) −3 4 Por lo tanto: x1 = 2, x2 = −3, x3 = 4. 3. Vamos ahora a resolver el mismo sistema pero usando la técnica de factorización LU. ar Le podemos pedir al programa que factorize la matriz A por medio de la función lu factor(A), consultar el manual de Maxima para más detalles. (%i16)U:lu_factor(A)$ 1 ( %o17) 0 0 0 1 0 1 0 0 , 12 1 − 23 0 1 − 94 2 0 0 , 0 1 0 4 −4 0 3 − 72 − 11 8 Por lo tanto, aquı́ tendremos que: L = F [2] y U = F [3]. Podemos resolver entonces la primera parte, LY = C: (%i18)Y:invert(F[2]).C; 4 ( %o18) −2 − 11 2 Y ahora UX = Y: (%i19)X:invert(F[3]).Y; 2 ( %o19) −3 4 ad o rP re lim in (%i17)F:get_lu_factors(U); Por lo que resulta que: x1 = 2, x2 = −3, x3 = 4. Notemos que: (%i20)determinant(A)=determinant(F[2])*determinant(F[3]); rr ( %o20) 11 = 11 4. Utilicemos ahora los determinantes de Cramer. Para tal fin, construiremos las matrices eliminando las columnas correspondientes. Bo (%i21)A1:col(A,1)$ A2:col(A,2)$ A3:col(A,3)$ C:transpose(matrix([4,0,-7]))$ Las tres matrices son entonces: (%i22)D1:addcol(C,A2,A3);D2:addcol(A1,C,A3);D3:addcol(A1,A2,C); 4 ( %o22) 0 −7 2 ( %o23) 1 −3 4 3 −2 −2 3 2 4 3 0 −2 −7 2 4.5. SISTEMAS DE ECUACIONES LINEALES 2 ( %o24) 1 −3 4 −2 3 263 4 0 −7 Por lo tanto, los determinantes generan la solución a problema: (%i25)x1:determinant(D1)/determinant(A);x2:determinant(D2)/determinant(A); x3:determinant(D3)/determinant(A); ar ( %o25) 2 ( %o26) − 3 5. Existen algunas consideraciones a tomar en cuenta. El sistema puede contener más incógnitas que ecuaciones, por ejemplo: lim (%i28)ecu1:x+y+z=1; ecu2:x+2*y+z=0; in ( %o27) 4 ( %o28) z + y + x = 1 ( %o29) z + 2 y + x = 0 (%i30)linsolve([ecu1,ecu2,ecu3],[x,y,z]); rP re ( %o30) [x = 2 − %r1 , y = −1, z = %r1 ] El programa nos está señalando que las soluciones, en este caso infinitas, dependerán de un parámetro que aquı́ es indicado con el sı́mbolo %r1 . Una solución puede ser entonces la siguiente: {x = 2, y = −1, z = 0}. El sistema tiene más ecuaciones que incógnitas, por ejemplo: (%i31)ecu1:x+y=5; ecu2:x+2*y=8; ecu3:3*x+y=9; ( %o31) y + x = 5 ( %o32) 2 y + x = 8 ( %o33) y + 3 x = 9 ad o (%i34)linsolve([ecu1,ecu2,ecu3],[x,y]); solve: dependent equations eliminated: (3) ( %o34) [x = 2, y = 3] Aquı́, Maxima encuentra una solución al eliminar una de las ecuaciones dependientes. El sistema no tiene solución, por ejemplo: (%i35)ecu1:x+y=5; ecu2:x+2*y=8; ecu3:3*x+y=10; Bo rr ( %o35) y + x = 5 ( %o36) 2 y + x = 8 ( %o37) y + 3 x = 10 (%i38)linsolve([ecu1,ecu2,ecu3],[x,y]); ( %o38) [ ] 4.5.7. Ejercicios 1. Resuelva, utilizando dos de los métodos anteriormente vistos, el siguiente sistema de ecuaciones: 2x + 3y + z = 11 x+y+z = 6 5x − y + 10z = 34 264 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES 2. Resuelva, utilizando el método de la matriz inversa, el siguiente sistema de ecuaciones: x1 + 2x2 + 3x3 = 1 3 = 2 x1 + 3x2 + 4x3 = 3 1 2 3x + 4x + 5x x+y+z = 1 x + 2y + 4z = η x + 4y + 10z = η2 ar 3. Demuestre que el siguiente sistema sólo tiene solución si η = 1 o η = 2 x1 + ηx2 1 = 1 2 x − x + 3x 3 = −1 1 2 3 = −2 lim 2x − 2x + ηx in 4. Encuentre las condiciones sobre η para que al resolver el sistema a) tenga una solución b) no tenga solución c) tenga infinitas soluciones Encuentre todas las soluciones que puedan existir. rP re 5. Encuentre la factorización LU de las siguientes matrices: 3 A= 1 2 6 0 −2 2 1 B= 5 3 9 5 , 16 −3 4 3 −6 1 −3 −1 −3 3 −3 . −1 1 Resuelva AX = C, cuando: C = (21 9 28)T y C = (21 7 22)T . Resuelva BX = C cuando: C = (−4 1 8 − 5)T y C = (−10 0 − 3 − 24)T . 6. Utilizando la regla de Cramer resuelva el siguiente sistema: = 4 10x1 − 8x2 − 10x3 = 44 = 72 . ad o 13x1 + 22x2 − 13x3 1 2 9x − 18x − 9x 3 7. Utilizando cualquiera de los métodos anteriores resuelva: Bo rr x1 + x2 + x3 + x4 + x5 1 2 3 3 = −2 4 5 = 23 5 = 12 . −2 −2 −1 −5 1 x + 2x + 2x + 6x 1 2 3 4 5x + 4x + 3x + 3x − x 8. Determine el rango de la siguiente matriz: 1 2 −2 6 −1 −2 −1 −5 0 −1 3 1 8 −1 1 7 5 3x + 2x + x + x − 3x 2 = 4 −1 0 −4 2 −1 −1 −2 3 −7 2 9. ¿Cuál es la condición para que las siguientes rectas se intercepten en un mismo punto? a1 x + b1 y + c1 = 0 , a2 x + b2 y + c2 = 0 , a3 x + b3 y + c3 = 0 , 10. Resuelva los problemas anteriores utilizando Maxima. 4.6. AUTOVECTORES Y AUTOVALORES 4.6. 265 Autovectores y autovalores La ecuación de Schrödinger independiente del tiempo de la Mecánica Cuántica es una ecuación, que escrita en la forma de operadores, tiene la siguiente forma: H |ΨE i = E|ΨE i , A |ψi = λ |ψi , lim in ar donde H es un operador diferencial de segundo orden llamado el hamiltoniano y ΨE la función de onda, en este caso representada por |ΨE i, un estado propio de H que corresponde a un valor propio de la energı́a E. Por tratarse de un espacio de Hilbert, es decir, un espacio vectorial con un producto interno bien definido, resulta de interés buscar soluciones en lo que se denomina el estado ligado de la ecuación de Schrödinger. Esto significa buscar los |ΨE i en el espacio de las funciones de cuadrado integrable introduciendo una base unidimensional para representar ΨE y una matriz para representar H, en otras palabras: buscar una representación matricial para la ecuación de Schrödinger. Los vectores propios, |ΨE i, autovectores o “eigenvectores” de un operador lineal H son los vectores no nulos que, cuando son transformados por el operador, dan lugar a un múltiplo escalar de sı́ mismos, con lo que no cambian su dirección. Este escalar E recibe el nombre de valor propio, autovalor, valor caracterı́stico o “eigenvalor”. De manera que una transformación queda completamente determinada por sus vectores propios y valores propios. Un espacio propio, autoespacio, “eigenespacio” o subespacio fundamental asociado al valor propio E es el conjunto de vectores propios con un valor propio común. De manera general, llamaremos a |ψi un autovector del operador A si se cumple que (4.14) 4.6.1. ad o rP re en este caso λ (que, en general será un número complejo) se denomina el autovalor correspondiente al autovector |ψi. La ecuación (4.14) es conocida en la literatura como la ecuación de autovalores y se cumple para algunos valores particulares de los autovalores λ y, obviamente esto conduce a algunos vectores |ψi, los autovectores. Al conjunto de los autovalores se le denomina el espectro del operador A. Nótese que si |ψi es autovector de A para un determinado autovalor λ entonces |φi = α |ψi (un vector proporcional a |ψi, con α un número complejo) también es un autovector para el mismo autovalor. Esto representa una incómoda ambigüedad: dos autovectores que corresponden al mismo autovalor. Un intento de eliminarla es siempre considerar vectores |ψi normalizados, i.e. hψ |ψi = 1. Sin embargo, no deja de ser un intento que no elimina la ambigüedad del todo porque siempre queda el ángulo de fase arbitrario. Esto es, el vector eiθ |ψi, con θ un número real arbitrario, tiene la misma norma del vector |ψi. Sin embargo esta arbitrariedad es inofensiva y en Mecánica Cuántica las predicciones obtenidas con |ψi son las mismas que con eiθ |ψi. Autovalores, autovectores e independencia lineal La relación que existe entre los autovalores e independencia lineal de los autovectores asociados con cada autovalor es una de las herramientas más útiles que disponemos. Expondremos a continuación tres teoremas que establecen esta relación. rr Teorema 1: Sean {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk i} autovectores del operador A : Vm → Vn . Supongamos que existen k autovalores: {λ1 , λ2 , · · · , λk }, distintos correspondientes a cada uno de los autovectores |ψj i, entonces los {|ψ1 i , |ψ2 i , · · · , |ψk i} son linealmente independientes. Bo Demostración La demostración de este teorema es por inducción y resulta elegante y sencilla. Primeramente demostramos para j = 1. Obvio que el resultado se cumple y es trivial para el caso k = 1 (un autovector |ψ1 i que corresponde a un autovalor λ1 es obvia y trivialmente linealmente independiente). Seguidamente supondremos que se cumple para j = k − 1. Si existen {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk−1 i} autovectores de A correspondientes a {λ1 , λ2 , · · · , λk−1 } entonces los {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk−1 i} son linealmente independientes. Ahora lo probaremos para j = k. Por lo cual si tenemos k autovectores {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk i}, podremos construir una combinación lineal con ellos, y si esa combinación lineal se anula serán linealmente independientes. cj |ψj i = 0 con j = 1, 2, · · · , k , 266 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES al aplicar el operador A a esa combinación lineal, obtenemos: cj A |ψj i = 0 ⇒ cj λj |ψj i = 0 , multiplicando por λk y restando miembro a miembro resulta: cj (λj − λk ) |ψj i = 0 con j = 1, 2, · · · , k − 1 , (nótese que el último ı́ndice es k − 1) pero, dado que los k − 1 vectores |ψj i son linealmente independientes, entonces tendremos k − 1 ecuaciones cj (λj − λk ) = 0, una para cada j = 1, 2, · · · , k − 1. Dado que λj 6= λk necesariamente llegamos a que cj = 0 para j = 1, 2, · · · , k − 1 y dado que: con j = 1, 2, · · · , k ⇒ cj 6= 0 , ar cj |ψj i = 0 con lo cual si cj |ψj i = 0 ⇒ cj = 0 con j = 1, 2, · · · , k , y los {|ψ1 i , |ψ2 i , |ψ3 i , · · · |ψk i} son linealmente independientes y queda demostrado el teorema. J lim in Es importante acotar que este teorema nos recalca que si A : Vm → Vn y A tiene k ≤ n autovalores {λ1 , λ2 , · · · , λk } entonces existirán, cuando menos, k ≤ n autovectores {|ψ1 i , |ψ2 i , · · · , |ψk i} linealmente independientes, uno para cada autovalor. Hacemos énfasis en ese cuando menos, k ≤ n autovectores linealmente independientes, porque significa que el espacio Vm no podrá ser expandido por los autovectores de A. Ese punto lo analizaremos en la sección 4.17. El inverso de este teorema no se cumple. Esto es, si A : Vm → Vn tiene {|ψ1 i , |ψ2 i , |ψ3 i , · · · , |ψn i} autovectores linealmente independientes, no se puede concluir que existan n autovalores {λ1 , λ2 , · · · , λn } distintos correspondientes a cada uno de los autovectores |ψj i. El teorema anterior lo complementa el siguiente que lo presentaremos sin demostración. rP re Teorema 2: Cualquier operador lineal A : Vn → Vn tendrá un máximo de n autovalores distintos. Adicionalmente, si A tiene precisamente n autovalores: {λ1 , λ2 , · · · , λn }, entonces los n autovectores, {|ψ1 i , |ψ2 i , · · · , |ψn i} (uno para cada autovalor), forman una base para Vn y la representación matricial, en esa base, del operador será diagonal ψ i A |ψj i = Aij = diag (λ1 , λ2 , · · · , λn ) . (4.15) ad o Es muy importante recalcar el significado de este teorema. Si la dimensión del espacio vectorial dim (Vn ) = n y por consiguiente la representación matricial será n × n, entonces A tendrá un MÁXIMO de n autovalores {λ1 , λ2 , · · · , λn }. Por otro lado, si tenemos n autovalores distintos {λ1 , λ2 , · · · , λn } TENDREMOS n autovectores LINEALMENTE INDEPENDIENTES y la representación matricial será diagonal con los autovalores en la diagonal: diag (λ1 , λ2 , · · · , λn ). Una versión complementaria al teorema anterior se obtiene si consideramos que además existe una base ortogonal, {|ei i}, para V. Por lo tanto, la representación matricial de la expresión de la ecuación (4.15) es la siguiente: {|ei i} A |ψi = λ |ψi ===⇒ ei A |ej i ej |ψi = ei λ |ψi = λ ei |ψi ⇒ Aij cj = λci , (4.16) rr claramente, la base ortonormal, {|ei i}, genera una representación diagonal de A, entonces Aij ∝ δji , y esto lo podemos resumir en el siguiente teorema que presentaremos sin demostración para concluir esta sección. Bo Teorema 3: Dado un operador lineal A : Vn → Vn , si la representación matricial de A es diagonal, ei A |ej i = Aij ∝ δji , entonces existe una base ortogonal {|e1 i , |e2 i , · · · , |en i} y un conjunto de cantidades {λ1 , λ2 , · · · , λn } tales que se cumple A |ei i = λi |ei i con i = 1, 2, · · · n . 4.6.2. El polinomio caracterı́stico, autovalores y autovectores de un operador Nos toca ahora generar un método para calcular los autovalores {λj }, con k = 1, 2, · · · k ≤ n para un operador lineal A : Vn → Vn suponiendo que existe una base ortonormal {|e1 i , |e2 i , · · · |en i}. Entonces la ecuación (4.16) nos ilustra la representación matricial de la ecuación de autovalores: ei A |ej i ej |ψi = λ ei |ψi ⇒ Aij cj = λci ⇒ Aij − λδji cj = 0 , con j = 1, 2, · · · , n. El conjunto de ecuaciones: Aij − λδji cj = 0, puede ser considerado un sistema (lineal y homogéneo) de ecuaciones con n incógnitas cj , el cual tendrá solución si el determinante de los coeficientes se anula. j i i Tendremos entonces que Aj − λδj c = 0 ⇒ det |A − λI| = 0, es decir: 4.6. AUTOVECTORES Y AUTOVALORES 267 P (λ) = det Aij − λδji = 0 . (4.17) Esta ecuación se denomina ecuación caracterı́stica (o secular) y a partir de ella emergen los autovalores (el espectro) del operador A, esto es: An1 A12 −λ ··· A22 .. An2 A1n A2n . = 0. ar det Aij − λδji = A11 − λ A21 .. . Ann − λ El caso degenerado rP re 4.6.3. lim in Es importante señalar que el polinomio caracterı́stico será independiente de la base a la cual esté referida la representación matricial ei A |uj i del operador A, porque hereda del determinante, esa invariancia de la representación matricial tal y como vimos en la página 237. El resultado será un polinomio de grado n (el polinomio caracterı́stico). Las raı́ces de este polinomio serán los autovalores que estamos buscando. Es claro que estas raı́ces podrán ser reales y distintas, algunas reales e iguales y otras imaginarias. Para el caso de raı́ces reales, tendremos el mismo número de raı́ces que el grado del polinomio, generado por la representación matricial del operador con ese mismo grado. Es decir, tendremos un operador A con una representación matricial de dimensión n × n, con n autovalores distintos, que estará asociados a n autovectores que serán linealmente independientes y que generarán una representación matricial diagonal. Sea el operador lineal A : Vn → Vn y calculamos el polinomio caracterı́stico de grado n a partir de (4.17). Se puede dar el caso que al menos una de las raı́ces del polinomio caracterı́stico presenten algún grado de multiplicidad. Entonces el polinomio caracterı́stico se podrá factorizar de la forma: P (λ) = det Aij − λδji = (λ − λ1 )k (λ − λ2 ) · · · (λ − λm ) · · · (λ − λn ). (4.18) 4.6.4. ad o Entonces existirán n−k raı́ces simples que podrán ser asociadas con n−k autovectores linealmente independientes y una raı́z, λ1 , con multiplicidad k que podrá ser asociada con 1, 2, · · · hasta k autovectores linealmente independientes con los anteriores. Es decir, ese autovalor estará asociado a un subespacio vectorial, denominado autoespacio S λ1 tal que dim(Sλ1 ) ≤ grado de multiplicidad del autovalor λ1 14 . La demostración general de la afirmación anterior queda fuera de los alcance de este trabajo, pero en la próxima sección ilustraremos la multiplicidad algebraica vs multiplicidad geométrica con varios ejemplos. Más adelante, cuando analicemos el caso particular de los autovalores para la matrices hermı́ticas en la sección 4.7.1, retomaremos la relación de la multiplicidad del autovalor y la dimensión del autoespacio que genera este autovalor degenerado. Ejemplos rr E 1. Reflexión respecto al plano xy. Si R : V3 → V3 es tal que R |ψi = ψ̃ donde se ha realizado una reflexión en el plano xy. Esto es R |ii = |ii ; R |ji = |ji ; R |ki = − |ki , Bo con |ii , |ji , |ki los vectores unitarios cartesianos. Es claro que cualquier vector en el plano xy será autovector de R con un autovalor λ = 1, mientras que cualquier otro vector |ψi ∈ V3 y que no esté en el mencionado plano cumple con |ψi = c |ki y también será autovector de R pero esta vez con un autovalor λ = −1. 2. Dos visiones de rotaciones de ángulo fijo θ. La rotaciones de un vector en el plano pueden verse de dos maneras. a) Se considera el plano como un espacio vectorial real V2 con una base cartesiana canónica: |ii = (1, 0) , |ji = (0, 1), esto es, si: R |ai = λ |ai ⇒ el ángulo de rotación = nπ , 14 Este con n entero. problema se conoce en la literatura como la relación entra la multiplicidad algebraica del autovalor y la multiplicidad geométrica del autoespacio 268 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES b) Igualmente si consideramos el plano complejo unidimensional, expresemos cualquier vector en el plano en su forma polar |zi = reiθ por lo cual: R |zi = rei(θ+α) = eiα |zi , si queremos λ = eiα reales, necesariamente α = nπ con n entero. Pψ |ϕi = λ |ϕi ⇒ Pψ |ϕi = (|ψi hψ|) |ϕi ⇒ |ϕi ∝ |ψi , ar 3. Proyectores: autovalores y autovectores. Es interesante plantearse la ecuación de autovalores con la definición del proyector para un determinado autoespacio. Esto es, dado Pψ = |ψi hψ| si este proyector cumple con una ecuación de autovalores para un |ϕi supuestamente arbitrario in es decir, necesariamente |ϕi es colineal con |ψi. Más aún, si ahora el |ϕi no es tan arbitrario sino que es ortogonal a |ψi , hψ |ϕi = 0 ⇒ λ = 0, entonces el espectro del operador Pψ = |ψi hψ| es 0 y 1, el primero de los cuales es infinitamente degenerado y el segundo es simple. Esto nos lleva a reflexionar que si existe un autovector de un determinado operador, entonces su autovalor es distinto de cero, pero pueden existir autovalores nulos que generan un autoespacio infinitamente degenerado. lim 4. El operador diferenciación. D |f i → D (f ) = f 0 . Los autovectores del operador diferenciación necesariamente deben satisfacer la ecuación: D |f i = λ |f i → D (f ) (x) = f 0 (x) = λf (x) , rP re la solución a esta ecuación será una exponencial. Esto es, |f i → f (x) = ceλx , con c 6= 0, y donde las f (x) se denominarán autofunciones del operador. 5. Ejemplos de autovalores y autovectores matrices reales. El procedimiento para el cálculo de los autovectores y autovalores es el siguiente. Una vez obtenidas las raı́ces del polinomio caracterı́stico (los autovalores), se procede a determinar el autovector, |ψj i, correspondiente a cada autovalor. Distinguiremos en esta determinación casos particulares dependiendo del tipo de raı́z del polinomio caracterı́stico. Ilustraremos estos casos con ejemplos para el caso especı́fico de matrices reales 3 × 3. ad o a) Todos los autovalores reales son distintos. Hemos presentado y analizado en la sección 4.6.1 tres teoremas que discuten la relación entre los autovalores, y la independencia lineal de los autovectores asociados con éstos. En esta sección ilustraremos el caso que surge cuando las raı́ces del polinomio caracterı́stico (4.17) son reales y distintas. Consideremos la siguiente representación matricial de un operador A en la base canónica 2−λ 1 3 2 1 3 1 2−λ 3 = 0, ei A |ej i = 1 2 3 ⇒ det Aij − λδji = 3 3 20 − λ 3 3 20 con lo cual el polinomio caracterı́stico (4.17) queda expresado como: rr λ3 − 24λ2 + 65λ − 42 = (λ − 1) (λ − 2) (λ − 21) = 0 , Bo y es claro que tiene 3 raı́ces distintas. Para proceder a calcular los autovectores correspondientes a cada autovalor resolvemos la ecuación de autovalores (4.16) para cada autovalor. Esto es: λ1 = 1 1 1 2 1 3 x x 2x1 + x2 + 3x3 = x1 1 2 3 2 2 1 2 3 x = 1 x ⇐⇒ x + 2x + 3x = x2 3 3 1 2 3 3 3 20 x x 3x + 3x + 20x = x3 , que constituye un sistema de ecuaciones algebraicas de 3 ecuaciones con 3 incógnitas. Resolviendo el sistema tendremos el primer autovector: 1 x −1 |ψiλ1 =1 = |ψ1 i = x2 = α 1 , x3 0 con α un número distinto de cero. Este α indica la indeterminación que discutimos a comienzos de la sección 4.6 correspondiente a esa ambigüedad que impone la presencia de una constante arbitraria de proporcionalidad. 4.6. AUTOVECTORES Y AUTOVALORES 269 λ2 = 2 2 1 3 1 1 3 x x 3 x2 = 2 x2 ⇐⇒ 20 x3 x3 1 2 3 2x1 + x2 + 3x3 x1 + 2x2 + 3x3 3x1 + 3x2 + 20x3 = 2x1 = 2x2 = 2x3 . Resolviendo el sistema se tiene el segundo autovector 1 x −3 |ψiλ2 = |ψ2 i = x2 = β −3 . x3 1 λ3 = 21 2 1 3 1 2 3 1 1 3 x x 3 x2 = 21 x2 ⇐⇒ 20 x3 x3 2x1 + x2 + 3x3 x1 + 2x2 + 3x3 3x1 + 3x2 + 20x3 lim Al resolver este sistema el tercer autovector x1 1 = |ψ3 i = x2 = γ 1 . x3 6 |ψiλ3 = 21x1 = 21x2 = 21x3 . in ar rP re Como hemos dicho, podemos eliminar la ambigüedad de la fase arbitraria si normalizamos los autovectores: −1 −3 1 E E E 1 1 1 1 , ψ̂2 = √ −3 , ψ̂3 = √ 1 . ψ̂1 = √ 2 19 38 0 1 6 D E Notemos que ψ̂ i ψ̂j = δji , es decir la base de autovectores es, necesariamente, ortonormal. ad o b) Autovalores degenerados. En esta sección discutiremos algunos ejemplos de autovalores degenerados, vale decir cuando alguna de las raı́ces del polinomio caracterı́stico (4.17) tiene una multiplicidad. Arriba en la página 267 discutimos el caso de la diferencia de la multiplicidad algebraica y la multiplicidad geométrica. Esto es que la dimensión del autoespacio siempre es menor o igual a la multiplicidad de la raı́z degenerada del polinomio caracterı́stico dim(Sλ1 ) ≤ grado de multiplicidad del autovalor. rr 1) Multiplicidad geométrica igual a multiplicidad algebraica. Consideremos una matriz real 3×3 4−λ −3 1 4 −3 1 4 −1 − λ 0 = 0, ei A |ej i = 4 −1 0 ⇒ det Aij − λδji = 1 7 −4 − λ 1 7 −4 con lo cual el polinomio caracterı́stico queda expresado como: 2 Bo λ3 + λ2 − 5λ − 3 = (λ + 3) (λ − 1) = 0 , y es claro que tiene 2 raı́ces iguales y una distinta. En este caso λ = 1 es un de orden 2. Ahora resolveremos la ecuación de autovalores para cada autovalor. λ1 = −3 1 1 4 −3 1 x x 4x1 − 3x2 + x3 4 −1 0 x2 = −3 x2 ⇐⇒ 4x1 − x2 3 3 1 1 7 −4 x x x + 7x2 − 4x3 x1 −1 = x2 = α 2 x3 13 Resolviendo |ψiλ1 ⇒ ψ̂1 E −1 1 2 = √174 13 autovalor degenerado = −3x1 = −3x2 = −3x3 . 270 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES λ2 = 1 (autovalor degenerado de orden 2) 1 1 4 −3 1 x x 4 −1 0 x2 = x2 ⇐⇒ 1 7 −4 x3 x3 4x1 − 3x2 + x3 4x1 − x2 1 x + 7x2 − 4x3 = x1 = x2 = x3 . lim in ar Resolviendo el sistema tendremos el segundo autovector 1 1 x 1 E 1 |ψiλ2 = x2 = α 2 ⇒ ψ̂2 = √ 2 . 14 3 x3 3 Eo n E son linealmente independientes como nos los habı́a anunciado el teoClaramente ψ̂1 , ψ̂2 rema 1 en la sección D E4.6.1, sin embargo, esos autovectores no presentan ninguna relación de ortogonalidad ψ̂ i ψ̂j 6= δji . Más, aún, este autovector puede descomponerse en infinitas parejas de vectores linealmente independientes que expenden el subespacio Sλ=1 , asociado con λ = 1, el autovalor degenerado de multiplicidad k = 2. Una posible combinación lineal podrı́a ser: 1 0 |ψiλ2 = α |ψ1 iλ2 + β |ψ2 iλ2 = α 0 + β 2 . 3 0 ad o rP re Por lo tanto, la multiplicidad geométrica –la dimensión del autoespacio, S λ2 =1 , asociado con el autovalor degenerado λ = 1– coincide con la multiplicidad algebraica del autovalor λ = 1 como raı́z del polinomio caracterı́stico. Es decir, podemos determinar la dimensión del subespacio que alberga al vector |ψiλ2 . Es importante recalcar que ninguno de los (infinitos) dos vectores linealmente independientes, será autovector de A por separado. Unicamente lo será la combinación lineal en la que resulta |ψiλ2 . 2) Multiplicidad geométrica menor a multiplicidad algebraica. Consideremos, para ilustrar este caso la siguiente matriz real 3 × 3 1−λ 1 2 1 1 2 0 1−λ 3 = 0. ei A |ej i = 0 1 3 ⇒ det Aij − λδji = 0 0 2−λ 0 0 2 En este caso, el polinomio caracterı́stico es: 2 λ3 − 4λ2 + 5λ − 2 = (λ − 2) (λ − 1) = 0 . Bo rr Una vez más, el polinomio caracterı́stico tiene 2 raı́ces iguales y una distinta y, como en el caso anterior λ = 1 es un autovalor degenerado de orden 2. Pasemos a resolver la ecuación de autovalores para cada autovalor. λ1 = 2 1 1 1 1 2 x x1 + x2 + 2x3 = 2x1 x 0 1 3 x2 = 2 x2 ⇐⇒ x2 + 3x3 = 2x2 x3 2x3 = 2x3 . 0 0 2 x3 1 x 5 Resolviendo el sistema obtenemos al primer autovector: |ψ1 i = x2 = α 3 . x3 1 λ2 = 1 1 1 1 1 2 x x x1 + x2 + 2x3 = x1 2 2 0 1 3 x = x ⇐⇒ x2 + 3x3 = x2 3 3 0 0 2 x x 2x3 = x3 1 x 1 Con el correspondiente segundo autovector: |ψ2 i = x2 = α 0 . x3 0 4.6. AUTOVECTORES Y AUTOVALORES 271 con lo cual el polinomio caracterı́stico es: 2 in ar Una vez más los dos vectores NO son ortogonales, ψ i |ψj i 6= δji , pero SI linealmente independientes. En este caso, asociado al autovalor λ2 = 1, tenemos además del autovector |ψ2 i, el autovector nulo y esto genera una imposibilidad de determinar la dimensión del autoespacio. Los autovectores siguen siendo linealmente independientes, pero aquı́ la dimensión del autoespacio es NECESARIAMENTE 1, dim(Sλ2 =1 ) = 1, por lo tanto ilustra que la multiplicidad geométrica es menor que la multiplicidad aritmética de las raı́ces del polinomio caracterı́stico. 3) Vamos ilustrar un tercer ejemplo que se presenta para uno de los autovalores degenerados. Consideremos entonces otra matriz 3 × 3 con autovalores repetidos 2−λ 1 1 2 1 1 2 3−λ 2 = 0, ei A |ej i = 2 3 2 ⇒ det Aij − λδji = 3 3 4−λ 3 3 4 λ3 + λ2 − 5λ − 3 = (λ − 7) (λ − 1) = 0 , λ1 = 7 2 2 3 1 3 3 lim que tiene 2 raı́ces iguales y una distinta. En este caso λ = 1 vuelve a ser un autovalor degenerado de orden 2. Volvemos a calcular los autovectores correspondientes a cada autovalor 1 1 x x 1 2 x2 = 7 x2 ⇐⇒ x3 x3 4 = = = 7x1 7x2 7x3 . rP re Al resolver el sistema 2x1 + x2 + x3 2x1 + 3x2 + 3x3 3x1 + 3x2 + 4x3 1 x1 = x2 = α 2 . 3 x3 |ψiλ1 λ2 = 1. En este caso el autovalor degenerado de orden 2 presenta una pequeña patologı́a. Veamos 1 1 2x1 + x2 + x3 = x1 x x 2 1 1 2 2 2 3 2 x = x ⇐⇒ 2x1 + 3x2 + 2x3 = x2 3x1 + 3x2 + 4x3 = x3 . x3 x3 3 3 4 ad o Resolviendo 1 x 0 |ψ i = x2 = β 1 2 λ2 x3 −1 Bo rr |ψiλ2 = 1 x 1 |ψ1 iλ2 = x2 = α 0 x3 −1 con lo cual el autovector |ψiλ2 correspondiente al autovalor λ2 = 1, está asociado con a dos vec tores linealmente independientes |ψ1 iλ2 , |ψ2 iλ2 y, por lo tanto aquı́ también la multiplicidad aritmética coincide con la multiplicidad geométrica. Una vez más los autovectores, correspondientes a distintos autovalores no son ortogonales pero si linealmente independientes. c) Finalmente, consideremos una matriz 3 × 3 con 1 autovalor real y dos autovalores complejos 1 2 3 1−λ 2 3 3 1−λ 2 ei A |ej i = 3 1 2 ⇒ det Aij − λδji = = 0, 2 3 1 2 3 1−λ con lo cual el polinomio caracterı́stico queda expresado como: λ3 − 3λ2 − 15λ − 18 = (λ − 6) λ2 + 3λ + 3 = 0 . En este caso λ1 = 6 es un autovalor real. Adicionalmente existen √ dos autovalores complejos, uno el √ complejo conjugado del otro: λ2 = − 21 3 + i 3 y λ3 = − 21 3 − i 3 . Para proceder a calcular los 272 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES autovectores correspondientes a cada autovalor resolvemos la ecuación de autovalores para cada autovalor real. En este caso existe un único autovalor real λ = 6. 1 1 1 2 3 x x 4x1 − 3x2 + x3 = 6x1 2 2 3 1 2 x = 6 x ⇐⇒ 4x1 − x2 = 6x2 3 3 1 2 3 1 x x x + 7x2 − 4x3 = 6x3 . Tendremos que para λ = 6 x1 1 = x2 = α 1 . x3 1 |ψiλ1 ar in 6. Sean A y B dos operadores hermı́ticos, con autovalores no degenerados y un operador unitario definido como: U = A + iB. Vamos a mostrar que: a) Si A y B conmutan, [B, A] = 0, los autovectores de A también lo son de B. Si {|ui i} son autovectores de A entonces A |ui i = λi |ui i ⇒ BA |ui i = λi B |ui i , entonces AB |ui i = λi B |ui i . lim como [B, A] = 0 , 7. Dada una matriz de la forma rP re Por lo tanto, B |ui i es un autovector de A. Pero la solución para la ecuación de autovectores (A − λi I) |ui i = 0 es única, por lo cual todos los autovectores de A son proporcionales. Esto es: B |uj i = µj |uj i, con lo cual queda demostrado que los autovectores de A son autovectores de B. b) Si U |vi i = νi |vi i, entonces |µi | = 1. Es claro que: v j U† U |vi i = v j I |vi i ⇒ µ∗j µi v j |vi i = v j I |vi i ⇒ µ2i = 1 . 1 A= β 0 α 1 0 0 0 1 y A |vi i = λi |vi i con α y β números complejos distintos de cero. Vamos a encontrar: a) Las relaciones que deben cumplir α y β para que λi sea real. El polinomio caracterı́stico y la condición para que λ sea real es: p (1 − λ)(1 − 2λ + λ2 − αβ) = 0 ⇒ λ = 1 ± αβ ⇒ αβ > 0 ∧ αβ ∈ R . ad o b) Las relaciones que deben cumplir α y β para que v j |vi i = δij . Los autovalores y autovectores para esta matriz serán: β √ 0 p p αβ λ1 = 1 ⇒ |v1 i = 0 , λ2 = 1 + αβ ⇒ |v2 i = 1 , λ3 = 1 + αβ ⇒ |v3 i = 1 0 β2 αβ 1 0 = 1 ⇒ |α| = |β| . rr con lo cual: v 2 |v3 i = 0 ⇒ −β √ αβ c) Supongamos que A es hermı́tica, encontremos las relaciones que deben cumplir α y β. Si A es hermı́tica, entonces α∗ = β, con lo cual se cumplen automáticamente ambas aseveraciones. Bo 8. Dadas las siguientes matrices: 6 −2 A= , −2 9 B= 1 8 8 −11 , C= −9 −10 −10 5 , D= 14 2 2 11 Determinemos cuales conmutan entre ellas y busquemos la base de autovectores comunes. Notamos que: [A, B] = [A, D] = [D, B] = 0, y 0 2 0 [A, C] = , [B, C] = −2 0 8 −8 0 , [D, C] = Los autovectores comunes a A, B, D, serán: |u1 i = − 21 1 , |u2 i = 2 1 . 0 2 −2 0 . , 4.6. AUTOVECTORES Y AUTOVALORES 273 9. Dada la representación matricial de dos operadores 0 0 1 A= 0 1 0 1 0 0 y 0 B= 1 1 1 0 1 1 1 0 a) Evaluemos [A, B]. 0 AB = 1 0 0 0 0 0 0 = BA ⇒ [A, B] = 0 0 ar in b) Vamos a mostrar que A tiene por autovalores λ1 = 1 y λ2 = −1, con λ1 un autovalor degenerado. Y construyamos luego la base de autovectores para A. 0 0 1 x x −λ 0 1 x 0 1 0 y = λ y ⇒ 0 1 − λ 0 y . 1 0 0 z z 1 0 −λ z −λ 0 1 0 1−λ 0 = λ(1 − λ)λ − (1 − λ) = λ2 − 1 (1 − λ) = 0 , y λ = −1. Para el caso de λ = −1 0 1 x x 1 0 y = − y ⇒ 0 0 z z se cumple que: rP re se tienen dos autovalores: λ = 1 0 0 1 1 0 −λ lim Entonces para: z = −x y = −y x = −z con lo cual el autovector asociado con el autovalor λ = −1 tendrá la forma de: 1 |ui−1 = α 0 . −1 Para λ = 1 se cumple: 0 1 0 ad o 0 0 1 1 x x 0 y = y ⇒ 0 z z z=x y=y x=z hay dos vectores linealmente independientes asociados con λ = 1, a saber: 1 0 |ui1a = β 0 y |ui1b = y con y arbitrario . 1 0 Bo rr Nótese que estos tres autovectores: {|ui1a , |ui1b , |ui−1 } son ortogonales entre c) ¿Cuál es la representación matricial de A en la base de autovectores? Veamos lo siguiente: u1 A |u1 i u1 A |u2 i u1 A |u3 i 1 0 Ãij = u2 A |u1 i u2 A |u2 i u2 A |u3 i = 0 1 0 0 u3 A |u1 i u3 A |u2 i u3 A |u3 i si. 0 0 , −1 ya que los autovectores forman una base ortogonal. Obviamente se cumple que: det|A| = det|Ã| = −1 y Tr(A) = Tr(Ã) = 1 . d ) A partir de los autovectores de A vamos a calcular los autovalores y autovectores de B. Claramente B |u−1 i = − |u−1 i con lo cual tenemos el primer autovector de B asociado al autovalor λ = −1. Para encontrar los otros autovectores tendremos: −λ 1 1 1 0 1 −λ 1 y = 0 . 1 1 −λ 1 0 274 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES 4.6.5. Practicando con Maxima En este ejercicio aprenderemos a resolver el problema de autovalores y autovectores. Primeros lo haremos de manera indirecta, realizando los cálculos por pasos, y luego utilizando las funciones especı́ficas del programa. 1. Dada la matriz A del primer ejemplo anteriormente resuelto: (%i1) A:matrix([2,1,3], [1,2,3], [3,3,20]); 3 3 20 Generamos la matriz identidad 3 × 3 con el comando ident(n). (%i2) I:ident(3); 0 1 0 0 0 1 lim 1 ( %o2) 0 0 ar 1 2 3 in 2 ( %o1) 1 3 Escribimos la ecuación de autovalores de manera matricial y la llamaremos M . 2−λ ( %o3) 1 3 rP re (%i3) M:A-lambda*I; 1 3 2−λ 3 3 20 − λ El determinante nos dará el polinomio caracterı́stico, luego resolvemos para λ. (%i4) factor(determinant(M)); ( %o4) − (λ − 21) (λ − 2) (λ − 1) ad o (%i5) solve(%=0); ( %o5) [λ = 1, λ = 2, λ = 21] Los autovalores son: λ1 = 1, λ2 = 2 y λ3 = 21. Para cada autovalor evaluaremos una matriz correspondiente: rr (%i6) M1:M,lambda=1; M2:M,lambda=2; M3:M,lambda=21; Bo 1 1 3 ( %o6) 1 1 3 3 3 19 0 1 3 ( %o7) 1 0 3 3 3 18 −19 1 3 −19 3 ( %o8) 1 3 3 −1 Necesitamos ahora resolver, para cada autovalor, la ecuación de autovectores: AX = λi X. Ası́ que podemos escribir las siguientes matrices: (%i9) M1:M1.[x,y,z]; M2:M2.[x,y,z]; M3:M3.[x,y,z]; 4.6. AUTOVECTORES Y AUTOVALORES 275 ar 3z + y + x ( %o9) 3 z + y + x 19 z + 3 y + 3 x 3z + y 3z + x ( %o10) 18 z + 3 y + 3 x 3 z + y − 19 x ( %o11) 3 z − 19 y + x −z + 3 y + 3 x (%i12)ec1:M1[1,1]=0; ec2:M1[2,1]=0; ec3:M1[3,1]=0; ( %o12) 3 z + y + x = 0 ( %o14) 19 z + 3 y + 3 x = 0 (%i15)solve([ec1,ec2,ec3],[x,y,z]); rP re solve: dependent equations eliminated: (2) ( %o15) [[x = − %r4 , y = %r4 , z = 0]] lim ( %o13) 3 z + y + x = 0 in Iremos ahora resolviendo cada uno de los sistemas de ecuaciones. Para λ1 = 1: Recordemos que Maxima nos indica con el sı́mbolo %rn que se trata de una constante. Ası́ que de las infinitas soluciones escogemos alguna de las más simples: (1, −1, 0). Repetimos los cálculos para el segundo autovalor, es decir, λ2 = 2: (%i16)ec1:M2[1,1]=0; ec2:M2[2,1]=0; ec3:M2[3,1]=0; ( %o16) 3 z + y = 0 ( %o17) 3 z + x = 0 ad o ( %o18) 18 z + 3 y + 3 x = 0 (%i19)solve([ec1,ec2,ec3],[x,y,z]); solve: dependent equations eliminated: (3) ( %o19) [[x = −3 %r5 , y = −3 %r5 , z = %r5 ]] rr Por lo tanto un autovector puede ser: (1, 1, −1/3). Finalmente, para λ3 = 21: Bo (%i20)ec1:M3[1,1]=0; ec2:M3[2,1]=0; ec3:M3[3,1]=0; ( %o20) 3 z + y − 19 x = 0 ( %o21) 3 z − 19 y + x = 0 ( %o22) − z + 3 y + 3 x = 0 (%i23)solve([ec1,ec2,ec3],[x,y,z]); solve: dependent equations eliminated: (3) %r6 %r6 ,y = , z = %r6 ( %o23) x = 6 6 Podemos tomar como autovector a: (1, 1, 6). 276 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES 2. Maxima ofrece la posibilidad de resolver el problema de autovalores a través de un determinado número de funciones. Por ejemplo, la función charpoly nos dará el polinomio caracterı́stico directamente de la matriz que queremos estudiar y respecto de la variable que seleccionemos, es este caso será λ. (%i24)charpoly(A,lambda); ( %o24) λ + ((2 − λ) (20 − λ) − 9) (2 − λ) + 3 (3 − 3 (2 − λ)) − 11 ar (%i25)factor(%); ( %o25) − (λ − 21) (λ − 2) (λ − 1) in (%i26)solve(%=0); ( %o26) [λ = 1, λ = 2, λ = 21] lim El programa también permite obtener los autovalores directamente de la matriz problema. Esto se hace con el comando eigenvalues(M). El resultado será una lista conformada a su vez por dos listas: la primera sublista la forman los valores propios de la matriz M y la segunda con su multiplicidad correspondientes. Veamos: (%i27)eigenvalues(A); rP re ( %o27) [[1, 2, 21] , [1, 1, 1]] La función para calcular los autovectores es eigenvectors(M). El resultado será una lista con dos elementos; el primero está formado por dos listas: la primera con los valores propios de M y la segunda con su respectiva multiplicidad, el segundo elemento es una lista de listas de vectores propios, una por cada valor propio. (%i28)eigenvectors(A); 1 , [[1, 1, 6]] ( %o28) [[1, 2, 21] , [1, 1, 1]] , [[1, −1, 0]] , 1, 1, − 3 ad o 3. Consideremos otro de los ejemplos tratado anteriormente. Dada la matriz: (%i29)B:matrix([4,-3,1], [4,-1,0], [1,7,-4]); rr 4 −3 1 ( %o29) 4 −1 0 1 7 −4 (%i30)eigenvectors(B); ( %o30) [[[−3, 1] , [1, 2]] , [[[1, −2, −13]] , [[1, 2, 3]]]] Bo Notemos que sólo se obtienen dos autovectores. 4. Consideremos la matriz: (%i31)C:matrix([2,1,1], [2,3,2], [3,3,4]); 2 1 1 ( %o31) 2 3 2 3 3 4 (%i32)eigenvectors(C); ( %o32) [[[7, 1] , [1, 2]] , [[[1, 2, 3]] , [[1, 0, −1] , [0, 1, −1]]]] 4.6. AUTOVECTORES Y AUTOVALORES 277 5. Y finalmente, dada la matriz: (%i33)D:matrix([1,2,3], [3,1,2], [2,3,1]); 1 ( %o33) 3 2 2 1 3 3 2 1 # # """ √ ### √ √ 3i + 3 3i − 3 3i − 1 3i + 1 , , 6 , [1, 1, 1] , 1, ,− , − 2 2 2 2 hh ii ii √ √ 1, − 32i+1 , 32i−1 , [[1, 1, 1]] ar (%i34)eigenvectors(D); ( %o34) Ejercicios lim 4.6.6. in """ √ 1. Si |v1 i y |v2 i son autovectores del operador lineal A que corresponden a distintos autovalores. Muestre que α |v1 i + β |v2 i (α 6= 0, β 6= 0) no puede ser un autovector de A. rP re 2. Demuestre que si todo vector de un espacio vectorial V es un autovector del operador lineal A, entonces A = λI. Donde I es el operador identidad. 3. Demuestre que si el operador lineal A conmuta con todos operadores que actúan em un determinado espacio vectorial, entonces A = λI. 4. Si un operador lineal A tiene un autovector |v0 i con autovalor λ0 . Demuestre que |v0 i es también un autovector del operador A2 con autovalor λ20 . 5. Aun si un operador lineal A no tiene autovectores el operador A2 puede llegar a tenerlos. Demuestre que si A2 tiene un autovector con un autovalor no degenerado λ0 = µ2 , entonces A tiene un autovector. ad o 6. Encuentre los autovalores y autovectores de las siguientes matrices: 0 0 1 3 −1 1 0 0 0 0 4 −2 , B = −3 1 0 , C = A= 3 1 0 −1 −2 2 4 −7 1 0 1 1 0 0 0 0 1 , D= 0 0 0 1 0 0 1 0 0 0 0 0 0 1 0 0 , 1 0 y la matriz E = diag(1, 1, −1, −1). Verifique si los autovectores son ortogonales entre ellos. rr 7. Demuestre que la matriz 2 A = −6 3 0 4 −1 0 4 , 0 Bo no tiene tres autovectores linealmente independientes y que cualquier autovector tiene la forma: λ 3λ − 2ν . ν 8. Construimos un sistema con tres partı́culas, de masa mi rı́gidamente unidas, colocadas en tres puntos distintos de la siguiente forma: 1 −1 1 m1 = 1 → 1 , m2 = 2 → −1 y m3 = 1 → 1 . −2 0 2 a) Encuentre la matriz del tensor de inercia. 278 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES b) Diagonalize esa matriz y encuentre los ejes principales de inercia. 9. En Mecánica Cuántica, el problema del oscilador armónico simple puede ser representado por un problema de autovalores L|ψ >= λ|ψ > ⇒ < x|L|ψ >= λ < x|ψ > ↔ Lψ(x) = λψ(x) , donde : L ↔ x2 1 d2 + + . 2 dx 4 2 L+ = x d + 2 dx y L− = ar Si construimos un par de operadores: x d − , 2 dx in utilice los resultados del problema anterior y construya las nuevas autofunciones de L con sus autovalores. 1 1 . lim 10. Considere las siguiente representación matricial para dos operadores: 1 δ 1 i i m m < u (A)uj >= Aj = y < u |B|un >= Bn = δ 1 δ2 a) Muestre como actúan A y B sobre un vector genérico |ψ > expandido en esa base {|u1 >, |u2 >} (vale decir |ψ >= α|u1 > +β|u2 >). b) Muestre que los autovalores de A son degenerados para δ = 0 y que sus autovectores son ortogonales para δ 6= 0 e incluso para δ → 0. rP re c) Muestre que también B tiene autovalores degenerados para δ = 0 y encuentre la expresión (en función de 0 ≤ δ ≤ 1) para el coseno del ángulo entre dos autovectores. 11. Dada la siguiente representación matricial de un operador en la base canónica: √ 2√ i 2 1 0 M= , |1 >= , |2 >= . 0 1 −i 2 3 a) Encuentre los autovectores {|ϕ1 >, |ϕ2 >} para ese operador en la base canónica. ad o b) Encuentre las representaciones matriciales de los operadores proyección sobre los auto espacios, P|ϕi > = |ϕi >< ϕi |, en esa misma base canónica. c) Encuentre las representaciones matriciales de los operadores proyección sobre los complementos ortogon = |ϕm >< ϕn | en esa misma base y con ella calcule M = Mji Uij . nales de los autoespacios Um rr 12. Las matrices σ x , σ y , σ z se conocen con el nombre de matrices de Pauli : 0 1 0 −i 1 0 σx = , σy = , σz = , 1 0 i 0 0 −1 I= 1 0 0 1 . Bo a) Muestre si las matrices de Pauli σ x , σ y , σ z , conjuntamente con la matriz identidad, I forman un grupo respecto a la siguiente operación: donde jkm σ k ≡ σ j σ k = ijkm σ m + δjk I con j, k, m = x, y, z √ es el sı́mbolo de Levi-Civita y i = −1. σj b) Muestre si las matrices de Pauli σ x , σ y , σ z , conjuntamente con la matriz identidad I son linealmente independientes. c) ¿Las matrices de Pauli forman base para un espacio vectorial de matrices complejas 2x2? ¿Por qué? Si forman una base exprese la matriz 3 i , 5 1 en términos de esa base. d ) Derive la expresión general para [σ j , σ k ]. 4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES 279 e) Suponga ahora que σ z actúa de la siguiente forma: σ z |+i = |+i , σ z |−i = − |−i , con: 1 0 |+i , |−i . 0 1 Encuentre la expresión para los autovalores y autovectores de las otras matrices de Pauli: σ x |+ix = λ+x |+ix , σ x |−ix = λ−x |−ix , σ y |+iy = λ+y |+iy , σ y |−iy = λ−y |−iy . Pλ = λ2 − λTr(M) + det|M| . 13. Resuelva con Maxima los ejercicios anteriores. 4.7. lim Donde los λ son sus autovalores. in g) El polinomio caracterı́stico para ese operador genérico M se puede expresar como ar f ) Muestre que cualquier representación matricial de un operador genérico M puede ser expresado como combinación lineal de las matrices de Pauli. Autovalores y autovectores de matrices importantes rP re Consideremos la ecuación de autovalores (4.14) y la definición de operadores adjuntos que hemos discutido en la sección 4.2.3. Podemos afirmar sin perder generalidad que dado un conjunto de vectores {|u1 i , |u2 i , · · · , |un i} y de cantidades {λ1 , λ2 , · · · , λn } que cumplan con A |ui i = λi |ui i con i = 1, 2, · · · n, entonces A |ui i = λi |ui i ⇒ uj A |ui i = λi uj |ui i ⇒ uj A − A† |ui i = (λi − λ∗j ) uj |ui i . (4.19) j † ∗ j j † ∗ j u A = λj u ⇒ u A |ui i = λj u |ui i ad o Vale decir, hemos proyectado las ecuaciones de autovalores de un operador genérico y su adjunto a lo largo de los vectores y las formas correspondientes, uj y |ui i, para luego restar esas expresiones miembro a miembro. Es evidente que si no conocemos el tipo de operador, poco se puede decir de sus autovectores y autovalores. Hay que imponer algunas restricciones sobre el tipo de operador para poder sacar algunas conclusiones respecto al tipo de autovalores y autovectores que ese operador pueda tener. Por ejemplo: Si A es hermı́tico, A = A† y autovectores son distintos, (i 6= j) entonces de la ecuación (4.19) se deduce que esos autovectores serán ortogonales, uj |ui i ∝ δij . Si A es hermı́tico, A = A† y autovectores son los mismos, (i = j) entonces los autovalores son reales: λi = λ∗i . 4.7.1. rr Este caso lo analizaremos en la próxima sección. Autovalores y autovectores de matrices hermı́ticas y unitarias Bo Tal y como mencionamos en la sección 4.2.4 un operador hermı́tico o autoadjunto cumple con A† = A y luego en la sección 4.3.2, comprobamos que su representación matricial es igual a su traspuesta conjugada. Por lo tanto, la representación matricial de un operador autoadjunto es una matriz simétrica con números reales en su diagonal. Veamos ahora cómo se comportan sus autovalores. Teorema 4: Supongamos un operador lineal A : Vn → Vn , hermı́tico: A = A† , con autovalores: {λ1 , λ2 , . . . , λn }. Entonces: Los autovalores {λ1 , λ2 , . . . , λn } son reales. Los autovectores {|ψ1 i , |ψ2 i , · · · , |ψn i}, correspondientes a cada uno de los autovalores, serán ortogonales. Demostración: 280 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES Para demostrar que los autovalores {λ1 , λ2 , . . . , λn } son reales, proyectamos la ecuación de autovalores en cada uno de los autovectores: A |ψi = λ |ψi ⇒ hψ| A |ψi = λ hψ |ψi . Ahora bien, dado que hψ |ψi es real, si demostramos que hψ| A |ψi es real, estará demostrado que λ lo será también. Pero como A es hermı́tico: ∗ hψ| A |ψi = hψ| A† |ψi = hψ| A |ψi ⇒ hψ| A |ψi ∈ R , ar por consiguiente los autovalores {λ1 , λ2 , . . . , λn } son reales. Más aún, si A es hermı́tico, y como sus autovalores son reales entonces: hψ| A† = λ∗ hψ| = λ hψ| ⇒ hψ| A |φi = λ hψ |φi . A |ϕi = µ |ϕi , y lim A |ψi = λ |ψi in Para demostrar que los autovectores {|ψ1 i , |ψ2 i , · · · , |ψn i} son ortogonales, consideremos dos autovectores con sus correspondientes autovalores de tal forma que se cumplen las siguientes ecuaciones: rP re pero como A es hermı́tico entonces se cumple que: hϕ| A = µ hϕ|, multiplicando a la izquierda por |ψi y a hψ| A = λ hψ| por hϕ| a la derecha: (hϕ| A = µ hϕ|) |ψi hϕ| A |ψi = µ hϕ |ψi ⇒ ⇒ (λ − µ) hϕ |ψi = 0 , hϕ| (A |ψi = λ |ψi) hϕ| A |ψi = hϕ |ψi y como hemos supuesto que λ 6= µ con lo cual hϕ |ψi = 0, los autovectores correspondientes a dos autovalores son ortogonales. J Es importante señalar el hecho de que si la matriz A es real, entonces A = PǍPT , con Ǎ diagonal y P ortogonal: P = P−1 . En resumen, si A : Vn → Vn es un operador lineal hermı́tico entonces: T Sus autovalores son reales. Los autovectores correspondientes a cada autovalor son ortogonales. ad o Los autovectores de A resultan ser una base ortonormal del espacio vectorial Vn . Autoespacios y autovalores degenerados Una vez más, consideraremos el caso autovalores degenerados, para operadores hermı́ticos o autoadjuntos. El siguiente teorema garantiza la existencia de al menos un subespacio S (λ0 ) ⊂ Vn . rr Teorema 5: Sea un operador lineal A : Vn → Vn , hermı́tico, con una representación matricial n × n, tal que su polinomio caracterı́stico P (λ) = det Aij − λδji = 0 tiene al menos una raı́z degenerada λ = λ0 , de orden k ≤ n. Entonces existen k autovectores, no triviales, que cumplen con: A |ψj i = λ0 |ψj i para j = 1, 2, · · · , k . Bo Demostración: La demostración también emerge de una variante del Método de Inducción Completa. Para ello, probamos que se cumple para j = 1. Esta afirmación es obvia. Si existe un λ = λ0 existe un |ψj i, tal que cumple con la ecuación anterior y es linealmente independiente con él mismo. Suponemos que se cumple para 1 ≤ j = m ≤ k. Es decir, existen m autovectores |ψj i de A para el autovalor λ0 . Definamos un subespacio Sλ0 = S (λ0 ) ⊂ Vn donde: |ψj i ∈ Sλ0 / A |ψj i = λ0 |ψj i ⇒ A |ψj i ∈ Sλ0 con j = 1, 2, · · · , m , por lo tanto, podremos separar Vn como una suma directa entre el subespacio Sλ0 y N , su complemento ortogonal: Vn = Sλ0 ⊕ N / A |ψj i = λ0 |ψj i ∧ |φi ∈ N ⇒ hφ |ψj i = 0 , claramente Sλ0 es un subespacio invariante de A por cuanto su acción se circunscribe dentro del mismo subespacio Sλ0 . 4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES 281 Mostraremos que se cumple para operadores hermı́ticos, por cuanto no es verdad en general, entonces: hφ |ψj i = 0 ∧ ⇒ hψj |φi = 0 = hψj | A† |φi = hψj | A |φi , A |ψj i = λ0 |ψj i 0 0 ··· 1 0 ··· 0 n Rm+1 ··· lim ··· 0 in ar de donde se concluye que el vector es ortogonal a Sλ0 y por lo tanto está en el complemento ortogonal A |φi ∈ N (por hipótesis |φi ∈ N ). Esto implica que N también es un espacio invariante del operador hermı́tico A. Entonces, el espacio Vn puede expresarse como una suma directa de los dos subespacios invariantes respecto al operador lineal A y su representación matricial en la base de autovectores tendrá la forma de una matriz diagonal a bloques: 1 1 ··· 0 0 ··· 0 Q1 · · · Q1m 0 · · · 0 .. . .. .. . .. . . .. .. .. . . . .. . . . .. . 0 . m m 0 ··· 0 Q1 Qm 0 · · · 0 0 · · · 1 , ψ j A |ψi i = Aji → m+1 m+1 0 ··· 0 1 0 0 0 · · · 0 Rm+1 · · · Rn . . . . . . . . .. .. .. .. . . . .. .. . . . .. .. .. .. . . Rnn µ α donde Qα β y Rυ son matrices m × m y (n − m) × (n − m), respectivamente. La matriz Qβ opera en Sλ0 mientras µ que Rυ actúa sobre el complemento ortogonal N . El polinomio caracterı́stico de A puede expresarse como: P (λ) = det Aij − λδji = 0 ⇒ P (λ) = det Qij − λδji det Rji − λδji = 0 , rP re y como λ = λ0 es la raı́z múltiple del polinomio caracterı́stico que anula el det Qij − λδji , tendremos que m det Qij − λ0 δji = 0 ⇒ P (λ) = (λ − λ0 ) F (λ) , con F (λ0 ) 6= 0 , donde λ0 no es raı́z del polinomio F (λ). Ahora bien, para que se cumpla cuando j = k, el polinomio caracterı́stico es k m k j = k ⇒ P (λ) = (λ − λ0 ) R (λ) ⇒ (λ − λ0 ) F (λ) = (λ − λ0 ) R (λ) . ad o Otra vez, λ0 no es raı́z del polinomio R (λ). La ecuación anterior se cumple para todo λ, en particular para λ = λ0 . Por lo tanto: k−m R (λ) 1 = (λ − λ0 ) . F (λ) Es claro que λ = λ0 obliga a que k = m. J Autovalores y autovectores de matrices unitarias rr Para finalizar esta sección volvamos a considerar la ecuación de autovalores (4.14) y la definición de operadores adjuntos que hemos discutido en la sección 4.2.3. Entonces, si un operador U es unitario, se cumple que U† = U−1 entonces si |ψj i es un autovector, normalizado del operador U, correspondiente a un autovalor λj tendremos que la norma al cuadrado de U |ψj i será igual a: U |ψj i = λj |ψj i ⇒ ψ j U† U |ψj i = 1 = λ∗j λj ψ j |ψj i = λ∗j λj ⇒ λj = eiϕj , Bo con ϕu una función real. Con lo cual podemos concluir que, necesariamente, los autovalores de los operadores unitarios serán números complejos de módulo 1. Cuando los autovalores son diferentes, digamos k 6= j, entonces esta condición implica que ψ k |ψj i = 0, con lo cual los autovectores de un operador unitarios son ortogonales. 4.7.2. Autovalores y autovectores de matrices similares Como discutimos en la sección 4.3.3, dos operadores à y A que están relacionados por una transformación de similaridad. La ecuación (4.10), à = S−1 AS, conecta las distintas representaciones matriciales de un mismo operador, las cuales tendrán la misma traza y el mismo determinante, independientemente de su representación matricial. Tal y como se desprende de ecuación (4.8) la representación matricial de los operadores S corresponde a la matriz de productos internos de los vectores base ẽi |ek i. Ahora nos toca identificar otra propiedad fundamental inherente al operador y no a su representación matricial. Para ello complementaremos los teoremas expuestos allá con el siguiente. 282 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES Teorema 6: Dos matrices, Akl y Ãij , n × n, similares tienen el mismo polinomio caracterı́stico y con ello el mismo conjunto de autovalores. Demostración: Es inmediato verificar que: à − λI = S−1 AS − λI = S−1 (A − λI) S , y dado que det à − λI = det S−1 (A − λI) S = det S−1 det |A − λI| det |S| = det |A − λI| . in ar Por lo tanto, ambos operadores à y A, tendrán el mismo polinomio caracterı́stico y con ello el mismo conjunto de autovalores. J Haremos una lista de todas la propiedades para los autovalores y autovectores de operadores, expuestas en ésta y en la sección anterior. Sea un operador lineal A : Vn → Vn con un polinomio caracterı́stico que tiene n raı́ces distintas: {λ1 , λ2 , . . . , λn }. Entonces tendremos que: lim Los diferentes autovectores {|ψ1 i , |ψ2 i , · · · , |ψn i} correspondientes a los {λ1 , λ2 , . . . , λn }, formarán una base para V. La representación matricial del operador ψ k A |ψm i en la base de autovectores {|ψ1 i , |ψ2 i , · · · , |ψn i}, será diagonal: k Dm = ψ k A |ψm i = diag (λ1 , λ2 , . . . , λn ) . rP re Cualquier otra representación matricial, uk A |um i, del operador A en otra base de V, estará relacionada con la representación diagonal mediante una transformación de similaridad: m (4.20) D = SAS−1 ⇐⇒ diag (λ1 , λ2 , . . . , λn ) = Ski uk A |um i S −1 j , 4.7.3. ad o donde Sjm es una matriz, no singular y por lo tanto invertible, de cantidades que relacionan ambas bases, vale decir la matriz de productos internos entre ambas bases. E Considere φ̃i = U |φi i, es decir un vector transformado con un operador unitario U† = U−1 . Además suponga E E A |φi i = λi |φi i entonces à φ̃i = λi φ̃i , con à = UAU† . Los operadores transformados mediante matrices unitarias tienen los mismos autovalores y autovectores transformados un del otro. Conjunto completo de observables que conmutan rr Definición: Diremos que un operador A : Vn → Vn es un observable si el conjunto de autovectores de un operador hermı́tico A, forman una base de Vn . D D A ui(µ) = ai ui(µ) ⇒ ui(µ) ui(µ) = 1 ⇐⇒ ui(µ) uj(ν) = δji δνµ , ui(µ) donde el ı́ndice µ indica el grado de degeneración del autovalor λi . Bo Un ejemplo trivial de un observable lo constituyen los proyectores P|ψi = |ψi hψ|, con hψ| ψi = 1. Claramente, la ecuación de autovalores para un proyector obliga a que tenga dos autovalores 0 y 1. El autovalor nulo es infinitamente degenerado y está asociado a todos los vectores ortogonales a |ψi, mientras que el autovalor 1 corresponde a un autovalor simple y está asociado a todos los vectores colineales al mismo vector |ψi. Esto es: P|ψi |ψi = |ψi y P|ψi |φi = 0 si hψ| φi = 0 . Más aún, sea un vector arbitrario |ϕi ∈ Vn , siempre se podrá expresar como: |ϕi = P|ψi |ϕi + I − P|ψi |ϕi ⇒ P|ψi |ϕi = P|ψi |ϕi + I − P|ψi |ϕi , por lo tanto: P|ψi |ϕi = P|ψi P|ψi |ϕi + P|ψi − P2|ψi |ϕi = P|ψi |ϕi =⇒ P|ψi P|ψi |ϕi = P|ψi |ϕi , 4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES 283 ya que P2|ψi = P|ψi , por definición de proyector. Entonces, se deduce que P|ψi |ϕi es un autovector de P|ψi con autovalor 1. Igualmente I − P|ψi |ϕi es un autovector de P|ψi con autovalor 0, y la demostración es inmediata: P|ψi I − P|ψi |ϕi = P|ψi − P2|ψi |ϕi = 0 . Para el caso de autoespacios correspondientes a autovalores degenerados se puede definir un observable A de la forma: D X para: µ = 1, 2, · · · , k . A= ai Pi con: Pi = ψ·(µ) ψ ·(µ) ar i i Para los observables que conmutan se tienen los siguientes teoremas: in Teorema 7: Si dos operadores lineales A y B, hermı́ticos, conmutan, [A, B] = 0, y |ψi es autovector de A con autovalor σ, entonces B |ψi también será autovector de A con el mismo autovalor σ. Demostración: La demostración es sencilla: lim A |ψi = a |ψi ⇒ B (A |ψi = σ |ψi) ⇒ BA |ψi = A (B |ψi) = σ (B |ψi) . J Ahora bien, de esta situación se puede distinguir un par de casos: rP re si el autovalor σ es no degenerado los autovectores asociados con este autovalor son, por definición, colineales con |ψi. Por lo tanto B |ψi, será necesariamente colineal con |ψi. La conclusión a esta afirmación es que NECESARIAMENTE |ψi es autovector de B. si el autovalor σ es degenerado, B |ψi ∈ Sσ , es decir B |ψi está en el autoespacio Sσ con lo cual Sσ es globalmente invariante bajo la acción de B. Teorema 8: Si dos observables A y B conmutan, [A, B] = 0, y si |ψ1 i y |ψ2 i son autovectores de A para autovalores distintos, entonces el elemento de matriz ψ 1 B |ψ2 i = 0 Demostración: Si A |ψ1 i = σ1 |ψ1 i y A |ψ2 i = σ2 |ψ2 i entonces: 0 = ψ 1 [A, B] |ψ2 i = ψ 1 AB − BA |ψ2 i = ψ 1 A B |ψ2 i − ψ 1 B (A |ψ2 i) ad o = σ1 ψ 1 B |ψ2 i − σ2 ψ 1 B |ψ2 i = (σ1 − σ2 ) ψ 1 B |ψ2 i ⇒ ψ 1 B |ψ2 i = 0 . J Teorema 9: Si dos observables A y B, son hermı́ticos, y conmutan, [A, B] = 0, los autovectores {|ψi i} comunes a A y B constituyen una base ortonormal para Vn . Demostración: Denotemos los autovectores de A como ψi(µ) , de tal modo que: rr A ψi(µ) = σi ψi(µ) donde i = 1, 2, .., n − kn + 1 y µ = 1, 2, .., kn , Bo kn indica el orden de la degeneración de un determinado autovalor σn . Dado que A es un observable, los ψi(µ) forman una base, claramente: D ψ i(µ) ψj(ν) = δji δνµ . i(µ) Dado que los elementos de la matriz ψ i(ν) B ψj(ν) = δji , entonces esto quiere decir que los elementos Bj(ν) = ψ i(µ) B ψj(ν) serán nulos para i 6= j, pero no podemos decir nada a priori para el caso µ 6= υ y i = j. En general, al ordenar la base: ψ1(1) , ψ1(2) , · · · ψ1(k1 ) , ψ2(1) , ψ2(2) , · · · , ψ2(k2 ) , · · · , ψ3(1) , · · · ψn−kn (1) , para el caso que consideraremos será: ψ1(1) , ψ1(2) , ψ1(3) , ψ2(1) , ψ2(2) , ψ3(1) , ψ4(1) , ψ4(2) , ψ5(1) . 284 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES La representación matricial de B en esa base, ψ i(µ) B ψj(ν) , tendrá la forma de una matriz diagonal a bloques: 1 (1) (2) 1 (2) B1 (2) 1 (3) B1 (2) B1 1 (1) (3) 1 (2) B1 (3) 1 (3) B1 (3) B1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2 B2 2 B2 (1) (1) (2) (1) 2 B2 2 B2 0 (1) (2) (2) (2) 3 (1) B3 (1) 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 4 B4 4 B4 0 (1) (1) (2) (1) 4 B4 4 B4 0 (1) (2) (2) (2) 0 0 0 5 (1) B5 (1) ar 1 (1) (1) 1 (2) B1 (1) 1 (3) B1 (1) B1 in lim Tal y como hemos mencionado los subespacios: E 1 , E 2 , y E 4 corresponden a los autovalores degenerados σ1 , σ2 , y σ4 (de orden 3, 2 y 2 respectivamente). Una vez más surgen dos casos a analizar: Si σn es un autovalor no degenerado, entonces existe un único autovector asociado a este autovalor (la dimensión del autoespacio es 1 → kj = 1, y no hace falta). Esto corresponde al ejemplo hipotético anterior para los autovalores simples σ3 , y σ5 . rP re Si σn es un autovalor degenerado, entonces existe un conjunto de autovectores asociados a este autovalor σn (en este caso la dimensión del autoespacio es kn ). Como los ψj(µ) son autovectores de A su representación matricial será diagonal a bloques. Ahora bien, como el autoespacio Sa es globalmente invariante bajo la acción i (µ) de B y Bj(µ) = ψ i(µ) B ψj(µ) es hermı́tico, por ser B hermı́tico, entonces B es diagonalizable dentro del bloque que la define. Es decir, se podrá conseguir una base χj(µ) tal que la representación matricial de B en esa base es diagonal D D i(µ) i(µ) Bj = ψ i(µ) B ψj(µ) =⇒ χi(µ) B χj(µ) = B̃j(µ) = βj(µ) δji , que no es otra cosa que los vectores χj(µ) serán autovectores de B ad o B χj(µ) = βj(µ) χj(µ) . J Es importante recalcar que los autovectores ψj(µ) de A asociados con un autovalor degenerado NO son necesariamente autovectores de B. Sólo que como B es hermı́tico puede ser diagonalizado dentro del autoespacio. De ahora en adelante denotaremos los autovectores comunes a dos operadores A y B con distintos autovalores como u i|j(µ) tal que rr A u n|m(µ) = σn u n|m(µ) y B u n|m(µ) = βm u n|m(µ) , donde hemos dejado “espacio” para permitir la degeneración la cual será indicada por el ı́ndice µ. La prueba del inverso del teorema anterior es bien simple. Bo Teorema 10: Si existe una base de autovectores [A, B] = 0. uj(µ) comunes a A y B, entonces A y B conmutan, Demostración: Es claro que: AB u n|m(µ) = βm A u n|m(µ) = βm σn u n|m(µ) , BA u n|m(µ) = σn B u n|m(µ) = σn βm u n|m(µ) , restando miembro a miembro obtenemos de manera inmediata (AB − BA) u n|m(µ) = [A, B] u n|m(µ) = (βm σn − σn βm ) u n|m(µ) = 0 . J 4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES 285 Definición: Los operadores: {A, B, C, D · · ·} constituye un conjunto completo de observables que conmutan si: 1. Los operadores del conjunto conmutan entre ellos: [A, B] = [A, C] = [A, D] = [B, C] = [B, D] = [C, D] = · · · = 0 2. Al determinar el conjunto de autovalores para los operadores ar {αn , βm , γk , δl , · · ·} se especifica de manera unı́voca un único autovector común a todos estos operadores 4.7.4. (µ) . in {αn , βm , γk , δl , · · ·} ⇒ u n|m|k|l··· Ejemplos D = S−1 AS ⇐⇒ lim 1. Consideremos una vez más la transformación D = S−1 AS, descrita en la ecuación (4.20), donde D es un operador diagonal cuya representación matricial será diag (λ1 , λ2 , . . . , λn ) ≡ λj δji = S −1 i k Akm Sjm , D = S−1 AS rP re con Akm = uk A |um i. Tal y como hemos comentado en la sección 4.7, debe haber restricciones sobre el operador A para que sea diagonalizable. En particular, allı́ pudimos comprobar que si A era hermı́tico, su representación matricial en la base de autovectores era diagonal. Entonces para este caso supondremos que A es diagonalizable mediante la transformación (4.20). Claramente esto implica que ⇒ SD = AS ⇐⇒ i Sm λj δjm = Aim Sjm ⇒ Aim Sjm = λj Sji , y esta última ecuación sugiere una ecuación de autovalores fijando un valor particular para j. Esto es: Aim S1m = λ1 S1i ; Aim S2m = λ2 S2i ; Aim S3m = λ3 S3i ; · · · Aim Sjm = λj Sji · · · Aim Snm = λn Sni . ad o Cada una de estas ecuaciones es una ecuación de autovalores para autovectores S1i , S2i , S3i , · · · Sni . Vale decir la matriz de transformación Sjm está construida por columnas de autovectores. Con lo cual al resolver la ecuación de autovalores para la matriz A es inmediato construir la matriz de transformación S a partir de los autovectores de A. rr 2. Para ejemplificar numéricamente el ejemplo anterior, consideremos la siguiente matriz real y simétrica: 1 0 3 A = 0 −2 0 . 3 0 1 Bo Los autovalores y autovectores para A son respectivamente: P (λ) = −(λ − 4)(λ + 2)2 = 0 ⇒ λ1 = 4 , λ2 = −2 , λ3 = −2 , 1 0 −1 |u1 i = 0 , |u2 i = 1 , |u3 i = 0 . 1 0 1 El lector debe verificar que este conjunto de vectores son mutuamente ortogonales porque claramente la matriz es simétrica. Por lo tanto, la matriz A se puede diagonalizar a través de la transformación C−1 AC, donde C se construye con los autovectores normalizados de A como columnas. 1 √0 −1 1 C= √ 2 0 . 0 2 1 0 1 286 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES Entonces, a pesar que los autovalores de A son mente independientes, y se tiene que: 1 √0 1 1 1 0 C−1 AC = 0 2 0 2 3 −1 0 1 degenerados (λ = 4, −2, −2) sus tres autovectores son lineal0 −2 0 1 3 0 0 1 1 √0 2 0 −1 4 0 = 0 0 1 0 −2 0 0 0 . −2 3. Dada la siguiente matriz: 2 2 A = 2 −1 −2 4 −2 4 , −1 ar in Aquı́ también se cumple que A = AT , con lo cual se puede diagonalizar. Calculemos nuevamente una matriz C que permita diagonalizar a la matriz A. Primeramente procedemos a calcular los autovalores de A. 2−λ 2 −2 2 −1 − λ 4 −2 4 −1 − λ Para λ = −6: 8 2 −2 1 1 2 −2 x x 14x1 + 2x2 − 2x3 = 0 2x1 + 11x2 + 4x3 = 0 5 4 x2 = −6 x2 ⇒ 4 5 x3 x3 −2x1 + 4x2 + 11x3 = 0 Un autovector puede ser: rP re = −(λ − 3)2 (λ + 6) = 0 . lim P (λ) = 1 1 1 |u1 i = −2 ⇒ |û1 i = −2 . 3 2 2 ad o Para el autovalor degenerado λ = 3, tenemos: 1 1 −1 2 −2 x x −4x1 + 2x2 − 2x3 = 0 2 −4 4 x2 = 3 x2 ⇒ 2x1 − 7x2 + 4x3 = 0 −2 4 −4 x3 x3 −2x1 + 4x2 − 7x3 = 0 En este caso podemos tomar como autovectores: 0 1 0 1 1 2 |u2 i = 0 ⇒ |û2 i = √ 0 , |u3 i = 1 ⇒ |û3 i = √ 1 . 5 2 −1/2 1 1 −1/2 Bo rr El lector debe comprobar que en este caso los autovectores NO son mutuamente ortogonales. Construimos la matriz C: 1 √2 0 3 5 √1 0 C = − 23 . 2 2 √1 √1 − 3 5 2 De manera que: 1 3 √ 5 C−1 AC = 4 √ 9 2 2 9 2 − √3 5 5 9 √ 2 9 2 3√ 2 −√95 2 4 2 −2 9 2 −1 4 1 −2 3 4 − 23 2 −1 3 √2 5 0 − √15 0 √1 2 √1 2 4. La siguiente matriz es un ejemplo de una matriz hermı́tica o autoadjunta: 1 −1 + 2i i 2 −1 ⇒ A† = A A = −1 − 2i −i −1 3 −6 = 0 0 0 0 3 0 . 0 3 4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES 287 Los autovalores de esta matriz son: √ √ P (λ) = − (λ − 4) λ2 − 2 λ − 4 = 0 ⇒ λ1 = 4 , λ2 = 1 + 5 , λ3 = 1 − 5 . 1 λ1 = 4 ⇒ |u1 i = −1 − i , 1 1 λ3 = 1− 5 ⇒ |u3 i = √ 3 √ , √ 1 − 5i √ − 5−2− 1+ 5 i Estos vectores normalizados son: 1 1 |u1 i −1 − i , = |û1 i = p 2 hu1 |u1 i 1 3 hu2 |u2 i |u3 i 3 hu3 |u3 i 1 + 5i √ . 5−2− 1− 5 i 3√ =p √ √ 1 − 5i √ , 30 + 6 5 − 5−2− 1+ 5 i 3√ 1 + 5i √ . =p √ √ 30 − 6 5 5−2− 1− 5 i rP re |û3 i = p |û2 i = p |u2 i 3√ in 3√ lim √ 1 λ2 = 1+ 5 ⇒ |u2 i = 3 ar Los tres autovalores reales generan los siguientes autovectores: Se puede demostrar que los autovectores son ortogonales: (u1 )† u2 = 0 ⇒ 1 hu1 |u3 i = (u1 )† u3 = 0 ⇒ 1 −1 + i 3√ =0 √ 1 − 5i √ − 5−2− 1+ 5 i 3√ −1 + i 1 √ 1 + 5i √ = 0 5−2− 1− 5 i 3√ √ √ √ 1 + 5i √ = 0 1 + 5i − 5 − 2 + 1 + 5 i √ 5−2− 1− 5 i 1 ad o hu1 |u2 i = hu2 |u3 i = (u2 )† u3 = 0 ⇒ 3 Bo rr La matriz A es entonces diagonalizable si construimos la siguiente matriz a partir de los autovectores normalizados: 1 √ 9 √ √ 9 √ 2 30+6 5 30−6 5 √ √ 3(1− 5 i) 3(1+ 5 i) −1−i √ √ . √ √ P= 2 30+6 5 30−6 5 √ √ √ √ 3(− 5−2−(1+ 5)i) 3( 5−2−(1− 5)i) 1 √ √ √ √ 2 30+6 5 30−6 5 Si elegimos la matriz diagonal a partir de los autovalores: 4 D= 0 0 0√ 1+ 5 0 0 0√ , 1− 5 entonces resulta que es posible factorizar la matriz A de la siguiente forma (Para el lector se deja la comprobación) A = PDP† . 288 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES 5. Dada la matriz: √1 2 i A= − √2 0 √1 2 0 √i 2 0 . 0 i Esta matriz es unitaria, ya que: A† = A−1 . √ λ1 = 2(1 + i) − 2 4 √ −3i √ , λ2 = 2(1 + i) + 2 4 √ −3i in es decir: ar Los autovalores se obtienen de la manera usual: h i √ P (λ) = (λ − i) 2 λ2 − 2(1 + i)λ + 2 i = 0 , , λ3 = i . λ3 λ∗3 rP re lim Notemos que los valores propios están normalizados a la unidad: ! √ √ ! √ √ 2(1 + i) − 2 −3i 2(1 − i) − 2 3i ∗ λ1 λ1 = =1 4 4 ! √ √ ! √ √ 2(1 + i) + 2 −3i 2(1 − i) + 2 3i ∗ =1 λ2 λ2 = 4 4 = i(−i) = 1 Estos tres autovalores generan los siguientes autovectores: 1 1 0 √ √ , |u2 i = i+ −6i−1 , |u3 i = 0 , |u1 iλ1 = i− −6i−1 λ2 λ3 2 2 1 0 0 ad o Se puede demostrar que los autovectores son ortogonales: hu1 |u2 i = rr hu1 |u3 i = (u1 )† u3 = 0 ⇒ (u2 )† u3 = 0 ⇒ √ 1 −i− 6i−1 2 1 √ −i− 6i−1 2 1 √ −i+ 6i−1 2 0 1 √ i+ −6i−1 2 = 0, 0 0 0 = 0, 1 0 0 0 = 0. 1 0 Bo hu2 |u3 i = (u1 )† u2 = 0 ⇒ Con los autovectores normalizados construimos la matriz U, que también será unitaria, y la matriz diagonal D con los autovalores. √ √ √ 1√ √ 1√ 0 2(1+i)−2 −3i 3+√ 3 3− 3 0 √ 0 √ 4 (1−i) 3+1 √ 3−1 ( ) (1−i) 2(1+i)+2 −3i U= √( √ ) 0 0 0 . − √ √ , D= 4 2 3+ 3 2 3− 3 0 0 i 0 0 1 6. Considere que el espacio de estados para un determinado sistema fı́sico viene expandido por una base ortonormal {|ξ1 i , |ξ2 i , |ξ3 i}. Definimos dos operadores Lz y S de la siguiente manera: Lz |ξ1 i = |ξ1 i , Lz |ξ2 i = 0 , Lz |ξ3 i = − |ξ3 i , S |ξ1 i = |ξ3 i , S |ξ2 i = |ξ2 i , S |ξ3 i = |ξ1 i . 4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES 289 0 ξ i S |ξj i = 0 1 0 1 0 1 1 0 , ξ i S2 |ξj i = 0 0 0 0 1 0 0 0 . 1 ar En la base ortonormal {|ξ1 i , |ξ2 i , |ξ3 i} las representaciones matriciales para Lz , L2z , S y S2 serán las siguientes: 1 0 0 1 0 0 ξ i Lz |ξj i = 0 0 0 , ξ i L2z |ξj i = 0 0 0 , 0 0 −1 0 0 1 in Es claro que estas matrices son reales y simétricas y, por lo tanto, son hermı́ticas y, al ser el espacio de dimensión finita, deben ser diagonalizables y sus autovectores formarán base para ese espacio. Por lo tanto, Lz , L2z , S y S2 son observables. Ahora bien: ¿Cuál será la forma más general de una representación matricial de un operador que conmute con Lz ? lim Notamos que los vectores de la base ortonormal {|ξ1 i , |ξ2 i , |ξ3 i} son autovectores para Lz con autovalores {1, 0, −1}, con lo cual su representación matricial tiene que ser diagonal. Recuerde que si dos observables A y B conmutan, [A, B] = 0, y si |ψ1 i y |ψ2 i son autovectores de A para autovalores distintos, entonces el elemento de matriz ψ 1 B |ψ2 i = 0, con lo cual: M11 i 0 ξ M |ξj i = 0 ⇔ rP re [M, Lz ] = 0 0 0 . M33 0 M22 0 Esto se desprende de manera directa de: 0 = ξ i [M, Lz ] |ξj i = ξ i MLz − Lz M |ξj i = (λj − λi ) ξ i M |ξj i , con (λj − λi ) 6= 0 para i 6= j . Si nos planteamos la misma pregunta para L2z , vemos que sus autovalores son {1, 0}. Esto es: L2z |ξ1 i = |ξ1 i ; L2z |ξ2 i = 0; L2z |ξ3 i = |ξ3 i , ya que: ad o con lo cual tendremos que la representación matricial de ese operador que conmute con L2z , no será diagonal, es decir: 1 N1 0 N31 [N, L2z ] = 0 ⇔ ξ i N |ξj i = 0 N22 0 , N13 0 N33 0 = ξ 1 [N, L2z ] |ξ3 i ⇒ ξ 1 N |ξ3 i = ξ 1 N |ξ3 i , rr y vale para cualquier elemento N31 (y equivalentemente para N13 ). Bo Adicionalmente, si ordenamos la base de autovectores de Lz , como {|ξ1 i , |ξ3 i , |ξ2 i}, tendremos entonces como representación matricial diagonal a bloques, correspondiente a un autovalor degenerado 1, a: 1 N1 N31 0 ξ i Ñ |ξj i = N13 N22 0 . 0 0 N33 Autovectores |q1 i = |ξ2 i |q2 i = √12 (|ξ1 i + |ξ3 i) |q3 i = √12 (|ξ1 i − |ξ3 i) Autovalor L2z 0 1 1 Autovalor S 1 1 -1 Figura 4.1: Dado que no hay lı́neas repetidas L2z y S forman un CCOC. Finalmente, la representación matricial, más general, de un operador que conmute con S2 es: 1 P1 P21 P31 [P, S2 ] = 0 ⇔ ξ i P |ξj i = P12 P22 P32 . N13 P23 P33 290 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES Ahora intentaremos construir una base común de autovectores para L2z y S. Para ello notamos que |ξ2 i es un autovector común a L2z y S, por lo tanto, existirá un subespacio expandido por: {|ξ1 i , |ξ3 i}. En ese subespacio las representaciones matriciales para L2z y S, serán: ξ i L2z |ξj iS13 = 1 0 0 1 , ξ i S |ξj iS13 = 0 1 1 0 . S |qj i = λj |uj i ⇒ 0 1 1 0 q1 q2 =λ q1 q2 ⇒ |q2 i = √1 2 (|ξ1 i + |ξ3 i) |q3 i = √1 2 (|ξ1 i − |ξ3 i) in ar Acto seguido planteamos el problema de autovalores para S, esto es: con lo cual tendremos los resultados mostrados en la tabla 4.1. = 0, mẍ2 + kx2 + k(x2 − x1 ) = 0, rP re mẍ1 + kx1 − k(x2 − x1 ) lim 7. Consideremos otro ejemplo proveniente de la Mecánica Clásica. Se trata de dos osciladores armónicos, de igual masa, acoplados con resortes con la misma constante elástica k. La ecuaciones de movimiento para este sistema son: Podremos expresar estas ecuaciones en forma de operadores: 2 D |xi = 0 d m dt 2 + 2k −k ⇔ −k d2 m dt 2 + 2k ! x1 x2 = 0. ad o Si pensamos esta ecuación como una ecuación de autovalores, el autovalor es claramente λ = 0, y como las masas y las constantes elásticas son iguales podemos intercambiar las partı́culas y la fı́sica (las ecuaciones de movimiento) no cambian. Esto se puede expresar matemáticamente como el operador permutación de las partı́culas: 1 2 0 1 0 1 x x P= ⇒ = . 1 0 1 0 x2 x1 Bo rr Es inmediato comprobar que [D, P] = 0, con lo cual existirá una combinación lineal de autovectores de D (asociados con el autovalor λ = 0) los cuales también serán autovectores de P. Para ello procedamos a calcular los autovalores y autovectores de P: 1 1 1 1 −λ 1 √ √ ; |ê2 i = . P |xi = λ |xi ⇒ = 0 ⇒ λ ± 1 ⇔ |ê1 i = 1 −1 1 −λ 2 2 Fácilmente podemos expresar el vector posición como una combinación lineal de estos dos autovectores de P, esto es: 1 1 ξ1 = √2 (x1 + x2 ) ξ1 ξ2 x 1 1 =√ +√ ⇒ x2 1 −1 2 2 ξ = √1 (x − x ) 2 2 1 2 Es claro que 1 |u1 i = √ (x1 + x2 ) 2 son autovectores de P y D. 1 1 y 1 |u2 i = √ (x1 − x2 ) 2 1 −1 , 4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES 291 8. Un operador cantidad de movimiento generalizado se define como aquel conjunto de operadores hermı́ticos que cumplen con: [Jx , Jy ] = i~Jz , [Jy , Jz ] = i~Jx , [Jz , Jx ] = i~Jy , es decir: [Ji , Jj ] = i~ijk Jk , con ijk el sı́mbolo de Levy-Civita (Aquı́ los ı́ndices repetidos NO indican suma). Adicionalmente, definimos los siguientes operadores: J2 = J2x + J2y + J2z , J+ = Jx + iJy , J− = Jx − iJy . ar Queremos demostrar que: in 2 J , J+ = J2 , J− = J2 , Jz = 0 . Para probar esta propiedad se puede demostrar de forma genérica que J2k , Jm = 0, con k, m = 1, 2, 3 ≡ x, y, z, esto es: 2 Jk , Jm = [Jk Jk , Jm ] = Jk Jk Jm − Jm Jk Jk = Jk Jk Jm − (i~mkl Jl + Jk Jm ) Jk , con lo cual: 2 Jk , Jm = Jk Jk Jm − i~mkl Jl Jk − Jk (i~mkn Jn + Jk Jm ) , lim y claramente se anula por cuanto los ı́ndices no suman pero si son mudos, y mkl = −mlk . 2 Jk , Jm = Jk Jk Jm − i~mkl Jl Jk − i~mkn Jk Jn − Jk Jk Jm , al conmutar los cuadrados de las componentes con cualquiera de las componentes, y dado que los conmutadores son lineales entonces queda demostrado que: 2 J , J± = J2x + J2y + J2z , Jx ± iJy = J2y , Jx + J2z , Jx ± i J2x , Jy ± i J2z , Jy = 0 . rP re 9. Si definimos los autovectores comunes a J2 y Jz como |j, mi de la siguiente manera: J2 |j, mi = j (j + 1) ~2 |j, mi , Jz |j, mi = m~ |j, mi , y adicionalmente tenemos que: p J− |j, mi = ~ j(j + 1) − m(m − 1) |j, m − 1i , con: hj, m |j 0 , m0 i = δjj 0 δmm0 , p J+ |j, mi = ~ j(j + 1) − m(m + 1) |j, m + 1i . Si se supone (es fácil demostrarlo) que −j ≤ m ≤ j. Esto quiere decir que dado algún valor j, m varı́an entre −j y j de uno en uno, esto es: m = −j, −j + 1, −j + 2, · · · , j − 2, j − 1, j. Supongamos ahora que j = 12 . Busquemos: rr ad o a) La representación matricial para: Jz , J− , J+ , J2 , en la base de autovectores de Jz y J2 . Si |j, mi son autovectores de J2 y Jz su representación matricial será diagonal y como m varı́a entre −j y de 1 tendremos que serán matrices 2 × 2. La base ortogonal de autovectores será: j1 con1 incrementos 1 1 , − , , . 2 2 2 2 1 1 1 1 1 1 1 1 1 0 2 , 2 Jz 2 , 2 2 , 2 Jz 2 , − 2 ≡ ~ , 2 1 1 1 1 1 1 1 1 0 −1 , − J , , − J , − z 2 2 z 2 2 2 2 2 2 1 1 2 1 1 1 1 1 2 1 1 0 2, 2 J 2, 2 2, 2 J 2, −2 3 ≡ ~2 . 4 1 1 1 1 1 2 1 1 2 1 0 1 2, −2 J 2, 2 2, −2 J 2, −2 Bo La representación matricial para J− , J+ obviamente no será diagonal: 1 1 1 1 1 1 1 1 2 , 2 J+ 2 , 2 2 , 2 J+ 2 , − 2 ≡ ~ 1 1 1 1 1 1 1 1 , − J , , − J , − + + 2 2 2 2 2 2 2 2 1 1 1 1 1 1 1 1 2 , 2 J− 2 , 2 2 , 2 J− 2 , − 2 ≡ ~ 1 1 1 1 1 1 1 1 2 , − 2 J− 2 , 2 2 , − 2 J− 2 , − 2 2 0 1 0 0 0 0 , . 1 0 b) Calculemos autovalores y autovalores para: Jz , J− , J+ , J . los 1 1 1 1 Otra vez, , − son autovectores de J2 y Jz . En el caso de J2 con un autovalor de 34 ~2 para 2 2 , 2, 2 ambos autovectores y en el caso de Jz los autovalores serán ± ~2 respectivamente. Para J− , J+ no tendrán autovalor distinto de cero en esta base. 292 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES 4.7.5. Practicando con Maxima Consideremos uno de los ejemplos anteriores donde: ar (%i1) A:matrix([1,0,3], [0,-2,0], [3,0,1]); 1 0 3 ( %o1) 0 −2 0 3 0 1 (%i2) eigenvectors(A); ( %o2) [[[−2, 4] , [2, 1]] , [[[1, 0, −1] , [0, 1, 0]] , [[1, 0, 1]]]] in El resultado es una lista con los autovalores y su multiplicidad, y para cada autovalor los autovectores como sublistas. Es necesario manipular estas sublistas para obtener los autovectores. Entonces, es mejor escribir: ( %o3) [[[−2, 4] , [2, 1]] , [[[1, 0, −1] , [0, 1, 0]] , [[1, 0, 1]]]] Por lo tanto, una lista con los autovalores es la siguiente: (%i4) autovalores:val[1]; rP re ( %o4) [−2, 4] lim (%i3) [val,vec]:eigenvectors(A); Notemos el orden: los dos primeros vectores corresponden al autovalor −2 y el tercero al autovalor 4. Los autovectores como listas son: (%i5) L1:vec[1];L2:vec[2]; ( %o5) [[1, 0, −1] , [0, 1, 0]] ( %o5) [[1, 0, 1]] Pero resulta conveniente separar cada autovector. ad o (%i6) L1[1];L1[2];L2[1]; ( %o6) [1, 0, −1] ( %o7) [0, 1, 0] ( %o8) [1, 0, 1] Vamos ahora a normalizar los autovectores: Bo rr (%i9) V1:L1[1]/sqrt(L1[1].L1[1]);V2:L1[2]/sqrt(L1[2].L1[2]);V3:L2[1]/sqrt(L2[1].L2[1]); 1 1 ( %o9) √ , 0, − √ 2 2 ( %o10) [0, 1, 0] 1 1 ( %o11) √ , 0, √ 2 2 Hacemos una lista con los vectores normalizados: (%i12)Lvec:[V1,V2,V3]; 1 1 1 1 √ √ √ √ , [0, 1, 0] , ( %o12) , 0, − , 0, 2 2 2 2 Y construimos la matriz C: (%i13)C:transpose(apply(’matrix,Lvec)); 4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES √1 2 ( %o13) 0 − √12 0 1 0 293 √1 2 0 √1 2 Para finalmente comprobar: ar (%i14)transpose(C).A.C; −2 0 0 ( %o14) 0 −2 0 0 0 4 Es fácil ver que se trata de una matriz hermı́tica 2i − 1 2 −1 i −1 3 rP re (%i16)transpose(conjugate(A))=A; 1 1 2i − 1 i 2 −1 = −2 i − 1 ( %o16) −2 i − 1 −i −i −1 3 lim (%i15)A:matrix([1,-1+2*%i,%i],[-1-2*%i,2,-1],[-%i,-1,3]); 1 2i − 1 i 2 −1 ( %o15) −2 i − 1 −i −1 3 in Consideremos ahora otro de los ejemplos, donde tenı́amos la siguiente matriz: Calculamos los autovalores y autovectores: (%i17)[val,vec]:eigenvectors(A)$ Al primer elemento de la lista, le asignaremos la variable autovalores, como se muestra a continuación: (%i18)autovalores:val[1]; h i √ √ ( %o18) 1 − 5, 5 + 1, 4 ad o Ahora procedemos a aislar los diferentes autovectores, es importante tener en mente el orden para utilizar las etiquetas apropiadas. Bo rr (%i19)L1:vec[1]$L1[1]; L2:vec[2]$L2[1]; L3:vec[3]$L3[1]; " √ # √ √ 5−1 i+ 5−2 5i + 1 ( %o20) 1, , 3 3 " # √ √ √ 5+1 i+ 5+2 5i − 1 ( %o22) 1, − ,− 3 3 ( %o24) [1, −i − 1, 1] Los autovectores normalizados son: (%i25)u1:L1[1]/sqrt(L1[1].L1[1]),ratsimp; √ √ √ 5 − 1 i + 5 − 2 3 5i + 1 ( %o25) q ,q ,q √ √ √ √ √ √ − 4 5 − 14 i − 2 5 + 8 − 4 5 − 14 i − 2 5 + 8 − 4 5 − 14 i − 2 5 + 8 (%i26)u2:L2[1]/sqrt(L2[1].L2[1]),ratsimp; √ √ √ 5 + 1 i + 5 + 2 3 5i − 1 ( %o26) q √ , −q √ , −q √ √ √ √ 4 5 + 14 i + 2 5 + 8 4 5 + 14 i + 2 5 + 8 4 5 + 14 i + 2 5 + 8 294 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES (%i27)u3:L3[1]/sqrt(L3[1].L3[1]),ratsimp; i+1 1 1 , −√ ,√ ( %o27) √ 2i + 2 2i + 2 2i + 2 Estos vectores serán ortogonales, como podemos ver: (%i28)conjugate(u1).u2,ratsimp;conjugate(u1).u3,ratsimp;conjugate(u3).u2,ratsimp; ar ( %o28) 0 ( %o29) 0 ( %o30) 0 in Para construir la matriz C preparamos primero el siguiente arreglo: (%i31)Lvec:[u1,u2,u3]$ (%i32)C:transpose(apply(’matrix,Lvec)); 3 3 −(4 √ 5−14) i−2 √ 5 i+1 √ 5+8 q ( %o32) −(4 √5−14) i−2 √5+8 √ √ q ( 5−1) i+ 5−2 √ √ −(4 5−14) i−2 5+8 √ 5+14) i+2 5+8 √ − q √ 5 i−1 √ 5+8 (4√ 5+14) i+2 √ 5+1) i+ 5+2 ( −q √ √ (4 5+14) i+2 5+8 q (4 √ √ 1 2 i+2 − √i+1 2 i+2 √ 1 rP re q lim Con cada autovector como columna construimos la matriz C: 2 i+2 La inversa de la matriz C se obtiene como ya sabemos: (%i33)Cinv:invert(C),ratsimp$ Aquı́ aplicamos una rutina de simplificación a cada uno de los elementos de la matriz. Esto lo hicimos con el comando ratsimp. Para finalmente poder calcular C −1 AC y obtener: Ejercicios rr 4.7.6. ad o (%i34)Cinv.A.C,ratsimp; √ 5−5 √ 0 0 √ 5 5+5 ( %o34) 0 √ 0 5 0 0 4 Bo 1. Encuentre los autovalores y autovectores 0 −i i 0 A= 0 0 0 0 de las matrices: 0 0 0 0 , B= 0 −i i 0 1 0 0 0 0 −1 0 0 0 0 0 0 1 0 0 −1 2. Diagonalizar unitariamente: A= 2 i −i 1 1 1+i 5 B= 1−i −2i −3 , 2i −3 0 3. Diagonalizar ortogonalmente: A= 1 −3 −3 1 , 3 B = −2 4 −2 6 2 4 2 3 4.7. AUTOVALORES Y AUTOVECTORES DE MATRICES IMPORTANTES 295 4. Demuestre que la matriz C= x − iy −z x x + iy es igual a C = xσ 1 + yσ 2 + zσ 3 . Donde las matrices σ i son la matrices de Pauli. ar 5. Las transformaciones de Lorentz se pueden escribir de manera matricial como γ 0 0 −iγv/c 0 1 0 0 0 0 1 0 iγv/c 0 0 γ p con γ = ( 1 − v 2 /c2 )−1 . La matriz anterior ¿será ortogonal? ¿será unitaria? in 6. Si los autovalores de una matriz hermı́tica (o semi-hermı́tica) A son todos iguales a λ, demuestre que A = λI. 7. Si una matriz A es semi-hermı́tica, demuestre que (I − A)(I + A)−1 es ortogonal. lim 8. Dado un observable A y un vector de estado |ψi general, definiremos el valor esperado de A a la cantidad hAi = hψ| A |ψi, y la relación de dispersión de A como: D E D E 2 2 2 2 (∆A) = (A − hAi I) = A2 − hAi ≡ hψ| A2 |ψi − hψ| A |ψi , rP re donde I es el operador identidad. Nótese que el valor esperado es un número que representa la dispersión de un observable y tiene la misma estructura e interpretación de la varianza en estadı́stica. D E 2 a) Muestre que la dispersión siempre es positiva, i.e (∆A) > 0. Para ello: 1) Inicie mostrando que para cualquier operador hermı́tico C se cumple C2 > 0. 2) Termine mostrando que A − hAi I es un operador hermı́tico. b) Muestre que la dispersión se anula para el caso en que |ψi es autovector de A con autovalor hAi. c) Utilizando la desigualdad de Cauchy-Schwarz muestre que las relaciones de dispersión entre dos observables A y B siempre cumplen con: D ED E 1 2 2 2 con [A, B] = AB − BA . (∆A) (∆B) > |h[A, B]i| 4 rr ad o Esta es la forma general de la relación de incertidumbre.15 d ) En Mecánica Cuántica se define el operador de spin como Si = ~2 σi , donde las σi son las matrices de Pauli y los valores de i = 1, 2, 3 representan las direcciones x, y, z, respectivamente. 1) Encuentre la expresión para el conmutador: [Si , Sj ], con i, j = 1, 2, 3. 2) Considere un vector de estado general |ψi = a |+i + b |−i, donde a y b son números complejos que cumplen con: a2 + b2 = 1 y {|+i , |−i} la base de autovectores de Sz . Muestre que: D ED E 2 2 (∆Sz ) (∆Sx ) > ~4 [Im(ab∗ )]2 , con Im(◦) la parte imaginaria del argumento. 9. Dada la matriz: Bo 0 2q 0 .. . 0 0 0 q 22 q .. . 0 0 0 0 0 q 0 4(22 ) q .. .. . . 0 0 0 0 0 0 0 0 0 .. . ··· ··· ··· .. . 0 0 0 .. . 0 0 0 .. . 0 0 0 .. . 0 0 0 ··· ··· ··· 4(N − 3)2 q 0 q 4(N − 2)2 q 0 q 4(N − 1)2 Encuentre los autovalores y autovectores cuando q = 1 y N = 10. 15 Para detalles de las implicaciones de este problema se puede consultar Dumitru, S. “On the uncertainty relations and quantum measurements: conventionalities, short comings, reconsideration. arXiv preprint quant-ph/0504058 (2005). Y también Dumitru, S. “A possible general approach regarding the conformability of angular observables with mathematical rules of Quantum Mechanics. arXiv preprint quant-ph/0602147 (2006). 296 CAPÍTULO 4. MATRICES, DETERMINANTES Y AUTOVECTORES Bo rr ad o rP re lim in ar 10. Realice los ejercicios anteriores utilizando el programa Maxima. ar Bibliografı́a in [1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición (Academic Press, Nueva York) [2] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva York) lim [3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York) [4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:) [5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition, London: [6] Hauser, W (1971) Introduction to Principles of Electromagnetism (Addison-Wesley Pub Co Reading) rP re [7] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Engineering (Cambridge University Press) [8] Santaló, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires) [9] Schutz, B. (1980) Geometrical Methods in Mathematical Physics (Cambridge University Press, Londres) Bo rr ad o [10] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York ) 297 ad o rr Bo lim rP re ar in 298 BIBLIOGRAFÍA ar Capı́tulo 5 Bo rr ad o rP re lim in Coordenadas curvilı́neas, campos y operadores diferenciales 299 300 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES La ruta de este capı́tulo 5.1. in ar Comenzaremos este capı́tulo señalando el hecho de que al derivar cantidades vectoriales, por ejemplo con respecto al tiempo, es necesario considerar que esta dependencia temporal puede estar indicada no solamente en las componentes del vector sino en los vectores base en el cual se representa. Extenderemos esta idea para estudiar la representación de curvas expresadas de manera paramétrica. En la sección 5.1 introduciremos las coordenadas curvilı́neas generalizadas, resaltando la utilidad que particularmente tienen las coordenadas curvilı́neas ortogonales. En la sección 5.1.6 construiremos las expresiones de vectores y tensores a partir de sus leyes de transformación para luego introducir los conceptos de campos tensoriales, sección 5.2, y los diferentes operadores vectoriales en coordenadas generalizadas, sección 5.3. En las secciones 5.4 - 5.6 desarrollaremos un estudio sobre la integración de campos vectoriales y los principales teoremas integrales que permiten relacionar las variaciones de un campo vectorial con las fuentes que lo producen. Coordenadas curvilı́neas generalizadas lim Tal y como discutimos en la sección 3.2.9, siempre es posible definir un sistema de coordenadas generalizadas q 1 , q 2 , q 3 tales que q̃ i = q̃ i (q j ) ⇔ q i = q i (q̃ j ) , con i, j = 1, 2, 3. rP re Donde, no hemos hecho otra cosa que re-escribir la ecuación (3.5), para el caso tridimensional y con una notación más cercana al análisis vectorial que nos compete en este capı́tulo. Entonces, nuestro vector posición en la base canónica o, equivalentemente en coordenadas cartesianas1 , se puede escribir como |ri ≡ r(q 1 , q 2 , q 3 ) = x(q 1 , q 2 , q 3 ) |ex i + y(q 1 , q 2 , q 3 ) |ey i + z(q 1 , q 2 , q 3 ) |ez i (5.1) y el vector desplazamiento diferencial, no es otra cosa que el diferencial total del vector r, vale decir: dr ≡ |dri = ∂ |ri 1 ∂ |ri 2 ∂ |ri 3 dq + dq + dq . ∂q 1 ∂q 2 ∂q 3 (5.2) ad o Por consiguiente, podemos construir la métrica, los factores de escala y la base asociada con estas coordenadas a partir de las ecuaciones (3.3) y (3.4), como ∂|ri ∂hr| ∂|ri gij = ∂|ri ∂q i ⊗ ∂q j ≡ ∂q i · ∂q j hj = ∂|ri ∂q j ∂ hr| ∂ |ri j i j 2 dqi dq = gij dq dq ⇒ ds ≡ hdr |dri = · (5.3) ∂|ri 1 ∂qi ∂q j |e i = j j ∂|ri ∂q ∂q j j ∂hr| 1 e = ∂hr| ∂qj ∂qj Bo rr con: i, j = 1, 2, 3.. Es importante hacer notar el papel fundamental que juega expresar el vector posición en coordenadas cartesianas (ecuación (5.1)), para luego generar el vector desplazamiento diferencial (5.2) en función de las coordenadas generalizadas y, finalmente, determinar los factores de escala, la métrica y los vectores base asociados al nuevo sistema de coordenadas (ecuaciones (5.3)). Más adelante, en la sección 5.1.5, mostraremos un método para construir sistemas de coordenadas sin necesidad de la intermediación de las coordenadas cartesianas. Construiremos los sistemas de coordenadas adaptados a las curvas parametrizadas con alguna cantidad. Hay que señalar nque, o tal y como lo en la ecuación (3.3), aquı́ hemos denotado la base generalizada n hicimos o ∂hr| será la base para los covectores o 1-formas asociados a los vectores para vectores como ∂|ri ∂q j , mientras ∂qi antes mencionados. Al final, en la sección 5.1.6 analizaremos con detalle las 1-formas y los tensores en coordenadas curvilı́neas. Para fijar ideas y porque lo utilizaremos en los casos particulares de las próximas secciones, escribiremos explı́citamente, tal y como lo discutimos en las sección 3.2.7: los vectores base, los factores de escala y la métrica de un sistema generalizado de coordenadas ortogonales de la siguiente forma: 1 Nótese que estamos representando la base cartesiana como |ex i = i, |ey i = j y |ez i = k. 5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS 301 la trı́ada de vectores base {|ej i} ortonormales: ∂ |ri ; ∂q 1 1 |e1 i = ∂|ri ∂q 1 ∂ |ri ; ∂q 2 1 |e2 i = ∂|ri ∂q 2 |e3 i = y ∂ |ri ; ∂q 3 1 ∂|ri ∂q 3 ∂hr| ∂q1 ∂ hr| ; ∂q2 1 e2 = ∂hr| ∂q2 e3 = y los factores de escala: ∂ |ri ; ∂q 1 ∂ |ri ; ∂q 2 h2 = y h3 = ∂ |ri ∂q 3 ; lim h1 = ∂ hr| ; ∂q3 1 ∂hr| ∂q3 in ∂ hr| ; ∂q1 1 e1 = ar que corresponden a los vectores tangentes a las curvas que definen al radio vector |ri, como veremos con detalles en la sección 5.1.5. la trı́ada de 1-formas base ej ortonormales: el elemento de lı́nea (3.4) en términos de las coordenadas generalizadas como ds2 = gij dq i dq j = h1 dq 1 2 + h2 dq 2 2 + h3 dq 3 2 ; rP re donde, como en 3.2, hemos identificado los factores de escala con las componentes del tensor métrico como: √ √ √ h1 = g11 , h2 = g22 y h3 = g33 . En la figura 5.1 hemos representado algunos de los sistemas coordenados y su relación con las expresiones que generan las transformaciones de coordenadas, que discutimos con detalle en la sección 3.2.9, y en las secciones que siguen haremos explı́citos algunos casos particulares. 5.1.1. Coordenadas cartesianas ad o El primer caso particular lo constituyen las coordenadas cartesianas, (q 1 , q 2 , q 3 ) ⇐⇒ (x, y, z), y el vector posición lo construimos a partir de la ecuación (5.1) como: |ri = x |ex i + y |ey i + z |ez i ⇐⇒ r = xi + yj + zk , mientras que el vector desplazamiento diferencial también será inmediato a partir de (5.2) rr dr ⇒ |dri = ∂ |ri ∂x dx + ∂ |ri ∂y dy + ∂ |ri ∂z dz = dx |ex i + dy |ey i + dz |ez i , Bo y, consecuentemente, los factores de escala quedan definidos como h1 = hx = ∂ |ri = 1, ∂x h2 = hy = ∂ |ri = 1, ∂y h3 = hz = ∂ |ri = 1, ∂z mientras que la trı́ada ortonormal es |ex i = 1 ∂|ri ∂x ∂ |ri , ∂x |ey i = 1 ∂|ri ∂y ∂ |ri , ∂y |ez i = 1 ∂|ri ∂z ∂ |ri . ∂z Finalmente, el elemento de lı́nea viene definido a partir de (5.3) como 2 (ds) = h1 dx1 2 + h2 dx2 y el tensor métrico será g11 = gxx = 1; 2 + h3 dx3 2 ⇐⇒ ds2 = dx2 + dy 2 + dz 2 , g22 = gyy = 1; y g22 = gzz = 1 . CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES rP re lim in ar 302 5.1.2. ad o Figura 5.1: Algunas coordenadas curvilı́neas en 2D. Podemos apreciar algunos ejemplos de sistemas de coordenadas: en el cuadrante I coordenadas polares: x = ρ cos(ϕ); y = ρ sen(ϕ). En el cuadrante II coordenadas elı́pticas: x = a cosh(u) cos(v); y = asenh(u)sen(v). En III coordenadas parabólicas: x = 12 u2 − v 2 ; y = uv y en el h i2 2 (v) a2 cuadrante IV coordenadas bipolares: x2 + [y − a cot(u)] = a2 csc2 (u); x − a senh . + y2 = cosh(v) senh2 (v) Coordenadas cilı́ndricas El segundo caso en complejidad son las coordenadas cilı́ndricas, (q 1 , q 2 , q 3 ) ⇐⇒ (ρ, ϕ, z) . Sus vectores base y su métrica se construyen a partir de las ecuaciones (5.1), (5.2) y (5.3) expresándolas como función de las nuevas coordenadas. Esto es rr |ri = x(ρ, ϕ) |ex i + y(ρ, ϕ) |ey i + z |ez i ⇐⇒ r = x(ρ, ϕ)i + y(ρ, ϕ)j + zk , con: ρ ≥ 0, 0 ≤ ϕ < 2π y −∞ < z < ∞. Bo Las componentes de x, y, z del vector posición expresada en las nuevas coordenadas pueden ser identificadas a partir de las leyes de transformación respecto a las coordenadas cartesianas: x = x(ρ, ϕ) = ρ cos(ϕ) y = y(ρ, ϕ) = ρ sen(ϕ) z=z dx = cos(ϕ)dρ − ρ sen(ϕ)dϕ ⇒ dy = sen(ϕ)dρ + ρ cos(ϕ)dϕ dz = dz . Por lo que el vector posición en estas coordenadas es: |ri = ρ cos(ϕ) |ex i + ρ sen(ϕ) |ey i + z |ez i , donde es fácil identificar: 5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS ∂ x (ρ, ϕ) = cos(ϕ) , ∂ρ ∂ x (ρ, ϕ) = −ρ sen(ϕ) , ∂ϕ ∂ x(ρ, ϕ) = 0 , ∂z 303 ∂ y (ρ, ϕ) = sen(ϕ) , ∂ρ ∂ y (ρ, ϕ) = ρ cos(ϕ) , ∂ϕ ∂ y(ρ, ϕ) = 0 , ∂z ∂ z=0 ∂ρ ∂ z=0 ∂ϕ ∂ z = 1, ∂z ∂ [x (ρ, ϕ) |ex i + y(ρ, ϕ) |ey i + z |ez i] ∂x(ρ, ϕ) ∂ |ri ∂y(ρ, ϕ) = = |ex i + |ey i ∂ρ ∂ρ ∂ρ ∂ρ = kcos(ϕ) |ex i + sen(ϕ) |ey ik = 1 . hϕ = ∂ |ri = ρ; ∂ϕ hz = Mientras que los vectores unitarios serán |eϕ i = |ez i = 1 k ∂|ri ∂ρ k 1 k ∂|ri ∂ϕ k 1 k ∂|ri ∂z k ∂|ri ∂ρ = ∂x(ρ,ϕ) ∂ρ ∂|ri ∂ϕ = 1 ρ ∂|ri ∂z = |ex i + ∂x(ρ,ϕ) ∂ϕ ∂y(ρ,ϕ) ∂ρ |ex i + |ey i = cos(ϕ) |ex i + sen(ϕ) |ey i , ∂y(ρ,ϕ) ∂ϕ |ey i = −sen(ϕ) |ex i + cos(ϕ) |ey i , rP re |eρ i = ∂ |ri = 1. ∂z lim Del mismo modo in hρ = ar y de allı́ calcular los respectivos factores de escala: ∂z ∂z |ez i = |ez i . ad o Claramente, el sistema de coordenadas, para el caso 2D (z = 0) se reduce al sistema de coordenadas polares que ilustramos en el cuadrante I de la figura 5.1. El caso 3D lo ilustramos en la figura 5.2, izquierda y puede apreciarse que el vector unitario |eρ i es un vector normal a las superficies cilı́ndricas y apunta en la dirección donde crece el radio ρ. El vector unitario |eϕ i es tangente a las superficies cilı́ndricas, perpendicular a los planos ϕ = constante y apunta en la dirección donde aumenta el ángulo azimutal ϕ. El vector |ez i es el mismo vector cartesiano |ki. La expresión para el vector desplazamiento infinitesimal será d |ri = ∂ |ri ∂ |ri ∂ |ri dρ + dϕ + dz = dρ |eρ i + ρdϕ |eϕ i + dz |ez i . ∂ρ ∂ϕ ∂z rr Notemos que en este caso, y a diferencia de las coordenadas cartesianas, si ϕ varı́a en una cantidad dϕ, con ρ y z constantes, entonces el desplazamiento no será dϕ sino ρdϕ. El elemento de lı́nea viene definido como 2 2 2 ds2 = h1 dq 1 + h2 dq 2 + h3 dq 3 ⇐⇒ ds2 = dρ2 + ρ2 dϕ2 + dz 2 , Bo y el tensor métrico: 5.1.3. g11 = gρρ = 1; g22 = gϕϕ = ρ2 ; g33 = gzz = 1 . Coordenadas esféricas Para construir el sistema de coordenadas esféricas tenemos: (q 1 , q 2 , q 3 ) ⇐⇒ (r, θ, ϕ) , |ri = x (r, θ, ϕ) |ii + y (r, θ, ϕ) |ji + z (r, θ, ϕ) |ki ⇐⇒ r = x (r, θ, ϕ) i + y (r, θ, ϕ) j + z (r, θ, ϕ) k . Con: r ≥ 0, 0 ≤ θ ≤ π y 0 ≤ ϕ < 2π. A r se le denomina la coordenada radial, a θ la coordenada polar y a ϕ la coordenada azimutal. Tendremos entonces: ∂ |ri ∂ |ri ∂ |ri dr + dθ + dϕ . dr ⇒ |dri = ∂r ∂θ ∂ϕ 304 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES Estas cantidades pueden ser identificadas de las leyes de transformación respecto a las coordenadas cartesianas x = x (r, θ, ϕ) = r cos(ϕ)sen(θ) dx = cos(ϕ)sen(θ)dr − r sen(ϕ)sen(θ)dϕ + r cos(ϕ) cos(θ)dθ y = y (r, θ, ϕ) = r sen(ϕ)sen(θ) ⇒ dy = sen(ϕ)sen(θ)dr + r cos(ϕ)sen(θ)dϕ + r sen(ϕ) cos(θ)dθ z = z (r, θ, ϕ) = r cos(θ) dz = cos(θ)dr − r sen(θ)dθ |ri = r sen(θ) cos(ϕ) |ex i + r sen(θ)sen(ϕ) |ey i + r cos(θ) |ez i . = cos(ϕ)sen(θ) , = r cos(ϕ) cos(θ) , = −r sen(ϕ)sen(θ) , ∂y (r, θ, ϕ) ∂z (r, θ, ϕ) = sen(ϕ)sen(θ) , = cos(θ) ∂r ∂r ∂y (r, θ, ϕ) ∂z (r, θ, ϕ) = r sen(ϕ) cos(θ) , = −r sen(θ) ∂θ ∂θ ∂y (r, θ, ϕ) ∂z (r, θ, ϕ) = r cos(ϕ)sen(θ) , = 0. ∂ϕ ∂ϕ Los factores de escala son los siguientes: ∂ |ri = kcos(ϕ)sen(θ) |ex i + sen(ϕ)sen(θ) |ey i + cos(θ) |ez ik ∂r p = cos2 (ϕ)sen2 (θ) + sen2 (ϕ)sen2 (θ) + cos2 (θ) = 1 , (5.5) ∂ |ri = kr cos(ϕ) cos(θ) |ex i + rsen(ϕ) cos(θ) |ey i − rsen(θ) |ez ik ∂θ q 2 2 2 (r cos(ϕ) cos(θ)) + (rsen(ϕ) cos(θ)) + (rsen(θ)) = r , = (5.6) ∂ |ri = k−rsen(ϕ)sen(θ) |ex i + r cos(ϕ)sen(θ) |ey ik ∂ϕ q 2 2 = (rsen(ϕ)sen(θ)) + (r cos(ϕ)sen(θ)) = r sen(θ) . (5.7) = hθ rP re hr = = ad o hϕ Mientras que para los vectores unitarios tenemos 1 ∂|ri hr ∂r = cos(ϕ)sen(θ) |ex i + sen(ϕ)sen(θ) |ey i + cos(θ) |ez i , |eθ i = 1 ∂|ri hθ ∂θ = cos(ϕ) cos(θ) |ex i + sen(ϕ) cos(θ) |ey i − sen(θ) |ez i , |eϕ i = 1 ∂|ri hϕ ∂ϕ rr |er i = = −sen(ϕ) |ex i + cos(ϕ) |ey i . Bo El desplazamiento infinitesimal en estas coordenadas es de la forma ∂ |ri ∂ |ri ∂ |ri d |ri = dr + dθ + dϕ = dr |er i + rdθ |eθ i + r sen(θ)dϕ |eϕ i . ∂r ∂θ ∂ϕ Por lo tanto, para el elemento de lı́nea tenemos 2 (5.4) lim ∂x (r, θ, ϕ) ∂r ∂x (r, θ, ϕ) ∂θ ∂x (r, θ, ϕ) ∂ϕ in Derivando: ar El vector posición es de la forma (ds) = h1 dq 1 2 + h2 dq 2 2 + h3 dq 3 2 ⇐⇒ ds2 = dr2 + r2 dθ2 + r2 sen2 (θ)dϕ2 . Y para el tensor métrico g11 = grr = 1; g22 = gθθ = r2 ; g33 = gϕϕ = r2 sen2 (θ) . 305 lim in ar 5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS 5.1.4. rP re Figura 5.2: Coordenadas cilı́ndricas y esféricas. Para el caso de las coordenadas cilı́ndricas (figura izquierda), el vector unitario |eρ i es un vector normal a las superficies cilı́ndricas y apunta en la dirección donde crece el radio ρ. El vector unitario |eϕ i es tangente a las superficies cilı́ndricas, perpendicular a los planos ϕ = constante y apunta en la dirección donde aumenta el ángulo azimutal ϕ. El vector |ez i es el mismo vector cartesiano |ki. Otros sistemas coordenados Por completitud, enumeraremos algunos otros sistemas de coordenadas y dejaremos al lector la labor de calcular los vectores unitarios y la métrica del espacio expresada en esas coordenadas. Coordenadas toroidales q 1 , q 2 , q 3 ⇐⇒ (σ, τ, φ) |ri = x (σ, τ, φ) |ex i + y (σ, τ, φ) |ey i + z (σ, τ, φ) |ez i ⇐⇒ r = x (σ, τ, φ) i + y (σ, τ, φ) j + z (σ, τ, φ) k . Con 0 ≤ σ < 2π, 0 ≤ τ < ∞ y 0 ≤ φ < 2π. ad o La transformación de coordenadas está definida de la siguiente forma (con a constante) x=a senh(τ ) cos(φ) , cosh(τ ) − cos(σ) y=a senh(τ ) sen(φ) , cosh(τ ) − cos(σ) z=a sen(σ) , cosh(τ ) − cos(σ) Las superficies τ constante representan toros alrededor del eje z; las superficies σ constante son esferas con centro sobre el eje z y finalmente las superficies φ constante son planos que contiene al eje z. Bo rr La métrica en estas coordenadas es: 2 2 2 ds2 = h1 dq 1 + h2 dq 2 + h3 dq 3 , 2 2 2 a a a senh(τ ) = dσ 2 + dτ 2 + dφ2 . cosh(τ ) − cos(σ) cosh(τ ) − cos(σ) cosh(τ ) − cos(σ) Coordenadas elipsoidales Dados tres números a, b y c, con a > b > c > 0, la ecuación y2 z2 x2 + + = 1, a2 + α b2 + α c2 + α representa las superficies cuádricas2 homofocales (es decir, con el mismo foco u origen en (x = 0, y = 0, z = 0)). Dependiendo del valor del parámetro α, estas ecuaciones representarán superficies Elipsoides Hiperboloides de una hoja Hiperboloides de dos hojas 2 Nótese si α > −c2 2 si −c > α > −b2 si −b2 > α > −c2 que la proyección de estas superficies en el plano xy representan curvas cónicas homofocales. 306 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES Esto quiere decir que por cada punto (x, y, z) del espacio, pasan tres superficies cuádricas (dependiendo del valor de α). Conocidos a, b y c y el punto, (x = x0 , y = y0 , z = z0 ), los valores de α vienen dados por las raı́ces de la ecuación cúbica y2 z2 x2 + + =1 a2 + α b2 + α c2 + α ⇒ α3 + ∆ α2 + Φ α + Ω = 0 , ∆ = x20 + y02 + z02 − a2 − b2 − c2 , in Φ = b2 + c2 x20 + a2 + c2 y02 + a2 + b2 z02 − a2 b2 − a2 + b2 c2 , ar con Ω = x20 b2 c2 + y02 a2 c2 + z02 a2 b2 − a2 b2 c2 . lim Las raı́ces de esta ecuación (α1 = λ; α2 = µ; α3 = ν) definen las coordenadas elipsoidales del punto (x, y, z) = (x (λ, µ, ν) , y (λ, µ, ν) , z (λ, µ, ν)). Tenemos entonces: q 1 , q 2 , q 3 ⇐⇒ (λ, µ, ν) , |ri = x (λ, µ, ν) |ex i + y (λ, µ, ν) |ey i + z (λ, µ, ν) |ez i ⇐⇒ r = x (λ, µ, ν) i + y (λ, µ, ν) j + z (λ, µ, ν) k . por cual la métrica será ds2 = s y= (b2 + λ) (b2 + µ) (b2 + ν) , (b2 − a2 ) (b2 − c2 ) s z= (c2 + λ) (c2 + µ) (c2 + ν) , (c2 − b2 ) (c2 − a2 ) (λ − µ) (λ − ν) (µ − λ) (µ − ν) (ν − µ) (ν − λ) dλ2 + dµ2 + dν 2 . 4 (a2 + λ) (b2 + λ) (c2 + λ) 4 (a2 + µ) (b2 + µ) (c2 + µ) 4 (a2 + ν) (b2 + ν) (c2 + ν) Curvas y parámetros ad o 5.1.5. rP re Y la ley de transformación: s (a2 + λ) (a2 + µ) (a2 + ν) , x= (a2 − b2 ) (a2 − c2 ) rr Tal y como se expuso en la sección 1.5, los vectores podrán ser constantes o variables y, esa caracterı́stica se verificará tanto en las componentes como en la base. En esta sección lo mostramos para el caso de los vectores 3D, pero el concepto es generalizable a cualquier dimensión. Esto quiere decir que, cuando un vector es variable podrán variar su módulo, su dirección, su sentido, todo junto o por separado. Obviamente, esta variabilidad del vector dependerá de la base en la cual se exprese, por lo cual un mismo vector podrá tener una componente constante en una base y variable en otra, es decir |ai(t) = ak (t) |ek i(t) = ãk |ẽk i(t) = âk (t) |êk i . (5.8) Bo De esta manera, cuando uno considera un vector variable, |ai(t) ⇐⇒ a(t), podemos establecer un cociente incremental: |ai(t+∆t) − |ai(t) ∆ |ai(t) d |ai(t) lı́m = lı́m = . ∆t→0 ∆t→0 ∆t ∆t dt La misma propuesta se cumplirá para las formas diferenciales (t) ha|. Como siempre, las propiedades de esta diferenciación serán: d |ai(t) + |bi(t) dt d α(t) |ai(t) dt d (t) ha |bi(t) dt = = = d |ai(t) + d |bi(t) , dt dt d |ai(t) dα(t) |ai(t) + α(t) y dt dt d |bi(t) d((t) ha|) |bi(t) +(t) ha| . dt dt 5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS 307 Entonces reproducimos aquı́ la ecuación (1.3), de la sección 1.5.2, ahora en notación de Dirac: |ai(t) = ak (t) |ek i(t) ⇒ d |ai(t) dt = dak (t) d |ek i(t) d k a (t) |ek i(t) = |ek i(t) + ak (t) , dt dt dt (5.9) lim in ar con lo cual, como dijimos en 1.5.2, hay que tener cuidado al derivar vectores y cerciorarse de la dependencia funcional de la base y componentes. Habrá sistemas de coordenadas (bases de vectores) que serán constantes y otros con bases variables. Podemos generalizar la ecuación (5.9) si consideramos una curva descrita por un radio vector |ri función de un parámetro λ, de manera que el vector posición, en coordenadas cartesianas, queda escrito como |ri = r(λ) = r (x(λ), y(λ), z(λ)), donde las funciones: {x(λ), y(λ), z(λ)} son las ecuaciones paramétricas de la curva descrita por el vector posición r. Para el vector desplazamiento infinitesimal |dri = (dx(λ), dy(λ), dz(λ)), a lo largo de la curva descrita por el parámetro λ, resulta: d (r(λ)) dx ∂r dy ∂r dz ∂r |dri = dr (x(λ), y(λ), z(λ)) = dλ = + + dλ , dλ dλ ∂x dλ ∂y dλ ∂z con lo cual podemos hacer la siguiente asociación: d( ) dλ ⇔ dx ∂ ( ) dy ∂ ( ) dz ∂ ( ) + + , dλ ∂x dλ ∂y dλ ∂z ) como las componentes del vector dr(λ) (y, en general, del operador d( dλ ) ) ∂( ) ∂( ) tangente a la trayectoria parametrizada con λ. Más aún, podemos asociar a las cantidades: ∂( con los ∂x , ∂y , ∂z vectores base en esas coordenadas. Este tipo de parametrización es la que hemos usado en los cursos de mecánica, allı́ el parámetro utilizado ha sido el tiempo. Otra forma alternativa de parametrizar el vector posición es a través de funciones que representen la curva espacial: |ri = r(λ) = r (λ, f (λ), g(λ)) , dx dy dz dλ , dλ , dλ rP re y considerar a las cantidades Bo rr ad o o por medio de la intersección de superficies F (x, y, z) = 0 y G(x, y, z) = 0. Figura 5.3: Vector posición r(t), en R2 , que describe paramétricamente una curva. Por otro lado, el cuadrado de la distancia infinitesimal recorrida es: (ds)2 = dr(λ) · dr(λ) = d (r(λ)) d (r(λ)) · (dλ)2 = (dx(λ))2 + (dy(λ))2 + (dz(λ))2 , dλ dλ entonces ds dλ 2 = d (r(λ)) d (r(λ)) · , dλ dλ 308 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES por lo tanto, la longitud de arco entre dos puntos sobre la curva r(λ) será Z λ2 s= λ1 d (r(λ)) d (r(λ)) · dλ dλ 1/2 dλ . por lo tanto ⇒ dr dq 2 ∂r dq 3 ∂r dq 1 ∂r + + , = dλ dλ ∂q 1 dλ ∂q 2 dλ ∂q 3 |{z} |{z} |{z} u1 n donde: u1 = o ∂r ∂r ∂r , u = , u = , son la base del vector 1 2 3 2 3 ∂q ∂q ∂q dr(λ) dλ u2 u3 in dq 1 dq 2 dq 3 ∂r ∂r ∂r dr q i (λ) = dλ 1 + dλ 2 + dλ 3 dλ ∂q dλ ∂q dλ ∂q ar Consideramos ahora un conjunto de coordenadas generalizadas: q 1 (λ), q 2 (λ), q 3 (λ) , tendremos |ri = r(λ) = r q 1 (λ), q 2 (λ), q 3 (λ) , tangente a la curva descrita por r(λ). (ds)2 = dr(λ) · dr(λ) = d (r(λ)) d (r(λ)) dq i ∂ (r(λ)) dq j ∂ (r(λ)) · (dλ)2 = · (dλ)2 dλ dλ dλ ∂q i dλ ∂q j ∂ (r(λ)) ∂ (r(λ)) dq i dq j ∂ (r(λ)) ∂ (r(λ)) i j · dλ dλ = · dq dq . ∂q i ∂q j |dλ{z }|dλ{z } ∂q i ∂q j rP re = lim Como sabemos, el módulo del vector kdr(λ)k representará la longitud de arco ds para esa curva. Por consiguiente dq i Dado que 2 dq j (ds) = gij dxi dxj = g̃ij dx̃i dx̃j = ḡij dq i dq j = ∂ (r(λ)) ∂ (r(λ)) i j dq dq , · ∂q i ∂q j {z } | ḡij identificamos claramente a las componentes del tensor gij : ∂ (r(λ)) ∂ (r(λ)) · . ∂q i ∂q j ad o gij ≡ Bo rr Por otro lado, cuando r(λ) describe una curva Γ en el espacio, en cada punto de ésta curva podemos asociar un vector dr(λ)/dλ, esto es, un vector que es tangente a la curva Γ en un punto dado y apuntando en la dirección en la que aumenta λ. Si el parámetro a utilizar es la propia longitud de arco s, entonces, dr(s)/ds es un vector unitario tangente a la curva Γ y lo denotaremos por τ̂ dr(s) τ̂ = . ds Como el vector τ̂ es de magnitud constante, dτ̂ /ds será un vector perpendicular a τ̂ . Al vector unitario en la dirección perpendicular a τ̂ lo denotaremos n̂. dτ̂ dτ̂ = n̂ = κn̂ . ds ds A κ se le denomina la curvatura de la curva Γ y a la cantidad ρ = 1/κ radio de curvatura. De manera intuitiva, la curvatura nos indica que lejos está una curva de ser una linea recta. Con este par de vectores coplanares se puede construir un tercero perpendicular tanto a τ̂ como a n̂, que denominaremos vector binormal a Γ, esto es: b̂ = τ̂ × n̂. Tenemos entonces la trı́ada {τ̂ , n̂, b̂} al que podemos anclar un sistema de coordenadas cartesiano en cada punto de Γ. Es claro que este conjunto de vectores irá cambiando a medida que r va cambiando al variar el parámetro. Este sistema de coordenadas, no inercial, estará rotando constantemente a medida que el observador se mueve a lo largo de la curva en el espacio. Continuando con el razonamiento anterior, por ser b̂ de magnitud constante, entonces b̂ ⊥ db̂ ds ∧ db̂ ⊥ τ̂ ds 309 ar 5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS db̂ = −τ n̂ ds lim Al ser db̂/ds perpendicular tanto a τ̂ como a b̂, entonces será proporcional a n̂: in Figura 5.4: La trı́ada de vectores unitarios {τ̂ , n̂, b̂} para una curva en el plano. ⇒ τ = −n̂ · db̂ , ds rP re esta constante de proporcionalidad se denomina la torsión de la curva Γ en un punto dado, y a 1/τ el radio de torsión. Intuitivamente, la torsión mide que lejos está una curva de permanecer en un plano. Para finalizar, a partir del hecho de que n̂ = b̂ × τ̂ : dn̂ db̂ dτ̂ = × τ̂ + b̂ × = −τ (n̂ × τ̂ ) + κ(b̂ × n̂) = τ b̂ − κτ̂ . ds ds ds A las ecuaciones dτ̂ db̂ dn̂ = κn̂ , = −τ n̂ , = τ b̂ − κτ̂ . ds ds ds se les conoce como las fórmulas de Frenet-Serret de la geometrı́a diferencial. Covectores, tensores y coordenadas curvilı́neas ad o 5.1.6. Retomemos los conceptos que expresamos en la sección 3.1.3, de tal forma que podemos expresar vectores y formas como |ai = ai |ei i = ax |ex i + ay |ey i + az |ez i ≡ aρ |eρ i + aϕ |eϕ i + az |ez i y equivalentemente para las 1-formas rr ha| = ai hei | = ax hex | + ay hey | + az hez | ≡ aρ heρ | + aϕ heϕ | + az hez | , Bo en ambos casos hemos hecho la comparación entre un sistema de coordenadas cartesiana y uno cilı́ndrico. Lo que es importante notar es lo que insistimos en la sección 3.1.3, que los vectores y 1-formas, se expresan de forma equivalente en los distintos sistemas de coordenadas. Siguiendo la misma lógica argumental que en la sección 3.2.2 construimos tensores en cualquier sistema de coordenadas curvilı́neo a partir del producto tensorial de vectores y formas: T = T ij |ei i ⊗ |ẽj i ≡ Tij ei ⊗ |ẽj i ≡ Tij ei ⊗ ẽj . Es importante recalcar que el tensor T es un objeto geométrico que se expresa en una base (tensorial) particular y que las base de vectores {|ei i} y 1-formas ẽj , en principio, no necesariamente pueden ser las mismas, vale decir: T = T xρ |ex ; eρ i + T xϕ |ex ; eϕ i + T xz |ex ; ez i + T yρ |ey ; eρ i + T yϕ |ey ; eϕ i + T yz |ey ; ez i + · · · + T zz |ez ; ez i , donde hemos desarrollado el caso particular de un tensor bizarro parte cartesiano y parte cilı́ndrico. Este tipo de objetos es solo un ejemplo. Nótese que estamos utilizando la notación |ei ; ej i ≡ |ei i ⊗ |e˜j i. Solo para fijar ideas vamos a extender algunos conceptos que presentamos en la sección 1.2.6: 310 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES Producto escalar El producto escalar es independiente de la base en la cual se exprese ha| bi = ai bi = ãj b̃j = gij ai bj = g̃ij ãi b̃j ar donde, como es de esperar, las leyes de transformación entre el sistema de coordenadas cartesianas xi = xi (q j ) y un sistema de coordenadas curvilı́neas q j = q j (xi ) permiten la traducción de las componentes de vectores, formas y tensores como: ∂q k ∂q k ∂q m ∂xi ã , y g = g̃km bi = k b̃k , aj = k ij ∂q ∂xj ∂xi ∂xj Producto vectorial in El producto vectorial tal y como lo construimos la sección 1.2.6 se expresa como E |ci = ci |ei i = |ai × |bi = ijk aj bk |ei i ⇔ |c̃i = c̃i |ẽi i = |ãi × b̃ = ˜ijk ãj b̃k |ẽi i . ∂q i ∂q j ∂q k √ = J ijk = g ijk ∂xl ∂xm ∂xn rP re ˜ijk = lmn lim Donde ijk es el tensor de Levi-Civita en coordenadas cartesianas definido en la sección 1.4.1 y que luego generalizamos en la sección 4.3.5. Es decir, queremos construir la versión del producto vectorial que tenga la misma forma que en el caso cartesiano pero en cualquier sistema de coordenadas. De la relación anterior es claro que, el tensor de Levi-Civita transformará como un tensor, es decir donde J es el determinante de la matriz jacobiana, que discutimos en 3.2.9 y g el determinante de la métrica. Por lo tanto, n l m n ∂q l ∂q m ∂q ijk ∂q ∂q ∂q |ci = |ai × |bi = aj bk ijk |ei i = ijk ãl j |ẽ i = b̃m k ãl b̃m |ẽn i , n ∂x ∂x ∂xi ∂xj ∂xk ∂xi con lo cual |ci = |ai × |bi = aj bk ijk |ei i = ãm b̃n ˜lmn |ẽl i = J lmn ãm b̃n |ẽl i = | {z } | {z } ci Ejemplos g lmn ãm b̃n |ẽl i c̃l ad o 5.1.7. √ 1. Velocidades y aceleraciones. Para fijar conceptos repasaremos los cálculos de las expresiones de las velocidades y las aceleraciones, que expusimos en la sección 1.5.3, solo que ahora los desarrollaremos en coordenadas generalizadas. Para ello recordamos que los vectores velocidad y aceleración se representan como |vi = v j |ej i = ẋj |ej i = ṽ j |ẽj i = x̃˙ j |ẽj i y ¨j |ẽj i , |ai = aj |ej i = ẍj |ej i = ãj |ẽj i = x̃ rr respectivamente. Bo Para determinar estos vectores en cualquier sistema de coordenadas, es suficiente con encontrar las expresiones de sus componentes covariantes o contravariantes. Como sabemos, podremos encontrar una a partir de las otras con la ayuda de la métrica del sistema de coordenadas. Entonces, el vector velocidad en la base cartesiana se puede expresar como |vi = vx |ex i + vy |ey i + vz |ez i = ẋ |ex i + ẏ |ey i + ż |ez i = ẋj |ej i , con: |e1 i = |ex i , |e2 i = |ey i y |e3 i = |ez i. Claramente las componentes contravariantes del vector velocidad en un sistema de coordenadas generalizado son v j = q̇ j . Recordamos que para cualquier base generalizada de vectores o formas las componentes covariantes se expresan en término de la base cartesiana (de vectores o formas) como |ẽj i = ∂xi |ei i ∂q j y ẽi = ∂q i j e . ∂xj 5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS 311 Entonces, las componentes covariantes del vector velocidad en una base generalizada serán vm v m i ∂xm ∂ m m 2 ∂x ∂ ẋ ∂x ∂t |ei i = ẋm j = ẋm ∂q = ẋm j = . ṽj = hv |ẽj i = (ẋm hẽm |) j j ∂q ∂q ∂ q̇ ∂ q̇ j ∂t Resulta fácil expresar las componentes covariantes una vez que conocemos el módulo del vector expresado en ese sistema de coordenadas, el cual siempre viene escrito a partir del diferencial ⇒ d |ri . dt ar d |ri in Para encontrar la expresión para la aceleración se procede de manera análoga. i ∂xm d ∂ ẋm ∂xm ∂x m |e i = ẍ ≡ − ẋ , ẋ ãj = ha |ẽj i = (ẍm hẽ |) i m m m ∂q j ∂q j dt ∂q j ∂q j ∂xm ∂ ẋm = j ∂q ∂ q̇ j ⇒ ãj = d dt lim y otra vez ∂ ẋm ∂ ẋm ∂ ẋm ẋm ∂ ẋm ẋm d ẋm j − ẋm j = − , ∂ q̇ ∂q dt ∂ q̇ j 2 ∂q j 2 para finalmente d ∂ vm v m ∂ vm v m − . dt ∂ q̇ j 2 ∂q j 2 rP re ãj = 2. Calculemos las componentes cartesianas del vector que, en coordenadas cilı́ndricas, tiene las siguiente componentes: (1, π/3, 3). ad o Ese vector en coordenadas cilı́ndricas se puede escribir como: V = |er i + π3 |eϕ i componentes de los vectores transforman como ∂ x̃1 (xm ) k 1 1 ã = a k ∂x x̃ = x i m 2 m ∂ x̃ (x ) k ∂ x̃ (x ) i 2 k 2 x̃ = y y con ã = a ⇒ a ã = ∂xk ∂xk 3 x̃ = z 3 m ∂ x̃ (x ) 3 k ã = a ∂xk + 3 |ez i. En general, las 1 x =r x2 = ϕ 3 x =z y la ley de transformación entre coordenadas cartesianas y coordenadas cilı́ndricas es rr x = x (r, ϕ) = r cos(ϕ); y = y (r, ϕ) = rsen(ϕ) y z = z, Bo con lo cual es fácil identificar ∂x(r,ϕ) ∂r = cos(ϕ) ∂y(r,ϕ) ∂r = sen(ϕ) ∂z ∂r =0 ∂x(r,ϕ) ∂ϕ ∂y(r,ϕ) ∂ϕ = −rsen(ϕ) ∂x(r,ϕ) ∂z =0 = r cos(ϕ) ∂y(r,ϕ) ∂z =0 ∂z ∂ϕ =0 ∂z ∂z =1 Por lo tanto ã1 = ∂ x̃1 (xm ) k ∂ x̃1 (xm ) 1 ∂ x̃1 (xm ) 2 ∂ x̃1 (xm ) 3 a = a + a + a k ∂x ∂x1 ∂x2 ∂x3 π π π π ∂x (r, ϕ) ∂x (r, ϕ) π ã = (1) + = cos(ϕ) − rsen(ϕ) = cos − (1)sen = ∂r ∂ϕ 3 3 3 3 3 1 √ 3−π √ , 2 3 312 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES del mismo modo π π π π ∂y (r, ϕ) ∂y (r, ϕ) π = sen(ϕ) + r cos(ϕ) = sen + (1) cos = ã = (1) + ∂r ∂ϕ 3 3 3 3 3 √ 2 27 + π , 6 ã3 = 3 . V = |er i + π |eϕ i + 3 |ez i = 3 √ 3−π √ |ii + 2 3 √ 27 + π |ji + 3 |ki . 6 ar Con lo cual in 3. Dado el siguiente vector en coordenadas cilı́ndricas a = −2 |eρ i + 5 |eϕ̃ i + 4 |ez i. Vamos a ver como queda expresado en coordenadas esféricas. La primera forma de hacerlo es transformando las componentes al conocer como transforman las coordenadas. ∂ x̃i k Es decir conociendo xi = xi (x̃m ) y x̃j = x̃j (xm ) expresar ãi = ∂x k a . Dado que z ρ cos(ϕ̃) = x (r, ϕ, θ) = r cos(ϕ)sen(θ) ρsen(ϕ̃) = y (r, ϕ, θ) = rsen(ϕ)sen(θ) = z = r cos(θ) . Por lo tanto: ϕ̃ = ϕ , En forma matricial: ∂ x̃ k a = ∂xk i ãi = ∂ ρ2 +z 2 ∂ρ ∂ x̃2 ∂x1 ∂ x̃3 ∂x1 ∂ ∂ x̃1 ∂x2 ∂ x̃1 ∂x2 ∂ x̃2 ∂x2 ∂ x̃2 ∂x3 ∂ x̃3 ∂x2 ∂ x̃3 ∂x3 √ ρ2 +z 2 ∂ϕ 0 ∂ arctan( ρ z) ∂ρ ⇒r= p ρ2 + z 2 ; 1 ∂ arctan( ρ z) ∂ϕ −2 5 = 4 √ ∂ ad o = √ ∂ x̃1 ∂x1 z = r cos(θ) θ = arctan rP re ρ = rsen(θ) , lim x (ρ, ϕ̃) = y (ρ, ϕ̃) = ρ2 +z 2 ∂z 0 ∂ arctan( ρ z) ∂z ∂r ∂ρ ∂r ∂ϕ ∂r ∂z ∂ϕ ∂ρ ∂ϕ ∂ϕ ∂ϕ ∂z ∂θ ∂ρ ∂θ ∂ϕ ∂θ ∂z ρ ; ϕ̃ = ϕ . z ρ2 +z 2 z −2 5 4 √ ρ −2 ρ2 +z 2 5 = 0 z 4 2 ρ +z 2 0 1 0 √ 0 −ρ ρ2 +z 2 −2 5 . 4 Bo rr Resultando, que en esféricas −2sen(θ) + 4 cos(θ) = (−2sen(θ) + 4 cos(θ)) |er i + 5 |eϕ i − 2 cos(θ) + 4sen(θ) |eθ i . 5 a= r r −2 cos(θ) − 4 sen(θ) r r La otra forma es expresar la base ortonormal cilı́ndrica en términos de la base ortonormal esférica. Otra vez, utilizamos la base cartesiana como intermediaria. Esto es: |eρ i = cos(ϕ̃) |ii + sen(ϕ̃) |ji , |ii = cos(ϕ̃) |eρ i − sen(ϕ̃) |eϕ̃ i |eϕ̃ i = −sen(ϕ̃) |ii + cos(ϕ̃) |ji |ji = sen(ϕ̃) |eρ i + cos(ϕ̃) |eϕ̃ i ⇔ |ez i = |ki |ki = |ez i Mientras que en esféricas, donde |er i = cos(ϕ)sen(θ) |ii + sen(ϕ)sen(θ) |ji + cos(θ) |ki |eϕ i = −sen(ϕ) |ii + cos(ϕ) |ji |eθ i = cos(ϕ) cos(θ) |ii + sen(ϕ) cos(θ) |ji − sen(θ) |ki 5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS 313 y |ii = cos(ϕ)sen(θ) |er i + cos(ϕ) cos(θ) |eθ i − sen(ϕ) |eϕ i |ji = sen(ϕ)sen(θ) |er i + sen(ϕ) cos(θ) |eθ i + cos(ϕ) |eϕ i |ki = cos(θ) |er i − sen(θ) |eθ i |eρ i = cos(ϕ) [cos(ϕ)sen(θ) |er i + cos(ϕ) cos(θ) |eθ i − sen(ϕ) |eϕ i] + sen(ϕ) [sen(ϕ)sen(θ) |er i + sen(ϕ) cos(θ) |eθ i + cos(ϕ) |eϕ i] = sen(θ) |er i + cos(θ) |eθ i |eϕ i = |eϕ i cos(θ) |er i − sen(θ) |eθ i in |ez i = ar Con lo cual entonces Finalmente lim a = −2 |eρ i + 5 |eϕ i + 4 |ez i = −2 (sen(θ) |er i + cos(θ) |eθ i) + 5 (|eϕ i) + 4 (cos(θ) |er i − sen(θ) |eθ i) a = (−2sen(θ) + 4 cos(θ)) |er i + 5 |eϕ i − (2 cos(θ) + 4sen(θ)) |eθ i . 4. Dado el sistema de coordenadas parabólicas y = ξηsen(ϕ); z= 1 2 η − ξ2 2 rP re x = ξη cos(ϕ); Vamos a calcular el diferencial de volumen dv = dxdydz en estas coordenadas ad o Hay varias maneras de resolver este problema. La más intuitiva es que, dado que las coordenadas parabólicas son un sistema de coordenadas ortogonales entonces multiplicar largo, por ancho, por alto con las longitudes de arco en cada una de las direcciones ortogonales. Esto es 2 ds2→1 = g11 dq 1 2 2 n u 1 2 2 2 3 2 ds = gnu dq dq = g11 dq + g22 dq + g33 dq ⇒ ds2→2 = g22 dq 2 2 ds2→3 = g33 dq 3 por consiguiente dv = (ds→1 ) (ds→2 ) (ds→3 ) = con = rr ∂r h1 = ∂q 1 Bo ∂r h2 = ∂q 2 h3 = ∂r ∂q 3 = = √ √ √ s g11 = s g22 = s g11 = √ √ √ g11 dq 1 g22 dq 2 g33 dq 3 = h1 h2 h3 dq 1 dq 2 dq 3 ∂x (q 1 , q 2 , q 3 ) ∂q 1 2 ∂x (q 1 , q 2 , q 3 ) ∂q 2 2 ∂x (q 1 , q 2 , q 3 ) ∂q 3 2 + + + ∂y (q 1 , q 2 , q 3 ) ∂q 1 2 ∂y (q 1 , q 2 , q 3 ) ∂q 2 2 ∂y (q 1 , q 2 , q 3 ) ∂q 3 2 ∂z (q 1 , q 2 , q 3 ) ∂q 1 2 ∂z (q 1 , q 2 , q 3 ) ∂q 2 2 ∂z (q 1 , q 2 , q 3 ) ∂q 3 2 + + + por lo cual, dado que r = x (η, ξ, ϕ) i + y (η, ξ, ϕ) j + z (η, ξ) k, entonces q p ∂r √ 2 2 2 g = (η cos(ϕ)) + (ηsen(ϕ)) + (ξ) = (η 2 + ξ 2 ) h1 = = 11 1 ∂q q p ∂r √ 2 2 2 h2 = = g = (ξ cos ϕ) + (ξsen(ϕ)) + (−η) = (η 2 + ξ 2 ) 22 2 ∂q q ∂r √ 2 2 2 h1 = = g = (−ξηsen(ϕ)) + (ξη cos(ϕ)) + (0) = ξη 11 ∂q 1 314 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES y finalmente dv = h1 h2 h3 dξdηdϕ = ξη η 2 + ξ 2 dξdηdϕ . En general dv = dq 1 dq 2 dq 3 det ∂x(q 1 ,q 2 ,q 3 ) ∂q 1 ∂x(q 1 ,q 2 ,q 3 ) ∂q 2 ∂x(q 1 ,q 2 ,q 3 ) ∂q 3 ∂y (q 1 ,q 2 ,q 3 ) ∂q 1 ∂y (q 1 ,q 2 ,q 3 ) ∂q 2 ∂y (q 1 ,q 2 ,q 3 ) ∂q 3 ∂z (q 1 ,q 2 ,q 3 ) ∂q 1 ∂z (q 1 ,q 2 ,q 3 ) ∂q 2 ∂z (q 1 ,q 2 ,q 3 ) ∂q 3 in ar La otra forma de resolverlo, también intuitiva, es hacer el producto mixto de los tres vectores ortogonales base sin normalizar. Esto es ∂r ∂r ∂r 1 2 3 2 ∂r 3 ∂r 1 ∂r = dq dq dq . · dq × dq · × 3 dq dv = ∂q 1 ∂q 2 ∂q 3 ∂q 1 ∂q 2 ∂q Entonces ξ −η = ξη η 2 + ξ 2 dξdηdϕ 0 rP re dv = dξdηdϕ det η cos(ϕ) η sen(ϕ) ξ cos(ϕ) ξ sen(ϕ) −ξη sen(ϕ) ξη cos(ϕ) lim = dq 1 dq 2 dq 3 det J x q 1 , q 2 , q 3 , y q 1 , q 2 , q 3 , z q 1 , q 2 , q 3 donde J x q 1 , q 2 , q 3 , y q 1 , q 2 , q 3 , z q 1 , q 2 , q 3 es la matriz Jacobiana de la transformación. En general, el diferencial del volumen viene expresado como un producto mixto de la base ortonormal {|q1 i , |q2 i , |q3 i} dv = dq 1 |q1 i · dq 2 |q2 i × dq 3 |q3 i = dq 1 dq 2 dq 3 k|q1 i · (|q2 i × |q3 i)k dv = dqn hqn | 123 dq2 dq3 |q1 i = gnu dq u g22 dq 2 g33 dq 3 hqn |q1 i = g11 dq 1 g22 dq 2 g33 dq 3 . | {z } δ1n ad o 5. Para una curva en el plano xy dada por y = y(x) y z = 0 podemos escribir |ri = r(λ) = λ |ex i + y(λ) |ey i dy dr = |ex i + |ey i ⇒ dλ dλ dr dr ⇒ · =1+ dλ dλ dy dλ 2 , al hacer λ = x se tiene Z λ2 rr s= λ1 d (r(λ)) d (r(λ)) · dλ dλ 1/2 Z x2 " dλ = 1+ x1 dy dx 2 #1/2 dx . 6. Vamos a considerar el siguiente arco de hélice: C(t) = [2 cos(t), 2 sen(t), 4t], con t ∈ [0, 2π]. Bo Podemos calcular la parametrización en s de la siguiente manera. Como Ċ(t) = d (r(t)) = [−2 sen(t), 2 cos(t), 4] dt entonces 1/2 Z tp Z t √ √ d (r(t)) d (r(t)) · dt = 4 sen2 (t) + 4 cos2 (t) + 16 dt = 2 5dt = 2 5t . dt dt 0 0 0 √ Por lo tanto t = s/2 5 y la curva parametrizada con s es s s s √ √ C(s) = r(s) = 2 cos , sen ,√ . 2 5 2 5 5 s= Z t 5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS 315 Al derivar se tiene que s s dr(s) 1 √ √ √ −sen , cos ,2 τ̂ = = ds 5 2 5 2 5 √ con s ∈ [0, 4 5π]. dτ̂ = κ= ds s 1 cos2 102 s √ 2 5 1 + 2 sen2 10 s √ r = 2 5 1 1 = , 102 10 ar La curvatura es simplemente in es decir, la curvatura es constante y el radio de curvatura es ρ = 10. El vector normal unitario n̂ que resulta es s 1 dτ̂ s √ √ , −sen ,0 . n̂ = = − cos κ ds 2 5 2 5 Calculemos ahora la torsión 1 db̂ = sen2 ds 5 s √ 2 5 + 1 cos2 5 s √ 2 5 = 1 . 5 rP re τ = −n̂ · lim Los vectores τ̂ y n̂ se encuentran en un plano, el plano oscuador, del cual podemos construir el vector unitario binormal: 1 s s √ √ b̂ = τ̂ × n̂ = √ 2 sen , 2 cos ,1 . 5 2 5 2 5 Dejamos al lector la demostración de que se satisfacen las fórmulas de Frenet-Serret. ad o 7. A continuación mostraremos como afectan las transformaciones de coordenadas a los tensores. Tal y como expresamos en la sección 3.2.9, el mismo esquema de transformación que tienen las componentes de los vectores (y de las forma) son los que se requieren para transformar a los tensores. Obviamente habrá que cuidar que tipo de componentes (covariantes o contravariante) del tensor estamos transformando. Consideremos el siguiente tensor 2 1 3 Tji = 2 3 4 , en la base: {|e1 i , |e2 i , |e3 i} ≡ {|ii , |ey i , |ez i} . 1 2 2 Es decir, es un tensor que hemos expresado en coordenadas cartesianas y queremos ahora pasarlo a cilı́ndricas. Como recién mencionamos: ∂ x̃k i ∂xj = T ∂xi j ∂ x̃m rr k T̃m ⇒ k T̃m cos(ϕ) sen(ϕ) = − ρ 0 Bo sustituyendo el tensor y multiplicando las cos(ϕ) sen(ϕ) cos(ϕ) k T̃m = − sen(ϕ) ρ ρ 0 0 sen(ϕ) cos(ϕ) ρ 0 matrices 0 2 0 2 1 1 1 3 2 0 cos(ϕ) −ρ sen(ϕ) i 0 Tj sen(ϕ) 0 1 ρ cos(ϕ) 0 3 cos(ϕ) −ρ sen(ϕ) 4 sen(ϕ) ρ cos(ϕ) 2 0 0 0 0 , 1 0 0 , 1 se obtiene k T̃m = − cos2 (ϕ) + 3 cos(ϕ)sen(ϕ) + 3 ρ sen(ϕ) cos(ϕ) − 2ρ + 3ρ cos2 (ϕ) cos(ϕ)sen(ϕ)+3 cos2 (ϕ)−1 ρ −3 cos(ϕ)sen(ϕ) + cos2 (ϕ) + 2 cos(ϕ) + 2 sen(ϕ) −ρ sen(ϕ) + 2ρ cos(ϕ) 3 cos(ϕ) + 4 sen(ϕ) −3 sen(ϕ) ρ . + 4 cos(ϕ) ρ 2 316 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES Si suponemos que el origen del sistema de coordenadas cilı́ndrico está en el vector |ai = 3 |ii + 4 |ey i + 3 |ki. Esto es p √ ρ = x2 + y 2 ⇒ ρ = 3 2 + 4 2 = 5 ϕ = arctan entonces k T̃m y x ⇒ ϕ = arctan 102 25 − 11 5 = 14 125 23 25 11 25 2 5 4 3 , 0 . 2 ar lim in 8. Definimos una transformación ortogonal (una transformación de un sistema de coordenadas ortogonales a otro ortogonal también) si se cumple k k ∂ x̃i k ∂xi k ∂x ∂ x̃ i i i i x̃ = x +a ; x = x + ã ; donde det = det = ±1 . k k l ∂x ∂ x̃ ∂ x̃ ∂xi con ∂ x̃k ∂xi ∂xk ∂ x̃i = = δlk . ∂xi ∂ x̃l ∂ x̃i ∂xl rP re Vamos a demostrar que las transformaciones de Galileo en 2 dimensiones 1 1 1 x̃ cos(θ) −sen(θ) x Voõ t = + 2 x̃2 sen(θ) cos(θ) x2 Voõ t 1 2 son transformaciones ortogonales. Notemos que Voõ , y Voõ son las velocidades en la dirección 1 y 2, respectivamente, del observador Õ con coordenadas x̃i respecto al observador O con coordenadas xi , mientras t es el tiempo medido por ambos observadores. Una vez más, identificando ∂ x̃i k x + ai x̃ = ∂xk i ∂ x̃1 ∂x22 ∂ x̃ ∂x1 ⇒ ∂ x̃1 ∂x22 ∂ x̃ ∂x1 = ad o con lo cual x̃1 x̃2 = cos(θ) = sen(θ) ∂ x̃1 ∂x22 ∂ x̃ ∂x2 1 a1 = Voõ t 2 2 a = Voõ t = −sen(θ) = cos(θ) det ! ∂ x̃1 ∂x22 ∂ x̃ ∂x2 x1 x2 + cos(θ) −sen(θ) sen(θ) cos(θ) a1 a2 = cos2 θ + sen2 θ2 = 1 . rr 9. Las transformaciones de Galileo nos permiten relacionar las posiciones de una partı́cula respecto a dos observadores los cuales se encuentran en movimiento, uno respecto al otro. Consideremos entonces el movimiento de una partı́cula visto desde el sistema de coordenadas xi tal que y = V0y t − g x = V0x t; t2 . 2 Bo Vamos a expresar el vector velocidad V de esta partı́cula visto del sistema de coordenadas x̃k . Tendremos que x1 = x = V0x t 2 x2 = y = V0y t − g t2 V 1 = Vx = dx1 dt = V0x V 2 = Vy = dx2 dt = V0x − gt ⇒ por lo cual Ṽ 1 Ṽ 2 = cos(θ) −sen(θ) sen(θ) cos(θ) Finalmente V = Ṽ 1 i + Ṽ 2 j con V1 V2 + 1 Voõ t 2 Voõ t 1 1 t Ṽ = V 1 cos(θ) − V 2 sen(θ) + Voõ 2 Ṽ 2 = V 1 sen(θ) + V 1 cos(θ) + Voõ t 5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS 317 10. Considere ahora la siguiente transformación de coordenadas β α x̃α = Lα β x +a ; con γ = p 1 1 − v k vk ; α, β = 0, 1, 2, 3; i, j, k = 1, 2, 3 y L00 = γ , Lij = Lji = δji + v i vj Li0 = L0i = γv i , (γ − 1) . v k vk Esto implica L̃α β √ v 1−v 2 √ 1 1−v 2 ! = √ 1 1−v 2 √ v 1−v 2 √ −v 1−v 2 √ 1 1−v 2 ! = √ 1 1−v 2 √ −v 1−v 2 ⇒ ⇒ x̃0 x̃1 x0 x1 = √ 1 1−v 2 √ v 1−v 2 √ v 1−v 2 √ 1 1−v 2 ! √ 1 1−v 2 √ −v 1−v 2 √ −v 1−v 2 √ 1 1−v 2 ! x0 x1 x̃0 x̃1 lim Lα β in ar k Las Lα β se denominan impulso (boost) de Lorentz y donde las v son las componentes tridimensionales de la velocidad relativa entre los observadores Õ y O con coordenadas x̃α y xβ , respectivamente. La coordenada x0 representa el tiempo medido por el observador O mientras que las xj representan las coordenadas espaciales x, y, z para el mismo observador O con i, j = 1, 2, 3 respectivamente. Nótese que 0 ≤ v k vk < 1. Supongamos, por facilidad, que el movimiento es en una dimensión: α, β = 0, 1 y i, j = 1. = Claramente rP re a) Vamos a mostrar que los tiempos se alargan cuando son medidos por observadores en movimiento. Tenemos que ∆t = t2 − t1 = x02 − x01 medido por el observador en reposo y equivalentemente: ∆t̃ = t̃2 − t̃1 = x̃02 − x̃01 medido por el observador en movimiento. ∆t̃ = t̃2 − t̃1 = x̃02 − x̃01 = L0β xβ2 + a0 − L0β xβ1 + a0 = L0β xβ2 − L0β xβ1 = L0β xβ2 − xβ1 x02 − x01 ∆t 0 0 0 0 1 1 =√ . = L0 x2 − x1 + L1 x2 − x1 = √ 2 1−v 1 − v2 lı́m ∆t̃ = ∞ ad o v→1 Nótese que hemos supuesto que el reloj que marca el ∆t y que está en reposo respecto al sistema xβ se encuentra en la misma posición espacial x02 = x01 . rr b) Demostremos ahora como las distancias se acortan cuando son medidas por observadores en movimiento. Igualmente la distancia entre dos puntos espaciales será l = x12 − x11 = L̃1β x̃β2 + a1 − L̃1β x̃β1 + a1 = L1β x̃β2 − x̃β1 = L̃10 x̃02 − x̃01 + L̃11 x̃12 − x̃11 Bo Si suponemos que la distancia en el sistema en movimiento x̃β la medimos en el mismo tiempo, entonces x̃02 = x̃01 con lo cual p p ˜l x̃12 − x̃11 1 1 1 √ l = L̃1 x̃2 − x̃1 = =√ ⇒ ˜l = 1 − v 2 l ⇒ lı́m 1 − v 2 l = 0 . v→1 1 − v2 1 − v2 5.1.8. Practicando con Maxima El paquete ctensor dispone de herramientas para manipular componentes de tensores. El uso de esta librerı́a permite que los objetos geométricos tensoriales se representen como arreglos o matrices. Para poder hacer uso de ctensor es necesario cargarlo previamente en memoria ejecutando load(ctensor). Con la función ct coordsys(sistema coordenadas) se prepara un sistema de coordenadas predefinido y una métrica. (%i1) load(ctensor)$ 318 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES (%i2) ct_coordsys([r*sin(theta)*cos(phi),r*sin(theta)*sin(phi),r*cos(theta), [r,theta,phi]])$ O de manera equivalente escribiendo el nombre de las coordenadas a utilizar. Ver el manual de Maxima para la lista completa con los nombres de las coordenadas disponibles. La métrica se almacena en el sistema como la matriz lg y se obtiene de manera sencilla: in (%i4) trigsimp(lg); 1 0 0 0 ( %o4) 0 r2 0 0 r2 sin2 θ ar (%i3) ct_coordsys(spherical)$ lim Aquı́ utilizamos trigsimp para simplificar. La métrica inversa se almacena en la matriz ug y se obtiene escribiendo (%i5) cmetric()$ 0 1 r2 0 0 0 1 r 2 sin2 θ rP re (%i6) ug; 1 ( %o6) 0 0 Si cframe flag vale false, la función cmetric() calcula la métrica inversa ug a partir de la métrica lg definida por el usuario. Pero si cframe flag toma el valor true, la función espera a que los valores de fri (la matriz del sistema de referencia inverso) o lfg (la matriz de la métrica del sistema de referencia) estén definidos. A partir de ellos, se calculan la matriz del sistema de referencia fr y su métrica inversa ufg. La función init ctensor reinicia el paquete ctensor. De esta manera se borran todos los arreglos y matrices utilizadas. (%i7) init_ctensor()$ ad o (%i8) cframe_flag:true$ (%i9) ct_coordsys([r*sin(theta)*cos(phi),r*sin(theta)*sin(phi),r*cos(theta),[r,theta,phi]])$ La matriz de transformación, ecuaciones (5.4), se obtiene ası́: cos ϕ r cos θ sin ϕ r cos θ −r sin θ rr (%i10)fri; cos ϕ sin θ ( %o10) sin ϕ sin θ cos θ − sin ϕ r sin θ cos ϕ r sin θ 0 Bo La matriz del sistema de referencia se calcula de la siguiente manera (nuevamente usaremos el comando trigsimp para que se realicen las simplificaciones trigonométricas que correspondan) (%i11)cmetric()$ (%i12)trigsimp(fr); cos ϕ sin θ cos ϕrcos θ ( %o12) sin ϕ sin θ sin ϕrcos θ cos θ − sinr θ La métrica: (%i13)trigsimp(lg); ϕ − rsin sin θ cos ϕ r sin θ 0 5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS 1 ( %o13) 0 0 0 r2 0 319 0 0 2 2 r sin θ Para finalizar, veamos a continuación como obtener la métrica y los factores de escala para las coordenadas toroidales. (Ver 5.1.4) (%i14)init_ctensor()$ ar (%i15)x:a*sinh(tau)*cos(phi)/(cosh(tau)-cos(sigma)); a cos ϕ sinh τ cosh τ − cos σ (%i16)y:a*sinh(tau)*sin(phi)/(cosh(tau)-cos(sigma)); in ( %o15) a sin ϕ sinh τ cosh τ − cos σ (%i17)z:a*sin(sigma)/(cosh(tau)-cos(sigma)); a sin σ cosh τ − cos σ (%i18)ct_coordsys([x,y,z,[sigma,tau,phi]])$ ( %o17) 0 0 rP re (%i19)lg:factor(trigsimp(lg)); a2 0 (cosh τ −cos σ)2 2 a 0 ( %o19) (cosh τ −cos σ)2 0 0 lim ( %o16) a2 (cosh τ −1) (cosh τ +1) (cosh τ −cos σ)2 Los factores de escala son entonces (%i20)radexpand:all$ (%i21)h1:sqrt(lg[1,1]); a cosh τ − cos σ (%i22)h2:sqrt(lg[2,2]); ( %o22) ad o ( %o21) a cosh τ − cos σ Maxima no logra simplificar en su conjunto la expresión para la tercera componente, pero sin embargo podemos simplificar el numerador por separado. Aquı́ num nos permite aislar el numerador y denom el denominador. rr (%i23)h3:sqrt(trigsimp(num(lg[3,3]))/denom(lg[3,3])); a sinh τ cosh τ − cos σ Dado el segmento de la hélice Bo ( %o23) C(t) = [2 cos(t), 2 sen(t), 4t] (%i1) load(vect)$ (%i2) C(t):=[2*cos(t), 2*sin(t),4*t]; ( %o2) C(t) := [2 cos(t), 2 sin(t), 4t] (%i3) dC: diff(C(t),t); ( %o3) [−2 sin t, 2 cos t, 4] Buscamos la relación entre los parámetros s y t 320 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES (%i4) ’integrate(sqrt(dC.dC),t,0,t)=integrate(sqrt(dC.dC),t,0,t); Is t positive, negative or zero?p; Z tp √ ( %o4) 4 sin2 t + 4 cos2 t + 16 dt = 2 5 t 0 (%i5) r(s):=[2*cos(s/(2*sqrt(5))), 2*sin(s/(2*sqrt(5))),2*s/sqrt(5)]; s 2s s √ √ , 2 sin ,√ ] ( %o5) r(s) := [2 cos 2 5 2 5 5 La curvatura: lim (%i6) tau: diff(r(s),s); s s √ sin 2 √ cos 2 5 2 5 √ √ ( %o6) − , ,√ 5 5 5 in El vector tangente a la curva es 1 10 El vector normal es rP re (%i7) kappa:trigsimp(sqrt(diff(tau,s).diff(tau,s))); ( %o7) (%i8) n:1/kappa*diff(tau,s); s s √ √ ( %o8) − cos , − sin ,0 2 5 2 5 Y el binormal: ad o (%i9) b:trigsimp(express(tau~n)); s s √ 2 sin 2 √ 2 cos 1 5 2 5 √ √ ( %o9) ,− ,√ 5 5 5 La torsión: (%i10)tor: trigsimp(-n.diff(b,s)); 1 5 rr ( %o10) Bo Podemos comprobar que cada uno de los vectores es unitario. (%i11)trigsimp(sqrt(tau.tau));trigsimp(sqrt(n.n));trigsimp(sqrt(b.b)); ( %o11) 1 ( %o12) 1 ( %o13) 1 Y que se satisfacen las fórmulas de de Frenet-Serret. (%i14)diff(tau,s)-kappa*n; ( %o14) [0, 0, 0] (%i15)diff(b,s)+tor*n; ar Por lo tanto, en función del parámetro s el vector posición es: 5.1. COORDENADAS CURVILÍNEAS GENERALIZADAS 321 ( %o15) [0, 0, 0] (%i16)diff(n,s)-tor*b+kappa*tau; ar ( %o16) [0, 0, 0] Consideremos el siguiente tensor en coordenadas cartesianas 2 1 3 Tji = 2 3 4 1 2 2 y nuestro deseo es escribirlo en coordenadas cilı́ndricas. Escribamos el jacobiano de la transformación in (%i1) x:rho*cos(phi)$y:rho*sin(phi)$ rP re lim (%i2) J:jacobian([x,y,z], [rho,phi,z]); cos ϕ − sin ϕ ρ 0 ( %o2) sin ϕ cos ϕ ρ 0 0 0 1 (%i3) T:matrix([2,1,3],[2,3,4],[1,2,2]); 2 1 3 ( %o3) 2 3 4 1 2 2 (%i4) trigsimp(invert(J).T.J); 3 cos ϕ sin ϕ − cos2 ϕ + 3 cos2 ϕ−1 ( %o4) cos ϕ sin ϕ+3 ρ 2 sin ϕ + cos ϕ cos ϕ sin ϕ + 3 cos2 ϕ − 2 ρ 4 sin ϕ + 3 cos ϕ cos ϕ −3 cos ϕ sin ϕ + cos2 ϕ + 2 − 3 sin ϕ−4 ρ (2 cos ϕ − sin ϕ) ρ 2 Podemos evaluar el resultado anterior para algún punto en particular ad o (%i5) ev(%,rho=5, phi=atan(4/3)); 102 − 11 5 25 5 23 14 0 ( %o5) 125 25 11 2 2 5 Dado un sistema genérico de coordenadas oblicuas |e1 i = a |ii + b |ji ; |e2 i = c |ii + d |ji Para una base genérica, {|ei i} la métrica viene definida por rr gij ≡ gji = g [|ei i , |ej i] ≡ ei |ej i Podemos introducir la métrica como una matriz (%i6) load(ctensor)$ Bo (%i7) lg:matrix([a^2+b^2,a*c+b*d],[a*c+b*d,c^2+d^2]); 2 b + a2 b d + a c ( %o7) b d + a c d2 + c2 Recordemos que calcular la métrica inversa es un proceso sencillo (%i8) cmetric()$ (%i9) factor(ug); ( %o9) d2 +c2 (a d−b c)2 d+a c − (abd−b c)2 d+a c − (abd−b c)2 b2 +a2 (a d−b c)2 ! 322 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES En este caso, la matriz que permite la transformación de componentes del sistema de coordenadas oblicuo al cartesiano es (%i10)L:matrix([d/(a*d-b*c),-c/(a*d-b*c)],[-b/(a*d-b*c),a/(a*d-b*c)]); c d − a d−b a d−b c c ( %o10) b a − a d−b c a d−b c Es claro que in ar (%i11)Linv:factor(invert(L)); a c ( %o11) b d (%i12)T:matrix([4,2],[1,4]); 4 2 ( %o12) 1 4 La transformación de coordenadas es entonces ∂ x̃k m ∂xn T ∂xm n ∂ x̃j rP re T̃ij = gik T̃jk = gik lim Si tenemos el tensor (%i13)Tnue:factor(lg.L.T.Linv); 4 b2 + 3 a b + 4 a2 4bd + 2ad + bc + 4ac ( %o13) 4bd + ad + 2bc + 4ac 4 d2 + 3 c d + 4 c2 √ √ Para el caso particular a = 1, b = 0, c = 2/2, d = 2/2, resulta (%i14)factor(ev(Tnue,a=1,b=0,c=sqrt(2)/2,d=sqrt(2)/2)); √ 2 2 3 2 ( %o14) √5 11 2 5.1.9. ad o 2 Ejercicios 1. Exprese el vector r = yzi − yj + xz 2 k rr en coordenadas cilı́ndricas. Nota: Antes, se deben expresar los vectores base {i, j, k} en términos de los vectores base {ξ ρ , ξ ϕ , ξ z }. Bo 2. Exprese los vectores base {i, j, k} en término de los vectores base {ξ r , ξ θ , ξ ϕ }. 3. Encuentre las componentes de la velocidad y aceleración, en coordenadas esféricas, de una partı́cula en movimiento. 4. Las coordenadas cilı́ndricas parabólicas (u, v, ϕ) están definidas por x = uv cos(ϕ) , y = uv sen(ϕ) , z= u2 − v 2 . 2 Diga si este sistema de coordenas es ortogonal. Calcule los factores de escala y la métrica. 5. Encuentre los factores de escala y la métrica para las coordenadas hiperbólicas (u, v, ϕ) definidas por x = cosh(u) cos(v) cos(ϕ) , y = cosh(u) cos(v)sen(ϕ) , z = senh(u)sen(v) . 5.2. CAMPOS TENSORIALES 323 6. Demuestre que la aceleración de una partı́cula que se mueve siguiendo la trayectoria r(t) viene dada por a(t) = dv v2 τ̂ + n̂. dt ρ ¿Cuál es el significado del término v 2 /ρ? 7. La siguiente curva: F (x, y, z) = y 3 + 27axz − 81a2 y = 0 viene parametrizada por y = 3au2 , z = au(3 + u2 ) . ar x = au(3 − u2 ) , Encuentre in a) ds/du, si s es la distancia sobre la curva medida desde el origen. b) La longitud de la curva desde el origen al punto cartesiano (2a, 3a, 4a). c) El radio de curvatura en el punto u. lim d ) La torsión y la curvatura para todo punto de la curva. e) Escriba las expresiones que resultan de usar las fórmulas de Frenet-Serret. rP re 8. El siguiente tensor está expresado en coordenadas cartesianas. 2 1 3 2 3 4 1 2 2 Escriba sus componentes en coordenadas esféricas. 9. Escriba el siguiente vector en coordenadas esféricas |ai = 2xy |ii − x |ey i + 3x |ki . Encuentre las componentes covariantes y contravariantes del vector |ai en términos de: r, θ, ϕ. 10. Diga si la siguiente transformación de coordenadas es ortogonal y = u2 − v 2 , z = w. ad o x = 2uv , 5.2. Campos tensoriales En la sección 5.1.5, cuando avanzamos en la derivación de vectores vimos vectores que dependı́an de un parámetro. Ahora podemos generalizar este concepto a tensores que dependen de una variable escalar3 rr esto es: mn···l T [◦, ◦, · · · ; •, •, · · · ](t) = Tij···k (t) , Bo mn···l Tij···k (t) wi (1) ⊗ uj (2) ⊗ · · · ⊗ v k (m) ⊗ |xm (1)i ⊗ |yn (2)i ⊗ · · · ⊗ |zl (n)i mn···l Ťij···k ⇓ i w̌ (1) j (t) ⊗ ǔ (2) k (t) ⊗ · · · ⊗ v̌ (m) (t) ⊗ |x̌m (1)i(t) ⊗ |y̌n (2)i(t) ⊗ · · · ⊗ |žl (n)i(t) , y al igual que los vectores, la dependencia funcional de los tensores variará con la base en la cual se exprese. Ası́, tendremos tensores cuyas componentes, en una determinada base, serán variables y en otra no. Mientras que una de las bases puede ser variable y otra no. Igualmente, recurriremos al cociente incremental para conocer la velocidad de variación: lı́m ∆t→0 3 Por T [◦, · · · ; •, · · · ](t+∆t) − T [◦, · · · ; •, · · · ](t) ∆t = lı́m ∆t→0 ∆T [◦, · · · ; •, · · · ](t) ∆t = d T [◦, · · · ; •, · · · ](t) dt simplicidad y, desviaciones profesionales de fı́sico utilizaremos un parámetro t que nos recuerda al tiempo 324 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES Si la base es constante, la dependencia funcional y su variación (derivada) recae sobre sus componentes. Ası́ podemos construir la derivada de las componentes como mn···l mn···l mn···l mn···l d Tij···k (t) (t) ∆Tij···k Tij···k (t + ∆t) − Tij···k (t) = lı́m = . lı́m ∆t→0 ∆t→0 ∆t ∆t dt ar Siguiendo con el proceso de generalización, podemos pensar en una dependencia funcional multilineal. Esto es que el argumento de la “función” tensorial es otro tensor, T [◦, ◦, · · · ; •, •, · · · ] = T [◦, ◦, · · · ; •, •, · · · ]G[◦,◦,··· ;•,•,··· ] . in A ese objeto se le llama Campo Tensorial, pero vamos con calma y analicemos lo casos más simples que son los verdaderamente útiles. Como era de esperarse, tendremos varios casos que se pueden construir a partir de esta idea: Función lim Campos homogéneos: : ϕ = ϕ(t) ⇐⇒ ri (t) Vector : |ri(t) Tensor : T = T [◦, ◦, · · · , ◦; •, •, · · · , •](t) r = r(t) rP re Campos constantes o estacionarios r 6= r(t) mn···l Tij···k (t) Campo Escalar : ϕ = ϕ (r) ⇐⇒ ai (r) Campo Vectorial : |ai(|ri) Campo Tensorial : T = T [◦, ◦, · · · , ◦; •, •, · · · , •](|ri) a = a (r) mn···l Tij···k (r) Campos variables o no estacionarios Campo Escalar Variable ϕ = ϕ (r(t), t) : |ai(|ri) ⇐⇒ a = a (r(t), t) ai (r(t), t) : T = T [◦, ◦, · · · , ◦; •, •, · · · , •](|ri) ad o Campo Vectorial : Campo Tensorial Bo rr La idea de los campos escalares, vectoriales, tensoriales, con argumento vectorial, es la de asociar un valor de la componente (escalar, vectorial o tensorial) a cada punto del espacio (si el vector está en R3 ). Obviamente, los campos escalares asocian un número a cada posición y los campos vectoriales, además del número (módulo) asocian una dirección y un sentido. Ejemplos de campos escalares serán las distribuciones de densidad ρ (r(t)), presiones P (r(t)) y temperaturas T (r(t)) de la atmósfera terrestre, o la distribución de intensidades del campo eléctrico en una superficie. Podemos, por ejemplo, considerar el potencial eléctrico: mn···l Tij···k (r(t), ) Figura 5.5: Ejemplo de campo escalar φ = φ (r) 2 2 φ (r) = φ(x, y) = ln (x + 1) + y 2 − ln (x − 1) + y 2 . La representación de este campo escalar se puede apreciar en la figura 5.5. 5.2. CAMPOS TENSORIALES 325 Por lo tanto, por un campo escalar entenderemos a toda función escalar de argumento vectorial, es decir, la función que asociará cada punto del espacio con un número. Esto es: φ : Rn → R φ = φ (r) ⇒ φ = φ xi = φ x̃i . in Figura 5.6: Campo escalar T = T (x, y) Campos escalares y superficies lim 5.2.1. ar Estamos enfatizando el hecho que un campo escalar no variará bajo cambios de las coordenadas en su argumento. Adicionalmente recalcamos que es indistinto hablar de vectores φ = φ (r) o sus coordenadas φ = φ xi . En la figura 5.6 se ilustra el campo escalar de temperaturas para la siguiente función: 2 T = T (x, y) = 70 + 180e−(x−3) /10−(y−2)2 /10 . rr ad o rP re En un mapa o diagrama de temperaturas, es posible unir los diferentes puntos con igual temperatura, y ası́ tendremos las curvas isotermas, tal y como se observa en la figura 5.7. 1 2 Por otra parte, un campo escalar φ = φ x , x definirá diferentes superficies si la representamos en R3 de 3 1 2 la forma: x = φ x , x . De esta manera tendremos curvas de nivel o isocurvas las cuales se corresponden a las soluciones de φ = φ xi = cte. Tal y como se ilustra en la figura 5.8, los diferentes planos para z = cte, cortan la superficie dada por la función z y definen las diferentes curvas de nivel g (x, y) = k. Bo Figura 5.7: Curvas Isotermas T = T (x, y) = cte. 5.2.2. Figura 5.8: Curvas de nivel para una función z = g (x, y) = cte. Campos vectoriales y curvas integrales Consideremos ahora un campo vectorial A (r) y estudiemos su representación, y lo que es más importante, su variación. Los campos vectoriales vienen a ser funciones vectoriales de varias variables en la que a cada punto del espacio o dominio se le asigna el vector, es decir: A (r) : Rn → Rn . Tal y como hemos dicho y volvemos a representar en la figura 5.9, los campos vectoriales asocian un vector (con su módulo dirección y sentido) a cada punto del espacio. Comúnmente, nos referimos a campos vectoriales según el caso: campos de fuerza (el vector del campo es una fuerza), campo de velocidades (el vector del campo es una velocidad). CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES in ar 326 lim Figura 5.9: Campos vectoriales rP re Del mismo modo, a aquellas lı́neas a las cuales los vectores son tangentes se les dominan lı́neas de campo, curvas integrales o simplemente lı́neas de flujo o de corriente. A las trayectorias ortogonales a estas lı́neas, vale decir, a aquellas lı́neas cuyos vectores tangentes son ortogonales al campo, se les denominarán lı́neas equipotenciales. El ejemplo más emblemático lo constituye el gradiente de un campo escalar ∇φ (x, y). Las lı́neas equipotenciales las define el campo escalar mismo, φ(x, y) = z = cte (curva de nivel) y construimos un campo vectorial con su gradiente, ∇φ (x, y). Como el gradiente es perpendicular a la curva de nivel tendremos que las curvas integrales, (lı́neas de flujo o lı́neas de corriente) del campo vectorial ∇φ(x, y) serán trayectorias ortogonales a las curvas equipotenciales. Consideremos el caso bidimensional4 en coordenadas cartesianas, y tomemos el desplazamiento diferencial dr en la dirección del campo vectorial A, es fácil convencerse que: dr ∝ A(x, y) = Ax (x, y) i + Ay (x, y)j ⇒ dx dy = , Ax (x, y) Ay (x, y) ad o con lo cual encontramos las lı́neas de flujo o curvas integrales y (x) del campo A (x, y) Z dy Ay (x, y) Ay (x, y) = ⇒ y (x) = dx . dx Ax (x, y) Ax (x, y) Otra forma, equivalente de ver lo anterior es que si A = a (x(t), y(t), z(t), t), entonces: ⇒ dr × A = 0 rr dr ∝ A ⇒ i dx Ax j dy Ay k dz Az = 0. Bo Por lo cual [Az dy − Ay dz] i + [Ax dz − Az dx] j + [Ay dx − Ax dy] k = 0 , para que finalmente dy dz dx = = . Ax (x(t), y(t), z(t), t) Ay (x (t) , y(t), z(t), t) Az (x(t), y(t), z (t) , t) La integral de estas ecuaciones definirán las lı́neas de flujo o curvas integrales. Trayectorias ortogonales a las lı́neas de flujo Para encontrar las trayectorias ortogonales al campo vectorial o las lı́neas equipotenciales construimos un campo vectorial A⊥ (x, y) que sea ortogonal en todo punto a A(x, y) A⊥ (x, y) · A(x, y) = 0 4 El ⊥ ⇒ Ax (x, y)A⊥ x (x, y) + Ay (x, y)Ay (x, y) = 0 caso tridimensional sólo añade complicaciones técnicas y no riqueza conceptual. ⇒ A⊥ Ax (x, y) y (x, y) =− ⊥ , Ay (x, y) Ax (x, y) 5.2. CAMPOS TENSORIALES 327 ⊥ donde A⊥ (x, y) = A⊥ x (x, y) i + Ay (x, y) j , y ahora procedemos del mismo modo pero con el campo vectorial A⊥ (x, y) Z ⊥ A⊥ Ay (x, y) dy y (x, y) =− ⊥ ⇒ y (x) = − dx . dx Ax (x, y) A⊥ x (x, y) 5.2.3. Flujo de campos vectoriales s s s ar Podemos también imaginar flujo de campos vectoriales. Para ello, consideramos una superficie infinitesimal dS = kdSk n̂s , con n̂s el vector unitario normal esa superficie S. Entonces, la cantidad ZZ ZZ ZZ dF = A · dS = A · n̂s dS ⇒ F = A · dS = A · n̂s dS = An̂ dS , lim in representará el flujo diferencial del campo vectorial a través de RR la superficie dS. Hemos denotado An̂ como la componente de A a lo largo de n̂s . Hay que hacer notar que F = s A·dS, el flujo total, es un escalar independiente del sistema de coordenadas y que en coordenadas cartesianas puede expresarse como 3 , 2 + A3 cos n̂ 1 + A2 cos n̂ \ \ \ dF = A · n̂s dS = A1 cos n̂ s A s A s A rP re donde A1 , A2 , A3 son las componentes cartesianas del vector A. El flujo será máximo cuando el campo es paralelo a dS y, obviamente nulo cuando el campo es paralelo a dS. La idea que esta cantidad representa un flujo puede tenerse si pensamos en un fluido incompresible que fluye con un campo de velocidades v = v (r). El volumen que atraviesa una determinada superficie en un intervalo de tiempo [ v dt, ya que la altura no dt. Ası́, dS definirá la base de un tubo de fluido y tendrá como “altura” a kvk cos n̂ s tiene por qué ser perpendicular a la base5 . Por lo tanto, la cantidad de fluido que atraviesa la superficie por unidad de tiempo viene dada por ZZ ZZ ZZ [ dS = v · n̂s dS = v · dS ⇒ F = v · dS = v · n̂s dS = vn̂ dS . dF = kvk cos n̂ s v s s s Más adelante estudiaremos las técnicas para calcular el flujo de un campo vectorial a través de una superficie cerrada que encierran un volumen V . Ejemplos ad o 5.2.4. 1. Dado el siguiente campo vectorial A = −xi + yj dy y ⇒ =− dx x Z ⇒ dy =− y Z dx +C x ⇒ y (x) = 1 C, x esto es, las hipérbolas yx = C. rr 2. Las trayectorias ortogonales al campo del ejemplo anterior son la siguientes curvas: ⇒ A⊥ = yi + xj ⇒ Bo A = −xi + yj 5.2.5. dy x = dx y ⇒ y (x) = p C 2 + x2 . Practicando con Maxima En esta sección aprovecharemos la ocasión para mostrar algunas opciones que tienen que ver con los comandos para graficar curvas de nivel. Es recomendable consultar el manual de Maxima para tener acceso al resto de posibilidades. La función contour plot(funcion, xrange, yrange, options) muestra un gráfico con curvas de nivel de la función en el rectángulo xrange-yrange. Los argumentos para las opciones son los mismos que se usan en plot3d, como por ejemplo, la opción legend con un valor false, para eliminar la leyenda. 2 2 Dado el campo de temperaturas T = T (x, y) = 70 + 180e−(x−3) /10−(y−2) /10 , mostraremos en este módulo algunas de las posibilidades utilizando como herramienta adicional la librerı́a draw. 5 De d serlo, cos n̂ v = 1 porque la velocidad es paralela a la normal. 328 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES (%i1) load(draw)$ Dado el siguiente campo escalar: ar (%i2) T(x,y):=70+180*exp(-(x-3)^2/10-(y-2)^2/10); ! 2 2 (y − 2) (x − 3) − ( %o2) T (x, y) := 70 + 180exp − 10 10 El gráfico más simple que podemos realizar es el siguiente (%i3) wxcontour_plot(T(x,y),[x,-2,10],[y,-4,10],[legend,false]); Bo rr ( %o4) (%i4) wxplot3d(T(x,y),[x,-2,10],[y,-4,10],[gnuplot_preamble,"set contour"]); ad o Otra perspectiva es rP re lim in ( %o3) (%i5) wxplot3d(T(x,y),[x,-2,10],[y,-4,10],[gnuplot_preamble,"set pm3d at b"]); ( %o5) 329 lim in ar 5.2. CAMPOS TENSORIALES (%i6) wxdraw3d(enhanced3d=true,explicit(T(x,y),x,-2,10,y,-4,10), contour_levels=8,contour=surface); rr ad o rP re ( %o6) (%i7) wxdraw3d(enhanced3d=true,explicit(T(x,y),x,-2,10,y, -4,10), contour_levels=8,contour=map); Bo ( %o7) 5.2.6. Ejercicios 1. Encuentre las curvas integrales y las trayectorias ortogonales de los siguientes campos vectoriales a) F(x, y) = − x2 i − y2 j, b) F(x, y) = xyi + 2xj, c) F(x, y) = x2 i − yj. RR 2. El vector área para una superficie S se define como S = s dS , encuentre el vector área de la superficie: x2 + y 2 + z 2 = a2 con z ≤ 0. Utilice el hecho de que en coordenadas esféricas dS = a2 sen(θ)dθdϕ êr . CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES 5.3. lim in ar 330 La fauna de los operadores vectoriales 5.3.1. rP re A partir del concepto de campo escalar, presentaremos ahora una variedad de objetos diferenciales en el espacio tridimensional. Salvo que se diga lo contrario, utilizaremos el sistema de coordenadas cartesianas, que discutimos en la sección 5.1.1 en la página 301. Derivada direccional, diferencial total y gradiente Derivada direccional de campos escalares Para analizar los cambios en los campos escalares requerimos comparar dos “instantes de tiempo”, para ello, parametrizamos las componentes del vector: z = φ (r(t)) = g (x(t), y(t)) , por lo tanto: dφ (x(t), y(t)) ∂φ (x(t), y(t)) dx(t) ∂φ (x(t), y(t)) dy(t) dr(t) = + = ∇φ (x(t), y(t)) · ; dt ∂x dt ∂y dt dt ∂φ (x, y) ∂φ (x, y) i+ j ∂x ∂y ad o donde hemos representado ∇φ (x(t), y(t)) = y dr(t) dx(t) dy(t) = i+ j. dt dt dt A ∇φ xi (t) lo llamaremos el gradiente del campo escalar φ xi (t) , y también son muy comunes otras notaciones para el gradiente: ∇φ (x(t), y(t)) = φx (x, y) i + φy (x, y)j = ∂ i φ (x, y) ii = φ,i (x, y) ii , Bo rr El gradiente de un campo escalar es uno de los objetos más útiles del cálculo vectorial, el cual lo hemos utilizado de manera operacional y no nos hemos detenido a reflexionar sobre sus propiedades. Es claro que cuando se tienen curvas de nivel g (x, y) = z = φ (r(t)) = k = cte , obtenemos dk dφ (x(t), y(t)) = =0 dt dt ⇒ dφ (x(t), y(t)) dr(t) = 0 = ∇φ (x(t), y(t)) · , dt dt con lo cual, dado que dr(t) dt es la tangente a la curva, entonces, el gradiente es perpendicular a la curva, tal y como se muestra en la figura 5.11. Si se da el caso que la función dependa de manera explı́cita del parámetro t, φ = φ xi (t), t tendremos que dr(t) ∂φ xi (t), t dφ φ = φ (x(t), y(t), z(t), t) ⇒ = = ∇φ xi (t), t · , dt ∂t dt y, en el caso particular en que el parámetro es la longitud de arco s a lo largo de la curva, la derivada total de φ con respecto a s a lo largo de la curva vendrá dada por dφ = ∇φ xi (t), t · τ̂ , ds (5.10) 331 Figura 5.10: Derivada direccional in ar 5.3. LA FAUNA DE LOS OPERADORES VECTORIALES rP re lim donde τ̂ es el vector unitario tangente a la curva en el punto dado. Además, cuando φ xi (t), t = k, entonces, al ser τ̂ tangente a esta superficie en algún punto, es claro que dφ/ds = 0 en esa dirección y ∇φ · τ̂ = 0. Por lo tanto, ∇φ será normal a la superficie φ xi (t), t = k. Por otro lado, la derivada direccional indicará la tasa de cambio del campo escalar en la dirección que apuntemos. Es una generalización de la idea que surge de parametrizar la curva o de la derivada total respecto al tiempo. Dados −−−→ dos puntos M y M 0 definiremos la derivada en la dirección de un vector unitario û ↔ M 0 M como se muestra a continuación: φ (M 0 ) − φ (M ) dφ Dû φ ≡ lı́m = = ∇φ (x, y) · û . (5.11) −−− → M 0 →M 0 dλ MM Tal y como se puede apreciar en la figura 5.10 la derivada direccional está representada por la pendiente de la recta tangente a la curva que surge como intersección entre la superficie φ (x, y) = z = k = cte, el plano vertical formado por el eje z y el vector unitario û. En este punto, varias reflexiones se pueden derivar del concepto de derivada total. La primera es que dado que, la derivada direccional a lo largo de û es ad o \û) , Dû φ = ∇φ · û = |∇φ| cos (∇φ, \û como el ángulo que forman los vectores ∇φ y û), el valor máximo de la (donde hemos denotado por ∇φ, derivada direccional será s r 2 2 2 p ∂φ ∂φ ∂φ ∂φ ∂φ i Dû φmáx = |∇φ| = ∂ φ∂i φ ≡ ≡ + + . ∂xi ∂xi ∂x1 ∂x2 ∂x3 Bo rr Es decir, cuando û apunta en la dirección del gradiente o, lo que es lo mismo, en la dirección de la mayor tasa de cambio; el valor máximo lo indica la dirección del gradiente. O dicho de otro modo, en un determinado punto M de las superficie φ (x, y) = z el vector ∇φ apunta en la dirección de la máxima tasa de cambio, tal y como podemos apreciar en la figura 5.11. La segunda reflexión es dado que el gradiente es ortogonal a la superficie, los vectores perpendiculares a él conformarán el plano tangente a la superficie en un determinado punto. La tercera emerge de la misma definición (5.11), es claro que la derivada direccional es un escalar, por lo tanto, como û es un vector, ∇φ (x, y) debe ser una 1−forma. Vale decir, como veremos con mas detalle en las secciones 5.3.1 y 5.3.2 grad φ = ∇φ = Donde denotamos hĩ = ∂hr| ∂q i ei ∂φ ei 1 ∂φ 1 1 ∂φ 2 1 ∂φ 3 + + = e e e = ∂i φ . h1 ∂q 1 h2 ∂q 2 h3 ∂q 3 hĩ ∂q i hĩ = √ gii los factores de escala que acompaña a la base ei generalizada. CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES in ar 332 lim Figura 5.11: Dirección de máxima variación en una función. Gradiante y tangente de una función. Gradiente y flujo de un campo vectorial rP re Podemos utilizar la idea de flujo de un campo vectorial y generalizar la definición de gradiente para que sea independiente de las coordenadas. ZZ ZZ 1 1 ∇φ = grad φ = lı́m φ(x, y, z)dS = lı́m φ(x, y, z) n̂s dS . V →0 V V →0 V s s Supongamos que construimos un campo vectorial de la forma siguiente a (x, y, z) = c φ (x, y, z) , con lo cual ZZ F = con c = cte , ZZ c φ(x, y, z) · dS = c φ(x, y, z) · n̂s dS . s s ad o Es claro que esta expresión vale para todos los sistemas de coordenadas. En particular, para un sistema de coordenadas cartesianas construimos un cubo diferencial con aristas que coincidan con los ejes coordenados. Entonces se tiene que las caras del cubo serán dSx+ = (dy dz) i ; dSx− = − (dy dz) i ; dSy+ = (dx dz) j ; dSz+ = (dx dy) k ; dSz− = − (dx dy) k , dSy− = − (dx dz) j ; rr con lo cual, el flujo por las seis caras es dF = c φ(x, y, z) · dSx+ + c φ(x, y, z) · dSx− + c φ(x, y, z) · dSy+ Bo + c φ(x, y, z) · dSy− + c φ(x, y, z) · dSz+ + c φ (x, y, z) · dSz− , por lo tanto dF = c [φ (x + dx, y, z) dy dz − φ(x, y, z)dy dz + φ (x, y + dy, z) dx dz − φ (x, y, z) dx dz + φ (x, y, z + dz) dx dy − φ(x, y, z)dx dy] = c [{φ (x + dx, y, z) − φ (x, y, z)} dy dz + {φ (x, y + dy, z) − φ(x, y, z)} dx dz+ + {φ (x, y, z + dz) − φ (x, y, z)} dx dy] . Como estamos considerando un “cubo diferencial” podemos desarrollar por Taylor hasta primer orden, por lo que: ∂φ (x, y, z) ∂φ (x, y, z) φ (x + dx, y, z) ≈ φ (x, y, z) + dx , φ (x, y + dy, z) ≈ φ (x, y, z) + dy , ∂x ∂y 5.3. LA FAUNA DE LOS OPERADORES VECTORIALES 333 φ (x, y, z + dz) ≈ φ (x, y, z) + ∂φ (x, y, z) dz . ∂z Con lo cual ∂φ (x, y, z) ∂φ(x, y, z) ∂φ(x, y, z) dx dy dz + dy dx dz + dz dx dy ∂x ∂y ∂z ∂φ (x, y, z) ∂φ (x, y, z) ∂φ (x, y, z) = + + dV ⇒ dF = grad φ dV , ∂x ∂y ∂z = ar dF entonces ZZ ZZ 1 V →0 V φ (x, y, z) dS = lı́m s Nótese que hemos supuesto que ∆V ≡ V2 ≡ V y que F2 = con lo cual el flujo a través de un punto se anula, F1 ∼ 0. RR s Gradiente y coordenadas curvilı́neas φ (x, y, z) n̂ dS . s in F2 − F1 dF 1 = lı́m = lı́m ∆V →0 V2 − V1 V →0 V dV φ(x, y, z)dS. Que quiere decir que tanto V1 ∼ 0 lim grad φ = La generalización de la expresión del gradiente en coordenadas curvilı́neas es inmediata a partir de diferencial total de una función φ(q 1 , q 2 , q 3 ). Esto es con grad φ q i = y hdr| = ⇒ dφ = ∂φ(q 1 , q 2 , q 3 ) j dq ∂q j rP re φ(q 1 , q 2 , q 3 ) = φ q j 1 ∂hr| ∂q 1 ∂φ 1 e + ∂q 1 ∂ hr| 1 ∂ hr| 2 ∂ hr| 3 ∂ hr| dq + dq + dq ≡ ∂q 1 ∂q 2 ∂q 3 ∂q 1 1 ∂hr| ∂q 2 ∂φ 2 e + ∂q 2 e1 dq 1 + 1 ∂φ 3 e , ∂q 3 ∂hr| ∂q 3 ∂ hr| ∂q 2 ∂ hr| ∂q 3 e2 dq 2 + e3 dq 3 , ya que, al igual que en el caso de los vectores, la base del espacio dual se construye como 1 ∂hr| ∂q 1 ∂ hr| ; ∂q 1 e2 = ad o e1 = 1 ∂hr| ∂q 2 ∂ hr| ; ∂q 2 y e3 = 1 ∂hr| ∂q 3 ∂ hr| . ∂q 3 Es decir, la forma general del gradiente para un sistema de coordenadas curvilı́neas ortogonales es grad φ = ∇φ = ∂hr| ∂q i rr Donde denotamos hĩ = = ei ∂φ ei 1 ∂φ 1 1 ∂φ 2 1 ∂φ 3 e + e + e = = ∂i φ . 1 2 3 i h1 ∂q h2 ∂q h3 ∂q hĩ ∂q hĩ √ gii el factor de escala que acompaña a la base ei y debe quedar claro que Bo en el lado derecho de la ecuación (5.3.1) la suma es únicamente sobre los ı́ndices de |ei i y ∂i . La tilde en el indice ĩ es para indicar que simplemente replica el valor que toma el ı́ndice i. 5.3.2. Divergencia y flujo en campos vectoriales Revisando con un poco más de cuidado la expresión para el gradiente podemos ver que he1 | ∂ he2 | ∂ he3 | ∂ grad φ = + + φ, h1 ∂q 1 h2 ∂q 2 h3 ∂q 3 es decir, con esta inspiración podemos construir un funcional lineal ∇≡ he1 | ∂ he2 | ∂ he3 | ∂ + + , H ∂q 1 F ∂q 2 G ∂q 3 donde: H = H(h1 , h2 , h3 ), F = F(h1 , h2 , h3 ) y G = G(h1 , h2 , h3 ). 334 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES ar Con lo cual, si cuidamos el orden de operación, podremos realizar un “producto interno entre una 1-forma, ∇ y un vector a” de la forma he2 | ∂ he3 | ∂ he1 | ∂ + + · a1 |e1 i + a2 |e2 i + a2 |e3 i ∇·a ≡ 1 2 3 H ∂q F ∂q G ∂q he1 | ∂ a1 |e1 i + a2 |e2 i + a2 |e3 i he2 | ∂ a1 |e1 i + a2 |e2 i + a2 |e3 i = + · · H ∂q 1 F ∂q 2 1 he3 | ∂ a |e1 i + a2 |e2 i + a2 |e3 i + . · G ∂q 3 in Aquı́ es importante tener cuidado con la posible variación de los vectores base. Notemos que si consideremos el caso de coordenadas cartesianas: q i → (x, y, z), donde la base {|ei i} → {|ex i , |ey i , |ez i} es constante, entonces tendremos de forma inmediata: ∂ax (x, y, z) ∂ay (x, y, z) ∂az (x, y, z) ∂ai xj ≡ ∂i ai xj = + + . ∇·a= i ∂x ∂x ∂y ∂z lim Divergencia como medida de flujo El significado fı́sico de la divergencia puede comprenderse si consideramos la siguiente definición, independiente del sistema de coordenadas ZZ ZZ ZZ dF 1 1 1 div a = = lı́m a · dS ≡ lı́m a · n̂s dS = lı́m an̂ dS . V →0 V V →0 V V →0 V dV s s s rP re Es decir, el flujo por unidad de volumen. Otra vez, para un sistema de coordenadas cartesianas construimos un cubo diferencial con aristas que coincidan con los ejes coordenados. Entonces se tiene que las caras del cubo son como las describimos anteriormente, ver ecuaciones (5.3.1). El flujo por las seis caras será dF = a · dSx+ + a · dSx− + a · dSy+ + a · dSy− + a · dSz+ + a · dSz− con lo cual dF = ax (x + dx, y, z) dy dz − ax (x, y, z)dy dz + ay (x, y + dy, z) dx dz − ay (x, y, z) dx dz + az (x, y, z + dz) dx dy − az (x, y, z) dx dy = [ax (x + dx, y, z) − ax (x, y, z)] dydz + [ay (x, y + dy, z) − ay (x, y, z)] dxdz + [az (x, y, z + dz) − az (x, y, z)] dxdy . ad o Desarrollando por Taylor otra vez, tendremos ax (x + dx, y, z) ≈ ax (x, y, z) + ∂ax (x, y, z) dx ; ∂x ay (x, y + dy, z) ≈ ay (x, y, z) + az (x, y, z + dz) ≈ az (x, y, z) + ∂az (x, y, z) dz . ∂z ∂ay (x, y, z) ∂az (x, y, z) ∂ax (x, y, z) dx dy dz + dy dx dz + dz dx dy ∂x ∂y ∂z ∂ax (x, y, z) ∂ay (x, y, z) ∂az (x, y, z) = a · dS = + + dV . ∂x ∂y ∂z rr Para obtener ∂ay (x, y, z) dy ; ∂y Bo dF = Consecuentemente ZZ ZZZ ZZZ ∂ax (x, y, z) ∂ay (x, y, z) ∂az (x, y, z) F = a · dS = + + dV ≡ (∇ · a) dV . ∂x ∂y ∂z S V V La primera conclusión es que podemos convertir una integral de superficie cerrada de un campo vectorial, en una integral de volumen encerrada por RR esa misma superficie. Lo hemos demostrado para el caso de coordenadas cartesianas, pero como el flujo F = S a · dS es un escalar, esta afirmación vale para cualquier sistema de coordenadas. Esto se conoce como el Teorema de la Divergencia el cual veremos más adelante (ver sección 5.5.1 en la página 370). A partir de este teorema tenemos que si la divergencia de un campo vectorial en positiva lo interpretaremos como flujo hacia afuera (saliente) del volumen V encerrado por la superficie, S, y si la divergencia del campo es negativa tendremos flujo entrante. Como ilustración puede ver el ejemplo de la página 350. 5.3. LA FAUNA DE LOS OPERADORES VECTORIALES 335 Divergencia y coordenadas curvilı́neas Para encontrar la expresión para la divergencia en coordenadas curvilı́neas generalizadas, q i = (q 1 , q 2 , q 3 ), partimos de la definición invariante de sistema de coordenadas ZZ ZZ ZZ 1 1 1 a · dS ≡ lı́m a · n̂s dS = lı́m an̂ dS . div a = lı́m V →0 V V →0 V V →0 V s s s |e1 i , dSq1 − = − ds→q2 ds→q3 |e1 i , ds→q1 dq2 |e2 i , dSq2 − = − ds→q3 ds→q1 |e2 i , ds→q2 dq3 |e3 i , dSq3 − = − ds→q1 ds→q2 |e3 i , dSq2 + = ds→q3 dSq3 + = ds→q1 dq 1 in dSq1 + = ds→q2 ds→q3 ar Al igual que procedimos en coordenadas cartesianas, ahora consideraremos un “paralelepı́pedo curvilı́neo” con tres de sus aristas alineadas con el sistema ortogonal curvilı́neo. Las caras de este “paralelepı́pedo curvilı́neo podrán ser representadas como ds→qi = √ gii dq i = hi dq i , lim donde denotamos ds→qi el arco de curva a lo largo de la coordenadas curvilı́neas generalizada q i . Los paréntesis (·)dqi indican que esta superficie es evaluada en q i + dq i . Adicionalmente, es de hacer notar que aquı́ los ı́ndices repetidos NO indican suma. rP re Ahora bien, dado que |ai ≡ a = ai (q j ) |ei i, el flujo por las seis caras será dF = a · dSq1 + + a · dSq1 − + a · dSq2 + + a · dSq2 − + a · dSq3 + + a · dSq3 − . Para comenzar vemos que es el flujo del campo vectorial, ai (q j ), lo que está siendo evaluado en dos puntos distintos: a · dSq1 − = a1 (q i ) h2 h3 dq 2 dq 3 , a · dSq2 − = a2 (q i ) h3 h1 dq 3 dq 1 , a · dSq3 − = a3 (q i ) h1 h2 dq 1 dq 2 . Con lo cual es el flujo lo que debemos desarrollar por Taylor. 1 a 1 2 3 1 i ad o a2 ∂ a1 (q i )h2 h3 q + dq , q , q h2 h3 = a (q )h2 h3 + dq 1 , ∂q 1 ∂ a2 (q i )h3 h1 1 2 2 3 2 i q , q + dq , q h3 h1 = a (q )h3 h1 + dq 2 , ∂q 2 ∂ a3 (q i )h1 h2 1 2 3 3 3 i dq 3 . q , q , q + dq h1 h2 = a (q )h1 h2 + ∂q 3 1 a3 rr Nótese que el caso cartesiano no se hizo explı́cito este hecho por cuanto h3 = h2 = h1 = 1. Entonces el flujo diferencial para el caso de coordenadas curvilı́neas será ∂ a1 (q i )h2 h3 ∂ a2 (q i )h3 h1 ∂ a3 (q i )h1 h2 1 2 3 2 3 1 dF = dq dq dq + dq dq dq + dq 3 dq 1 dq 2 . ∂q 1 ∂q 2 ∂q 3 Bo Recordamos que el diferencial de volumen es √ √ √ dV = ds→q1 ds→q2 ds→q3 = g11 dq 1 g22 dq 2 g33 dq 3 = h1 h2 h3 dq 1 dq 2 dq 3 , donde denotamos a ds→qi como el arco de curva a lo largo de la coordenadas curvilı́neas generalizada q i . Con lo cual identificamos la forma genérica de la divergencia en coordenadas curvilı́neas ortogonales " # ∂ a1 (q i )h2 h3 ∂ a2 (q i )h3 h1 ∂ a3 (q i )h1 h2 1 dF div a = ∇ · a = = + + . dV h1 h2 h3 ∂q 1 ∂q 2 ∂q 3 Si hacemos h = h1 h2 h3 , entonces podemos escribir la divergencia de manera más compacta 1 ∂ ai (q j )h div a = ∇ · a = . h ∂q i hı̂ 336 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES pero siempre teniendo en cuenta que la suma es sobre los indices de ai y ∂/∂q i , por lo que queda indicado que el indice ı̂ simplemente replica el valor que tome el indice i. Consideremos con más cuidado el caso en el cual la superficie S contiene el origen de coordenadas. Es claro que si el volumen contenido entre dos esferas de distintos radio r̃ < r, centradas en el origen y con superficies S̃ y S respectivamente no contiene al origen entonces el flujo será nulo ZZZ ZZ ZZ F = div a dV = 0 = a · n̂s dS + a · n̂s̃ dS̃ . s s ar V El campo vectorial sobre la superficie S̃ de la esfera de radio r̃ es ZZ ZZ a · n̂s̃ dS̃ = s̃ s̃ q êr · (−êr ) dS̃ = − r̃2 es decir, ZZ ZZ a · n̂s dS = s s̃ y n̂s̃ ≡ −êr , q ds→θ ds→ϕ = r̃2 ZZ s̃ ZZ s̃ q ds→θ ds→ϕ , r̃2 lim con lo cual q êr , r̃2 in a= q 2 r̃ sen(θ)dθ dϕ = q r̃2 Z π Z sen(θ)dθ 0 2π dϕ = 4πq , 0 5.3.3. rP re ya que: dS̃ = hθ dθ hϕ dϕ ≡ r̃dθ r̃sen(θ)dϕ. Tenemos entonces que el flujo de un campo singular en un punto (el origen de coordenadas), digamos: a (r) = q ê r 2 r , a través de una superficie que encierra ese punto singular, no es nulo y es igual a 4πq. El campo vectorial a (r), se denominará campo de una partı́cula fuente si q > 0 y campo de un sumidero si q < 0. Rotores, lı́neas de torbellino y circulación Del mismo modo como hemos venido procediendo, haremos otra operación vectorial con el operador nabla ∇. Tendremos entonces el rotor o rotacional actuando u operando sobre un campo vectorial ∇ × a. En coordenadas cartesianas podremos expresar esta operación como = ∂ak ii = (∂2 a3 − ∂3 a2 ) i1 + (∂3 a1 − ∂1 a3 ) i2 + (∂1 a2 − ∂2 a1 ) i3 ∂xj i j k (∂y az − ∂z ay ) i + (∂z ax − ∂x az ) j + (∂x ay − ∂y ax ) k ≡ ∂x ∂y ∂z . ax ay az εijk ∂j ak ii ≡ εijk ad o ∇×a = (5.12) rr El rotor de un campo vectorial genera otro campo (pseudo) vectorial llamado campo rotor del campo vectorial. Por razones que serán evidentes enseguida, las curvas integrales de este campo rotor se denominan lı́neas de torbellino. Lı́neas de torbellino Bo Tal y como se detalló en la sección 5.2.2 de la página 325 las lı́neas de flujo se construyen a partir de un vector diferencial paralelo a campo vectorial en cada punto. Esto es, si b=∇×a= i ∂x ax j ∂y ay k ∂z az = (∂y az − ∂z ay ) i + (∂z ax − ∂x az ) j + (∂x ay − ∂y ax ) k , tendremos que dr ∝ b = ∇ × a implica que dy dz dx dy dz dx = = = dλ = = = , bx (x, y, z) by (x, y.z) bz (x, y.z) (∂y az − ∂z ay ) (∂z ax − ∂x az ) (∂x ay − ∂y ax ) donde hemos parametrizado la curva con λ. 337 in ar 5.3. LA FAUNA DE LOS OPERADORES VECTORIALES Figura 5.12: Rotores de un campo vectorial, lı́neas de torbellino lim Lı́neas de campo ortogonales a superficies Hemos visto como la condición dr ∝ b = ∇ × a encuentra lı́neas (de torbellino) perpendiculares al campo a (x, y, z). Uno también puede plantearse encontrar el conjunto de superficies para las cuales las lı́neas de flujo del campo vectorial, a (x, y, z), sean perpendiculares. Para ello suponemos que existen estas superficies y que se representan, matemáticamente, como un función ϕ = ϕ (x, y, z). Por lo tanto: ⇒ ∇ × [ϕa] = ∇ϕ × a + ϕ∇ × a = 0 , rP re ∇ϕ ∝ a es decir, ∇ϕ es proporcional al campo a (x, y, z) y al aplicar el rotor a ambos miembros se anula. Más aún, al proyectar sobre el mismo vector a la ecuación de la derecha nos queda a · [∇ϕ × a] + a · [ϕ∇ × a] = 0 , ambos sumandos se anulan por definición de producto vectorial, pero el segundo sumando a · [∇ × a] = 0 , ad o impone una condición sobre el campo independiente de la función de proporcionalidad. Por lo tanto, la condición necesaria y suficiente para que las lı́neas de flujo de un campo vectorial a (x, y, z) sean perpendiculares a un conjunto de superficies ϕ = ϕ (x, y, z) es a · [∇ × a] = 0 . rr Si a (x, y, z) fuese un campo de fuerza, digamos para el caso de un fluido en equilibrio estático ∇p = ρF , Bo entonces, esta ecuación nos permite determinar como estarı́a estratificada la presión en el fluido. Al tomar ∇ × [ρF] ⇒ F · [∇ × F] = 0 , por lo tanto, F será siempre ortogonal al rotor de la fuerza en todo punto del campo, es decir, el equilibrio sólo es posible si las lineas de fuerza F de siempre son ortogonales a las trayectorias de ∇ × F. Circulación de un campo vectorial La concepto (y el nombre de rotor ) surge de la idea de rotación (¿circulación?) que este operador descubre al ser “aplicado” a un campo vectorial. Como se muestra en la figura 5.13, la idea intuitiva es colocar un “detector” de rotación inmerso en el campo. En este caso es un par de aspas e imaginamos que el campo vectorial representa un campo de velocidades de un fluido. Si el fluido hace girar las aspas en sentido horario (tirabuzón o sacacorchos derecho hacia arriba) diremos que el campo tiene una “circulación” positiva y el rotor del campo siempre será positivo en esa región. Si es a la inversa, diremos que el campo tiene una “circulación” negativa y el rotor también CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES lim Figura 5.13: Idea sobre el significado fı́sico del rotor in ar 338 lo será en esa región. Finalmente, si el par de aspas no rota, el campo tendrá una circulación nula o no tendrá circulación y su rotor será también nulo en esa región. La idea de circulación se puede generalizar si tomamos un campo vectorial genérico a = ax (x, y, z)i+ay (x, y, z) j+az (x, y, z)k , rP re con lo cual, la integral de lı́nea cerrada, a lo largo de una circunferencia de radio, r, en el plano xy será I Z 2π Γ = a · dr = [ax (x, y, z)i+ay (x, y, z) j+az (x, y, z)k] · [−rsen(ϕ)i + r cos(ϕ)j] dϕ , 0 y suponiendo r 1 podemos desarrollar por Taylor las componentes del campo vectorial en al plano xy alrededor del origen de coordenadas rx,y ∼ 0. Esto es ∂ax ∂x r=0 +y ay (x, y, 0) = ay |r=0 + x ∂ay ∂x +y ∂ax ∂y ∂ay ∂y r=0 ad o ax (x, y, 0) = ax |r=0 + x r=0 r=0 + · · · = ax |r=0 + r cos(ϕ) ∂ax ∂x r=0 + rsen(ϕ) + · · · = ay |r=0 + r cos(ϕ) ∂ay ∂x + rsen(ϕ) r=0 ∂ax ∂y ∂ay ∂y + ··· r=0 + ··· r=0 Por lo tanto, la integral de lı́nea nos queda como I Γ= Z a · dr = ∂ax ∂ax − ax |r=0 + r cos(ϕ) + rsen(ϕ) rsen(ϕ)dϕ+ ∂x r=0 ∂y r=0 Z 2π ∂ay ∂ay + rsen(ϕ) + ay |r=0 + r cos(ϕ) ∂x ∂y 0 r=0 rr 0 2π con los cual I Bo Γ= a · dr = πr2 ∂ay ∂x − r=0 ∂ax ∂y r cos(ϕ)dϕ , r=0 + O r3 . r=0 Finalmente vemos que la componente del rotor en el origen del plano xy es igual al lı́mite de la circulación a lo largo de una curva cerrada, dividida entre el área de la superficie que encierra la curva cerrada. ∂ay ∂x − r=0 ∂ax ∂y = lı́m r=0 r→0 Γ . πr2 Rotores y velocidades angulares Considere un cuerpo rı́gido que gira alrededor de un eje con velocidad angular ω. Entonces la velocidad tangencial de un punto P , con una posición r medida a un origen O situado en ese eje, siempre es v = ω × r = i (ωy z − ωz y) + j (ωz x − ωx z) + k (ωx y − ωy x) , 5.3. LA FAUNA DE LOS OPERADORES VECTORIALES 339 y su rotor será ∇ × v = (∂y vz − ∂z vy ) i + (∂z vx − ∂x vz ) j + (∂x vy − ∂y vx ) k ≡ i ∂x vx j ∂y vy k ∂z vz , 3ω i − ω i = 2ω i . in = ar es decir, por ser un cuerpo rı́gido la velocidad angular ω es independiente de r; o lo que es lo mismo, todo el cuerpo rı́gido tiene la misma velocidad angular. Con ello tendremos que j i j (∇ × v)i = εijk ∂j (ω × r)k = εijk ∂j εklm ω l rm = εijk εlmk ∂j (ω l rm ) = δli δm − δm δl ∂j ω l rm j i j j i j j l m i j l m = δli δm − δm δl ω l ∂j rm = δli δm − δm δl ω l δjm = δli δm ω δj − δm δl ω δj por lo tanto Si no hubiésemos utilizado la notación de ı́ndices tendrı́amos lim ∇ × v = 2ω (∇ × v)x = (∂y vz − ∂z vy ) = ∂y (ωx y − ωy x) − ∂z (ωz x − ωx z) = 2ωx , (∇ × v)y = (∂z vx − ∂x vz ) = ∂z (ωy z − ωz y) − ∂x (ωx y − ωy x) = 2ωy , rP re (∇ × v)z = (∂x vy − ∂y vx ) = ∂x (ωz x − ωx z) − ∂y (ωy z − ωz y) = 2ωz . Otra vez, el rotor de un campo de velocidades de un cuerpo (que rota) “detecta” su velocidad angular. Rotores y coordenadas curvilı́neas Una vez más recurrimos a una definición para el rotor independiente del sistemas de coordenadas ZZ ZZ 1 1 dS × a = lı́m n̂s × a dS , ∇ × a = rot a = lı́m V →0 V V →0 V ad o y del mismo modo que calculamos el flujo a través de las distintas capas de un volumen podremos (no lo haremos y se lo dejaremos al lector) demostrar que para un sistema de coordenadas ortogonal: " " " # # # ∂ h2 a2 ∂ h3 a3 ∂ h1 a1 |e1 i ∂ h3 a3 |e2 i ∂ h1 a1 |e3 i ∂ h2 a2 ∇×a= − + − + − . h2 h3 ∂q 2 ∂q 3 h1 h3 ∂q 3 ∂q 1 h1 h2 ∂q 1 ∂q 2 de manera más compacta rr 1 ijk ∂ hk̂ ak 1 rot a = ∇ × a = [∇ × a] |ei i = ε |ei i = ĥ hk̃ ∂q j h i h1 |e1 i h2 |e2 i h3 |e3 i ∂ ∂q 1 h1 a1 ∂ ∂q 2 h2 a2 ∂ ∂q 3 h3 a3 , Bo donde los ı́ndices repetidos i, j, k indican suma; mientras que los ı́ndices ̂ y k̂ no indican suma sino que replican los valores de los ı́ndices j, k y h = h1 h2 h3 . 5.3.4. Formulario del operador nabla, ∇ El operador nabla, ∇, en las fórmulas anteriores actúa como un funcional lineal, esto es, dadas ϕ (r), χ (r) y ψ (r) funciones escalares de variable vectorial o, a y b dos campos vectoriales cualesquiera, se puede generar el siguiente formulario, el cual deberá ser demostrado por el lector ∇ (ϕ + χψ) = ∇ϕ + ∇ (χψ) = ∇ϕ + ψ∇χ + χ∇ψ ∇ · (a + ϕb) = ∇ · a + ϕ∇ · b + ∇ϕ · b ∇ × (a + ϕb) = ∇ × a + ∇ × (ϕb) = ∇ × a + ∇ϕ × b + ϕ∇ × b , 340 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES y también, si consideramos las cantidades a · b y a × b tendremos ∇ (a · b) = ∂ i aj bj ei = (∇ · a) b + (∇ · b) a ∇ · (a × b) = ∂ i εijk aj bk = εijk ∂ i aj bk + εijk ∂ i bk aj = (∇ × a) · b − a · (∇ × b) ∇ × (a × b) = (b · ∇) a − b (∇ · a) + a (∇ · b) − (a · ∇) b es claro que aj ∂ i bi = 6 bi (∂ i aj ) , ⇐⇒ ar a (∇ · b) 6= (b · ∇) a y a = a (χ (r)) . En este caso, tendremos ∇ψ (χ (r)) = dψ ∇χ; dχ ∇ · a (χ (r)) = ∇χ · da ; dχ lim ψ = ψ (χ (r)) in por cuanto en las partes izquierdas las derivadas actúan sobre las componentes de b, mientras que en las partes derechas es sobre las componentes de a. Otros casos importantes se presentan cuando los campos escalares y/o vectoriales son a su vez funciones de un campo escalar. Es decir, funciones compuestas. Esto es ∇ × a (χ (r)) = (∇χ) × da . dχ a = a (r0 ) + rP re da Para demostrar, por ejemplo, ∇ · a (χ (r)) = ∇χ · dχ , utilizamos la estrategia de Taylor y expandimos el campo vectorial alrededor de un determinado punto, digamos r = r0 arbitrario. Esto es da dχ (χ (r) − χ (r0 )) + r0 1 d2 a 2 dχ2 M aplicando la divergencia a ambos miembros queda como " # 2 da 1 d a ∇ · a = ∇ · [a (r0 )] + ∇ · (χ (r) − χ (r0 )) + ∇ · dχ r0 2 dχ2 ∇·a= ad o con lo cual da dχ · ∇χ (r) + (χ (r) − χ (r0 )) r0 d2 a dχ2 · ∇χ (r) + r0 2 (χ (r) − χ (r0 )) + · · · (χ (r) − χ (r0 )) 2 + ··· M 3 1 2 d a (χ (r) − χ (r0 )) 2 dχ3 · ∇χ (r) + · · · r0 Esta relación vale para todo r, en particular para r = r0 . Con lo cual da dχ · ∇χ (r0 ) =⇒ ∇·a= r0 da · ∇χ (r) , dχ rr ∇ · a|r0 = ya que r0 es arbitrario, con lo cual queda demostrado. Nabla dos veces y el laplaciano Bo 5.3.5. Considerando a Nabla, ∇, como un funcional surge la pregunta de su aplicación repetida sobre distintos objetos. Consideremos primero las siguientes expresiones en coordenadas cartesianas. Esto es ∇ · ∇φ = ∇ × ∇φ = ∇ (∇ · a) = ∇ × (∇ · a) = ∇ × (∇ × a) = = ∇2 φ = ∆φ = ∂ i ∂i φ ijk ε ∂j ∂k φ ii = 0 i j ∂ ∂ aj ii = ∂ j ∂ i aj ii ∇ · (∇ × a) = 0 h i ijk j i j ε ∂j εklm ∂ l am ii = δli δm − δm δl ∂j ∂ l am ii i ∂ ∂j aj ii − ∂j ∂ j ai ii = ∇ (∇ · a) − ∆a . (5.13) (5.14) (5.15) (5.16) (5.17) 5.3. LA FAUNA DE LOS OPERADORES VECTORIALES 341 Laplaciano y campos escalares Más allá de la gimnasia de ı́ndices para determinar la expresión de la relación vectorial, quizá la más importante de las aplicaciones es el laplaciano, ∇2 ≡ ∆, el cual en R3 y en coordenadas cartesianas puede expresarse como: ∇ · ∇φ = ∇2 φ = ∆φ = ∂ i ∂i φ = ∂xx φ + ∂yy φ + ∂zz φ . ar La importancia el laplaciano reside en que la mayor parte (casi todas) las ecuaciones de la fı́sica matemática son ecuaciones diferenciales (ordinarias y parciales) de segundo orden y el laplaciano las genera en el espacio, como la solución a la ecuación armónica, o ecuación e Laplace: ∆φ = ∂ i ∂i φ = ∂xx φ + ∂yy φ + ∂zz φ = 0 , ∆ (φ + Cψ) = ∆φ + C∆ψ , in que es de gran importancia en varias áreas de la Fı́sica: electrostática, electrodinámica, teorı́a de la gravitación, ondas, mecánica de fluı́dos, mecánica cuántica; por citar algunas. Se puede demostrar fácilmente que el laplaciano cumple con ∆ (φψ) = φ∆ψ + ψ∆φ + 2∇ψ · ∇φ . lim Laplaciano y campos vectoriales Inspirado en la forma que toma un campo vectorial en coordenadas cartesianas, definiremos el laplaciano de un campo vectorial como la relación ∆ a = ∇ (∇ · a) − ∇× (∇×a) . rP re Desarrollando esta expresión en coordenadas cartesianas tendremos que ∆ a = ∂ i ∂ j aj − ∂ i ∂j aj − ∂j ∂ j ai ii =⇒ ∆a = ∂j ∂ j ai ii ≡ ∆ai ii . Es decir, que el laplaciano de un campo vectorial, expresado en coordenadas cartesianas, es igual al vector cuyas componentes son los laplacianos de las componentes del campo original. Es importante resaltar que la expresión ∆a = ∆ai ii se cumple únicamente en coordenadas cartesianas pero la definición que hemos propuesto en la ecuación (5.3.5) es una ecuación vectorial y es, por lo tanto, válida en cualquier sistema de coordenadas. El laplaciano de campos vectoriales no lleva construir un formulario de relaciones fácilmente demostrables ∆ (∇φ) = ∇ (∆φ) ; ∇ · (∆a) = ∆ (∇ · a) ; ∇× (∆ a) = ∆ (∇×a) . Un campo vectorial a = a(r) de denomina un campo laplaciano si es ad o irrotacional: ∇ × a = 0 y solenoidal: ∇ · a = 0 . en todo punto del campo. De esta manera, un campo laplaciano es un potencial, es decir: ∇×a=0 ⇒ a = ∇φ Este campo queda completamente determinado por el potencial escalar que satisface la ecuación de Laplace ∇ · a = ∇ · ∇φ = ∆φ = 0 . rr A las soluciones de esta ecuación se les denomina soluciones armónicas. Laplaciano y coordenadas curvilı́neas Bo Considerando las expresiones para el gradiente y la divergencia en coordenadas curvilı́neas grad φ = ∇φ = 1 ∂φ 1 1 ∂φ 2 1 ∂φ 3 e + e + e , 1 2 h1 ∂q h2 ∂q h3 ∂q 3 y 1 div a = ∇ · a = h1 h2 h3 " # ∂ a1 (q i )h2 h3 ∂ a2 (q i )h3 h1 ∂ a3 (q i )h1 h2 + + , ∂q 1 ∂q 2 ∂q 3 respectivamente, es fácil llegar a la expresión para el laplaciano en coordenadas curvilı́neas 1 ∂ h2 h3 ∂φ ∂ h1 h3 ∂φ ∂ h2 h1 ∂φ ∇2 φ ≡ ∆φ = + + . h1 h2 h3 ∂q 1 h1 ∂q 1 ∂q 2 h2 ∂q 2 ∂q 3 h3 ∂q 3 Antes de continuar con la siguiente sección, consideremos estos dos puntos importantes: 342 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES De la divergencia (5.3.2) y el rotor (5.3.3) tenemos = = ar ∇·∇×a " " # # k h 1 ∂ 1 ∂ h 1 ijk ∂ hk̃ ak 1 ∂ i ijk ∂ hk̃ a [∇ × a] = ε = ε h ∂q i hĩ h ∂q i hĩ hj̃ hk̃ ∂q j h ∂q i ∂q j 1 ijk ∂ 2 hk̃ ak =0 ε h ∂q i ∂q j debido a la simetrı́a para i y j en la segunda derivada y la antisimetrı́a del Levi-Civita cuando se intercambia i por j. Por lo tanto: in ∇ · ∇ × a = 0. Del gradiente (5.3.1) y el rotor (5.3.3) tenemos 2 1 ijk ∂ 1 ijk ∂ φ k h [∇φ] |e i = |ei i = 0 . ε ε i k̃ hj̃ hk̃ ∂q j hj̃ hk̃ ∂q j ∂q k lim ∇ × ∇φ = Por la misma razón del caso anterior. Entonces se tiene que ∇ × ∇φ = 0 . rP re A los campos vectoriales con rotor nulo se les denominan campos irrotacionales. Por (5.3.5) se tiene entonces que el gradiente es irrotacional. Estos campos se pueden expresar siempre como el gradiente de una función escalar. Por ejemplo, para el campo electrostático, el hecho de que ∇ × E = 0 implica que E = −∇φ. Por otro lado, cuando un campo vectorial tiene divergencia nula, ecuación (5.3.5), este campo puede siempre expresarse como el rotacional de otro campo vectorial y se denominan campos solenoidales. Por ejemplo, el campo magnético por cumplir con ∇ · B = 0 entonces también cumple con B = ∇ × A. 5.3.6. Derivadas direccionales de campos vectoriales ad o Formalmente y como siempre presentamos la idea de derivada como cociente incremental. Dados dos puntos P1 y P2 y un vector u que los une (va de P1 → P2 ), entonces por definición D|ui |ai ≡ da a (P2 ) − a (P1 ) = lı́m du P2 →P1 P2 − P1 ⇒ da du i = dai du = lı́m P2 →P1 ai (P2 ) − ai (P1 ) , P2 − P1 rr por consiguiente, si a tiene por componentes cartesianas cualquier sistema de coordenadas ortogonales) (en general dax day daz (ax , ay , az ) las componentes del vector derivado serán du , du , du . De modo que inspirados en la derivada direccional de un campo escalar que presentamos en la sección 5.3.1, da podemos construir la expresión para la derivada direccional de cada una de las componentes del vector du , esto es Bo dϕ = D|ui φ = ∇φ · u = ui ∂i ϕ du ⇒ dai = u · ∇ai = uj ∂j ai du ⇒ D|ui |ai ≡ da = (u · ∇) a . du Otra vez, en coordenadas cartesianas se tiene que D|ui a = (u · ∇) a = ui ∂i aj ej ⇒ D|ui (◦) ≡ d (◦) = (u · ∇) (◦) ≡ ui ∂i (◦) . du El campo de aceleraciones de un fluido El ejemplo más estándar es la descripción del campo de aceleraciones de un fluido en movimiento. El campo de aceleraciones de un fluido, como de costumbre, es la variación del campo de velocidades respecto al tiempo. Esto es, a = dv dt . Para escribir la expresión de este campo de aceleraciones, supongamos que un fluido se mueve y registra un campo de velocidades v = v (r, t) el cual, en general, será inhomogéneo y no estacionario. Identificamos una 343 in ar 5.3. LA FAUNA DE LOS OPERADORES VECTORIALES Figura 5.14: Contribuciones a la variación de la velocidad en un fluido. v (P1 ) ≡ v (r, t) lim porción del fluido (partı́cula) cualquiera y observamos que en un intervalo de tiempo dt esa porción identificada se mueve de P1 → P2 y registra un incremento en su velocidad de v en P1 a v + dv en P2 : v (P2 ) ≡ v (r + dr, t + dt) . y rP re Tal y como ejemplificamos en la figura 5.14, este incremento proviene de dos contribuciones. Una, llamada local, debido a el cambio en la variable temporal y otra, por la comparación del vector velocidad, v, en dos posiciones (traslación espacial o contribución convectiva). dvt = ∂v dt ∂t y dvu = dv du , du Visto de otro modo un poco más informal, dado que el campo es función de dos variables y una de ellas vectorial v = v (r, t) ⇒a= dv ∂v ∂v = + . dt ∂r ∂t ad o De la discusión anterior es claro que dv du es la derivada direccional del campo de velocidades a lo largo del vector unitario u que apunta de P1 → P2 . Ahora bien, para este caso tenemos que: du = kdrk , du = kvk dt y u= v , kvk con lo cual la derivada direccional queda como dv 1 = (v · ∇) v , du kvk rr y finalmente la aceleración como 1 ∂v dv = (v · ∇) v + dt kvk ∂t ⇒ ai = 1 ∂v i (v · ∇) v i + , kvk ∂t Bo a= donde hemos representado las componentes cartesianas de los vectores velocidad y aceleración como v i y ai , respectivamente. Es importante hacer una reflexión un poco más fı́sica de las contribuciones. La contribución local proviene de la variación del vector (por la dependencia temporal) alrededor del punto, sin importar la dirección que sigue al partı́cula y la contribución convectiva proviene de la inhomogeneidad del campo de velocidades. Esto es de la variación del campo de velocidades según la dirección que siga la partı́cula. 5.3.7. La derivada covariante En un sistema de coordenadas generalizadas {q i }, las bases locales {ei } son funciones de las coordenadas, es decir ei = ei (q 1 , q 2 , q 3 ) , ei = ei (q 1 , q 2 , q 3 ) , 344 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES por lo que el diferencial de cualquier campo vectorial A = A(r) viene a ser: dA = d Ai ei = ei dAi + Ai dei , dA = d Ai ei = ei dAi + Ai dei , por lo tanto, las bases de las coordenadas generalizadas también cambian punto a punto. Entonces resulta que dA = ∂A j dq ∂q j ⇒ ∂A ∂Ak k ∂ek ∂Ak ∂ek = e + A = ek + Ak j . k j j j j ∂q ∂q ∂q ∂q ∂q ∂A i ·e . ∂q j lim Ai;j ≡ in ar ∂A Las componentes covariantes o contravariantes del vector ∂q j vienen a ser las componentes de un tensor de segundo orden llamado la derivada covariante del vector dado. De esta manera, la derivada covariante de un vector covariante tiene como componentes: ∂A Ai;j ≡ j · ei , ∂q mientras que la derivada covariante de un vector contravariante tiene componentes Hemos utilizado el punto y coma, (; ), para indicar la derivada covariantes, de manera que la coma sola (, ) la dejamos para la derivada normal ∂i . Notemos que si el campo vectorial es homogéneo, es decir, tiene magnitud y dirección constante, entonces podemos ver lo siguiente: ⇒ ei dAi + Ai dei + dAi dei = 0 , rP re A = Ai ei = (Ai + dAi )(ei + dei ) si nos quedamos sólo con los términos a primer orden: dA = ei dAi + Ai dei = 0 , esto significa que: ad o ∂A j dq = 0 ⇒ Ai;j dq j = 0 ⇒ Ai;j = 0 . ∂q j La derivada covariante de un campo vectorial homogéneo es cero. Desde un punto de vista geométrico, un campo vectorial homogéneo se puede interpretar como el resultado de desplazar al vector A paralelo a si mismo por todos los puntos del espacio, esto significa que la condición Ai,j = 0 podrı́a ser considerara como la condición del desplazamiento paralelo. Por otra parte, notemos que según lo visto anteriormente, ecuaciones (5.3.7) Ai;j = ∂Ai ∂ek ∂A · e = + A · ei , i k ∂q j ∂q j ∂q j y Ai;j = ∂A i ∂Ai ∂ek · e = + Ak j · ei ∂q j ∂q j ∂q Bo rr donde hemos usado el hecho de que ei · ek = δik . ∂e Por otro lado, las cantidades ∂qkj se pueden escribir como una combinación lineal de los vectores base ∂ej = ∂q k ∂ej ∂q k i i ∂ej ei = e · k ei ≡ Γijk ei , ∂q donde hemos introducido la siguiente notación: Γijk = ei · ∂ej ∂q k y de manera equivalente: Γjik = ei · ∂ej . ∂q k Estas cantidades se denominan Sı́mbolos de Christoffel del segundo tipo y en realidad viene a ser un objeto representado por 27 componentes. Estos objetos son simétricos bajo el cambio de los dos indices inferiores Γijk = Γikj . También es posible definir Sı́mbolos de Christoffel del primer tipo: Γijk ≡ ei · ∂ej , ∂q k 5.3. LA FAUNA DE LOS OPERADORES VECTORIALES 345 con Γijk = Γikj . Por lo tanto, podemos escribir ahora Ai;j = ∂Ai − Γkji Ak = ∂j Ai − Γkji Ak , ∂q j y Ai;j = ∂Ai + Γijk Ak = ∂j Ai + Γijk Ak . ∂q j El signo menos en la primera ecuación es debido a que ⇒ ej · ∂ei ∂ej = −e · . i ∂q k ∂q k ar ∂(ei · ej ) =0 ∂q k En conclusión: o ∂A ≡ Ai;j ei . ∂q j in ∂A ≡ Ai;j ei ∂q j rP re lim Tenemos entonces que la derivada covariante de un campo vectorial toma en cuenta no sólo el cambio en el campo mismo, a medida que nos movemos a lo largo de las curvas coordenadas, sino que también da cuenta de como cambian las bases. Por lo tanto, si las bases no varı́an al pasar de un punto a otro (bases rectangulares cartesianas) los Sı́mbolos de Christoffel se anulan y la derivada covariante no es más que la derivada normal. Los Sı́mbolos de Christoffel pueden calcularse a partir del tensor métrico y de su propiedad de simetrı́a. 1 ∂ej 1 ∂ek 1 i i i ∂ej il i ∂ek il i Γ + Γkj = e · j +e · k = (g el ) · j + (g el ) · k Γjk = 2 jk 2 ∂q ∂q 2 ∂q ∂q ∂ ∂el ∂el ∂glj ∂ej ∂ek 1 il ∂ 1 il ∂glk g (el · ek ) + k (el · ej ) − ek · j − ej · k = g + − ek · l − ej · = 2 ∂q j ∂q ∂q ∂q 2 ∂q j ∂q k ∂q ∂q l ∂glk 1 il ∂glk ∂glj ∂(ej · ek ) 1 ∂glj ∂gjk g = + − = g il + − . j k l j k 2 ∂q ∂q ∂q 2 ∂q ∂q ∂q l Hemos llegado entonces a la siguiente e importante relación: ∂glj ∂gjk 1 ∂glk + − Γijk = g il . 2 ∂q j ∂q k ∂q l rr esto es ad o Es importante tener en cuenta que la derivada covariante es un tensor, a pesar de que la derivada parcial y los Sı́mbolos de Christoffel que conforman la suma no lo son, es decir, la combinación de estos dos objetos que no son tensores forman un tensor. Los Sı́mbolos de Christoffel de primer tipo también pueden obtenerse a partir del tensor métrico 1 ∂gmk ∂gmj ∂gjk ∂gmj ∂gjk 1 m ∂gmk + − + − = , Γijk ≡ gil Γljk = gil g lm δ 2 ∂q j ∂q k ∂q m 2 i ∂q j ∂q k ∂q m Γijk ≡ gil Γljk = ∂gij ∂gjk ∂ej 1 ∂gik + − = ei · k . 2 ∂q j ∂q k ∂q i ∂q Bo A estas alturas, debe quedar claro que en el caso de utilizar coordenadas cartesianas todos los Sı́mbolos de Christoffel son iguales a cero ya que todas las componentes del tensor métrico son constantes, además se puede apreciar que en estas coordenadas las componentes covariantes y contravariantes de un vector son iguales, y al hacer la siguiente contracción Ai;i = ∂i Ai + Γiik Ak ⇒ Ai;i = ∂i Ai = X ∂i Ai ⇒ un escalar. i Revisemos ahora como transforman los Sı́mbolos de Christoffel del primer tipo bajo un cambio de coordenadas. Recordemos que un tensor debe trasformar de la siguiente manera (usaremos una notación ligeramente diferente a la usada anteriormente) ∂q l Ti0 j 0 k0 = αil0 αjm0 αkn0 Tlmn , con αil0 = i0 . ∂q 346 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES Por lo tanto: Γ i0 j 0 k 0 ∂q m ∂ ∂ej 0 n l (α = α 0 en ) 0 el · 0 j i ∂q k ∂q m ∂q k0 ∂αjn0 ∂en = αil0 αkm0 αjn0 el · m + αil0 αkm0 (el · en ) m ∂q ∂q n ∂αj 0 = αil0 αkm0 αjn0 Γlnm + αil0 αkm0 gln m , ∂q = ei0 · Tij;k ≡ i Tj;k ≡ ∂T ij + Γikl T lj + Γjkl T il = T ij,k + Γikl T lj + Γjkl T il , ∂q k ∂Tij − Γlik Tlj − Γljk Til = Tij,k − Γlik Tlj − Γljk Til , ∂q k ∂Tji i + Γikl Tjl − Γljk Tli = Tj,k + Γikl Tjl − Γljk Tli . ∂q k in ≡ lim T ij;k ar es decir, no transforma como un tensor. Como una extensión de todo lo anterior, podemos escribir las derivadas covariantes de tensores de rango mayor, por ejemplo:6 = gij,k − Γlik glj − Γljk gil = gij,k − Γjik − Γijk ∂gji ∂gik ∂gij ∂gjk 1 ∂gjk 1 ∂gik + − + − = gij,k − − 2 ∂q i ∂q k ∂q j 2 ∂q j ∂q k ∂q i 1 = gij,k − [gjk,i + gji,k − gik,j + gik,j + gij,k − gjk,i ] = 0 . 2 ad o gij;k rP re Es claro que si calculamos la derivada covariante de “una componente contravariante” escribimos un signo mas y si lo que estamos es calculando la derivada covariante de una “componente covariante” podemos poner un signo menos. Para el caso de un tensor de orden cero, es decir, un escalar, la derivada covariante se reduce a la derivada parcial con respecto a las coordenadas ∂φ φ;i = i , ∂q esto significa que la derivada covariante de un escalar es un vector covariante que tiene como componentes las componentes covariantes del gradiente de φ. Podemos averiguar ahora sobre la acción de la derivada covariante sobre el tensor métrico: De este último resultado de obtiene la siguiente igualdad gij,k = Γjik + Γijk . Bo rr Se dice que el tensor métrico es transparente a la derivada covariante, lo que se conoce como el Teorema de Ricci. Esto significa que el tensor métrico es constante para la derivada covariante, por ejemplo: gil Al ;j = gil Al ;j = Ai;j , gil T lj;k = gil T lj ;k = T ji;k . Volviendo a tema del operador diferencial en coordenadas generalizadas tenemos entonces, y a modo de repaso lo siguiente: Si tenemos un campo escalar φ = φ(q 1 , q 2 , q 3 ), por gradiente entendemos a un vector cuyas componentes covariantes son ∂φ ∂φ ⇒ grad φ = i ei . i ∂q ∂q En el caso particular de la la derivada direccional de φ en la dirección del vector s se tiene ∂φ = s · grad φ , ∂s 6 Las derivadas parciales las indicaremos con una coma: ∂T ij ∂q k con s = si ei . = ∂k T ij ≡ T ij ,k . 5.3. LA FAUNA DE LOS OPERADORES VECTORIALES 347 Si tenemos un campo vectorial A = A(q 1 , q 2 , q 3 ), para la divergencia de A tendremos que es la contracción de la derivada covariante de A, esto es: div A ≡ Ai ;i = ∂i Ai + Γiij Aj . ar Para el caso de las componentes covariantes de A, tenemos div A ≡ Ai ;i = g ij Aj ;i = g ij Aj;i . El cálculo de los diferentes Sı́mbolos de Christoffel suele ser un trabajo laborioso, pero se puede buscar otros caminos como veremos a continuación. Podemos ver que: 1 1 1 il g [∂i glk + ∂k gli − ∂l gik ] = g il [∂i glk − ∂l gik ] + g il ∂k gli . 2 2 2 in Γiik = g il ∂i glk = g li ∂l gik = g il ∂l gik lim Los términos entre corchetes del lado derecho son antisimétricos para i y l cuando se contraen con g il el cual es simétrico, por lo tanto esa resta se hace cero ⇒ Γiik = 1 il g ∂k gil . 2 rP re Si recurrimos a la representación matricial del tensor métrico, donde [g ij ] el la matriz inversa de [gij ] y si denotamos al determinante de la métrica por G ≡ det[gij ] y por Gij la matriz cofactor de los elementos de [gij ] entonces Gij g ij = G De la definición del determinante se tiene G = gij Gij , (no hay suma sobre i) Como Gij es independiente de gij se tiene que ∂G = Gij , ∂gij Por lo tanto, ad o Al depender la métrica de las coordenadas el determinante de la métrica también dependerá de las coordenadas, y por la regla de la cadena ∂G ∂gij ∂gij ∂gij ∂G = = Gij k = Gg ij k . k k ∂q ∂gij ∂q ∂q ∂q Γiik √ 1 il 1 ∂G ∂k G = g ∂k gil = = √ . 2 2G ∂q k G Bo rr Podemos entonces obtener una expresión general para la divergencia: √ √ i ∂ GA i ∂i G √ div A ≡ Ai ;i = ∂i Ai + √ Ai = . G G Se define el Laplaciano de un campo escalar φ = φ(r) como la divergencia del gradiente h√ i h√ i h√ i ∂i G(grad φ)i ∂i Gg ij (grad φ)j ∂i Gg ij ∂j φ √ √ √ ∆φ = div · grad φ = = = . G G G √ Notemos que si se trata de un sistema de coordenadas ortogonal, entonces: h1 h2 h3 = G, g ij = 1/h2i si i = j, en caso contrario g ij = 0. Por lo tanto, de la ecuación (5.3.7) resulta " # 1 h1 h2 h3 ∆φ = ∂i ∂i φ h1 h2 h3 h2j 348 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES Para finalizar, recordemos que podemos construir a partir de un tensor de segundo rango un tensor antisimétrico, por ejemplo, de Ai;j tenemos el tensor Ai;j − Aj;i . Ahora bien, de: Ai;j = ∂j Ai − Γkij Ak y Aj;i = ∂i Aj − Γkji Ak , resulta Ai;j − Aj;i = ∂j Ai − ∂i Aj , ar por la simetrı́a de los Sı́mbolos de Christoffel. Aunque las derivadas parciales de un vector no son tensores, por eso fue que definimos la derivada covariante, la diferencia antisimétrica si que es un tensor. Los tensores antisimétricos como el de la ecuación (5.3.7) tienen únicamente tres componentes independientes (en todos los sistemas de coordenadas) y en este caso, serán las componentes de un vector relacionado con el rotor del vector A. in (rot A)ij ≡ ∂j Ai − ∂i Aj . Para el caso de tres dimensiones, a este tensor de segundo orden antisimétrico le podemos asociar un vector con componentes contravariantes, de la siguiente forma lim 1 1 1 i (rot A) = − √ εijk (rot A)jk = − √ εijk [∂k Aj − ∂j Ak ] = √ εijk ∂j Ak , 2 G 2 G G con i, j, k una permutación cı́clica de 1, 2, 3. Lo que concuerda perfectamente con nuestra definición de rotor vista anteriormente: 5.3.8. e2 ∂2 A2 e3 ∂3 A3 rP re e1 1 rot A = √ det ∂1 G A1 Derivadas absolutas y geodésicas En las secciones anteriores discutimos como es el proceso de derivar tensores con respecto a las coordenadas, esto nos llevo a al concepto de la derivada covariante. El problema puede tener un enfoque diferente si consideramos el cálculo de la derivada de tensores a lo largo de una curva parametrizada por alguna variable. Consideremos entonces el problema de encontrar la derivada de un tensor a lo largo de una curva r(λ) que varı́a respecto al parámetro λ. Para un sistema de coordenadas arbitrario {q i } con vectores base {ei } un vector genérico se puede escribir como a = ai ei . De manera que: ad o dai dai dai da dei ∂ei dq j dq j = ei + ai = ei + ai j = ei + Γkij ai ek dλ dλ dλ dλ ∂q dλ dλ dλ intercambiando los indices mudos i y k, resulta: i da da dq j = + Γikj ak ei . dλ dλ dλ Bo rr La expresión que está dentro de los corchetes suele denominarse la derivada absoluta o intrı́nseca de las componentes del vector a, a lo largo de la curva descrita por el radio vector r(λ). Usualmente se denota por dai dq j dq j δai ≡ + Γikj ak = ai;j . δλ dλ dλ dλ De manera que da δai dq j = ei = ai;j ei . dλ δλ dλ Por supuesto, se puede repetir los cálculos anteriores para obtener la derivada absoluta de las componentes covariantes: δai dq j ≡ ai;j . δλ dλ También se deriva de manera absoluta tensores de segundo orden, o orden superior, por ejemplo δTij dq k ≡ Tij;k , δλ dλ k δT ij ij dq ≡ T;k , δλ dλ k δTji i dq ≡ Tj;k . δλ dλ 5.3. LA FAUNA DE LOS OPERADORES VECTORIALES 349 Si consideramos que el parámetro es la longitud de arco s, y si adicionalmente exigimos que el vector tangente τ = dr(s)/ds a la curva descrita por el vector r(s) siempre apunte en la misma dirección7 , entonces, dτ = 0. ds in ar Al introducir un sistema de coordenadas {q i } junto con una base {ei }, entonces τ = τ i ei , con i = 1, 2, 3. Por lo tanto dτ dq j = τ;ji ei , ds ds lo que significa que i j dτ i k dq + Γkj τ ei = 0 , ds ds como τ i = dq j /ds, entonces: k j d2 q i i dq dq + Γ = 0. kj ds2 ds ds 5.3.9. rP re lim La ecuación (5.3.8) es la ecuación de la geodésica en el espacio tridimensional real, donde, como sabemos, la distancia mas corta entre dos puntos es una linea recta. En resumen, una curva cuyo vector tangente es transportado paralelamente a lo lardo de la curva se denomina curva geodésica y viene a estar representada por un conjunto de ecuaciones diferenciales de segundo orden llamadas ecuaciones de la geodésica. La solución de este conjunto de ecuaciones da como resultado la ecuación paramétrica de la geodésica. Ejemplos 1. Para el campo escalar φ = x2 y + yz, en el punto M = (−1, 2, 1), tenemos que el gradiente es ∇φ = 2xyi + x2 + z j + yk ⇒ ∇φ(−1, 2, 1) = −4i + 2j + 2k . en ese punto, la taza de cambio en la dirección del vector u = i + 2j + 3k será: ad o 1 dφ = ∇φ · û = 2xyi + x2 + z j + yk · √ (i + 2j + 3k) ds 14 M 6 =√ . 14 Por lo tanto, en el punto M = (−1, 2, √ 1) la taza de cambio dφ/ds máxima se produce en la dirección ∇φ = −4i + 2j + 2k con un valor de |∇φ| = 24. 2. Para las coordenadas cilı́ndricas (q 1 , q 2 , q 3 ) = (ρ, ϕ, z), vimos que los factores de escala son rr h1 = hρ = 1 , h2 = hϕ = ρ , h3 = hz = 1 , por lo tanto: 1 ∂φ ∂φ ∂φ |eρ i + |eϕ i + |ez i . ∂ρ ρ ∂ϕ ∂z Bo grad φ = ∇φ = Mientras que para la divergencia de un campo vectorial tendremos ∂ (Aϕ ) ∂ (Az ρ) 1 ∂ (Aρ ρ) 1 ∂Aϕ ∂Az 1 ∂ (Aρ ρ) + + = + + div A = ∇ · A = ρ ∂ρ ∂ϕ ∂z ρ ∂ρ ρ ∂ϕ ∂z donde: Aρ = A · êρ , Aϕ = a · êϕ y Az = A · êz . 3. La ecuación de continuidad Consideremos una superficie cerrada S que encierra un volumen V . Esta superficie está inmersa en un fluido, de densidad ρ (r, t) que fluye con un campo de velocidades v (r, t). Supondremos además que el volumen V 7 Lo que se conoce en la geometrı́a diferencial como transporte paralelo de un vector 350 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES que encierra la superficie S no cambia de posición, con lo cual, la variación de masa del fluido contenido en este volumen es ZZZ ZZZ ∂ ∂ρ (r, t) ρ (r, t) dV = dV . ∂t ∂t V V V ∂ρ (r, t) + ∇ · (v (r, t) ρ (r, t)) dV = 0 ∂t ⇔ ∂ρ (r, t) + ∇ · (v (r, t) ρ (r, t)) = 0 , ∂t in con lo cual ZZZ ar Entonces, la variación de la cantidad de fluido encerrada por la superficie S será igual a la cantidad de fluido que escapa (o ingresa) a través de esa superficie. Esto es ZZ ZZZ ZZZ ∂ρ (r, t) dV = − ρ (r, t) v (r, t) · n̂s dS = − ∇ · (v (r, t) ρ (r, t)) dV , ∂t s V V y esta última representa la ecuación de continuidad en dinámica de fluidos. lim 4. Fuentes y sumideros Consideremos un campo vectorial de la forma A (r) = q q r ≡ 2 êr . r3 r rP re La divergencia, en coordenas esféricas (hr = 1, hθ = r, hϕ = r sen(θ)), es: 1 ∂ (Ar (r, θ, ϕ) hθ hϕ ) ∂ (Aθ (r, θ, ϕ) hϕ hr ) ∂ (Aϕ (r, θ, ϕ) hr hθ ) ∇·A= + + hr hθ hϕ ∂r ∂θ ∂ϕ i ∂ hq 2 1 r sen(θ) = 0 . = 2 r sen(θ) ∂r r2 Nótese que el origen del sistema coordenado (el punto r = 0) no está definido porque no lo estaba en el campo vectorial original A (r) = rq2 êr . Con lo cual, se tiene que si la superficie S no encierra a r = 0, entonces el flujo a través de esa superficie será nulo ZZ ZZZ F = A · dS = div A dV = 0 . V ad o S Es decir, todo lo que entra sale. Sin embargo, si el volumen contiene al origen de coordenadas no podemos decir nada por cuanto hay una indeterminación en la expresión de la divergencia. 5. Consideremos el siguiente campo vectorial en coordenadas cilı́ndricas para z ≥ 0 A = z êϕ = z [−sen(ϕ) i + cos(ϕ) j] = − p zy x2 + y2 i+ p zx x2 + y 2 j, rr con lo cual el campo rotor del campo vectorial A será " Bo B = ∇ × A = ∇ × −p = −p x x2 + y 2 i− p zy zx # i+ p j = x2 + y 2 x2 + y 2 y x2 + y 2 j+ p z x2 + y 2 i ∂x − √ z2 y x +y 2 j ∂y √ z2 x x +y 2 k ∂z 0 k. Es claro que el campo vectorial y su campo rotor son ortogonales " # " # zx x y z zy −p i+ p j · −p i− p j+ p k = 0. x2 + y 2 x2 + y 2 x2 + y 2 x2 + y 2 x2 + y 2 Por lo tanto dλ = − p p p x2 + y 2 x2 + y 2 x2 + y 2 dx = − dy = dz . x y z 5.3. LA FAUNA DE LOS OPERADORES VECTORIALES 351 Las dos primeras ecuaciones proveen ⇒ y (x) = xC1 con C1 = cte ; C̃1 = − q ⇒ 1 dx dλ = −√ dy dλ = −√ = cte ; 2 1 + (C1 ) x x2 +y 2 = C̃1 ⇒ x(λ) = λC̃1 y x2 +y 2 = C̃2 ⇒ y(λ) = λC̃2 C1 C̃2 = − q = C1 C̃1 = cte . 2 1 + (C1 ) ar dy y = dx x Finalmente, x2 + y 2 dz = dλ z ⇒ z z dz z z q = =− , =p = q 2 2 dλ λ 2 2 x +y x 1 + (C1 ) λC̃1 1 + (C1 ) con lo cual 1 C̃3 . λ lim dz z =− dλ λ in p ⇒ z(λ) = 6. Supongamos una circunferencia con radio r = 2, la cual viene descrita paramétricamente por el radio vector r (ϕ) = 2 cos(ϕ)i + 2 sin(ϕ)j ⇒ dr = 2 [−sen(ϕ)i + cos(ϕ)j] dϕ , rP re y nos planteamos “hacer circular el campo” A = z (−sen(ϕ)i + cos(ϕ)j) a lo largo de la esa trayectoria. Esto es, realizar la siguiente integral I Z 2π Γ = A · dr = z (−sen(ϕ)i + cos(ϕ)j) · 2 (−sen(ϕ)i + cos(ϕ)j) dϕ = 4πz , 0 primero el producto A · dr y luego se integra. El campo vectorial A está representado en la figura 5.12. H Hemos utilizado el sı́mbolo para denotar la integral de lı́nea en un circuito cerrado. Es la primera idea de integrales de campos vectoriales que veremos con más detalles en las sección 5.4. ad o Es interesante comparar este resultado con el flujo del campo de rotores a través de la superficie que delimita la circunferencia de radio r = 2. Vale decir ! ZZ ZZ −x y z p (∇ × A) · n̂s dS = i− p j+ p k · k dx dy x2 + y 2 x2 + y 2 x2 + y 2 ZZ dx dy p =z x2 + y 2 ZZ dr rdθ =z r Z 2 Z dr 0 2π dθ = 4πz . 0 rr =z Bo Esta “coincidencia” no es tal, corresponde a otro teorema integral para campos vectoriales, el Teorema de Stokes (sección 5.5.2, página 374) mediante el cual se convierte una integral cerrada de lı́nea de un campo vectorial en el flujo del campo de rotores. Este teorema lo estudiaremos con detalle en la sección 5.5.2. 7. En coordenadas cilı́ndricas (q 1 , q 2 , q 3 ) = (ρ, ϕ, z), donde h1 = hρ = 1 , h2 = hϕ = ρ , se tiene 1 ∂ ∇ φ ≡ ∆φ = ρ ∂ρ 2 ∂φ ρ ∂ρ + h3 = hz = 1 , 1 ∂2φ ∂2φ + 2. ρ2 ∂ϕ2 ∂z Y para el rotor resulta: rot A = ∇ × A = 1 ∂Az ∂Aϕ ∂Aρ ∂Az 1 ∂ (ρAϕ ) ∂Aρ − − − |eρ i + |eϕ i + |ez i . ρ ∂ϕ ∂z ∂z ∂ρ ρ ∂ρ ∂ϕ 352 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES Podemos ver . in ∂A F = q (E + v × B) = q −∇φ − + v × (∇ × A) ∂t ar 8. La fuerza de Lorentz F = q (E + v × B) es la fuerza sobre una partı́cula con carga q que se mueve con una velocidad v en un campo eléctrico E, y una inducción magnética B. Queremos mostrar que F = q (E + v × B) dA ∂A + ∇ (A · v) . ⇒ F = q −∇φ − E = −∇φ − dt ∂t ∇×A=B Entonces = jkl v k lmn ∂m An ej = jkl mnl v k ∂m An ej = δjm δkn − δkm δjn v k ∂m An ej = v k ∂j Ak − v k ∂k Aj ej , lim v × (∇ × A) con lo cual ∂A ∂A k j k j j k j j k j k j + v ∂ Ak − v ∂k A = q −∂ φ − − v ∂k A + ∂ v Ak − Ak ∂ v F = q −∂ φ − ∂t ∂t ∂A dA j j k j j k F = q −∂ φ − − v ∂ k A + ∂ v Ak + ∇ (A · v) = q −∇φ − ∂t dt rP re j ya que dAj ∂Aj dxi ∂Aj ∂Aj = + = v i ∂i Aj + ; i dt ∂x dt ∂t ∂t ∂ j vk = ∂v k =0 ∂xj y v k = v k (t) . 9. Las fuerzas de mareas corresponden a la atracción de la luna sobre las partı́culas (el agua) en la superficie de la tierra ¿Cuál es el potencial que corresponde a las fuerzas de marea? Recordemos que la fuerza gravitacional que produce las mareas es ad o F=G Mm r, 3 rM m donde rM m es la distancia (fija) entre los centros Luna y Tierra, y r es el radio vector del centro de la Luna a la partı́cula que se ve afectada. Si ubicamos la Tierra en el centro de coordenadas y la Luna en el eje z tendremos: rr F=G donde: Bo −G Mm Mm r = G 3 (−xi − yj + 2zk) = −∇φ 3 rM r m Mm Mm ∂φ x=− , 3 rM m ∂x −G Mm ∂φ y=− , 3 rM m ∂y G Mm ∂φ 2z = − 3 rM m ∂z integrando nos queda φ=G M m x2 + G (y, z) 3 rM m 2 φ=G M m x2 M m y2 +G 3 + K (z) 3 rM m 2 rM m 2 ⇒− ∂φ ∂G (y, z) Mm =− = −G 3 y ∂y ∂y rM m ⇒− Por lo tanto: φ=G ⇒ G (y, z) = G ∂φ ∂K (z) Mm = = G 3 2z ∂z ∂z rM m M m x2 y2 2 + − z . 3 rM 2 2 m M m y2 + K (z) 3 rM m 2 ⇒ K (z) = −G Mm 2 z 3 rM m 5.3. LA FAUNA DE LOS OPERADORES VECTORIALES 353 10. En coordenadas cilı́ndricas un vector tiene por componentes (0, sen(ϕ), z). Calculemos: a) La divergencia en coordenadas esféricas. Una vez más x̃1 , x̃2 , x̃3 (r, θ, ϕ) y x1 , x2 , x3 Ã1 = ∂ x̃1 (xm ) k A ; ∂xk Ã2 = (ρ, ϕ, z) ∂ x̃2 (xm ) k A ; ∂xk Ã3 = ∂ x̃3 (xm ) k A ∂xk con p z 2 + ρ2 ; θ = arctan ρ z ; ϕ=ϕ ⇐⇒ ρ = rsen(θ) ; ϕ = ϕ; z = r cos(θ) ar r= con lo cual ρ z z =: in ∂ arctan à = ∂z 2 p 2 z 2 + ρ2 (r cos(θ)) z2 =q = r cos2 θ z=p 2 2 ∂z 2 2 (z + ρ ) (r cos(θ)) + (rsen(θ)) −r2 sen (θ) cos (θ) −ρz = 2 2 = −sen(θ) cos(θ) z 2 + ρ2 (r cos(θ)) + (rsen(θ)) Ã2 = sen(ϕ) de modo que el campo vectorial, en esféricas es lim ∂ x̃1 (xm ) k ∂ à = A = ∂xk 1 r cos2 θ, −sen(θ) cos(θ), sen(ϕ) rP re (0, sen(ϕ), z) y la divergencia " # ∂ r2 sen(θ) r cos2 (θ) 1 ∂ (rsen(θ) (−sen(θ) cos(θ))) ∂ (r (sen(ϕ))) ∇·A= 2 + + r sen(θ) ∂r ∂θ ∂ϕ ∇·A= 3rsen(θ) cos2 (θ) − 3sen(θ) cos2 (θ) + sen(θ) + cos(ϕ) . rsen(θ) ad o b) El rotor en coordenadas cartesianas. Ahora x̃1 , x̃2 , x̃3 (x, y, z) y x1 , x2 , x3 x = ρ cos(ϕ) ; y = ρsen(ϕ) ; z=z (ρ, ϕ, z), con p ⇐⇒ ρ = x2 + y 2 ; de allı́ se siguen para las componentes cilı́ndricas A ϕ = arctan y x ; z=z (0, sen(ϕ), z) rr h y i p 2x2 + y 2 ∂ (ρ cos(ϕ)) sen(ϕ) = −ρ 1 + cos2 (ϕ) = − x2 + y 2 1 + cos2 arctan = −p ∂ϕ x x2 + y 2 p ∂ρsen(ϕ) y y xy Ãy = sen(ϕ) = ρ cos(ϕ)sen(ϕ) = x2 + y 2 cos arctan sen arctan =p ∂ϕ x x x2 + y 2 Bo Ãx = Ãz = z . Y el rotor ∇×A=i ∂ Ãy ∂ Ãz − ∂y ∂z ! +j ∂ Ãx ∂ Ãz − ∂z ∂x ! +k ∂ Ãy ∂ Ãx − ∂x ∂y 2 2 xy 2x +y √ 2 2 ∂ −√ 2 2 3 ∂ (x +y ) x +y = 2y k . ∇×A=k − 3 p ∂x ∂y x2 + y 2 ! 354 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES 11. Demostremos la relación ∆A ≡ (∇ · ∇) A = ∇ (∇ · A) − ∇ × (∇ × A) y a partir de ella encontraremos las componentes del Laplaciano ∆A en coordenadas cilı́ndricas. ar Veamos. En coordenadas cartesianas tendremos que h i j i (∇ · ∇) A = ∂ i ∂ j Aj ei − εijk ∂j εklm ∂ l Am ei = ∂ i ∂ j Aj − δli δm − δlj δm ∂j ∂ l Am ei = ∂ i ∂ j Aj − ∂j ∂ i Aj + ∂j ∂ j Ai ei = ∂j ∂ j Ai ei . Para encontrar la expresión del Laplaciano de un vector en coordenadas cilı́ndricas tenemos que ∆A = ∆Ax i + ∆Ay j + ∆Az k = ∆Ax (cos(ϕ)ẽr − sen(ϕ)ẽϕ ) + ∆Ay (sen(ϕ)ẽr + cos(ϕ)ẽϕ ) + ∆Az ẽz in = (∆Ax cos(ϕ) + ∆Ay sen(ϕ)) ẽr + (∆Ay cos(ϕ) − ∆Ax sen(ϕ)) ẽϕ + ∆Az ẽz , ya que Notemos que ∆Ax = ∂j ∂ j Ax = ∂ 2 Ax ∂ 2 Ax ∂ 2 Ax + + , 2 2 ∂x ∂y ∂z 2 y = rsen(ϕ) , z = z. ∆Ay = ∂j ∂ j Ay = ∂ 2 Ay ∂ 2 Ay ∂ 2 Ay + + , 2 2 ∂x ∂y ∂z 2 ∂ 2 Az ∂ 2 Az ∂ 2 Az + + ∂x2 ∂y 2 ∂z 2 rP re ∆Az = ∂j ∂ j Az = x = r cos(ϕ) , lim i = cos(ϕ)ẽr − sen(ϕ)ẽϕ , j =sen(ϕ)ẽr + cos(ϕ)ẽϕ , k =ẽz ; son las componentes cartesianas. 12. Demostremos que ∇ (A · B) = (A · ∇) B + (B · ∇) A + A × (∇ × B) + B × (∇ × A) . ad o El resultado es un gradiente porque (A · B) es una función escalar. El lado izquierdo de la expresión será i (∇ (A · B)) = ∂ i (A · B) = ∂ i Aj B j = ∂ i Aj B j + ∂ i Bj Aj , mientras que el lado derecho Bo rr i (∇ (A · B)) = Aj ∂ j B i + = Aj ∂ j B i + = Aj ∂ j B i + = Aj ∂ j B i + Bj ∂ j Ai + εijk Aj (∇ × B)k + εijk Bj (∇ × A)k Bj ∂ j Ai + εijk Aj εkmn ∂ m B n + εijk Bj εkmn ∂ m An Bj ∂ j Ai + εijk εmnk Aj ∂ m B n + εijk εmnk Bj ∂ m An i j j i B j ∂ j Ai + δ m δn − δm δ n Aj ∂ m B n + i j j i + δm δn − δm δn Bj ∂ m An i j j i = Aj ∂ j B i + B j ∂ j Ai + δ m δ n Aj ∂ m B n − δ m δ n Aj ∂ m B n + i j j i + δm δ n B j ∂ m An − δ m δ n B j ∂ m An = Aj ∂ j B i + B j ∂ j Ai + An ∂ i B n − Am ∂ m B i + B n ∂ i An − B m ∂ m Ai = Aj ∂ j B i − Am ∂ m B i + B j ∂ j Ai − B m ∂ m Ai + An ∂ i B n + B n ∂ i An | {z } | {z } =0 =0 = An ∂ i B n + Bn ∂ i An = ∂ i Aj B j = ∂ i (A · B) . 13. El cálculo de los Sı́mbolos de Christoffel puede ser un trabajo tedioso, pero si el tensor métrico únicamente tiene elementos en la diagonal muchas de las combinaciones que aparecen en la ecuación (5.3.7) se anulan. Consideremos nuevamente coordenadas cilı́ndricas (q 1 , q 2 , q 3 ) = (ρ, ϕ, z), y donde las únicas componentes del tensor métrico diferentes de cero son: g 11 = g11 = 1 , g22 = ρ2 , g 22 = 1/ρ2 , g 33 = g33 = 1 . 5.3. LA FAUNA DE LOS OPERADORES VECTORIALES 355 ar El cálculo de Γρρρ se hace de la siguiente manera ∂gl1 ∂g11 1 1l ∂gl1 + − Γ111 = g 2 ∂q 1 ∂q 1 ∂q l 1 ∂g11 ∂g11 ∂g21 ∂g11 ∂g31 ∂g11 ∂g11 12 ∂g21 13 ∂g31 = + − + g + − + g + − g 11 2 ∂q 1 ∂q 1 ∂q 1 ∂q 1 ∂q 1 ∂q 2 ∂q 1 ∂q 1 ∂q 3 1 ∂g11 ∂g11 ∂g11 = + − = 0. 2 ∂ρ ∂ρ ∂ρ Para Γρϕϕ , resulta ∂gl2 ∂g22 1 1l ∂gl2 + − g 2 ∂q 2 ∂q 2 ∂q l 1 ∂g12 ∂g22 ∂g22 ∂g22 ∂g32 ∂g22 12 ∂g22 13 ∂g32 11 ∂g12 + − +g + − +g + − g 2 ∂q 2 ∂q 2 ∂q 1 ∂q 2 ∂q 2 ∂q 2 ∂q 2 ∂q 2 ∂q 3 2 1 ∂ρ 1 − = [−2ρ] = −ρ . 2 ∂ρ 2 in = = = ϕ Y los últimos dos diferentes de cero son Γϕ ρϕ = Γϕρ ∂gl1 ∂g12 1 2l ∂gl2 g + − 2 ∂q 1 ∂q 2 ∂q l ∂g12 ∂g11 ∂g12 ∂g21 ∂g12 ∂g31 ∂g12 1 22 ∂g22 23 ∂g32 + − + − + − g 21 + g + g 2 ∂q 1 ∂q 2 ∂q 1 ∂q 1 ∂q 2 ∂q 2 ∂q 1 ∂q 2 ∂q 3 2 1 1 ∂ρ 1 1 1 = [2ρ] = = Γ221 . 2 ρ2 ∂ρ 2 ρ2 ρ = = = rP re Γ212 lim Γ122 Por lo tanto, si tenemos el siguiente vector A = = Aρ;ϕ = Aρ;z = ∂ ρz2 1 1 ∂A 2z ∂A + Γ11k Ak = + Γ111 A1 + Γ112 A2 + Γ113 A3 = =− 3 A1;1 = 1 1 ∂q ∂q ∂ρ ρ 1 1 ∂A ∂A A1;2 = + Γ12k Ak = + Γ121 A1 + Γ122 A2 + Γ123 A3 = 0 ∂q 2 ∂q 2 z ∂ 1 1 ρ2 ∂A ∂A 1 1 1 k 1 1 1 2 1 3 A;3 = + Γ3k A = + Γ31 A + Γ32 A + Γ33 A = = 2. ∂q 3 ∂q 3 ∂z ρ rr ad o Aρ;ρ z êρ , entonces, según (5.3.7) ρ2 Bo Y las derivadas del vector A, ecuación (5.3.7) son ∂A ∂q 1 ∂A ∂q 2 ∂A ∂q 3 = Ai;1 ei = A1;1 e1 + A2;1 e2 + A3;1 e3 = Ai;2 ei = A1;2 e1 + A2;2 e2 + A3;2 e3 = Ai;3 ei = A1;3 e1 + A2;3 e2 + A3;3 e3 2z ∂A = − 3 êρ ∂ρ ρ ∂A =0 ⇒ ∂ϕ ∂A 1 ⇒ = 2 êρ . ∂z ρ ⇒ 14. En coordenadas cilı́ndricas, (q 1 , q 2 , q 3 ) = (ρ, ϕ, z), y para el campo vectorial A = z êρ , se tiene que según ρ2 (5.3.7) la divergencia es div A ≡ Ai ;i ∂i Ai + Γiij Aj = ∂1 A1 + Γ11j Aj + ∂2 A2 + Γ22j Aj + ∂3 A3 + Γ33j Aj z 1 z 2z z z ρ + =− 3 + 3 =− 3. = ∂1 A1 + Γ221 A1 = ∂ρ Aρ + Γϕ A = ∂ ρ ϕρ ρ2 ρ ρ2 ρ ρ ρ = 356 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES Y para las componentes del rotor de A, con: G = ρ2 y Ai = gij Aj , tenemos: 1 = (rot A) 2 = (rot A) 3 = 1 √ ε123 ∂2 A3 + ε132 ∂3 A2 = 0 G 1 1 213 1 √ ε ∂1 A3 + ε231 ∂3 A1 = [∂z Aρ ] = 3 ρ ρ G 1 √ ε312 ∂1 A2 + ε321 ∂2 A1 = 0 . G ar (rot A) 15. En el caso de coordenadas cilı́ndricas, se tiene que los únicos sı́mbolos de Christoffel diferentes de cero son: Γ212 = Γ221 = 1 , ρ En esas coordenadas las ecuaciones (5.3.8) resultan ser es decir: d2 ρ −ρ ds2 dφ ds 2 = 0, Practicando con Maxima d2 q 3 = 0, ds2 d2 φ 2 dρ dφ + = 0, ds2 ρ ds ds d2 z = 0. ds2 rP re 5.3.10. d2 q 2 dq 1 dq 2 + 2Γ212 = 0, 2 ds ds ds lim d2 q 1 dq 2 dq 2 + Γ122 = 0, 2 ds ds ds in Γ122 = −ρ , 1. Consideremos el siguiente campo escalar en coordenadas cartesianas: f = 3x2 y + xz 3 − yz , para calcular el gradiente primeros cargamos la librerı́a vect y luego hacemos los siguientes pasos. (%i1) load(vect)$ (%i2) f:3*x^2*y+x*z^3-y*z; ad o ( %o2) x z 3 − y z + 3 x2 y (%i3) grad(f); ( %o3) grad x z 3 − y z + 3 x2 y (%i4) express(%); d d d x z 3 − y z + 3 x2 y , x z 3 − y z + 3 x2 y , x z 3 − y z + 3 x2 y dx dy dz rr ( %o4) Bo (%i5) gf:ev(%, diff); ( %o5) 3 z + 6 x y, 3 x2 − z, 3 x z 2 − y Podemos ahora calcular el rotor del gradiente: (%i6) express(curl(gf)); ( %o6) d d d d d d 3 x z2 − y − 3 x2 − z , z3 + 6 x y − 3 x z2 − y , 3 x2 − z − z3 + 6 x y dy dz dz dx dx dy (%i7) rotgf:ev (%, diff); 5.3. LA FAUNA DE LOS OPERADORES VECTORIALES 357 ( %o7) [0, 0, 0] Esto significa que el gradiente de la función f es un campo irrotacional. Para el laplaciano de f podemos hacer (%i8) ev(express(laplacian(f)),diff); ar ( %o8) 6 x z + 6 y También podemos hacer cálculos en otros sistemas de coordenadas, por ejemplo, esféricas: ( %o9) [[cos ϕ r sin θ, sin ϕ r sin θ, r cos θ] , r, θ, ϕ] lim Si queremos calcular el laplaciano del siguiente campo escalar in (%i9) spherical; f = r cos2 (ϕ) cos(θ)sen2 (θ) , primero le decimos al programa que calcule las factores de escala: (%i10)scalefactors(spherical)$ rP re luego procedemos a calcular el laplaciano (%i11)f:r*cos(phi)^2*cos(theta)*sin(theta)^2; ( %o11) cos2 ϕ r cos θ sin2 θ (%i12)express(laplacian(f))$ (%i13)trigsimp(ev(%,diff)); 10 cos2 ϕ cos θ sin2 θ − 2 cos θ r ad o ( %o13) − Si queremos demostrar la siguiente identidad: ∇ · [∇f × ∇g] = 0 rr podemos proceder como se muestra a continuación. Pero primero limpiamos la memoria y cargamos nuevamente la librerı́a (%i14)kill(all)$ load(vect)$ Bo (%i2) depends ([f, g], [x,y,z]); ( %o2) [f (x, y, z) , g (x, y, z)] (%i3) div(grad(f)~grad(g)); ( %o3) div(grad(f ) ∼ grad(g)) (%i4) express(%)$ (%i5) ev(%,diff); ( %o5) 0 358 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES 2. Es posible manipular expresiones vectoriales. Aquı́ es importante declarar las cantidades que no serán consideradas como escalares. El programa entenderá que las otras cantidades son escalares. Recordemos también que el sistema de coordenadas cartesiano es el que se asume por omisión. Consideremos la ecuación 2∇2 (f + g) = 3∇ · (f (A × B)) (%i6) declare([A,B],nonscalar)$ assume(r>0)$ ar (%i8) ecu:laplacian(2*(f+g))=3*div(f*(A~B)); ( %o8) 2 laplacian (g + f ) = 3 div (f (A ∼ B)) in (%i9) ev(vectorsimp(ecu),expandall); ( %o9) 2 laplacian (g) + 2 laplacian (f ) = 3 f div ((A ∼ B)) − 3 A · (grad (f ) ∼ B) lim (%i10)polarcylindrical; ( %o10) [[r cos(θ), r sin(θ), z] , r, θ, z] (%i11)scalefactors(polarcylindrical)$ 2 ( %o12) d dz d dz (g + f ) r + rP re (%i12)express(ecu); d dr d dr (g + f ) r + d dθ d dθ (g+f ) r = r 3 d dr (f r (Aθ Bz − Bθ Az )) + d dθ (f (Br Az − Ar Bz )) + r d dz (f r (Ar Bθ − Br Aθ )) 3. En este ejercicio veremos como calcular los sı́mbolos de Christoffel con ayuda de la librerı́a ctensor ad o (%i1) load(ctensor)$ A partir del sistema de coordenadas, el tensor métrico puede obtenerse especificando el sistema de coordenadas que queremos utilizar (%i2) ct_coordsys(spherical)$ rr El tensor métrico se almacena automáticamente como una matriz denominada lg. (%i3) lg; Bo 1 ( %o3) 0 0 0 r2 0 0 0 r2 sin2 (θ) Si queremos ver la matriz inversa, que se almacena como ug, escribimos los siguientes comandos (%i4) cmetric()$ (%i5) ug; 1 ( %o5) 0 0 0 1 r2 0 0 0 1 r 2 sin2 (θ) 5.3. LA FAUNA DE LOS OPERADORES VECTORIALES 359 La función christof ( ) es una función del paquete ctensor que calcula los sı́mbolos de Christoffel de ambos tipos. Los sı́mbolos de Christoffel de primer y segundo tipo se almacenan en los arreglos lcs[i, j, k] y mcs[i, j, k], respectivamente, y se definen simétricos en sus dos primeros ı́ndices. Si el argumento de la función es lcs o mcs entonces se muestran únicamente los valores no nulos. Si el argumento es all entonces se mostrarán los valores no nulos también. El arreglo mcs[i, j, k] está definido de tal modo que el último ı́ndice es el contravariante: mcs[i, j, k] = Γkij . ar (%i6) christof(mcs); 1 r 1 = r = −r ( %t7) mcs1,3,3 ( %t8) mcs2,2,1 ( %t9) mcs2,3,3 = in ( %t6) mcs1,2,2 = cos(θ) sin(θ) lim ( %t10) mcs3,3,1 = −r sin2 (θ) ( %t11) mcs3,3,2 = − cos(θ) sin(θ) 5.3.11. rP re Los ı́ndices [1, 2, 3] se corresponden a las coordenadas [r, θ, ϕ], respectivamente. Ejercicios 1. Dado el campo escalar ϕ = x2 y + yz. Encuentre la taza de cambio con la distancia en la dirección del vector i + 2j + 3k en el punto (1, −2, 1). ¿En este mismo punto ¿cuál es la dirección de la máxima tasa de cambio? 2. Encuentre el plano tangente y la linea normal a la superficie ϕ = x2 + y 2 + z 2 = a2 en el punto (0, 0, a). 3. Encuentre el laplaciano de la función ad o ϕ= zx2 , x2 + y 2 + z 2 en coordenadas cartesianas y en coordenadas esféricas. Luego, a partir de la expresión para el laplaciano obtenida en coordenadas cartesianas, escriba el laplaciano en esféricas realizando un cambio de coordenadas. Demuestre que el resultado es el mismo. 4. Demuestre que: r , r c c b) ∇ = − 3 r , r r rr a) ∇r = c) ∇ · r = 3 , d) ∇ · r = 0, r3 d) ∇ × r = 0 . 5. Una partı́cula se mueve siguiendo el radio vector Bo r = a cos(ωt) + b sen(ωt) , donde a, b y ω son constantes . Demuestre que la fuerza que actúa sobre la partı́cula es una fuerza central. 6. Encuentre el rotor del campo vectorial F = (2xz)i + (2yz 2 )j + (x2 + 2y 2 z − 1)k , Deducir la forma de φ para que F = ∇φ. 7. Muestre que a) ∇ [∇ϕ (x, y, z) × ∇φ(x, y, z)] = 0 . b) ∇ × [ϕ(x, y, z)∇φ(x, y, z)] = 0 360 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES c) Si x = rsen(θ) cos(φ) , y = rsen(θ)sen(φ) , x = r cos(θ). Encuentre, en este nuevo sistema de coordenadas (r, θ, φ), las expresiones para: ∇f ; ∆ = ∇ · ∇f y ∇ × v. ∂(◦) ∂(◦) Considerando: ∇ =i ∂(◦) ∂x +j ∂y +k ∂z . 8. Muestre que se cumple la siguiente la relación ∆A ≡ (∇ · ∇) A = ∇ (∇ · A) − ∇ × (∇ × A) ar y a partir de ella encuentre las componentes del laplaciano ∆A en coordenadas cilı́ndricas y en coordenadas esféricas. 9. Encuentre el vector normal a la superficie z= p x2 + y 2 + p 3 x2 + y 2 in en un punto cualquiera (x, y, z) 6= (0, 0, 0) , luego encuentre la expresión para el ángulo que forma este vector con el eje. Encuentre el lı́mite al cual tiende este ángulo cuando (x, y, z) → (0, 0, 0). 10. La ecuación de equilibrio hidrostático en simetria esférica es lim ∇P (r) + ρ(r)∇ϕ(r) = 0 donde P (r) es la presión, ρ(r) la densidad y ϕ(r) el potencial gravitacional. Muestre que las normales a las superficies isóbaras y las normales a las superficies equipotenciales, son paralelas. 11. Dado r = x i+y j+z k con krk = r = cte, f (r) un campo escalar bien comportado y a y c vectores constantes, muestre que rP re a) ∇r = ûr ≡ rr ; ∇ (a · rf (r)) = af (r) + (a · r) f 0 (r)ûr b) ∇ · (rf (r)) = 3f (r) + rf 0 (r); ∇ · ((a · r) r) = 4 (a · r) ∇ · ((a · r) c) = ∇ · ((c · r) a) = (a · c) ; ∇ · ((r × a) × c) = −2 (a · c) c) Encuentre los enteros n tales que ∇ · (rn r) = 0. d ) ∇ × r = ∇ × (f (r)r) = 0; ∇ × (c × r) = 2c; ∇ × (c (a · r)) = a × c ∇ × ((c × r) a) = a × c 2 f (r) e) (r × ∇) · (r × ∇) f (r) = r2 ∆f (r) − r2 ∂ ∂r − 2r ∂f∂r(r) con ∆f (r) ≡ (∇ · ∇) f (r) 2 ad o 12. Encuentre la expresión para la divergencia y el rotor de la velocidad v y la aceleración a de un cuerpo rı́gido alrededor de un punto (x, y, z) v =ω×r a = × r + ω × (ω × r) donde ω es la velocidad angular y es un vector constante. 13. Encuentre el rotor y el flujo para el campo vectorial a = x2 + y − 4 i + 3xyj+ 2xz + z 2 k a través del hemisferio x2 + y 2 + z 2 = 16 con z > 0. rr 14. Muesre que el vector a (r) es solución a la ecuación ⇒ ∇ + k2 a = 0 con la condición solenoidal ∇ · a = 0. La ecuación ∇ + k 2 a = 0 se conoce como la ecuación de Helmholtz. Bo ∇ × (∇ × a) − k 2 a = 0 15. Pruebe que el campo de velocidades v (r) de un disco que rota alrededor de su centro con una velocidad angular ω cumple con la relación ∇ × v = 2ω. 16. Demuestre que 17. Demuestre que 0 0 0 Γij 0 k0 = αli αjm0 αkn0 Γlmn + αni αkm0 0 0 Ai ;j 0 = αli αjm0 Al ;m . 18. Demuestre que Ai0 ;j 0 = αil0 αjm0 Al;m . ∂αjn0 . ∂q m 5.4. INTEGRALES Y CAMPOS VECTORIALES 5.4. 361 Integrales y campos vectoriales 5.4.1. ar En la sección 1.5.6 vimos algunas de las integrales de campos escalares y vectoriales, en coordenadas cartesianas, que suelen aparecer en los problemas de Fı́sica-Matemática. Miremos este asunto de la integración con más detalle. Integrales de lı́nea C C in Dentro del grupo de las integrales de lı́nea encontraremos los siguientes tipos de integrales: Z Z Z φ dr, A · dr y A × dr . C lim Estas integrales requieren que se especifique explı́citamente la curva C, la trayectoria, a lo largo de la cual se llevará a cabo la integración. Figura 5.15: Trayectorias de integración y campos vectoriales. Para las integrales del tipo rP re Esas trayectorias serán abiertas o cerradas dependiendo de la curva que se siga en el proceso de integración. La curva puede también estar representada en forma paramétrica y el valor de la integral puede depender no sólo de los extremos sino del camino tomado para ir de un extremos al otro. Z φ(r)dr C vimos que en coordenadas cartesianas, resulta Z Z φ(x, y, z) dr = φ(x, y, z) (dxi + dyj+dzk) C C Z Z Z =i φ (x, y (x) , z (x)) dx + j φ (x (y) , y, z (y)) dy + k φ (x (z) , y (z) , z) dz C ad o C C Tal y como indicamos anteriormente, las tres integrales se podrán realizar si conocemos, en cada caso, la expresión del integrando en término de la variable de integración. Esa es la razón por la cual hay que especificar la curva C que define la trayectoria de integración. Es importante señalar también que en coordenadas cartesianas los vectores base, por ser constantes, pueden salir del argumento de la integral. rr La segunda familia de integrales es Z A · dr C Bo también se reduce a integrales escalares. Cuando el campo vectorial está en coordenadas cartesianas se tiene Z Z A · dr = [Ax (x, y, z)i + Ay (x, y, z)j + Az (x, y, z)k] · [dxi + dyj + dzk] C ZC = Ax (x, y, z)dx + Ay (x, y, z)dy + Az (x, y, z)dz ZC Z Z = Ax (x, y, z)dx + Ax (x, y, z)dy + Ax (x, y, z)dz . C C C Un caso de particular interés aparece cuando la integral se hace sobre un contorno cerrado, entonces, a la la integral I A · dr , C se le denomina la circulación del campo vectorial A alrededor del contorno C. 362 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES Algo similar ocurre con las integrales que contienen el producto vectorial. Z A × dr , C ar que en coordenadas cartesianas serı́a Z Z A × dr = [Ax (x, y, z)i + Ay (x, y, z)j + Az (x, y, z)k] × [dxi + dyj + dzk] C ZC Z = i [Ay (x, y, z)dz − Az (x, y, z)dy] + j [Az (x, y, z)dx − Ax (x, y, z)dz] C ZC + k [Ax (x, y, z)dy − Ay (x, y, z)dx] . C dιi = i=1 3 X hi êi dq i , i=1 donde, como ya hemos visto lim dr = 3 X in En coordenadas generalizadas, el elemento diferencial de lı́nea a lo largo de una curva q i es: ∂r 1 ∂r , , hi = i hi ∂q ∂q i recordemos también que aquı́ no hay sumas en el ı́ndice i. Notemos que al vector: dιi = hi êi dq i es lo que hemos denominado el elemento de lı́nea a lo largo de la curva q i . Esto significa que el elemento de lı́nea siempre lo podremos descomponer en una suma vectorial. Por ejemplo, en coordenadas esféricas es: dιr = êr dr , dιθ = êθ rdθ , dιϕ = êϕ r sen(θ)dϕ , rP re êi = y en cilı́ndricas dιρ = êρ dρ , dιϕ = êϕ ρdϕ , dιz = êz dz , Un método generalizado para calcular integrales de linea consiste en especificar la curva a través de un parámetro, como vimos en el ejemplo anterior. Si el conjunto de coordenadas es el cartesiano x = f (λ) , y = g(λ) , ad o entonces, las componentes de un campo vectorial A se 1 A (x, y, z) = A2 (x, y, z) = A(xi ) ⇒ 3 A (x, y, z) = z = h(λ) , convertirán en funciones de un único parámetro: Ax (f (λ), g(λ), h(λ)) ≡ Ay (f (λ), g(λ), h(λ)) ≡ Az (f (λ), g(λ), h(λ)) ≡ F (λ) G(λ) H(λ) mientras que para el dr se tiene dx = f 0 (λ)dλ , rr por lo tanto: dy = g 0 (λ)dλ , Z Z A · dr = λ2 C [F (λ)f 0 (λ) + G(λ)g 0 (λ) + H(λ)h0 (λ)] dλ . λ1 Bo C Z Ax dx + Ay dy + Az dz = dz = h0 (λ)dλ , Debe quedar claro que éste método puede aplicarse para otros sistemas de coordenadas. La aplicación más común para las integrales de lı́nea aparece en la expresión para el trabajo total realizado por una fuerza cuando mueve una partı́cula a través de un camino. Si una fuerza F mueve una partı́cula una pequeña distancia dr a lo largo de una curva C, entonces el trabajo infinitesimal realizado por esta fuerza será dW = F · dr. De manera que el trabajo total realizado al completar la trayectoria es Z W = F · dr . C Integrales de camino aparecen también en la ley de Ampere, que asocia el campo magnético B con la corriente I que circula por una circuito cerrado C: I B · dr = µ0 I . C 5.4. INTEGRALES Y CAMPOS VECTORIALES 5.4.2. 363 Integrales de superficie Otros objetos que ya nos hemos encontrado con anterioridad son las integrales de superficie, que pueden ser Z Z Z φ dS, A · dS y A × dS . s s s s s ar Por ejemplo, cuando evaluamos el flujo de un campo vectorial y lo relacionamos con la divergencia interpretamos ZZ ZZ ZZ A · dS ≡ A · n̂s dS = An̂ dS , s ≡ div A ≡ rot A ≡ 1 V →0 V lı́m lı́m 1 V lı́m 1 V V →0 V →0 ZZ ZZ 1 φ q i dS = lı́m φ q i n̂s dS , V →0 V s s ZZ ZZ ZZ 1 1 A · dS = lı́m A · n̂s dS = lı́m An̂ dS , V →0 V V →0 V s s s ZZ ZZ 1 dS × A = lı́m n̂s × A dS . V →0 V rP re grad φ lim in como el flujo de las lı́neas de campo a través del diferencial de superficie dS. Es costumbre que se separen el módulo, dS, de la dirección y el sentido, n̂s el cual es el vector normal (sentido positivo) a la superficie. Otra vez, las superficies podrán ser abiertas (cuando disponen de una curva que limita sus fronteras) y cerradas cuando no. Un cı́rculo será una superficie abierta y una esfera cerrada. Por convención supondremos que el vector normal a una superficie cerrada tendrá sentido positivo saliendo. La utilización de integrales de superficie nos ha permitido definir, de manera invariante (independiente del sistema de coordenadas) las expresiones para los operadores diferenciales. Ası́ hemos podido definir: (5.18) (5.19) (5.20) esto es: ad o Para evaluar este tipo de integrales es necesario poder escribir el diferencial de área dS en términos de los diferentes diferenciales coordenados una vez que hemos seleccionado el sistema de coordenadas, pero esto muchas veces puede resultar ser un trabajo arduo. En todo caso, en coordenadas generalizadas, los elementos diferenciales de superficie son vectores perpendiculares al área diferencial y orientadas según la regla de la mano derecha, de manera que dS1 = dι2 × dι3 , dS2 = dι3 × dι1 , dS3 = dι1 × dι2 . dS1 = h2 dq 2 ê2 × h3 dq 3 ê3 = h2 h3 dq 2 dq 3 ê1 = dS1 ê1 , dS2 = h3 dq 3 ê3 × h1 dq 1 ê1 = h1 h3 dq 1 dq 3 ê2 = dS2 ê2 , dS3 = h1 dq 1 ê1 × h2 dq 2 ê2 = h1 h2 dq 1 dq 2 ê3 = dS3 ê3 . Bo rr Por ejemplo, en coordenadas esféricas serı́a: dSr = hθ hϕ dθdϕ êr = r2 sen(θ)dθdϕ êr , dSθ = hr hϕ drdϕ êθ = r sen(θ)drdϕ êθ , dSϕ = hr hθ drdθ êϕ = r drdθ êϕ . Mientras que en cilı́ndricas: dSρ = hϕ hz dϕdz êρ = ρ dϕdz êρ , dSϕ = hρ hz dρdz êϕ = dρ dz êϕ , dSz = hρ hϕ dρdϕ êz = ρ dρ dϕ êz . Debido a que muchas veces no es posible representar de manera simple las superficies en determinados sistemas de coordenadas, lo que se hace es trabajar en coordenadas cartesianas y proyectar las superficies en los planos cartesianos. 364 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES Si la superficie se representa por una ecuación del tipo f (x, y, z) = 0, entonces un vector unitario perpendicular, en todo punto, a la superficie es n̂s = ∇f |∇f | |∇f |dA |∇f |dA dA = = |n̂s · k| ∇f · k ∂f /∂z in dS = ar La superficie S puede ser proyectada en una región R del plano xy de manera que un diferencial de superficie de área dS se proyecta como un diferencial de superficie dA en el plano. lim Figura 5.16: La semiesfera x2 + y 2 + z 2 = a2 . Densidad de flujo rP re Existe una conexión entre el flujo y la intensidad de la fuente de un campo vectorial. La variación en la intensidad de la fuente de un campo vectorial se mide por la densidad de la fuente, por ejemplo, la variación en la intensidad (concentración de las lineas de campo) de la fuente de un campo gravitacional es medido como la densidad de masa. Al ser las densidades cantidades fı́sicas tratadas de manera local, los flujos locales requiere que se introduzca la noción de densidad de flujo. Podemos hablar entonces de la densidad de flujo, o divergencia, de un campo vectorial en un punto P cuando tomamos un volumen infinitesimal al rededor de P , evaluamos el flujo total del campo vectorial a través de las superficies que conforman el volumen y dividimos el resultado por el volumen. Matemáticamente es ZZ ∆F 1 ρF = div A = lı́m = lı́m A · dS . ∆V →0 ∆V V →0 V s Volveremos a este tema más adelante. 5.4.3. Integrales de volumen ad o Esta familia de integrales Z Z φ(r) dV , V A(r) dV V rr son las más simples de evaluar por el hecho de que el elemento de volumen dV es una cantidad escalar. Hemos manejado estas integrales en los cursos básicos cuando, por ejemplo, calculamos la masa total de un fluido contenido en un volumen Z M= ρ(r)dV V Bo Mientras que el segundo tipo de integral es simplemente: Z Z Z Z A(xi ) dV = i Ax (xj ) + j Ay (xj ) + k Az (xj ) , V V V V en coordenadas cartesianas. Para coordenadas generalizadas, el diferencial de volumen de un paralelepı́pedo curvilı́neo es: dV = dι1 · dι2 × dι3 = h1 h2 h3 ê1 · ê2 × ê3 dq 1 dq 2 dq 3 = h1 h2 h3 dq 1 dq 2 dq 3 . Por ejemplo, en coordenadas cilı́ndricas y esféricas serı́a: respectivamente. dV = hρ hϕ hz dρdϕdz = ρ dρdϕdz , dV = hr hθ hϕ drdθdϕ = r2 sen(θ)drdθdϕ , 5.4. INTEGRALES Y CAMPOS VECTORIALES 5.4.4. 365 Ejemplos 1. Un problema que suele aparecer en las integrales sobre curvas es que la función con la que se describe la curva C no es uni-valuada y por lo tanto es necesario dividir la curva en segmentos más pequeños para que la función sea uni-valuada. Si queremos evaluar la integral I x dy , C −a C a in ar dondepC es el cı́rculo: x2 + y 2 = a2 , z = 0, debemos dividir el camino en dos segmentos yapque la función F = a2 − y 2 no es uni-valuada. Podemos dividir entonces la curva en dos partes: x = ± a2 − y 2 donde cada parte es un semi-cı́rculo que permite realizar la integración por separado. Z −a p Z ap I Z ap 2 2 2 2 a − y dy + − a −y dy = 4 a2 − y 2 dy = a2 π . x dy = 0 C lim También pudimos hacer uso de la parametrización: x = a cos(θ) y y = asen(θ), donde el parámetro θ varı́a de 0 a 2π. En este caso la integral se puede evaluar sobre el cı́rculo entero I Z 2π 2 x dy = a cos(θ)2 dθ = a2 π . 0 2. Calculemos Z A · dr rP re C donde A = (2x + y)i + (y − 2x)j y C la parábola y 2 = 2x, desde el punto (0, 0) a (4, 2). La curva se encuentra en el plano, es decir, dr = dxi + dyj: Z Z Z A · dr = [(2x + y)i + (y − 2x)j] · [dxi + dyj] = (2x + y)dx + (y − 2x)dy C C C Por otro lado, y 2 = 2x ⇒ ydy = dx y Z Z Z A · dr = (2x + y)dx + (y − 2x)dy = C 2 (y + y)y + (y − y 2 ) dy = 6 0 ad o C 2 Notemos que pudimos haber escrito la integral en función de la variable x y el resultado serı́a el mismo. Si el camino estuviese en términos de un parámetro, digamos x = 2λ2 +2λ, y = λ+1, entonces, dx = (4λ+2)dλ y dy = dλ. Por lo tanto, tomando los mismos puntos de partida y de llegada se tiene: Z Z 1 2 (2x + y)dx + (y − 2x)dy = (4λ + 5λ + 1)(4λ + 2) + (−4λ2 − 3λ + 1) dλ = 22 −1 rr C 3. Dado el siguiente campo vectorial en coordenadas cilı́ndricas Bo A(r) = (κ1 zϕ) êρ + (κ2 zρ) êϕ + (κ3 ρϕ) êz , donde κ1 , κ2 y κ3 son constantes. Queremos calcular la integral del campo A(r), desde z = 0 hasta dar una vuelta, siguiendo la ruta de una hélice de radio a y cuyas espiras están separadas por una distancia constante b. Lo que debemos tener entonces es la ecuación paramétrica de una hélice en coordenadas cilı́ndricas: ρ = f (λ) = a , ϕ = g(λ) = λ , z = h(λ) = b λ, 2π Notemos que a medida que ϕ = λ cambia en 2π, la altura cambia en b, es decir, damos una vuelta. Por lo tanto A(r) = κ1 b 2 ab λ êρ + κ2 λ êϕ + (κ3 aλ) êz , 2π 2π 366 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES igualmente para dr = dρ êρ + ρ dϕ êϕ + dz êz , dr = (f 0 (λ)dλ) êρ + (f (λ)g 0 (λ)dλ) êϕ + (h0 (λ)dλ) êz = (adλ) êϕ + b dλ êz , 2π Al sustituir resulta λ2 Z A · dr = C λ1 Z 2π = 0 [F (λ)f 0 (λ) + G(λ)f (λ)g 0 (λ) + H(λ)h0 (λ)] dλ a2 b ab κ2 λ + κ3 λ dλ = ab(κ3 + aκ2 )π . 2π 2π ar Z in 4. Dado el campo vectorial A = yj y la semiesfera S : x2 + y 2 + z 2 = a2 , con z ≥ 0, (figura 5.16) y queremos evaluar la integral, es decir, el flujo de A Z A · dS S Integrando Z A · dS = a3 S Z π/2 sen3 (θ) dθ 0 lim Podemos evaluar esta integral de dos maneras. La primera valiéndonos del hecho de tener simetrı́a esférica, lo que hace que el elemento escalar de superficie se pueda representar de manera sencilla dS = a2 sen(θ)dθdϕ y con el vector unitario a la superficie n̂s = êr = sen(θ) cos(ϕ)i + sen(θ)sen(ϕ)j + cos(θ)k. De manera que sobre la superficie y = a sen(θ)sen(ϕ). Ası́: A · dS = y [j · êr ] dS = [a sen(θ)sen(ϕ)] [sen(θ)sen(ϕ)] a2 sen(θ)dθdϕ 2π Z sen2 (ϕ)dϕ = rP re 0 2πa3 . 3 La segunda posibilidad es proyectar la semiesfera sobre el plano xy, esta proyección es simplemente una región R compuesta de un cı́rculo de radio a centrado en el origen de coordenadas8 . La ecuación de este hemisferio superior es f (x, y) = x2 + y 2 + z 2 − a2 = 0, por lo tanto Z Z Z |∇f |dA A · dS = y [j · êr ] dS = y [j · êr ] . ∂f /∂z S S R Sobre la superficie se tiene ∇f = 2xi + 2yj + 2zk = 2r y además ad o p ∂f = 2z = 2 a2 − x2 − y 2 , ∂z ⇒ |∇f | = 2|r| = 2a j · êr = y , a y dA = dxdy . Con estos ingredientes Z y [j · êr ] R |∇f |dA = ∂f /∂z ZZ R y2 2πa3 p dxdy = . 3 a2 − x2 − y 2 rr Si lo deseamos, podemos calcular el vector de área S de la superficie, ya que Z ZZ S= dS = a2 sen(θ)dθdϕ êr , S S Bo por el hecho de que êr no es constante, resulta conveniente ir a las coordenadas cartesianas ZZ 2 S = a sen(θ)dθdϕ [sen(θ) cos(ϕ)i + sen(θ)sen(ϕ)j + cos(θ)k] Z ZS ZZ ZZ = i a2 sen2 (θ) cos(ϕ)dθdϕ + j a2 sen2 (θ)sen(ϕ)dθdϕ + k a2 sen(θ) cos(θ)dθdϕ S S "SZ # "Z # Z Z = 2π a2 π/2 0 + 2 "Z a 0 2π Z dϕ 0 8 Es 2π sen2 (θ)dθ i + a2 cos(ϕ)dϕ π/2 π/2 sen2 (θ)dθ j sen(ϕ)dϕ 0 0 # sen(θ) cos(θ)dθ k = a2 πk . 0 importante tener en cuenta que toda linea recta paralela al eje z debe interceptar la superficie S sólo una vez, de no ser ası́ la superficie debe dividirse en superficies más pequeñas para que cumpla con esta condición. 5.4. INTEGRALES Y CAMPOS VECTORIALES 367 Notemos que la magnitud de S es el valor del área proyectada en el plano xy y no el de la superficie de la semiesfera. 5.4.5. Practicando con Maxima ar Los métodos de integración con Maxima básicamente consisten en el cálculo de la primitiva: integrate(expr,x) y el cálculo de integrales definidas: integrate(expr,x,a,b) en el intervalo (a, b). Por ejemplo (%i1) f(x):=1/(1+x^2)^3; ( %o1) f (x) := 1/(1 + x2 )3 in (%i2) integrate(f(x),x); 3 arctan x 3 x3 + 5 x + 4 8 8 x + 16 x2 + 8 (%i3) integrate(f(x),x,0,1); ( %o3) 3π + 8 32 Es posible realizar cambios de variable 3θ 3 tan3 θ + 5 tan θ + 4 2 8 8 tan θ + 16 tan θ + 8 Otro ejemplo ad o ( %o6) rP re (%i4) ’integrate(f(x),x); Z 1 ( %o4) 3 dx (x2 + 1) (%i5) changevar(%,x=tan(theta),theta,x); Z sec2 θ ( %o5) dθ tan6 θ + 3 tan4 θ + 3 tan2 θ + 1 (%i6) ev(%,integrate); lim ( %o2) (%i7) ’integrate(cos(x)^3,x)=integrate(cos(x)^3,x); sin3 x 3 (%i8) changevar(’integrate(cos(x)^3,x),t=sin(x),t,x); Z ( %o8) 1 − t2 dt Z cos3 x dx = sin x − rr ( %o7) Bo (%i9) ev(%,integrate); ( %o9) t − t3 3 Puede suceder que al integrar una función, por ejemplo (%i10)integrate(exp(x^3+2*x), x, 0, 1); Z ( %o10) 1 ex 3 +2 x dx 0 El programa nos devuelve la integral sin resolver, en este caso Maxima nos está indicando que fue incapaz de realizar el cálculo de manera algebraica. Ahora bien, podemos disponer de rutinas numéricas y existen dos posibilidades: quad qags que nos mostrará una lista con el valor numérico de la integral, el error absoluto estimado 368 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES de la aproximación, el número de evaluaciones del integrando y el código de error (que puede ir desde 0 hasta 6, ver manual). Y romberg que nos muestra simplemente el resultado numérico. (%i11)quad_qags(exp(x^3+x), x, 0, 1); ( %o11) 2,505246759202014, 2,781382634433632 × 10−14 , 21, 0 (%i12)romberg(exp(x^3+x), x, 0, 1); ar ( %o12) 2,505246763921738 C in Ahora veamos la manera de calcular integrales del tipo Z f (x, y, z)dr , pero donde la curva C viene dada por medio de algún parámetro τ , es decir que la integral se puede escribir como b f (r(τ ))|r0 (τ )|dτ . lim Z a Dada la función f = x2 + y 2 (%i13)f(x,y):=x^2 + y^2; rP re ( %o13) f (x, y) := x2 + y 2 Vamos a integrar siguiendo el camino dado por la curva parametrizada con: x = cos(τ ), y = sen(2τ ) (%i14)[x,y]:[cos(tau),sin(3*tau)]; ( %o14) [cos(τ ), sin (3 τ )] (%i15)dr: diff([x,y], tau); ( %o15) [− sin(τ ), 3 cos (3 τ )] Z ( %o16) 0 2 ad o (%i16)integrate(f(x,y)*sqrt(dr.dr),tau,0,2); q 9 cos2 (3 τ ) + sin2 (τ ) sin2 (3 τ ) + cos2 (τ ) dτ (%i17)romberg(f(x,y)*sqrt(dr.dr),tau,0,2); ( %o17) 3,264369711231565 rr Queremos ahora evaluar la integral I x dy , C Bo donde C es el cı́rculo: x2 + y 2 = a2 , z = 0. Con: x = a cos(θ), y = asen(θ), y el parámetro θ variando de 0 a 2π. (%i18)f(x):=x; ( %o18) f (x) := x (%i19)[x,y]:[a*cos(tau),a*sin(tau)]; ( %o19) [a cos(τ ), a sin(τ )] (%i20)dr: diff([x,y], tau); ( %o20) [−a sin(τ ), a cos(τ )] (%i21)integrate(f(x)*dr[2],tau,0,2*%pi); 5.4. INTEGRALES Y CAMPOS VECTORIALES 369 ( %o21) πa2 Calculemos la integral Z A · dr C donde A = (2x + y)i + (y − 2x)j y C en términos de un parámetro es x = 2λ2 + 2λ, y = λ + 1. ar (%i22)A(x,y):=[2*x+y,y-2*x]; ( %o22) A(x, y) := [2x + y, y − 2x] in (%i23)[x,y]:[2*lambda^2+2*lambda,lambda+1]; ( %o23) 2 λ2 + 2 λ, λ + 1 (%i24)dr: diff([x,y], lambda); lim ( %o24) [4 λ + 2, 1] (%i25)integrate(A(x,y).dr,lambda,-1,1); 5.4.6. Ejercicios 1. Evalúe la integral de lı́nea de rP re ( %o25) 22 A = x2 i + y 2 j + z 2 k , a lo largo de la curva C: x = aλ2 , y = bλ, z = c sen (πλ/2), desde el origen al punto (a, b, c). 2. Evalúe la integral de lı́nea de ad o A = xi + y2 z2 j − k, b c a lo largo de la curva C: x = a cos (πλ/2), , y = b sen (πλ/2), z = cλ, desde el punto (a, 0, 0) al punto (0, b, c). 3. Evalúe la siguiente integral H C y 4x2 + y 2 dx + x 2x2 + 3y 2 dy alrededor de la elipse x2 /a2 + y 2 /b2 = 1. rr 4. Encuentre la circulación alrededor de una circunferencia de radio unidad centrada en el origen para los siguientes campos. a) A = 1 2 (−y i + x j). 1 2 2x + x + 2 j. Bo b) A = (xy + 1) i + 5. Encuentre el flujo del campo A = κx2 k a través de la porción de una esfera de radio a centrada en el origen y el primer cuadrante del sistema de coordenadas cartesianos. 6. Encuentre el flujo del campo A = yi + 3zj − 2xk a través de la porción del plano x + 2y − 3z = 5 y el primer cuadrante del sistema de coordenadas cartesianos. 7. Encuentre el vector de área S de la parte de la superficie curva del hiperbolóide de revolución x2 y2 + z2 − =1 a2 b2 que pertenece a la región: z ≥ 0 y a ≤ x ≤ λa. 370 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES 5.5. Campos vectoriales y teoremas integrales 5.5.1. ar En esta sección presentaremos un conjunto de teoremas que relacionan las variaciones de un campo vectorial con las fuentes que lo producen. En términos técnicos (matemáticos) resultan fundamentales cuando queremos convertir un tipo de integral (lı́nea, superficie o volumen) en otra. El primer teorema, el Teorema de Gauss permite expresar el valor de una integral de volumen V encerrado por una determinada superficie S (cerrada) en términos de una integral sobre esa misma superficie. El otro teorema importante es el Teorema de Stokes, el cual permite relacionar el valor de una integral de superficie con la integral de lı́nea sobre la curva que delimita esa superficie. Teorema de Gauss in Presentación y demostración s lim La primera relación que presentaremos entre una integral de superficie de un campo vectorial, A, y una de volumen de su derivada es el teorema de Gauss (o de la divergencia) el cual se expresa de forma vectorial como ZZ ZZ Z A · dS ≡ A · n̂s dS = ∇ · A dV , s V ad o rP re donde A = A xi es el campo vectorial, dS ≡ n̂s dS es el diferencial de área y dV el diferencial de volumen. Debe quedar claro que la superficie cerrada S contiene al volumen V . Tal y como vimos en su oportunidad el término ∇ · A es interpretado como el flujo del campo A por unidad de volumen, por lo tanto, el lado derecho de la ecuación es la tasa de flujo neto que sale del volumen sobre el cual estamos integrando. La demostración del teorema de Gauss es como sigue. Supongamos un volumen encerrado por una superficie convexa S, como se muestra en la figura 5.17 en los cuadrantes I, II y III. Supongamos además que orientamos el sistema de coordenada de tal forma que una lı́nea paralela a uno de los ejes toca la superficie en dos puntos (figura 5.17, cuadrante I). De este modo podemos trazar una superficie (perpendicular a esa lı́nea) tal que divida la superficie S en dos superficies S1 y S2 cada una de las cuales está bordeada por la curva C, (figura 5.17, cuadrante II). Al evaluar la integral Z Z Z ZZ Ax i · dS = Ax i · dS + Ax i · dS = [Ax (x2 , y, z) − Ax (x1 , y, z)] dS 0 , S S1 s0 S2 ya que las componentes x de los vectores normales a las dos superficies que contribuyen (figura 5.17, cuadrante III) tienen signos opuestos dS2x = i · dS2 = −i · dS1 = −dS1x = dydz = dS 0 . rr Ahora bien, dado que Ax (x2 , y, z) − Ax (x1 , y, z) ∂Ax = lı́m x2 →x1 ∂x x2 − x1 Bo con lo cual Z Z Z Z x2 Ax i · dS = S s0 x1 Z x2 ⇒ Ax (x2 , y, z) − Ax (x1 , y, z) = x1 ∂Ax dx , ∂x Z ∂Ax ∂Ax dx dydz = dV . ∂x V ∂x Equivalentemente, al hacerlo en las direcciones j y k, obtendremos Z Z Z Z ∂Ay ∂Az Ay j · dS = dV y Az k · dS = dV . ∂y S V S V ∂z Finalmente hemos demostrado el teorema de la divergencia o teorema de Gauss ZZ ZZ Z Z Z ∂Ax ∂Ay ∂Az + + ∂i Ai dV = A · dS ≡ A · n̂s dS = dV = (∇ · A) dV . ∂x ∂y ∂z s s V V V 371 lim in ar 5.5. CAMPOS VECTORIALES Y TEOREMAS INTEGRALES rP re Figura 5.17: Teoremas de Gauss Expresiones equivalentes para el teorema de Gauss Si bien la expresión estándar es la que hemos presentado, existen algunas variantes que se derivan de ella. Por ejemplo si consideramos un campo escalar, φ (x, y, z), el teorema de Gauss nos conduce a ZZ ZZZ ZZ ZZZ i i i φ x dS = ∇φ x dV y dS × B x = ∇ × B xi dV . s V s V ad o donde B (x, y, z) es un campo vectorial. Para comprobar la primera de estas dos relaciones consideramos un vector c constante y construyamos un campo vectorial: A (x, y, z) = c φ (x, y, z), entonces ZZ ZZZ ZZ ZZZ A · dS = ∇ · A dV ⇒ c· φ xi dS = c · ∇φ xi dV s V s Z Z ZZZ V 0 = c· φ xi dS − ∇φ xi dV , s V rr es decir, para todo vector c siempre se cumple que ZZ ZZZ φ xi dS = ∇φ xi dV . s V Bo Esa misma metodologı́a se puede aplicar para demostrar la segunda relación si consideramos un campo vectorial A (x, y, z) = c × B (x, y, z), con c vector constante y se procede de una manera similar. Version 2D del teorema de Gauss Si estamos en el plano xy podemos considerar una región R acotada por una curva cerrada C. En cada punto de la curva el vector dr = dxi + dyj será un vector tangente a la curva y el vector n̂ds = dyi − dxj un vector normal a C e indicando hacia el exterior de R. Si existe un campo vectorial A(x, y), continuo y diferenciable en todo R, entonces el teorema de la divergencia en coordenadas cartesianas es: I ZZ I ∂Ay ∂Ax + dxdy = [Ax dy − Ay dx] . A · n̂ds = ∂x ∂y C R Podemos generalizar esta idea si suponemos dos funciones P (x, y) y Q(x, y) con sus derivadas finitas y continuas dentro y sobre el contorno cerrado C que contiene una región simplemente conectada R. Entonces, existe una 372 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES relación entre la integral de lı́nea alrededor de C y una doble integral sobre la región encerrada R, esta relación se conoce como el teorema de Green en el plano, o teorema de la divergencia en dos dimensiones: I ZZ ∂Q ∂P − dxdy . [P dx + Qdy] = ∂y C R ∂x Ley de Gauss y campo eléctrico in ar La aplicación más emblemática del teorema de Gauss lo constituyen el cálculo de la divergencia del campo eléctrico E y su relación con las distribuciones de cargas existentes. Desde siempre sabemos que el campo eléctrico producido por una carga Qi viene dado por ZZ Qi 1 Qi ρ (r) u ⇒ Ei · dSi = Ei (r) = ⇔ ∇·E= . r i 2 4π0 ri 0 0 Si S i lim En definitiva la “deducción” de una de las ecuaciones de Maxwell. Si calculamos el flujo del campo eléctrico en una región sin cargas todas las lı́neas del campo E (r) atraviesan el volumen: todas entran y todas salen. Sin embargo si tenemos un conjunto de cargas discretas distribuidas dentro de la región encerrada por la superficie S, (ver figura 5.17, cuadrante IVa) podemos encerrar cada una de las cargas con superficies esféricas Si . Por lo tanto Z ZZ ZZ X ZZ X ZZ E · dSi . E · dSi = ∇ · EdV = 0 ⇒ E · dS = − E·d S+ V Si S i Si rP re Con lo cual hemos definido una superficie con “huecos” alrededor de cada una de las cargas y llegamos a la conclusión que lo que entra sale. Por su parte, el campo eléctrico medido para cada superficie esférica interior Si será 1 Qi ur + E0 , E|Si = 4π0 ri2 i ad o donde E0 es el campo de todas las otras cargas presentes en el volumen encerrado por S. Es claro que este campo E0 tiene flujo cero neto sobre cada esfera de superficie Si . Por lo tanto P ZZ X Z Z 1 Qi X 1 Qi Z Z Qi Q 0 E · dS = − · nSi dSi = dSi = i = , 2 uri + E 2 4π r 4π r 0 i 0 i 0 0 S Si Si i i donde hemos utilizado: Z X ZZ (∇ · E0 ) dVi = 0 = Vi i E0 · n̂si dSi , ZZ uri · n̂si = −1 dSi = Si = 4πri2 . y Si Si rr Finalmente encontramos una de las leyes de Maxwell si reescribimos la integral de superficie utilizando la ley de Gauss ZZ Z ZZ Z Z Q 1 1 E · dS = = ρ (r) dV ⇒ E · dS = (∇ · E) dV = ρ (r) dV , 0 0 V 0 V S S V Bo con lo cual Z ρ (r) ∇·E− dV 0 V ⇒∇·E= ρ (r) . 0 Discontinuidades y densidades superficiales de carga Normalmente, siempre consideramos que los campos vectoriales A = A (x, y, z) son campos continuos (y, más aún, con todas sus derivadas continuas). Sin embargo, encontramos en la naturaleza situaciones en la cuales el campo varı́a mucho en una distancia muy corta (infinitesimal). En estas situaciones podemos simular esta rápida variación como una discontinuidad en el campo. Existe formas de aplicar el teorema de Gauss para algunas situaciones en las cuales tratamos con campos discontinuos. La manera apropiada de tratar (derivadas e integrales de) funciones discontinuas es considerándolas no funciones sino distribuciones. Este tipo de tratamiento está fuera del alcance de este formulario y será considerado en otros cursos. Supongamos el caso que ilustra la figura 5.17, cuadrante IVb. Una región R delimitada por una superficie S, dentro de la cual, una superficie de discontinuidad, S̄, separa dos subregiones R1 y R2 a través de la cual un campo 373 in ar 5.5. CAMPOS VECTORIALES Y TEOREMAS INTEGRALES lim Figura 5.18: Discontinuidad del Vector Desplazamiento vectorial, A = A (x, y, z), es discontinuo. Ahora bien, el campo vectorial es continuo en las subregiones, por lo cual el flujo del campo atraviesa las superficies S1 y S̄ que delimitan el volumen V1 de la región R1 . Entonces el teorema de Gauss para cada región queda expresado como ZZ ZZ ZZ Z ZZ Z A · dS − A− · n̂s̄ dS̄ , (∇ · A) dV = A · dS + A+ · n̂s̄ dS̄ y (∇ · A) dV = V2 rP re S̄ S1 V1 S2 S̄ donde n̂s̄ es el vector normal a la superficie S̄, de separación de las dos regiones. Adicionalmente hemos denotado, A+ y A− el campo A evaluado del lado de R1 y R2 , respectivamente. Si ahora consideramos el teorema de Gauss en toda la región Z Z Z (∇ · A) dV . (∇ · A) dV + (∇ · A) dV ≡ V1 +V2 V2 V1 ad o Claramente si el campo es continuo dentro de la región R entonces nos queda la formulación estándar del teorema de Gauss Z ZZ (∇ · A) dV = A · dS . V1 +V2 S Por el contrario si el campo es discontinuo, entonces debe tomarse en cuenta la discontinuidad del campo y la relación que surge de sumar el flujo a través de las dos regiones es Z ZZ ZZ (∇ · A) dV = A · dS − (A2 − A1 ) · n̂s̄ dS̄ V1 +V2 S S̄ Bo rr con n̂s̄ el vector unitario, normal a la superficie S̄ y que apunta de R1 → R2 . Es claro que la discontinuidad que cuenta es la de la componente del campo perpendicular a la superficie (ver figura 5.18). Este tipo de discontinuidad en campos irrotacionales es generado por la presencia de fuentes, las cuales, en este caso son densidades superficiales de carga. Quizá el ejemplo tı́pico para la aplicación de las anteriores consideraciones es la aplicación de las ecuaciones de Maxwell en el caso del vector desplazamiento eléctrico D, a través de una superficie S̄, que separa dos medios. Este caso se ilustra en la figura 5.17, cuadrante IVc y en la figura 5.18, sólo que en este último caso el vector normal está definido a la inversa: la región 2 corresponde a la región 1 de la figura 5.17, cuadrante IVc. La ecuación de Maxwell correspondiente será ∇·E= ρ (r) 0 ⇒ ∇ · D = ρ (r) ⇒ (D2 − D1 ) · n̂s̄ = σ , con D = 0 E , donde n̂s̄ es el vector normal a la superficie (ver figura 5.17, cuadrante IVc) y σ es la densidad superficial de carga en la superficie S. Para comprobar esta relación construimos un volumen cilı́ndrico infinitesimal que encierra la superficie de discontinuidad, de tal forma que ∆S2 corresponde con la “tapa” del cilindro y ∆S1 con su “base” (figura 5.17 cuadrante IVc). 374 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES Adicionalmente, como ∆l ∼ 0, no sólo podremos trabajar sin las integrales, el flujo a través de las “paredes” del cilindro será despreciable y ∆S2 ≈ ∆S1 , sino que además, al encerrar la discontinuidad no tomamos en cuenta la contribución de la superficie ∆S3 (o S̄, en el cuadrante IVb de la figura 5.17). Ası́ (∇ · D) dV = D2 · ∆S2 − D1 · ∆S1 ⇒ ρ (r) (∆S2 ∆l) = (D2 − D1 ) · n̂s2 ∆S2 , con lo cual ρ (r) ∆l ≡ σ = (D2 − D1 ) · n̂s2 . ar Teoremas de Green s ZZ ζ xi ∇ξ xi · dS = ZZZ s lim es decir V in Cuando consideramos campos vectoriales muy particulares el teorema de Gauss nos lleva a un par de identidades vectoriales conocidas como las identidades o teoremas de Green Supongamos que tenemos dos campos escalares: ζ (x, y, z) y ξ (x, y, z) entonces y con ellos construimos un campo vectorial ZZ ZZZ A xi = ζ xi ∇ξ xi ⇒ A · dS = (∇ · A) dV , ∇ · ζ xi ∇ξ xi dV , V con lo cual arribamos a la primera identidad de Green, primer teorema de Green o teorema escalar de Green: ZZ ZZZ ζ xi ∇ξ xi · dS = ζ xi ∇ · ∇ξ xi + ∇ζ xi · ∇ξ xi dV . s V rP re Si ahora, consideramos los siguientes campos vectoriales ∇ · ζ xi ∇ξ xi = ∇ζ xi · ∇ξ xi + ζ xi ∇ · ∇ξ xi ∇ · ξ xi ∇ζ xi = ∇ξ xi · ∇ζ xi + ξ xi ∇ · ∇ζ xi Restando ambas expresiones tendremos que ∇ · ζ xi ∇ξ xi − ξ xi ∇ζ xi = ζ xi ∇ · ∇ξ xi − ξ xi ∇ · ∇ζ xi , y al integrar sobre un volumen V obtendremos la formulación del teorema simétrico de Green, la segunda identidad ZZZ ZZ ζ xi ∇ · ∇ξ xi − ξ xi ∇ · ∇ζ xi dV = ζ xi ∇ξ xi − ξ xi ∇ζ xi · dS . s ad o V La utilidad de estas relaciones las veremos en el desarrollo de la teorı́a del Potencial en la sección 5.6 en la página 385. 5.5.2. Teorema de Stokes Presentación y demostración Bo rr El teorema de Stokes relaciona una integral de lı́nea escalar de un campo vectorial, A = A (x, y, z), a lo largo de una curva cerrada C, con una integral del rotor del campo sobre la superficie encerrada por la misma curva C. Es decir I ZZ ZZ A · dr = (∇ × A) · dS ≡ (∇ × A) · n̂s dS . S S Tal y como hemos mencionado antes la superficie la define su vector normal, y éste lo define el “sentido” de circulación de la curva que bordea la superficie (ver figura 5.19 cuadrantes I y III). No haremos una demostración formal del teorema de Stokes como lo hicimos para el Gauss. Nos convenceremos de que es correcta la relación a partir de algunas situaciones sencillas. Cualquier superficie la podremos dividir en pequeñas cuadrı́culas diferenciales, las cuales sumadas constituyen la superficie (ver figura 5.19 cuadrante II). Es fácil convencerse que la circulación9 por el borde de una cuadrı́cula diferencial (por ejemplo en el plano xy) nos lleva a I Z Z Z Z Γ1234 = A · dr = Ax (x, y) dx + Ay (x, y) dy + Ax (x, y) (−dx) + Ay (x, y) (−dy) , 1234 9 Pueden 1 2 consultar otro ejemplo de circulación en la sección 5.3.3. 3 4 375 lim in ar 5.5. CAMPOS VECTORIALES Y TEOREMAS INTEGRALES rP re Figura 5.19: Teorema de Stokes donde hemos denotado la trayectoria a lo largo del perı́metro de la cuadrı́cula por 1234. De la figura 5.20 podemos intuir Z Z Z Z Γ1234 = Ax (x0 , y0 ) dx + Ay (x0 + dx, y0 ) dy + Ax (x0 , y0 + dy) (−dx) + Ay (x0 , y0 ) (−dy) , y de allı́ el desarrollo por Taylor que nos conduce a Z Z " ad o Γ1234 # # Z " ∂Ay ∂Ax dx dy − Ax (x0 , y0 ) + dy dx = Ax (x0 , y0 ) dx + Ay (x0 , y0 ) + ∂x x0 ∂y y0 # Z Z " ZZ ZZ ∂Ax ∂Ay + Ay (x0 , y0 ) dy = − dxdy = ∇ × A|z dSz ≡ (∇ × A) · dS . ∂x x0 ∂y y0 S S rr Esto vale para todos los puntos (x0 , y0 ) y se puede aplicar para las otras superficies, con lo cual es fácil convencerse que esta técnica se puede utilizar para cada cuadrı́cula en las que hemos dividido la superficie (ver figura 5.19 cuadrante II). Más aún, las circulaciones a lo largo de los perı́metros de las cuadrı́culas interiores se anulan (ver figura 5.19 cuadrante III) y sólo sobrevive la circulación a lo largo del perı́metro exterior de la superficie. Con ello I ZZ X X A · dr ≡ (∇ × A) · dS ⇒ A · dr = (∇ × A) · dS . S Bo cuadricula Version 2D del teorema de Stokes En el plano xy, si consideramos una región R en el que está definido un campo vectorial A = Ax i+Ay j, entonces ∂Ax ∂Ay − k. ∇×A= ∂x ∂y Por el teorema de Stokes Z R I ∂Ax ∂Ay − dxdy = [Ax dx + Ay dy] . ∂x ∂y C Si ponemos Ax = P y Ay = Q recobramos el teorema de Green en plano, ecuación (5.5.1). CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES in ar 376 lim Figura 5.20: Circulación en una cuadrı́cula del plano x, y Teorema de Stokes y Campo Magnetico rP re De la ley de Ampere para una densidad de corriente J I Z B · dr = µ0 J · dS , C S donde el circuito C es el borde de la superficie S, resulta que al aplicar el teorema de Stokes a la integral de superficie I Z Z Z B · dr = ∇ × B · dS = µ0 J · dS ⇒ [∇ × B − µ0 J] · dS = 0 , C S S S para cualquier superficie S. La ecuación anterior no es más que una de las ecuaciones de Maxwell ad o ∇ × B − µ0 J = 0 ⇒ ∇ × B = µ0 J , De manera similar, de la ley de inducción electromagnética de Faraday se puede obtener ∇×E=− ∂B . ∂t Expresiones equivalentes para el teorema de Stokes rr Del mismo modo que hicimos en la sección 5.5.1 con el teorema de Gauss, podemos hacerlo para el teorema de Stokes y tendremos I ZZ I ZZ φ (x, y, z) dr = dS × ∇φ (x, y, z) y dr × B (x, y, z) = (dS × ∇) × B (x, y, z) , S Bo S donde φ (x, y, z) es un campo escalar y B (x, y, z) un campo vectorial. Otra vez, la metodologı́a para proceder a la demostración se fundamenta en considerar un par de campos vectoriales, uno de la forma A (x, y, z) = φ (x, y, z) c y el otro de la forma b (x, y, z) = c × B (x, y, z), luego desarrollar un álgebra vectorial mı́nima. Teorema de Stokes y fuerzas conservativas El teorema de Stokes nos permite identificar que campos vectoriales irrotacionales generan integrales de lı́nea las cuales son independientes de la trayectoria. Esto es ZZ I ∇ × F (x, y, z) = 0 ⇒ (∇ × A) · dS = A · dr = 0 , S 5.5. CAMPOS VECTORIALES Y TEOREMAS INTEGRALES 377 con lo cual, lo que se está señalando es que toda trayectoria cerrada se puede fraccionar en dos trayectorias abiertas que se unen en los extremos, entonces I Z Z Z P2 Z P2 A · dr = 0 = A · dr + A · dr ⇒ A · dr ≡ A · dr , C1 C2 P1 curva C1 P1 curva C2 ∇ × F (x, y, z) = 0 ar y lo que nos dice es que vamos de un punto (de corte de la curva cerrada) P1 a otro punto P2 por dos trayectorias distintas y la integral de lı́nea es la misma. Más adelante veremos que a los campos vectoriales irrotacionales les está asociado un potencial tal que ⇒ F (x, y, z) ∝ ∇φ (x, y, z) . in Teorema de Stokes y discontinuidades del campo vectorial I Z P1 A · dr = A · dr + P2 curva C2 C2 +C̄ S1 P2 curva C̄ Z P2 rP re P1 curva C1 C1 +C̄ lim Al igual que el teorema de Gauss puede ser considerado para manejar funciones discontinuas, el teorema de Stokes también tiene una expresión cuando se consideran campos discontinuos (continuo a trozos o continuos por segmentos) Consideremos el caso más simple, el de un campo vectorial A (x, y, z) que es discontinuo sobre una superficie S̄, que divide R en dos subregiones R1 y R2 (ver otra vez 5.17, cuadrante IVb). En este caso la superficie S, será abierta y estará delimitada por una curva C2 . La intersección de las superficies S y S̄ será una curva C̄, la cual dividirá a S en dos superficies S1 y S2 (ver figura 5.19 cuadrante IV). Entonces, aplicando el teorema de Stokes se obtiene: Z P1 ZZ I Z P2 (∇ × A) · dS , A · dr + A · dr = A · dr = ZZ A · dr = P1 curva C̄ Ahora bien, si las sumamos obtendremos ZZ ZZ I (∇ × A) · dS + (∇ × A) · dS = A · dr + S1 S2 C ad o S Z P1 Z P2 A · dr , A · dr + P2 curva C̄ en S1 la cual puede ser reescrito como I ZZ Z A · dr = (∇ × A) · dS − C (∇ × A) · dS . S2 P1 curvaC̄ en S2 P2 P1 curva C̄ A|S2 − A|S1 · dr , Ejemplos Bo 5.5.3. rr donde hemos denotado A|S2 como el campo vectorial evaluado sobre la curva C̄ “del lado” de las superficie S2 . Es importante señalar que el término que incorpora la contribución de la discontinuidad del campo sólo encierra componentes tangenciales a la superficie. Esto es claro del producto escalar con el vector dr tangente a la curva C̄ (y también a la superficie S). 1. Queremos evaluar la integral Z Z A · dS = S (y + 2x)i + x2 zj + (z + x2 )k · dS , S donde S es la superficie abierta del hemisferio x2 + y 2 + z 2 = a2 , z ≥ 0, pero sin resolver la integral de superficie directamente, sino utilizando el teorema de Gauss. Consideremos la superficie cerrada S̄ = S + Sc , donde Sc es el área cuando z = 0, es decir, el área del cı́rculo x2 + y 2 ≤ a2 . Por lo tanto S̄ encierra el volumen V del hemisferio superior de la esfera centrada en el origen de coordenadas. Tenemos entonces que Z I Z Z ∇ · AdV = A · dS = A · dS + A · dS . V S̄ S Sc 378 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES Esto es: Z Z Z A · dS = ∇ · AdV − S V A · dS . Sc Ahora bien, ∇ · A = 2 + 0 + 1 = 3, y para la superficie Sc es bueno recordar que el vector normal es un vector que apunta hacia el exterior, por lo tanto dS = −k dxdy, además, sobre esa superfie el campo toma la forma A|Sc = (y + 2x)i + x2 k. Entonces Z A · dS = 3 Z 2π + (y + 2x)i + x2 k · [−k dxdy] = 3 3 Sc dV − S V ZZ x2 dxdy . ar Z R Utilizando coordenadas polares ZZ ρ2 cos2 (ϕ)ρ dρdϕ = 2π + A · dS = 2π + S Z 2π cos2 (ϕ)dϕ ρ3 dρ = 2π + 0 0 R a Z πa4 . 4 in Z es decir I 1 2 [xdy − ydx] . rP re A= lim 2. Cuando tenemos un área encerrada por una curva cerrada C, podemos ver que si hacemos P = −y y Q = x, entonces por el teorema anterior resulta que para el área A de la región R ZZ ZZ I ZZ ∂Q ∂P − dxdy = [1 + 1] dxdy = 2 dxdy = 2A [−ydx + xdy] = ∂y R R C R ∂x C Por ejemplo, si consideramos la elipse: x = a cos(α), y = b sen(α), el area de la elipse será: A= 1 2 I C 2π Z 1 2 [xdy − ydx] = A = 0 ab ab cos2 (α) + sen2 (α) dα = 2 2π Z dα = abπ . 0 3. Dado el siguiente campo vectorial A = −yi + xj + 3zk y la superficie S : x2 + y 2 + z 2 = a2 , z ≥ 0. Z ad o Entonces, para evaluar ∇ × A · dS , S sobre ese hemisferio, vemos que ∇ × A = 2k. Mientras que el elemento de superficie en coordenadas esféricas es dS = a2 sen(θ)dθdϕ êr . Por lo tanto: Z Z ∇ × A · dS = rr S Bo 2π Z 2 2a sen(θ) êr · k dθ = 2a2 dϕ 0 = π/2 0 2a2 Z Z dϕ 0 2π 0 π/2 z sen(θ)dθ a π/2 Z sen(θ) cos(θ)dθ = 2a2 π . dϕ 0 2π Z 0 Para comprobar la igualdad del teorema de Stokes, vamos a evaluar la integral sobre el cı́rculo x2 + y 2 = a2 , que se encuentra en el plano z = 0. I I A · dr = [−yi + xj + 3zk] · [dxi + dyj + dzk] = [−ydx + xdy] , C C en coordenadas polares: x = a cos(ϕ), y = a sen(ϕ) I I [−ydx + xdy] = (−a sen(ϕ))(−a sen(ϕ)dϕ) + (a cos(ϕ))(a cos(ϕ)dϕ) C C = a2 Z 0 2π 2 sen (ϕ) + cos(ϕ)2 dϕ = a2 Z 0 2π dϕ) = 2a2 π . 5.5. CAMPOS VECTORIALES Y TEOREMAS INTEGRALES 379 4. La Ley de Ampere se puede derivar de la ecuación de Maxwell ∇ × H = J donde H es el campo magnético y J la densidad de corriente. Si el campo eléctrico es nulo (E = 0), mostremos que I H · dr = I con I la corriente neta que atraviesa la circulación del campo magnético. Podemos ver que ZZ ZZ H · dr = (∇ × H) · dS = J · dS = I S ar I S 5. Consideremos el siguiente campo de fuerza: n (xi + yj + zk) . in F = x2 + y 2 + z 2 lim R a) Calculemos en trabajo F · dr a lo largo de un arco de circunferencia unitaria, colocado en el plano xy: primero girando en sentido antihorario de 0 → π y luego en sentido horario 0 → −π ¿Qué puede concluir del campo de fuerzas? Lo podemos resolver de varias maneras. La forma elegante es expresando el campo de fuerza F en coordenadas esféricas. Esto es n F = x2 + y 2 + z 2 (xi + yj + zk) ≡ r2n r ≡ r2n+1 ûr rP re luego recordamos que dr es siempre tangente a la trayectoria, y en este caso la trayectoria es una circunferencia unitaria ubicada en el plano xy, entonces dr ∝ ûφ ⇒ F · dr = 0 en todo punto con lo cual esta fuerza es conservativa porque I F · dr = 0 ∀ (x, y) ⇒ F · dr = 0 . ad o La otra forma es con el empleo de la fuerza bruta, cartesiana Z Z n F · dr = x2 + y 2 + z 2 (xi + yj + zk) · (dxi + dyj + dzk) , rr √ como la trayectoria es una circunferencia unitaria ubicada en el plano xy, entonces y = 1 − x2 , z = 0, con x variando entre 1 y −1, tanto en el caso de circular en sentido antihorario de 0 → π o en sentido horario 0 → −π. Z Z −1 Z 0 n n F · dr = x2 + y 2 x dx + x2 + y 2 y dy 1 Z 0 −1 = x2 + 1 − x 2 n −1 Z x dx = 1 x dx = 0 . Bo 1 No es suficiente, pero podemos sospechar que la fuerza es conservativa, por cuanto dos circulaciones distintas nos dieron el mismo valor de la integral. b) ¿Ese campo vectorial tendrá un potencial ϕ (x, y, z) asociado, tal que F = −∇ϕ (x, y, z)? Otra vez, planteamos la ecuación F = −∇ϕ (x, y, z) en esféricas. Esto es ∂ϕ (r, θ, φ) 1 ∂ϕ (r, θ, φ) 1 ∂ϕ (r, θ, φ) 2n+1 F=r ûr = − ûr + ûθ + ûφ , ∂r r ∂θ rsen(θ) ∂φ con lo cual tienen que cumplirse las siguientes ecuaciones r2n+1 = ∂ϕ (r, θ, φ) ; ∂r 0= ∂ϕ (r, θ, φ) ; ∂θ 0= ∂ϕ (r, θ, φ) . ∂φ 380 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES Las dos últimas ecuaciones, válidas para r 6= 0, implican que ϕ no depende ni de θ, ni de φ. La primera puede ser integrada y nos queda como Z dϕ(r) −r2n+2 2n+1 r = ⇒ r2n+1 d r = ϕ(r) ⇒ ϕ(r) = +C dr 2n + 2 ar resultado que claramente diverge para n = −1, tanto cuando r → 0 como cuando r → ∞. Obviamente, valı́da también al hacerlo en cartesianas ∂ϕ (x, y, z) ∂ϕ (x, y, z) ∂ϕ (x, y, z) 2 2 2 n (xi + yj + zk) = − i+ j+ k , F= x +y +z ∂x ∂y ∂z con lo cual x = n z x2 + y 2 + z 2 − Integrando la primera de esas ecuaciones Z 2 ϕ(x, y, z) = − 2 x +y +z 2 n x2 + y 2 + z 2 n y=− ∂ϕ (x, y, z) ∂y in ∂ϕ (x, y, z) , ∂x ∂ϕ (x, y, z) = − . ∂z n lim x2 + y 2 + z 2 1 x2 + y 2 + z 2 x dx = − 2 n+1 n+1 + C (y, z) . rP re Donde C (y, z) es una función que tendremos que ir descubriendo poco a poco. Ahora bien, sustituyendo esa forma de ϕ (x, y, z) en la segunda ecuación, tendremos que ! n+1 n ∂ 1 x2 + y 2 + z 2 ∂C (y, z) 2 2 2 n x +y +z y=− − + C (y, z) = x2 + y 2 + z 2 y − , ∂y 2 n+1 ∂y con lo cual concluimos que C es independiente de y. ∂ (C (y, z)) 0= ∂y ⇒ C = C (z) 1 x2 + y 2 + z 2 ⇒ ϕ(x, y, z) = − 2 n+1 n+1 + C (z) , ad o y ahora se sustituye esta nueva forma de la función ϕ (x, y, z) en la tercera ecuación ! n+1 n ∂ 1 x2 + y 2 + z 2 ∂C (z) 2 2 2 n x +y +z z=− − + C (z) = x2 + y 2 + z 2 z − , ∂z 2 n+1 ∂z rr entonces C también es independiente de z. Finalmente se determina que n+1 1 x2 + y 2 + z 2 ϕ(x, y, z) = − . 2 n+1 Obviamente es el mismo resultado cuando recordamos que: r2 = x2 + y 2 + z 2 y tiene el mismo comportamiento para n = −1. Bo 6. Dado el siguiente campo vectorial 2A cos(θ) Asen(θ) ûr + ûθ 3 r r3 con A = constante y {ûr , ûθ } vectores unitarios base en coordenadas esféricas. F= a) Calculemos ∇ × F. El rotor en coordenadas esféricas viene dado por ûr r ûθ rsen(θ) ûφ 1 ∂ ∂ ∂ ∇×F= 2 ∂r ∂θ ∂φ r sen(θ) 2A cos(θ) r3 r Asen(θ) r3 0 h i h Asen(θ) i 2A cos(θ) ∂ 2 3 ûφ ∂ r r = =0 − r ∂r ∂θ 5.5. CAMPOS VECTORIALES Y TEOREMAS INTEGRALES 381 H b) Calculemos en trabajo F · dr a lo largo de una circunferencia unitaria en el plano θ = Por el teorema de Stokes el trabajo en un circuito cerrado se anula I ZZ F · dr = ∇ × F · dS = 0 . π 2 Se puede entonces concluir que la fuerza es conservativa. con lo cual, también una vez más 1 ∂ϕ (r, θ, φ) Asen(θ) =− , r3 r ∂θ 0= ∂ϕ (r, θ, φ) . ∂φ lim 2A cos(θ) ∂ϕ (r, θ, φ) =− , r3 ∂r in ar c) ¿Ese campo vectorial tendrá un potencial asociado tal que F = −∇ϕ? Una vez más 2A cos(θ) Asen(θ) ∂ϕ (r, θ, φ) 1 ∂ϕ (r, θ, φ) 1 ∂ϕ (r, θ, φ) ûr + ûθ = − ûr + ûθ + ûφ , r3 r3 ∂r r ∂θ rsen(θ) ∂φ La última ecuación indica que ϕ no depende de φ. Ahora bien, integrando la primera de estas ecuaciones, tendremos Z ∂ϕ (r, θ, φ) 2A cos(θ) cos(θ) 2A cos(θ) = − ⇒ ϕ (r, θ) = − dr + C (θ) = A 2 + C (θ) , 3 3 r ∂r r r rP re al sustituir la forma del potencial en la segunda ecuación tendremos ∂ ∂C (θ) cos(θ) Asen(θ) = − + C (θ) ⇒ = 0. A r2 ∂θ r2 ∂θ De esta forma ϕ (r, θ) = A 7. Para cos(θ) . r2 F = x2 i + y 2 j + z 2 k ad o evaluemos las siguientes integrales: H a) F · dr a lo largo de una circunferencia unitaria. Por el Teorema de Stokes I ZZ F · dr = (∇ × F) · dS c S rr con lo cual i j k ∂ ∂x 2 ∂ ∂y 2 ∂ ∂z 2 x y I =0 ⇒ F · dr = 0 c z HH F · dS a lo largo de una esfera unitaria. Utilizando el teorema de la divergencia I I ZZZ F · dS = (∇ · F) dV , Bo b) ∇×F= v por consiguiente ZZZ (∇ · F) dV = V ZZZ ∂ ∂ ∂ i +j +k · x2 i + y 2 j + z 2 k dx dy dz ∂x ∂y ∂z V ZZZ = (2x + 2y + 2z) dx dy dz V 382 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES Si ahora transformamos a coordenadas esféricas tendremos que x = rsen(θ) cos(ϕ); y = rsen(θ)sen(ϕ); z = r cos(θ); con dV = r2 sen(θ)dr dθ dϕ con lo cual ZZZ ZZZ (2x + 2y + 2z) dxdydz = (2rsen(θ) cos(ϕ) + 2rsen(θ)sen(ϕ) + 2r cos(θ)) r2 sen(θ)drdθdϕ V V V 5.5.4. 1 (∇ · F) dV = − π . 4 ar ZZZ Practicando con Maxima Z d Z lim (%i1) integrate(integrate(f(u,v),v,a(u),b(u) ), u, c,d ); b(u) f (u, v) dv du ( %o1) c in El programa no dispone de una función para el cálculo de integrales múltiples de manera directa, pero esto no significa que no podamos integrar aplicando varias veces la función integrate a(u) 1. Si quisiéramos calcular el área de una elipse rP re y2 x2 + = 1, a2 b2 podrı́amosp hacer lo siguiente. Calculamos el área en el √ primer cuadrante determinado por 0 ≤ x ≤ X, donde X = (a/b) b2 − y 2 y donde 0 ≤ y ≤ Y , con X = (b/a) a2 − x2 . Por lo tanto, el área es # Z "Z b X A=4 dx dy 0 donde dA = dxdy. 0 ad o (%i2) assume(a > 0, b > 0, x > 0, x < a, y > 0,y < b )$ (%i3) [X:(a/b)*sqrt(b^2-y^2),Y:(b/a)*sqrt(a^2-x^2)]; # " p √ a b2 − y 2 b a2 − x2 , ( %o3) b a rr (%i4) 4*integrate(integrate(1,x,0,X),y,0,b); ( %o4) π a b Bo 2. Consideremos ahora un elipsoide x2 y2 z2 + 2 + 2 = 1, 2 a b c y su volumen. Como p en el caso anterior, podemos calcular p el volumen en el primer octante: dV = dxdydz donde: 0 ≤ z ≤ Z = c 1 − x2 /a2 − y 2 /b2 , 0 ≤ y ≤ Y = b 1 − x2 /a2 y x fijo. Z V =8 (%i6) assume(x>0,x<a,y>0,y<b,z>0,z<c)$ Z dx 0 (%i5) assume(a>0,b>0,c>0,a>b,a>c,b>c)$ a Y Z dy 0 Z dz . 0 5.5. CAMPOS VECTORIALES Y TEOREMAS INTEGRALES 383 (%i7) [Z:c*sqrt(1-x^2/a^2-y^2/b^2),Y:b*sqrt(1-x^2/a^2)]; " r ( %o7) c y2 x2 − 2 − 2 + 1, b b a r x2 1− 2 a # (%i8) 8*integrate(integrate(integrate(1,z,0,Z),y,0,Y),x,0,a); 4πabc 3 ar ( %o8) F(x, y, z) = x2 i + y 2 j + z 2 k . lim (%i9) load(vect)$ in 3. Consideremos ahora el siguiente campo vectorial (%i10)F(x,y,z):=[x^2,y^2,z^2]; ( %o10) F (x, y, z) := [x2 , y 2 , z 2 ] rP re El rotor de F es (%i11)ev(express(curl(F(x,y,z))),diff); ( %o11) [0, 0, 0] Podemos calcular el potencial de la siguiente manera (%i12)PF:potential(F(x,y,z)); z 3 + y 3 + x3 3 ad o ( %o12) Por lo tanto existe una función φ(x, y, z) (%i13)define(phi(x,y,z), PF); z 3 + y 3 + x3 3 rr ( %o13) φ(x, y, z) := Tal que ∇φ = F Bo (%i14)ev(express(grad(phi(x,y,z))),diff); ( %o14) x2 , y 2 , z 2 4. Realicemos ahora un cálculo en coordenadas esféricas. Dado el siguiente campo vectorial F= 2A cos(θ) Asen(θ) ûr + ûθ , 3 r r3 (%i15)spherical; ( %o15) [[cos(φ) r sin(θ), sin(φ) r sin(θ), r cos(θ)] , r, θ, φ] 384 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES (%i16)scalefactors(spherical)$ (%i17)assume(r>0)$ (%i18)F(r,theta,phi):=[2*A*cos(theta)/r^3,A*sin(theta)/r^3,0]; 2A cos(θ) A sin(θ) , , 0] r3 r3 ar ( %o18) F (r, θ, φ) := [ (%i19)ev(express(curl(F(r,theta,phi))),diff),factor; in ( %o19) [0, 0, 0] ( %o20) cos(θ) A r2 (%i21)define(g(r,theta),f); ( %o21) g(r, θ) := cos(θ)A r2 rP re (%i22)ev(express(grad(g(r,theta))),diff),factor; lim (%i20)f:-integrate(2*A*cos(theta)/r^3,r); 2 cos(θ) A sin(θ) A , − , 0 ( %o22) − r3 r3 (%i23)kill(all); 5.5.5. Ejercicios ad o 1. Dado el campo vectorial A = 3x2 (y + z) + y 3 + z 3 i + 3y 2 (x + z) + x3 + z 3 j + 3z 2 (x + y) + x3 + y 3 k a) Calcule ∇ × A. b) Evalúe la integral Z A · dr , rr C a lo largo de cualquier linea que conecte el punto (1, −1, 1) con el punto (2,1,2). Bo 2. A partir de la siguiente parametrización x = a cosn (θ) y y = a senn (θ), encuentre el área acotada por las curvas x2/5 + y 2/5 = a2/5 y x2/3 + y 2/3 = a2/3 . 3. Evalúe la siguiente integral I y(4x2 + y 2 )dx + x(2x2 + 3y 2 )dy , C alrededor de la elipse x2 /a2 + y 2 /b2 = 2. R 4. Evalúe la integral r · dS, donde r es el vector posición, sobre la superficie z = a2 − x2 − y 2 , z ≥ 0, como se indica a continuación a) Parametrice la superficie con: x = a sen(θ) cos(ϕ), y = a sen(θ)sen(ϕ), z = a2 cos2 (θ), demuestre que: r · dS = a4 2 sen3 (θ) cos(ϕ) + cos3 (ϕ)sen(θ) dθdϕ . 5.6. TEORÍA DE POTENCIAL 385 b) Aplique el teorema de Gauss al volumen acotado por la superficie y el plano z = 0. 5. Demuestre la validez del teorema de Gauss a) Calculando el flujo del campo vectorial A= √ αr , + a2 )(3/2) 3a. ar a través de la superficie |r| = (r2 b) Demostrando que 3αa2 , (r2 + a2 )(5/2) √ in ∇·A= y evaluando la integral de volumen de ∇ · A sobre el interior de la esfera |r| = 3a. lim 6. Un campo vectorial, en coordenadas cilı́ndricas, viene representado por x cos(λz) y cos(λz) F0 ρ F = F0 i+ j + sen(λz)k ≡ cos(λz)êρ + F0 sen(λz)k , a a a a) Calcule el flujo de F a través de la superficie acotada por los cilindros ρ = a, ρ = 2a y los planos z = ±aπ/2. 5.6. rP re b) Evaluando la integral anterior pero utilizando el teorema de la divergencia. Teorı́a de Potencial Los campos vectoriales conservativos resultan ser de gran importancia en diferentes áreas de la Fı́sica. Estos campos vectoriales tienen la propiedad de que su integral de lı́nea, alrededor de cualquier trayectoria que encierre una superficie, se anula. Es decir, la integral de lı́nea de un campo vectorial conservativo, entre dos puntos arbitrarios del espacio, es independiente del camino tomado para realizar la integral. C1 ad o Entre dos puntos del espacio P1 y P2 podemos trazar dos trayectorias por dos caminos diferentes C1 y C2 y también formar un lazo entre ellos. Si asumimos de entrada que A es un campo vectorial conservativo, podemos escribir Z Z A · dr + A · dr = 0 , −C2 rr como la segunda integral es el negativo de la integral a lo largo de C2 , entonces Z Z A · dr − A · dr = 0 . Bo C1 Figura 5.21: Trayectoria de integración para ir de P1 a P2 y el lazo formado por los caminos. C2 Lo que implica que Z Z A · dr = C1 A · dr , C2 como lo habı́amos afirmado. Si tomamos un punto arbitrario P0 y lo conectamos por trayectorias arbitrarias con todos los puntos del espacio, entonces, para cada punto P con coordenadas (x, y, z) podemos definir el campo escalar φ(xi ) = − Z P Z A · dr = − P0 A · dr , C donde C es cualquier camino que va de P0 a P . El signo menos es por razones históricas. 386 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES El campo escalar φ(x, y, z) es una función bien definida porque su valor no dependerá de la trayectoria C y se le suele denominar el potencial asociado al campo vectorial A. Notemos que el potencial en P0 es cero y se conoce como el punto de referencia potencial. Consideremos ahora dos puntos arbitrarios P1 = (x1 , y1 , z1 ) y P2 = (x2 , y2 , z2 ) conectados por algún camino C. Es claro que también podemos conectar estos dos puntos por un camino diferente que pase por el punto P0 , es decir, escoger un camino que tome la ruta: P1 → P0 → P2 . Si A es un campo conservativo, entonces Z P2 Z P0 Z P2 A · dr = A · dr + A · dr = φ(x1 , y1 , z1 ) − φ(x2 , y2 , z2 ) , P1 P0 ar P1 de manera equivalente Z P2 A · dr . φ(x2 , y2 , z2 ) − φ(x1 , y1 , z1 ) = − in P1 Lo que se conoce como la diferencia de potencial entre dos puntos. Si P1 y P2 se conectan de manera infinitesimal por dr, entonces el potencial infinitesimal es ⇒ dφ(xi ) = ∂i φ(xj )dxi = ∇φ · dr , de manera que ∇φ · dr = −A · dr lim dφ(xi ) = −A · dr ⇒ A = −∇φ . En palabras: un campo vectorial conservativo siempre puede escribirse como el negativo del gradiente del campo escalar potencial definido por la ecuación (5.6). Potenciales escalares rP re 5.6.1. Si un campo vectorial F (x, y, z) en una determinada región R puede asociarse con un gradiente de un potencial φ (x, y, z) tendremos que I i i i F x = −∇φ x ⇔ ∇×F x =0 ⇔ F xi · dr = 0 . ad o La ventaja que un campo derive de un potencial es, por un la lado, la simplicidad y la cantidad de información que sobre el campo podemos tener: describimos la interacción por una función y no con tres (las componentes del campo) y sabremos que el campo es irrotacional y conservativo. Pero además, la función que describe el campo es escalar, con lo cual es independiente del sistema de coordenadas. Cualquiera de las afirmaciones siguientes implica las otras dos, con lo que podremos elegir cualquier de ellas para demostrar las otras dos. Veamos: rr Un campo que derive de un potencial es conservativo e irrotacional −∇ × ∇φ xi = 0 F xi = −∇φ xi ⇒ H H − ∇φ xi · dr = − dφ = φ xi0 − φ xi0 = 0 Bo donde hemos utilizado la definición de diferencial total ∂φ xi ∂φ xi ∂φ xi dφ = dx + dy + dz = ∇φ xi · dr . ∂x ∂y ∂z Un campo conservativo es irrotacional y deriva de un potencial. RP Un campo conservativo implica que el trabajo ( P12 F xi · dr) es independiente de la trayectoria entre P1 y P2 . Por eso llamamos a la fuerza conservativa por cuanto se conserva la energı́a y por lo tanto, ésta depende únicamente de la posición I Z P2 i F xi · dr = φ xi2 − φ xi1 F x · dr = 0 ⇒ P1 ⇓ F xi · dr = dφ = −∇φ xi · dr ⇒ F xi = −∇φ xi , 5.6. TEORÍA DE POTENCIAL 387 con lo cual hemos demostrado que el campo vectorial deriva de un potencial. El signo menos (−) es una convención tradicional del oficio del Fı́sico y proviene de nuestra intuición de flujo de los acontecimientos: “El agua siempre fluye hacia abajo”. Ahora bien, utilizando el teorema de Stokes tendremos: I ZZ F xi = −∇φ xi ⇒ F · dr = (∇ × F) · dS = 0 ⇒ ∇ × F xi = 0 . Es fácil demostrar que el campo también es irrotacional. ar S2 Un campo de fuerzas irrotacional implica que el campo deriva de un potencial y que el campo es conservativo. in Otra vez, por el teorema de Stokes si el campo es irrotacional es conservativo ZZ I ∇ × F xi = 0 ⇒ (∇ × F) · d S = F · dr = 0 , y si es conservativo deriva de un potencial F xi · dr = dφ = −∇φ xi · dr lim S2 ⇒ F xi = −∇φ xi . 5.6.2. rP re En definitiva, si cualquiera de las condiciones se cumple: conservativo, irrotacional o potencial, las otras también se cumplirán. Es bueno aclarar que el hecho de que ∇ × F 6= 0 implica siempre que F es NO conservativo, pero que ∇ × F = 0 no necesariamente implica que F sea conservativo, al menos que la región involucrada en el proceso de integración sea una región simplemente conectada. Potenciales vectoriales y calibres Claramente ad o Al igual que derivamos un campo vectorial F (x, y, z) a partir de un potencial escalar φ (x, y, z) y asociamos su existencia a su condición de irrotacionalidad, ∇ × F (x, y, z) = 0, podemos pensar que un campo sin divergencia (solenoidal o transverso) conlleva a la existencia de un potencial vectorial. Esto es ∇ · F xi = 0 ⇒ F xi = ∇ × A xi . ∇ · F xi = ∂i F i = ∂i εijk ∂j Ak = 0 . rr El campo vectorial A = A (x, y, z) se conoce con el nombre de potencial vectorial del campo F. Ahora bien, el campo solenoidal, F, no queda unı́vocamente determinado a partir de su potencial vectorial. Existe una arbitrariedad de un campo escalar, llamado de calibre χ = χ (x, y, z) (gauge en inglés) de forma tal que A0 = A + ∇χ xi ⇒ F = ∇ × A0 = ∇ × (A + ∇χ) = ∇ × A + ∇ × (∇χ) = ∇ × A , Bo de manera que varios potenciales vectoriales A0 y A generan el mismo campo vectorial F. Esta arbitrariedad nos permite particularizar el calibre según nos convenga. Existen varios calibres en el mercado, los cuales son utilizados según el problema fı́sico al cual tratemos. Entre ellos podemos mencionar un par de ellos: El calibre de Lorentz : Esta selección proviene de requerir que el campo de calibre χ = χ (x, y, z, t) satisfaga la ecuación de onda ∂ 2 χ xi 2 i ∇ χ x −a =0 ∂t2 donde a es una constante. Nótese que hemos supuesto que el campo de calibre puede depender del tiempo. El calibre del Lorentz se escoge porque (entre otras cosas) permite que la solución a la ecuación de onda para el potencial vectorial A (x, y, z, t) ∂ 2 A xi 2 i ∇ A x −a = 0, ∂t2 quede unı́vocamente determinada. 388 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES El calibre de Coulomb, de radiación o transverso: La selección de este calibre χ (x, y, z, t) impone que el potencial vectorial A (x, y, z, t) satisfaga la ecuación ∇ · A = 0 ⇒ ∇ · A0 xi = ∇ · A xi + ∇χ xi = 0 ⇒ ∇2 χ xi = 0 . 5.6.3. ar El nombre de calibre de Coulomb, de radiación o transverso proviene de las consecuencias de su utilización en las ecuaciones de Maxwell. Nótese que si el campo (y el calibre) es independiente del tiempo, A = A (x, y, z), ambos calibres coinciden. Teorema de Green y potenciales como H es irrotacional entonces ∇×H=0 rP re lim in Si el rotor y la divergencia de un campo vectorial F(x, y, z), decente (continuo y continuamente diferenciable) están especificados en una región del espacio delimitada por una superficie cerrada S, y las componentes del campo normales a esa superficie n̂s · F, también se conocen, entonces el teorema de Green nos garantiza que ese campo F(x, y, z) que cumple con esas condiciones es único10 . Esa demostración procede ası́. Supongamos que existe otro campo vectorial que cumple con las mismas condiciones que el campo F(x, y, z). Esto es ∇·F=∇·G ∇·H=0 ∇×H=0 ∇×F=∇×G ⇒H=F−G ⇒ n̂s · H = 0 n̂s · F = n̂s · G ⇒ H = ∇φ xi ⇒ ∇ · H = ∇ · ∇φ xi = 0 , y el teorema de Green nos garantiza que I ZZ ZZZ φ∇φ · dS = φ (∇φ · n̂s̄ ) dS̄ = [φ (∇ · ∇φ) + ∇φ · ∇φ] dV , S̄ con lo cual ZZ V ZZ ZZZ φ (H · n̂s̄ ) dS̄ = ad o φ (∇φ · n̂s̄ ) dS̄ = S̄ S̄ [H · H] dV ⇒ H = 0, V de donde se deduce que F = G, es decir, que el campo F es único. 5.6.4. Teorema de Helmholtz Bo rr El teorema de Helmholtz11 afirma que todo campo vectorial F, continuo, continuamente diferenciable (al menos a trozos), y regular en infinito se puede expresar como una suma de dos “componentes”: una longitudinal o irrotacional Fl y otra transversa o solenoidal Ft . Esto es ∇ × Fl = 0 F = Fl + Ft , con ∇ · Ft = 0 . En general dado que el campo F puede ser discontinuo, tendremos que suponer que ∇ · F = ρ (r) ∇ · F = ∇ · (Fl + Ft ) = ∇ · Fl = ρ (r) y como F = Fl + Ft ⇒ ∇ × F = J (r) ∇ × F = ∇ × (Fl + Ft ) = ∇ × Ft = J (r) , dado que ∇ · (◦) y ∇ × (◦) son lineales. Esta separación del campo vectorial F = Fl + Ft es completamente general y siempre puede hacerse para cualquier campo vectorial. 10 Esta 11 O afirmación también se conoce como primer teorema de Helmholtz. segundo teorema de Helmholtz. 5.6. TEORÍA DE POTENCIAL 389 Supondremos además, que la solución a la ecuación de Poisson ∇2 φ (x, y, z) = −ρ (x, y, z) existe y es única12 . Tendremos que ∇ × Fl = 0 ⇒ Fl = −∇φ xi ⇒ ∇ · F = ∇ · Fl = −∇2 φ xi = ρ (r) , y la solución existe y es única. Es decir, podemos expresar de manera unı́voca al campo vectorial F (a través de su “componente” longitudinal Fl ) en términos de un campo escalar (función potencial) φ xi . Por otra parte ⇒ Ft = ∇ × A ⇒ ∇ × F = ∇ × Ft = ∇ × (∇ × A) = ∇ (∇ · A) − ∇2 A = J (r) . ar ∇ · Ft = 0 La cual al seleccionar el calibre de Coulomb ∇ · A = 0 se convierte en ⇔ in ⇒ ∂ i ∂i Ak = −J k (r) lim ∇ × (∇ × A) = ∇2 A = ∂ i ∂i A = −J (r) 2 ∇ Ax = −Jx (r) ∇2 Ay = −Jy (r) ∇2 Az = −Jz (r) Una vez más nos topamos con la solución a la ecuación de Poisson, esta vez para cada componente. Esto se cumple siempre, porque hemos supuesto que la solución para la ecuación de Poisson existe y es única. Un corolario del teorema de Helmholtz nos indica que un campo vectorial queda unı́vocamente determinado si conocemos su rotor y su divergencia. Teoremas integrales para campos tensoriales rP re 5.6.5. ad o A este nivel del curso, es perfectamente válido preguntarse si los teoremas integrales anteriormente aplicados a campos escalares y vectoriales pueden aplicarse a campos tensoriales en general. La respuesta a esta pregunta es si. Recordemos, nuevamente, que los escalares son cantidades que quedan completamente determinados por un sólo número en el espacio tridimensional, es decir, no contienen direcciones. Mientras que los vectores son formas lineales en sus vectores bases A = Ai ei , es decir, se especifica por las tres cantidades Ai en R3 . En la sección 8 estudiamos los tensores de esfuerzos y de inercia como ejemplos de cantidades fı́sicas que deben especificarse por más de tres números. En el caso del tensor de esfuerzos, vimos, por ejemplo, que si consideramos el plano xy, el vector de superficie es: dS3 = dSz , y si sobre la dirección z (dirección 3) ejercemos algún tipo de presión, aparecerán esfuerzos en las direcciones x (dirección 1) y y (dirección 2). Las cantidades que usamos para describir los esfuerzos lo denotamos por σij , donde el primer ı́ndice indica la dirección de la fuerza y el segundo la dirección de la normal de la superficie donde está aplicada. Hablamos entonces de 9 cantidades involucradas para especificar al tensor. Estas cantidades de dos indices, o formas bilineales en los vectores base {ei } D = Dij ei ej , rr que nos permiten describir cantidades fı́sicas en dos direcciones distintas suelen denominarse dı́adas. Ya hemos operado con estas cantidades, por ejemplo, si multiplicamos una dı́ada por un vector D · A = Dij ei ej · Ak ek = Dij Ak [ei ej ] · ek = Dij Ak ei [ej · ek ] = Dij Ak ei δjk = Dij Aj ei , Bo el resultado es un vector de componentes B i = Dij Aj . Ya discutimos que el teorema de Gauss para un campo vectorial A es: Z I ∇ · A dV = A · n̂dS . V S Este teorema también funciona para dı́adas, ya que si hacemos la siguiente sustitución A = D · c, con c un vector constante y en coordenadas cartesianas, se puede demostrar de la ecuación anterior que Z I ∇ · D dV = D · n̂dS . V 12 Esta S suposición es indispensable. Las condiciones sobre el potencial φ (x, y, z) que la implican serán consideradas en otros cursos de métodos matemáticos. En este curso, supondremos que existe y es única. 390 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES Lo anterior también es cierto para el teorema de Stokes Z I [∇ × D] · n̂ dS = D · dr . S C Si nos vamos directamente a la notación de ı́ndices, podemos ver que el teorema de Gauss para campos vectoriales se escribe como Z I ∂i Ai dV = Ai n̂i dS , V S V S C S C Ejemplos lim por lo tanto, para un campo tensorial serı́a: Z I ijk ε (∂j Tij...k...s ) n̂i dS = Tij...k...s dxk . in S En cuanto al teorema de Stokes para un campo vectorial Z I ijk ε (∂j Ak ) n̂i dS = Ak dxk . 5.6.6. ar con lo que nos podemos tomar la libertad de extendernos, sin probarlo de manera rigurosa, a tensores de rango superior. Z I ij...k...s ∂k T dV = T ij...k...s n̂k dS . con κ constante. rP re 1. Consideremos el siguiente campo vectorial en el plano F = κ xy 2 i + x2 yj , Es fácil comprobar que ∇ × F = 0, de manera que F es conservativo. Si queremos encontrar el campo potencial asociado al campo vectorial F podemos tomar un punto P genérico, en este caso del plano xy, y escoger un camino de integración desde el origen al punto P (x1 , y1 ). Vamos a tomar la recta parametrizada por: x = x1 τ , y = y1 τ con 0 ≤ τ ≤ 1. De manera que Z (x1 ,y1 ) Z 1 2 φ(x1 , y1 ) = −κ xy i + x2 yj · [dxi + dyj] = −κ x1 τ (y1 τ )2 i + (x1 τ )2 y1 τ j · [x1 dτ i + y1 dτ j] (0,0) 0 1 κx2 y 2 τ 3 dτ = − 1 1 . 2 ad o = −2κx21 y12 Z 0 Por lo tanto, el potencial será κ φ(x, y) = − x21 y12 . 2 Se deja como ejercicio comprobar que F = −∇φ. rr 2. Consideremos el siguiente campo vectorial F= x2 κx κy i− 2 j, 2 +y x + y2 Bo con κ constante. De nuevo, es fácil ver que ∇ × F = [∂x Fy − ∂y Fx ] k = 0 . La integral de lı́nea de F(x, y) la llevaremos a cabo sobre un cı́rculo C de radio a centrado en el origen, curva parametrizada por: x = a cos(τ ), y = a sen(τ ), con 0 ≤ τ ≤ 2π. κx κy dx − 2 dy F xi · dr = Fx dx + Fy dy = 2 x + y2 x + y2 κ(a sen(τ ))(−a sen(τ )dτ ) κ(a cos(τ ))(a cos(τ )dτ ) − = (a cos(τ ))2 + (a sen(τ )) (a cos(τ ))2 + (a sen(τ ))2 κa2 sen2 (τ )dτ κa2 cos2 (τ )dτ = − 2 − 2 = −κdτ , 2 2 a (cos (τ ) + sen (τ )) a (cos2 (τ ) + sen2 (τ )) 5.6. TEORÍA DE POTENCIAL 391 para la integral I F xi · dr = −κ C 2π Z dτ = −2πκ 6= 0 . 0 Como podemos ver, el rotor del campo se anula pero la integral de lı́nea cerrada, alrededor del cı́rculo que contiene el origen de coordenadas, es diferente de cero. En el origen el campo vectorial F contiene una singularidad. 1 r 2 ûr . Encontremos algún posible campo vectorial A tal que ∇ × A = F. Tenemos 1 r2 sen(θ) r ûθ rsen(θ) ûφ ∂ ∂r ∂ ∂θ ∂ ∂φ =− 1 ûr r2 in ∇×A= ûr ar 3. Si F = Ar (r, θ, φ) r Aθ (r, θ, φ) rsen(θ) Aφ (r, θ, φ) con lo cual ∂ (rsen(θ) Aφ (r, θ, φ)) ∂ (r Aθ (r, θ, φ)) − ∂θ ∂φ ∂ (rsen(θ) Aφ (r, θ)) ∂Ar (r, θ, φ) − ∂r ∂φ , 0= ∂ (r Aθ (r, θ, φ)) ∂Ar (r, θ, φ) − ∂r ∂θ rP re 0= lim 1 1 = 2 2 r r sen(θ) Ahora hay que hacer algún tipo de suposición para que podamos encontrar, fácilmente algún potencial vectorial. Supongamos pues que ∂(rsen(θ) Aφ (r,θ,φ)) sen(θ) = Ar (r, θ, φ) = cte ∂θ (r,θ,φ) Aφ (r, θ, φ) ⇒ 0 = ∂Ar∂φ (r,θ,φ) (r,θ,φ) Aθ (r, θ, φ) = 0 0 = Aθ (r, θ, φ) + r ∂Aθ ∂r − ∂Ar ∂θ ad o Integrando la primera obtendremos sen(θ) = ∂ (rsen(θ) Aφ (r, θ, φ)) ∂θ ⇒ Aφ (r, θ, φ) = − cos(θ) + C1 (r, θ) rsen(θ) rr de la segunda concluimos que Ar = Ar (r, θ), es decir, Ar es independiente de φ. Finalmente, de la tercera ecuación concluimos que podemos hacer adicionalmente Ar = Ar (r) y C1 (r, θ) = 0. Resumiendo F=− 1 ûr r2 ∧ ∇×A=F ⇒ A = Ar (r)ûr − cos(θ) ûφ . rsen(θ) Bo 4. Dado el siguiente campo vectorial A = 4xy i − y 2 j + z k. a) Calculemos el flujo de A a través de un cubo unitario: x = 0, x = 1, y = 0, y = 1, z = 0, z = 1. Tenemos que el flujo del campo vectorial es Z Z A · dS = S Z (∇ · A) dV = Z (2y + 1) dV = 1 Z dx 0 1 Z dz 0 1 (2y + 1) dy = 2 . 0 b) Calculemos el flujo del rotor de ese campo a través de una semi esfera: x2 + y 2 + z 2 = 16 con z ≥ 0. El flujo del rotor será Z I I Z Z (∇ × A) · dS = A · dr = 4xy i − y 2 j + z k · (dx i + dy j) = 4xy dx − y 2 dy , S 392 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES como el circuito será una circunferencia de radio r = 4 en el plano z = 0 entonces al pasar a polares nos queda x = 4 cos(θ) ⇒ dx = −4 sen(θ) dθ ; y = 4 sen(θ) ⇒ dy = 4 cos(θ) dθ , con lo cual I 2π Z 42 cos(θ) sen2 (θ)dθ = 0 . A · dr = −5 0 c) Consideremos ahora un cilindro x2 + y 2 = 16 con −1 ≤ z ≤ 1 S S+ Sc in ar Calculemos el flujo del campo a través de esa superficie. R Como siempre, para R encontrar el flujo del campo podemos hacerlo directamente S A · dS, o a través de su divergencia, (∇ · A) dV El flujo de este campo a través de la superficie que encierra el cilindro serı́a Z Z Z Z A · dS = A · dS + A · dS + A · dS . S− lim Con dS± las dos tapas del cilindro (z = 1 y x = −1), mientras que dSc representa la superficie ~ = del cilindro. Una forma de resolverlo serı́a: se transforma el campo a cilı́ndricas, ya que dS dSc ûr + dS± ûz . Esto es: y acomodando rP re A = 4(4 cos(θ))(4 sen(θ))(cos(θ) ûr − sen(θ) ûθ ) + (4 sen(θ))2 (sen(θ) ûr + cos(θ) ûθ ) + z k̂ , A = 16sen(θ) (cos(2θ) ûr − sen(2θ) ûθ ) + z k . Entonces, el flujo en las “tapas” es Z Z A · dS = A · dS = 16π . S+ S− mientras que en las superficie cilı́ndrica será: Z Z Z A · dS = 4dθ dz (16sen(θ) cos(2θ)) = 64 Finalmente 2π Z dz dθ (sen(θ) cos(2θ)) = 0 . −1 Sd ad o Sc 1 0 Z A · dS = 32π . S rr Hubiera sido inmediato si hubiéramos utilizado el teorema de la divergencia y reutilizado los resultados del volumen anterior. Ası́ Z Z Z (∇ · A) dV = (2y + 1) dV = (2 (ρ sen(θ)) + 1) ρ dθ dρ dz Bo con y = ρ sen(θ) y el diferencial de volumen dV = ρ dθ dρ dz. Entonces, finalmente, Z Z 1 Z 4 Z 2π Z (∇ · A) dV = dz dρ 2ρ2 dθ sen(θ) + −1 0 0 1 −1 Z dz 4 dρ 2ρ2 Z 0 para que, otra vez Z A · dS = 32π , S porque el primer término de la suma se anula. Encontremos el flujo del rotor de ese campo para el caso z ≥ 0. El flujo del rotor será exactamente el mismo que en caso de las semiesfera. Esto es Z I (∇ × A) · dS = A · dr = 0 S 2π dθ 0 5.6. TEORÍA DE POTENCIAL 393 d ) Calculemos alguna de las componentes longitudinales y transversales del campo. Todo campo vectorial A se puede separar en una componente longitudinal Al , y otra transversal At . Esto es: ∇ × Al = 0 ∇ × Al = 0 l t A = A + A con ⇒ ∇ · At = 0 ∇ · Al = ∇ · A = 2y + 1 ∂y Alz − ∂z Aly = 0 , ∂z Alx − ∂x Alz = 0 , ∂x Aly − ∂y Alx = 0 y ∂x Alx + ∂y Aly + ∂z Alz = 2y + 1 ∂z Aly = 0 y ∂z Alx = 0 ∂x Aly − ∂y Alx = 0 ⇒ Alx = Alx (x, y) y y in Para empezar a acotar la solución, supongamos que Alz = Alz (x, y, z) = 0 ar con lo cual tenemos Aly = Aly (x, y) ∂x Alx + ∂y Aly = 2y + 1 . lim Otro par de suposiciones salvadoras son: Alx = Alx (x, y) = f (x) y Aly = Aly (x, y) = g(x). Estas nos garantizan que se cumple la ecuación ∂x Aly − ∂y Alx = 0. Es claro entonces que podemos encontrar una solución de la forma Alx = f (x) = x y Aly = g(y) = y 2 , que satisfaga ∂x Alx + ∂y Aly = 2y + 1. Con lo cual Al = x i + y 2 j ⇒ At = A − Al = x(4y − 1) i − 2y 2 j + z k . rP re Claramente, las suposiciones Alz = Alz (x, y, z) = 0, Alx = Alx (x, y) = f (x) y Aly = Aly (x, y) = g(x) , ad o son arbitrarias y otras suposiciones pueden ser hechas y, tendremos resultados distintos. e) Encontremos los potenciales escalar y vectorial asociados con este campo vectorial A, a través de las componentes longitudinal Al y transversal At . El potencial escalar, φ = φ(x, y, z), está asociado a la componente longitudinal, Al , del campo. Esto es x = −∂x φ(x, y, z) ⇒ φ(x, y, z) = − x2 + χ(y, z) l l ∇ × A = 0 ⇒ A = −∇φ ⇒ y 2 = −∂y φ(x, y, z) ⇒ y 2 = −∂y χ(y, z) Con lo cual x y3 + + ϕ(z) 2 3 El potencial vectorial para un campo vectorial, Ψ = Ψ(x, y, z), está asociado a la componente transversa At del campo. Esto es x(4y − 1) = ∂y Ψz − ∂z Ψy −2y 2 = ∂z Ψx − ∂x Ψz ∇ · At = 0 ⇒ At = ∇ × Ψ ⇒ z = ∂x Ψy − ∂y Ψx rr φ(x, y, z) = Bo Una vez más, y de forma arbitraria, suponemos Ψz = 0. Entonces las ecuaciones anteriores se convierten en x(4y − 1) = −∂z Ψy ; −2y 2 = ∂z Ψx ; y z = ∂x Ψy − ∂y Ψx con lo cual x(4y − 1) = −∂z Ψy 2 −2y = ∂z Ψx ⇒ Ψy = −x(4y − 1)z + f (x, y) ⇒ Ψx = −2y 2 z + g(x, y) y con estos resultados debemos satisfacer z = ∂x Ψy − ∂y Ψx ⇒ z = −(4y − 1)z + ∂x f (x, y) + 4yz − ∂y g(x, y) con lo cual es inmediato que una posible solución surge de f (x, y) = g(x, y) = 0, para que finalmente el potencial vectorial lo podamos expresar como Ψ = −x(4y − 1)z i − 2y 2 z j . 394 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES 5. Demostremos que Si un campo de velocidades es potencial, el campo de aceleraciones también lo será. Esto es: Si v(r(t), t) = ∇ϕ entonces a(r(t), t) = ∇Φ a(r(t), t) = dv(r(t), t) ∂v(r(t), t) = + (v(r(t), t) · ∇) v(r(t), t) dt ∂t ar con Adaptando la relación vectorial del primer problema obtenemos con lo cual a= 1 ∂ 2 ∇ϕ + ∇ (∇ϕ) = ∇ ∂t 2 ∂ϕ 1 2 + (∇ϕ) ∂t 2 in ∇ (v · v) = (v · ∇) v + (v · ∇) v + v × (∇ × v) + v × (∇ × v) ⇒ ∇ v 2 = 2 (v · ∇) v ⇒ a = ∇Φ Φ= ∂ϕ 1 ∂ϕ 1 2 2 + v ≡ + (∇ϕ) . ∂t 2 ∂t 2 Practicando con Maxima rP re 5.6.7. lim Encontremos la forma del potencial del campo de aceleraciones en términos del campo de velocidades y su potencial. Arriba notamos claramente que 1. Como sabemos, una partı́cula que se mueve en un campo de fuerzas estará sujeta en cada punto a esta fuerza F(r) de manera que el cambio de energı́a potencial es Z r U (r) − U (r0 ) = − F(r) · dr . r0 Sea el siguiente campo de fuerzas F1 (r) = 3xy 3 i + 3x2 y 2 j . ad o En primer lugar, consideremos que la partı́cula se mueve desde el punto (0, 0) al punto (a, b) siguiendo las lineas rectas: (0, 0) → (a, 0) → (a, b). Calculemos el trabajo realizado sobre la partı́cula (%i1) load(vect)$ declare([a,b],constant)$ (%i3) F1(x,y,z):=[3*x*y^3,3*x^2*y^2,0]; rr ( %o3) F 1(x, y, z) := [3xy 3 , 3x2 y 2 , 0] (%i4) dr:[1,1,1]$ Bo (%i5) integrate(F1(x,0,z)[1],x,0,a)+integrate(F1(a,y,z)[2],y,0,b); ( %o5) a2 b3 Supongamos ahora que la partı́cula se mueve siguiendo la trayectoria y = bx3 /a3 . (%i6) y2:b*x^3/a^3$ (%i7) dr:diff([x,y2,0],x); ( %o7) 3 b x2 1, 3 , 0 a 5.6. TEORÍA DE POTENCIAL 395 (%i8) F1:sublis([y=y2], F1(x,y,z)); ( %o8) 3 b3 x10 3 b2 x8 , ,0 a9 a6 (%i9) integrate(F1.dr,x,0,a); 12 a2 b3 11 ar ( %o9) El resultado es diferente, el campo de fuerzas no es conservativo in (%i10)ev(express(curl(F1(x,y,z))),diff),factor; ( %o10) 0, 0, −3 x y 2 (%i11)F2(x,y,z):=[2*x*y^3,3*x^2*y^2,0]; rP re ( %o11) F 2(x, y, z) := [2xy 3 , 3x2 y 2 , 0] lim Consideremos ahora el siguiente campo F2 (r) = 2xy 3 i + 3x2 y 2 j, ligeramente diferente al anterior y repitamos los cálculos. Trayectoria (0, 0) → (a, 0) → (a, b) (%i12)integrate(F2(x,0,z)[1],x,0,a)+integrate(F2(a,y,z)[2],y,0,b); ( %o12) a2 b3 Trayectoria y = bx3 /a3 . ad o (%i13)F2:sublis([y=y2], F2(x,y,z)); 2 b3 x10 3 b2 x8 , ,0 ( %o13) a9 a6 (%i14)integrate(F2.dr,x,0,a); ( %o14) a2 b3 rr El trabajo es el mismo ya que el campo es conservativo Bo (%i15)ev(express(curl(F2(x,y,z))),diff),factor; ( %o15) [0, 0, 0] El potencial asociado a campo se puede calcular ahora (%i16)PF2:-potential(F2(x,y,z))$ define(U(x,y),PF2); ( %o17) U (x, y) := −x2 y 3 Por lo tanto (%i18)U(a,b)-U(0,0); 396 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES ( %o18) − a2 b3 2. Consideremos el siguiente campo vectorial en el plano F = κ xy 2 i + x2 yj , con κ constante. ar Es fácil comprobar que ∇ × F = 0, de manera que F es conservativo. (%i19)kill(y2)$ (%i20)F(x,y,z):=[k*x*y^2,k*x^2*y,0]; in ( %o20) F (x, y, z) := [kxy 2 , kx2 y, 0] lim (%i21)ev(express(curl(F(x,y,z))),diff),factor; ( %o21) [0, 0, 0] (%i22)[x,y,z]:[x1*tau,y2*tau,0]; ( %o22) [τ x1 , τ y2 , 0] ( %o23) [x1 , y2 , 0] rP re (%i23)dr: diff([x,y,z], tau); (%i24)’integrate(F(x,y,z).dr,tau,0,1)=integrate(F(x,y,z).dr,tau,0,1); Z ( %o24) 2 k 1 τ 3 dτ x1 2 y2 2 = 0 (%i25)kill(x,y,z)$ k x 1 2 y2 2 2 ad o (%i26)-potential(F(x,y,z))$ define(U(x,y),%); ( %o27) U (x, y) := − kx2 y 2 2 (%i28)ev(express(-grad(U(x,y))),diff),factor; rr ( %o28) k x y 2 , k x2 y, 0 Bo 3. Consideremos el siguiente campo vectorial F= κy κx i− 2 j, x2 + y 2 x + y2 con κ constante. De nuevo, es fácil ver que ∇ × F = [∂x Fy − ∂y Fx ] k = 0 . (%i29)F(x,y,z):=[k*y/(x^2+y^2),-k*x/(x^2+y^2),0]; ( %o29) F (x, y, z) := [ kx ky ,− 2 , 0] x2 + y 2 x + y2 (%i30)ev(express(curl(F(x,y,z))),diff),factor; 5.6. TEORÍA DE POTENCIAL 397 ( %o30) [0, 0, 0] (%i31)[x,y,z]:[a*cos(tau),a*sin(tau),0]; ( %o31) [a cos(τ ), a sin(τ ), 0] (%i32)dr: diff([x,y,z], tau); ar ( %o32) [−a sin(τ ), a cos(τ ), 0] 2π − ( %o33) 0 5.6.8. a2 k cos2 (τ ) a2 k sin2 (τ ) − dτ = −2 π k a2 sin2 (τ ) + a2 cos2 (τ ) a2 sin2 (τ ) + a2 cos2 (τ ) Ejercicios 1. Evalúe la integral lim Z in (%i33)’integrate(F(x,y,z).dr,tau,0,2*%pi)=integrate(F(x,y,z).dr,tau,0,2*%pi); A = x2 i + y 2 j − z 2 k , 2. Calcule la integral de lı́nea rP re a lo largo del camino: x = aτ 2 , y = bτ , z = c sen(πτ /2). A = x2 + 3y i + y 2 + 2x j , desde el origen al punto P = (1, 2): a) a lo largo de la linea recta que une los dos puntos. b) a lo largo de la parábola que pasa por los dos puntos y por el punto Q = (−1, 2). c) Diga si A es conservativo o no. 3. Diga si el campo vectorial ad o 2 1 2 A = xex cos(y)i − ex sen(y)j , 2 es un campo vectorial conservativo. De ser conservativo encuentre el campo potencial asociado. 4. Un campo vectorial es dado por φ0 h x xy i (x+z)/b i + xj + k e , y 1 + b2 b b rr A= donde φ0 y b son constantes. Bo Diga si A es o no conservativo. De ser conservativo encuentre el campo potencial. 5. El siguiente campo vectorial F = −GM m x y z i − GM m 3 j + 2GM m 3 k , a3 a a es la fuerza de marea ejercida por la luna sobre una partı́cula que se encuentra el la superficie de la tierra. Consideremos para este problema el origen de coordenadas cartesianas en el centro de la tierra, la luna sobre el eje z y la distancia a es la distancia desde el centro de la tierra al centro de la luna. M y m las masas de la tierra y luna respectivamente, G la constante de gravitación universal. Encuentre el potencial para esta fuerza de marea. 6. Dado el campo de fuerzas F = rn r. Verifique si existe una función escalar ϕ (x, y, z) tal que F = −∇ϕ(x, y, z). En el caso de que sea posible, encuentre esa función ϕ (x, y, z). 398 CAPÍTULO 5. COORDENADAS CURVILÍNEAS, CAMPOS Y OPERADORES DIFERENCIALES 7. El campo magnético generado por una corriente I es x µ0 I −y i+ 2 j B= 2π x2 + y 2 x + y2 Encuentre un vector potencial magnético, A, tal que ∇ × A = B. ar 8. Si un campo vectorial tiene la forma B = ∇φ × ∇ϕ, entonces B es solenoidal y su potencial vectorial es: A = 21 (φ∇ϕ − ϕ∇φ). con m = mr ûr + mϕ ûϕ + mz ûz . lim in 9. Dados el potencial vectorial A (r) del momento magnético dipolar m y la fuerza F = ∇×(B × m) que registra un momento magnético dipolar m, sometido a un campo magnético externo, B. Muestre que la fuerza ejercida por un dipolo magnético sobre otro viene dada por: µ 0 Am (r) = m × r µ0 2m1r m2r − m1ϕ m2ϕ − m1z m2z 4πr3 ⇒ Fm1 →m2 = ∇ 4π r3 Fm (r) = ∇ × (B × m) 10. Desarrolle el teorema de Gauss para el caso bidimensional. Esto es, suponga una lı́nea de carga orientada en la dirección del eje z genera un potencial ln(ρ) ; 2π0 E = −∇ϕ con ρ = p x2 + y 2 rP re ϕ (ρ) = −q 11. Pruebe la generalización del teorema de Green ZZZ ZZ {ζ (r) Lξ (r) − ξ (r) Lζ (r)} dV = p (r) {ζ (r) ∇ξ (r) − ξ (r) ∇ζ (r)} · d S V s donde L es el operador autoadjunto definido por L ⇒ ∇ · (p (r) ∇) + q (r). 12. Considere una esfera de radio r = a y carga Q. Grafı́que su potencial electrostático para 0 < r < ∞. ad o 13. Considere una esfera de densidad uniforme ρ0 , radio r = a y masa M . a) Muestre que la fuerza gravitacional por unidad de masa es F = − 4πGρ0 3r ûr para 0 < r ≤ a. b) Encuentre el potencial gravitacional asociado a esta fuerza c) Imagine un túnel que atraviesa la esfera pasando por su centro. Encuentre la ecuación de movimiento y la expresión del perı́odo para una partı́cula de masa m, que se deja caer por ese túnel. rr 14. Dado un vector potencial magnético A tal que ∇ × A = B. Muestre que ZZ I B · dS = A · dr es invariante de calibre: A (r) → A (r) + ∇χ (r) Bo s 15. La fuerza de Lorentz para una partı́cula con carga q que se mueve con una velocidad v en un campo eléctrico E y magnético B es: F = q (E + v × B). Muestre que F = q (E + v × B) dA ∂A + ∇ (A · v) . ⇒ F = −∇φ − E = −∇φ − dt ∂t ∇×A=B ar Bibliografı́a in [1] Arfken, G. B.,Weber, H., Weber, H.J. (2000) Mathematical Methods for Physicists 5ta Edición (Academic Press, Nueva York) [2] Borisenko, A.I, y Tarapov I.E. (1968) Vector and Tensor Analisys (Dover Publications Inc, Nueva York) lim [3] Dennery, P. y Krzywicki, A. (1995) Mathematics for Physicists (Dover Publications Inc, Nueva York) [4] Harper, C. (1971) Introduction to Mathematical Physics (Prentice Hall, Englewood Cliff, N.J:) [5] Hassani, S. (1991) Foundations of Mathematical Physics (Prentice Hall, International Edition, London: [6] Hauser, W (1971) Introduction to Principles of Electromagnetism (Addison-Wesley Pub Co Reading) rP re [7] Riley, K.F., Hobson, M.P. y Bence, S.J. (2002) Mathematical Methods for Physics and Engineering (Cambridge University Press) [8] Santaló, L.A (1969) Vectores y Tensores (Editorial Universitaria, Buenos Aires) [9] Schutz, B. (1980) Geometrical Methods in Mathematical Physics (Cambridge University Press, Londres) Bo rr ad o [10] Spiegel, M. (1959) Vector Analysis (Schaums Outline Series, McGraw Hill New York ) 399 ad o rr Bo lim rP re ar in 400 BIBLIOGRAFÍA ar Capı́tulo 6 Bo rr ad o rP re lim in Apéndice 401 402 CAPÍTULO 6. APÉNDICE 6.1. Introducción a los CAS Los sistemas algebraicos computacionales o sistemas de álgebra computacional (CAS: Computer Algebra System) son sistemas o calculadoras avanzadas, que permiten realizar operaciones de manera simbólica. Esto significa que el computador puede efectuar operaciones con ecuaciones y fórmulas simbólicamente, es decir, a + b = c se interpreta como la suma de variables y no como la suma de números previamente asignados. Estos sistemas permiten operar de manera exacta con sı́mbolos que representan objetos matemáticos tales como: ar Números (Enteros, racionales, reales, complejos...) Polinómios, Funciones Racionales, Sistemas de Ecuaciones. Grupos, Anillos, Algebras . . . FORTRAN, Basic, C, C++, Java => Precisión fija (Punto Flotante) in A diferencia de los sistemas tradicionales de computación numérica: Input : solve(problema); Output : respuesta Los CAS se pueden clasificar en dos grandes grupos:1 lim Otra caracterı́stica principal radica en el hecho de que son interactivos (interpretados o ejecutados al momento de proveer una instrucción), es decir, trabajan de la forma: rP re Sistemas de Propósito Especial (Creados para hacer cálculos en un área especı́fica): FORM, GAP, CAMAL, SHEEP, STENSOR, LiE, KANT. Sistemas de Propósito General (¡Especies de navajas suizas!): Axiom, Derive, Reduce, Maple, MatLab, Mathematica, Maxima, MuPAD. Recientemente, lenguajes como Python comienzan a incorporar bibliotecas que permiten generar formas de cálculo simbólico2 que ofrecen una perspectiva interesante para integrar ambientes algebráicos-numéricos-visuales. Los CAS modernos de propósito general son ambientes completamente integrados de computación para la investigación y la educación conformados por: Interfaz gráfica (worksheet) o ambiente interactivo: ad o Procesador de texto, de fórmulas y de gráficas. Con salidas en Latex, RTF, HTML, FORTRAN y C; o hyperlinks a otros documentos. Manuales en lı́nea. Enlaces a otros programas y bibliotecas Capacidades para cálculo numérico rr Capacidades para visualización, con salidas gráficas en diferentes formatos: PostScript, GIF,JPG, . . . Pensado para usuarios no especializados en computación Bo La principal ventaja de estos programas radica en la enorme capacidad para realizar cálculos algebraicos largos y tediosos. Por ejemplo, se puede demostrar que la función: √ nz x2 +y 2 +z 2 √ sen y 2 +z 2 p f= 2 x + y2 + z2 es solución de la ecuación diferencial: 2 ∂4f ∂4f ∂4f ∂2f 2 ∂ f + 2 2 + 2 2 +n + 2 =0 ∂x4 ∂y x ∂z x ∂x2 ∂y y la realización de éste cálculo le puede tomar a un PC estándar un tiempo de CPU relativamente corto: 1 Una comparación de los diferentes CAS puede verse en: https://en.wikipedia.org/wiki/List_of_computer_algebra_systems 2 http://docs.sympy.org/ 403 lim in ar 6.2. MAXIMA: SINTAXIS BÁSICA rP re Figura 6.1: Ventana gráfica de vxMaxima tiempo de cpu = 1,065 seg Un ejemplo de un CAS es Maxima que básicamente consta de una hoja de trabajo (worksheet) que es una interfaz tipo procesador de textos. Las hojas de trabajo constan de dos modos básicos de funcionamiento: el modo texto y el modo cálculo. Maxima opera en la celda de cálculos de la manera siguiente: Input (Instrucción de entrada) Output (respuesta del programa) [ --> ad o Existe la posibilidad de introducir textos de la misma manera que en un procesador de textos estándar y de generar gráficas en 2D y 3D a través de los respectivos comandos. La interacción con la hoja de trabajo se hace a través de lo que denominamos la celda del Input, que aparece señalado por un aviso de espera o PROMPT Bo rr El código fuente de Maxima, código de software libre, puede ser compilado sobre diferentes sistemas operativos: Windows, Linux, MacOS X y Android, y puede obtenerse en: http://sourceforge.net/projects/wxmaxima o en http://andrejv.github.io/wxmaxima, con la respectiva documentación. Utilizaremos la versión gráfica wxMaxima para los fines pedagógicos del desarrollo de estas notas. También existe una versión que funciona sólo en modo texto para ser ejecutada en una consola o terminal. En la Figura 6.1 se puede apreciar el despliegue de una hoja de cálculo con algunos instrucciones sencillas, notemos que cada instrucción (en azul) termina con un punto y coma, de esta manera se le dice al programa la finalización del comando a ejecutar. Luego de escribir la instrucción y presionar la tecla Enter el Output aparecerá a continuación en color negro. 6.2. Maxima: Sintaxis básica Es necesario familiarizarse con los comandos básicos del programa, para ello iremos desarrollando algunos cálculos sencillos a manera de conocer la filosofı́a de cómo funciona Maxima, y durante el transcurso de este curso iremos haciendo un despliegue de las aplicaciones del programa para cálculos más especı́ficos. (%i1) 3!+3^5; 404 CAPÍTULO 6. APÉNDICE ( %o1) 249 Veamos ahora la diferencia entre el igual = y los dos puntos : (%i2) a=b+c; ( %o2) c+b (%i3) a; ar ( %o3) a (%i4) a:b+c; in ( %o4) c+b (%i5) a; lim ( %o5) c+b Al usar “=”no asignamos a la variable lo que está del lado derecho mientras que con “:”si le asignamos el objeto a la nueva variable. Los cálculos se pueden hacer tanto con números enteros como en Punto Flotante: (%i6) 15+5^(50); (%i7) 15.0+5^(50); ( %o7) 8,881784197001253 × 1034 rP re ( %o6) 88817841970012523233890533447265640 Pero el énfasis radica en los cálculos exactos: ad o (%i8) cos(%pi/12)^2 + log(2/3+5)/7; π log 17 2 3 ( %o8) cos + 12 7 y si queremos el valor numérico podemos escribir (%i9) float(%); ( %o9) 1,180812852661949 rr Aquı́ hemos hecho uso de varios sı́mbolos nuevos. Las constantes matemáticas en Maxima se escriben de la siguiente manera: La unidad imaginaria i: %i Bo El número π: %pi. El sı́mbolo ∞: inf. El número e: %e. En cuanto a los logaritmos: ex = exp(x). log(x): la función logaritmo en base e log(x)/log(b) el logaritmo de x en base b. 6.2. MAXIMA: SINTAXIS BÁSICA 405 Para las funciones trigonométricas es lo estándar: sin(x), asin(x), cos(x), acos(x), tan(x), atan(x), csc(x), sec(x), cot(x). También hemos utilizado % para introducir la última salida en la siguiente instrucción, veamos nuevamente como funciona, pero ahora pondremos al final del comando el sı́mbolo $ en lugar de ; para decirle al programa que ejecute la instrucción sin escribir la salida. (%i10)3^12$ ar (%i11)%; ( %o11) 531441 Veamos otro ejemplo: in (%i12)alpha; ( %o12) α lim (%i13)%+sqrt(beta); p ( %o13) β + α (%i14)%o12+2*gamma^2; rP re ( %o14) 2 γ 2 + α Es importante tener cuidado a la hora de poner los paréntesis en las expresiones: (%i15)1+2*3^2; ( %o15) 19 (%i16)(1+2)*3^2; ( %o16) 27 ad o El volumen de un cilindro V = π(radio)2 × altura (%i17)radio:5$ (%i18)altura:50$ (%i19)area:%pi*radio^2; ( %o19) 25 π rr (%i20)volumen:area*altura; Bo ( %o20) 1250 π Para limpiar la memoria del programa de todas las variables utilizadas se puede usar el comando kill(all) (Existen otras opciones que veremos más adelante). Esta es una manera de reiniciar la hoja de trabajo. (%i21)volumen; ( %o21) 1250 π (%i22)kill(all); ( %o22) done (%i23)volumen; ( %o23) volumen 406 CAPÍTULO 6. APÉNDICE 6.2.1. Cálculos elementales Se puede definir, evaluar y derivar funciones abstractas utilizando := como se muestra a continuación ar (%i1) f(x,y):=exp(x^2+y^2)/(x-y); exp y 2 + x2 ( %o1) f (x, y) := x−y (%i2) f(2,3); ( %o2) − e13 (%i3) %,numer; in ( %o3) − 442413,3920089205 ( %o4) √ eβ+α √ α− β Derivando respecto a x y y; (%i5) diff(f(x,y),x) + diff(f(x,y),y); 2 2 2 rP re 2 2 x ey +x 2 y ey +x + ( %o5) x−y x−y lim (%i4) f(alpha^(1/2),beta^(1/2)); Aquı́ es bueno acotar que una expresión NO es una función: (%i6) f(x):=3*sin(x+1)+2*sqrt(x); √ ( %o6) f (x) := 3 sin (x + 1) + 2 x (%i7) F:3*sin(x+1)+2*sqrt(x); ad o √ ( %o7) 3 sin (x + 1) + 2 x (%i8) f(8); F(8); 5 ( %o8) 3 sin 9 + 2 2 √ ( %o9) 3 sin (x + 1) + 2 x (8) rr Por lo tanto, F es únicamente una expresión que no puede ser evaluada como la función f . Pero se le puede dar la vuelta para evaluarla con ev() (%i10)ev(F,x=8); 5 Bo ( %o10) 3 sin 9 + 2 2 Consideremos los siguientes cálculos básicos: (%i11)kill(all)$ (%i1) sigma(x):=2*x/sqrt(x^2+1); ( %o1) σ (x) := √ 2x x2 + 1 La primera derivada: (%i2) diff(sigma(x),x); 6.2. MAXIMA: SINTAXIS BÁSICA ( %o2) √ 2 x2 + 1 407 2 x2 − 3 (x2 + 1) 2 La cuarta derivada: (%i3) diff(sigma(x),x,4); 5 − (x2 + 1) 2 300 x3 7 210 x5 + (x2 + 1) 2 9 (x2 + 1) 2 ar 90 x ( %o3) Si queremos reutilizar la derivada para definir una nueva función, en este caso la función derivada, lo podemos hacer utilizando dos apóstrofos ” (No es la doble comilla) ( %o4) dsigma (x) := √ 2 x2 + 1 in (%i4) dsigma(x):=’’ %o2; 2 x2 − 3 (x2 + 1) 2 ( %o5) 2 3 rP re 52 (%i6) integrate(sigma(x),x); p ( %o6) 2 x2 + 1 lim (%i5) dsigma(2); La misma integral, pero definida para x entre 0 y 1. (%i7) integrate(sigma(x),x,0,1); √ 2−1 ( %o7) 2 Lı́mites: (%i8) limit(sigma(x),x,1/2); ( %o9) 2 Sumatorias: ad o 2 ( %o8) √ 5 (%i9) limit(sigma(x),x,inf); rr (%i10)sum(sigma(i),i,0,6); Bo √ 12 10 8 6 4 ( %o10) √ + √ + √ + √ + √ + 2 37 26 17 10 5 Podemos calcular series de Taylor, digamos, alrededor de x = 1 y hasta orden 4. (%i11)taylor(sigma(x),x,1,4); ( %o11) 1 −1 1 1 1 −1 1 1 1 4 3 2 5 2 2 (x − 1) + 3 2 2 (x − 1) + 3 2 2 (x − 1) + 2 2 (x − 1) + 2 2 + · · · 128 16 8 2 Al rededor de x = 0 es más simple todo: (%i12)taylor(sigma(x),x,0,6); ( %o12) 3 5 x + (−1) x3 + 2 x + · · · 4 408 CAPÍTULO 6. APÉNDICE Y por supuesto, también podemos hacer una gráfica de la función. Para ello utilizaremos el comando wxplot2d que nos generará un gráfico embebido dentro de la misma hoja de trabajo. (%i13)wxplot2d(sigma(x),[x,-10,10]); rP re lim in ar ( %o13) Los cálculos anteriores se pueden repetir para que queden de una manera más elegante usando una camilla, esto hará que no se efectúe la evaluación de las operaciones. (%i14)’diff(sigma(x),x)=diff(sigma(x),x); d 2x 2 2 x2 √ ( %o14) =√ − 3 dx x2 + 1 x2 + 1 (x2 + 1) 2 (%i15)’integrate(sigma(x),x,0,1)=integrate(sigma(x),x,0,1); 1 ( %o15) 2 x √ 2−1 ad o Z √ dx = 2 x2 + 1 (%i16)’limit(sigma(x),x,inf)=limit(sigma(x),x,inf); x ( %o16) 2 lı́m √ =2 x→∞ x2 + 1 (%i17)’sum(sigma(i),i,0,6)=sum(sigma(i),i,0,6); rr 0 ( %o17) 2 6 X √ i=0 i i2 √ 12 10 8 6 4 =√ +√ +√ +√ +√ + 2 37 26 17 10 5 +1 Bo Anteriormente mencionamos que uno de las ventajas de los programas de manipulación simbólica es la gran capacidad de llevar a cabo cálculos largos y tediosos, veamos entonces como se hace para demostrar que la función antes mencionada: (%i18)f(x,y,z):=sin(n*z*sqrt(x^2+y^2+z^2)/sqrt(y^2+z^2))/sqrt(x^2+y^2+z^2); √ n z z 2 +y 2 +x2 √ 2 2 sin z +y p ( %o18) f (x, y, z) := 2 z + y 2 + x2 es solución de la ecuación diferencial 2 ∂4f ∂4f ∂4f ∂2f 2 ∂ f + + + n + =0 ∂x4 ∂y 2 x2 ∂z 2 x2 ∂x2 ∂y 2 6.2. MAXIMA: SINTAXIS BÁSICA 409 (%i19)diff(f(x,y,z),x,4)+diff(diff(f(x,y,z),x,2),y,2)+diff(diff(f(x,y,z),x,2),z, 2)+n^2*(diff(f(x,y,z),x,2)+diff(f(x,y,z),y,2)); ( %o19) (( Expression too long to display! )) ar Aquı́ Maxima no hace un despliegue en la pantalla de los cálculos porque la expresión matemática es muy larga. Existen opciones para que muestre en pantalla los que nos interese que iremos viendo más adelante. Necesitamos entonces decirle al programa que la expresión anterior sea simplificada, es decir, que minimice la expresión a su valor más simple. Para simplificar expresiones que contienen radicales, exponenciales o logaritmos es conveniente utilizar el comando ratsimp. También existe la opción fullratsimp in (%i20)ratsimp(%); ( %o20) 0 lim En la mayorı́a de los casos Maxima no factoriza ni desarrolla automáticamente las expresiones, por lo tanto, debemos indicarle al programa que haga las respectivas simplificaciones. Veamos un ejemplo con polinomios: (%i21)kill(all)$ (%i1) p:(x+2)*(x-1); (%i2) q:(x-3)^2; 2 ( %o2) (x − 3) (%i3) p-q; ( %o3) (x − 1) (x + 2) − (x − 3) (%i4) expand(p-q); ad o ( %o4) 7 x − 11 2 rP re ( %o1) (x − 1) (x + 2) (%i5) expand(p/q); ( %o5) x 2 x2 + − x2 − 6 x + 9 x2 − 6 x + 9 x2 − 6 x + 9 Si queremos dividir usando fracciones simples podemos hacer lo siguiente: rr (%i6) partfrac(p/q,x); ( %o6) 7 10 + +1 x − 3 (x − 3)2 Bo Las funciones logexpand y radexpand permiten controlar si queremos simplificar logaritmos y radicales cuando contienen productos. Veamos: (%i7) log(x*y); ( %o7) log (x y) (%i8) sqrt(x*y); √ ( %o8) x y (%i9) sqrt(x^2); ( %o9) |x| 410 CAPÍTULO 6. APÉNDICE (%i10)radexpand:all$ logexpand:all$ (%i11)log(x*y); sqrt(x*y); sqrt(x^2); ( %o11) √ log y + log x √ ( %o12) x y ( %o13) x ar Lo inverso a la expansión de expresiones es la factorización: (%i14)factor(200); in ( %o14) 23 52 (%i15)factor(x^2+x-2); ( %o15) (x − 1) (x + 2) lim (%i16)p:x^3-1; ( %o16) x3 − 1 (%i17)factor(%); rP re ( %o17) (x − 1) x2 + x + 1 La evaluación de expresiones se realiza de la manera siguiente (%i18)ev(p,x=8); ( %o18) 511 O también (%i19)p,x=%pi; ad o ( %o19) π 3 − 1 (%i20)ev(x+(x+y)^2-3*(x+y)^3,x+y=t); ( %o20) x − 3 t3 + t2 Para finalizar con esta guı́a rápida de Maxima veamos el uso de uno de los comandos más comunes de estos programas, y que tiene que ver con la solución de ecuaciones. rr (%i21)ecu:3*x^2+2*x+x^3-x^2=2*x^2; ( %o21) x3 + 2 x2 + 2 x = 2 x2 Bo (%i22)sol:solve(ecu,x); i h √ √ ( %o22) x = − 2 %i, x = 2 %i, x = 0 Recordemos que %i es la notación para el imaginario i. Si necesitamos aislar una de las soluciones usamos el comando rhs (de right-hand side): (%i23)rhs(part(sol,1)); rhs(part(sol,2)); √ ( %o23) √ − 2 %i ( %o24) 2 %i Para un sistema de ecuaciones, digamos, dos ecuaciones con dos incógnitas: 6.2. MAXIMA: SINTAXIS BÁSICA 411 (%i25)ecu1:x^2+y^2=1; ( %o25) y 2 + x2 = 1 (%i26)ecu2:(x-2)^2+(y-1)^2=4; 2 2 ( %o26) (y − 1) + (x − 2) = 4 ar (%i27)solve([ecu1,ecu2],[x,y]); 4 3 ( %o27) x = , y = − , [x = 0, y = 1] 5 5 in Cuando el sistema no tiene solución Maxima responde de la siguiente manera (%i28)solve([x+y=0,x+y=1],[x,y]); lim ( %o28) [ ] En el caso de un sistema que tiene más incógnitas que ecuaciones el programa utiliza los sı́mbolos %r1 , %r2 ... para indicar los parámetros arbitrarios rP re (%i29)solve([x+y+z=9,x-y=2*z],[x,y,z]); 3 %r1 − 9 %r1 + 9 ,y = − , z = %r1 ( %o29) x = 2 2 En lugar de solve se puede recurrir a un comando diferente que hace lo mismo, pero que es más eficiente desde el punto de vista de los recursos usados por el computador, el comando es linsolve para ecuaciones lineales. (%i30)ecus:[x+y+z+w=1,x-y+z-w=-2,x+y-w=0]; ( %o30) [z + y + x + w = 1, z − y + x − w = −2, y + x − w = 0] ad o (%i31)linsolve(ecus,[x,y,z]); 2w − 3 4w − 3 ,y = − ,z = 1 − 2w ( %o31) x = 2 2 En el caso de polinómios de orden superior el resultado estará dado de forma aproximada: (%i32)ec:x^7+x^5-x^3+x-2; ( %o32) x7 + x5 − x3 + x − 2 rr (%i33)allroots(ec); Bo [ x=0.766414088337633 %i+0.5507199727230275 , x=0.5507199727230275-0.766414088337633 %i , x=0.4922671445862202 %i - 0.9637112977011089 , x=-0.4922671445862202 %i -0.9637112977011089 , x=1.381985877916414 %i -0.08700867502191806 , x=-1.381985877916414 %i -0.08700867502191806 , x=0.9999999999999988 ] (%i34)realroots(ec); ( %o34) [x = 1] Otro tipo de ecuaciones a resolver son las ecuaciones diferenciales. Veamos como funciona con la ecuaciones diferenciales ordinarias 412 CAPÍTULO 6. APÉNDICE (%i35)ecd:(2*x+1)*’diff(y,x)+y*(x-1)=0; d y + (x − 1) y = 0 ( %o35) (2 x + 1) dx (%i36)ode2(ecd,y,x); 3 log(2 x+1) −x 4 2 ar ( %o36) y = %c e Por ser una ecuación diferencial de primer orden debe aparecer una constante en la solución. La constante aquı́ es denotada por “ %c”. lim ( %o38) y = %k1 e2 x + %k2 ex + in (%i37)ecd2:’diff(y,x,2)-3*’diff(y,x)+2*y=x; d2 d ( %o37) y − 3 y + 2y = x d x2 dx (%i38)ode2(ecd2,y,x); 2x + 3 4 Para el caso de que se tengan condiciones iniciales utilizamos ic2 para indicar las condiciones ( %o39) y = 2x + 3 5 e2 x − 2 ex + 4 4 Y para valores de contorno bc2 rP re (%i39)ic2(%o38,x=0,y=0,diff(y,x)=1); (%i40)bc2(%o38,x=0,y=0,x=1,y=0); 3 e2 − 5 ex (3 e − 5) e2 x 2x + 3 ( %o40) y = − + 4 e2 − 4 e 4 e2 − 4 e 4 ad o Existe el comando desolve para resolver también ecuaciones o sistemas de ecuaciones diferenciales ordinarias lineales utilizando transformadas de Laplace. Trabaja de manera parecida a ode2 pero se necesita especificar la dependencia de las funciones con las variables independientes. (%i41)ecd3:’diff(y(x),x,2)-y(x)=2*x; d2 y (x) − y (x) = 2 x d x2 (%i42)desolve(ecd3,[y(x)]); rr ( %o41) ( %o42) y (x) = ex d dx y (x) x=0 + y (0) + 2 2 − e−x d dx y (x) x=0 − y (0) + 2 2 Bo Si tenemos condiciones iniciales en x = 0 entonces podemos escribir: (%i43)atvalue(y(x),x=0,1); atvalue(diff(y(x),x),x=0,2); ( %o43) 1 ( %o44) 2 (%i45)desolve(ecd3,[y(x)]); ( %o45) y (x) = 3 e−x 5 ex − − 2x 2 2 Si desolve no encuentra una solución, entonces devuelve “false”. Veamos un ejemplo de un sistema de ecuaciones diferenciales − 2x 6.2. MAXIMA: SINTAXIS BÁSICA 413 (%i46)ecd_1: ’diff(f(x),x)=’diff(g(x),x)+sin(x); d d f (x) = g (x) + sin x dx dx (%i47)ecd_2: ’diff(g(x),x,2)=’diff(f(x),x)-cos(x); ( %o46) d2 d g (x) = f (x) − cos x d x2 dx (%i48)atvalue(’diff(g(x),x),x=0,a)$ atvalue(f(x),x=0,b)$ atvalue(g(x),x=0,c)$ ar ( %o47) (%i51)desolve([ecd_1, ecd_2], [f(x),g(x)]); in ( %o51) [f (x) = a ex + b − a, g (x) = cos x + a ex + c − a − 1] (%i52)kill(all)$ lim Operaciones básicas con matrices: rP re (%i1) A:matrix([1,2,3],[4,5,6],[7,8,9]);B:matrix([9,8,7],[6,5,4],[3,2,1]); 1 2 3 ( %o1) 4 5 6 7 8 9 9 8 7 ( %o2) 6 5 4 3 2 1 (%i3) A+B; 10 10 10 ( %o3) 10 10 10 10 10 10 El producto ordinario de matrices: 18 54 90 24 69 114 ad o (%i4) A.B; 30 ( %o4) 84 138 El producto elemento a elemento rr (%i5) A*B; 9 16 21 ( %o5) 24 25 24 21 16 9 Bo El cociente elemento a elemento (%i6) A/B; 1 ( %o6) 9 2 3 7 3 1 4 1 4 3 7 3 2 9 El producto por un escalar: (%i7) n*A; n 2n ( %o7) 4 n 5 n 7n 8n 3n 6 n 9n 414 CAPÍTULO 6. APÉNDICE Podemos generar matrices de muchas maneras (%i8) a[i,j]:=i^2 + j^2$ ar (%i9) A:genmatrix(a,4,4); 2 5 10 17 5 8 13 20 ( %o9) 10 13 18 25 17 20 25 32 También de manera interactiva: (%i11)M:entermatrix(n,n)$ 0 4 (x − y) 0 4. General lim (%i12)M; 3 (y + x) ( %o12) 0 0 3. Antisymmetric rP re Is the matrix 1. Diagonal 2. Symmetric Answer 1, 2, 3 or 4 : 1; Row 1 Column 1: (x+y)^n$ Row 2 Column 2: (x-y)^(n+1)$ Row 3 Column 3: (x.y)^(n-1)$ Matrix entered. in (%i10)n:3$ 0 0 2 (x · y) La matriz identidad de tamaño n x n usamos el comando ident(n), como mostramos a continuación 6.2.2. 0 0 0 1 ad o (%i13)ident(4); 1 0 0 0 1 0 ( %o13) 0 0 1 0 0 0 Bibliotecas rr No todos los comandos están disponibles en la memoria cuando el programa es iniciado. Sólo los comandos estándar son cargados automáticamente. Pero podemos contar con funciones adicionales para trabajar cargando al programa los diferentes paquetes, módulos o librerı́as que dispone Maxima. Por ejemplo, el paquete vect nos permite introducir vectores y operar con ellos. El paquete vect debe entonces ser previamente cargado y se hace de la manera siguiente: Bo (%i1) load(vect)$ Las operaciones básicas de suma, resta, multiplicación y multiplicación por escalares de vectores las podemos ver a continuación, pero primero debemos saber como introducir los vectores al programa. Por ejemplo, para los vectores a = 2i + 4j + 6k, b = 5i + 7j + 9k y c = i + 3j, tenemos: (%i2) a:[2,4,6]; ( %o2) [2, 4, 6] (%i3) b:[5,7,9]; ( %o3) [5, 7, 9] (%i4) c:[1,3,0]; 6.2. MAXIMA: SINTAXIS BÁSICA 415 ( %o4) [1, 3, 0] (%i5) a+b+c; ( %o5) [8, 14, 15] (%i6) 3*a+5*b-c; ( %o6) [30, 44, 63] ar Si queremos calcular el módulo de los vectores podemos hacerlo definiendo una función: la función módulo, como mostramos a continuación: (%i11)a.b; ( %11) 92 rP re Para el producto escalar usamos un punto lim (%i8) modulo(a); modulo(b); modulo(c); √ ( %o8) 2√ 14 ( %o9) √155 ( %10) 10 in (%i7) modulo(a):=sqrt(a.a); √ ( %o7) modulo(a) := a.a Mientras que para el producto vectorial debemos usar la tilde ∼ y escribir lo siguiente (%i12)express(a~b); ( %o12) [−6, 12, −6] (%i13)express(b~a); ad o ( %o13) [6, −12, 6] De manera que el producto triple lo podemos calcular asi: (%i14)c.(express(a~b)); ( %o14) 30 rr Otra librerı́a que podemos explorar es plotdf que nos permite realizar gráficos del tipo y 0 = f (x, y) y hacernos una idea de cómo es la solución de ésta ecuación diferencial. Bo (%i1) load(plotdf)$ La librerı́a plotdf nos permite estudiar los campos de direcciones y las curvas integrales a través del estudio de las pendientes. Veamos la siguiente ecuación diferencial y 0 = −x + e−y su solución, de manera gráfica, es decir los campos de direcciones lo podemos obtener escribiendo el siguiente comando. (%i2) plotdf(-x+exp(-y)); La gráfica que resulta puede verse en la Figura 6.2 y cada curva integral (curvas en rojo) se obtiene haciendo un “click”sobre un punto de la gráfica, esto generará la curva integral que pasa por ese punto. CAPÍTULO 6. APÉNDICE lim in ar 416 rP re Figura 6.2: Curvas integrales para y 0 = −x + e−y Por otra parte, existen varias opciones para el comando plotdf. Supongamos que queremos la trayectoria que pase por el punto especı́fico (2, 3). Para tal fin escribimos (%i3) plotdf(-x+exp(-y),[trajectory_at,2,3]); ad o Y la gráfica obtenida puede verse en la Figura 6.3. También nos podemos encontrar con que la ecuación diferencial depende de algún parámetro, digamos κ. Por ejemplo y 0 = −x + κe−y y nos gustarı́a obtener una gráfica para algún valor del parámetro en partı́cular, digamos κ = −0,5. Entonces podemos escribir (%i4) plotdf(-x+exp(-kappa*y),[parameters,"kappa=-0.5"]); rr O, si queremos recorrer, en una misma figura, los diferentes valores del parámetro usamos la opción sliders, como se muestra a continuación (%i5) plotdf(-x+exp(-kappa*y),[parameters,"kappa=-0.5"],[sliders,"kappa=-3:3"]); Bo La gráfica que se obtiene se muestra en la Figura 6.4, y como se puede ver, en la parte inferior aparece un botón deslizante y el valor del parámetro κ. Al deslizar el botón, estaremos cambiando el valor del parámetro que en este caso variará entre −3 y 3, podremos apreciar entonces como los campos de direcciones y las curvas integrales seleccionadas cambian. 417 lim in ar 6.2. MAXIMA: SINTAXIS BÁSICA 6.2.3. rP re Figura 6.3: Curva integrales para y 0 = −x + e−y y que pasa por el punto (2, 3) Maxima en modo texto ad o Es posible utilizar Maxima en un computador que funcione bajo alguno de los diferentes versiones de sistemas operativos tipo UNIX, como por ejemplo Linux, esto lo podemos hacer cuando no queremos utilizar el ambiente gráfico. Podemos recurrir al ambiente de texto escribiendo el comando maxima en un terminal de nuestro computador, esto hará que entremos en un ambiente de cálculo que funcionará exclusivamente en modo texto y aparecerá, luego de una bienvenida, el aviso de espera o prompt. Para finalizar una sesión en Maxima se utiliza el comando quit(). Esta posibilidad que ofrece el programa es muy conveniente a la hora de realizar grandes cálculos ya que podemos dejar el proceso en modo “background” y utilizar el computador en otra actividad. Al entrar en este modo al programa tendremos un mensaje como el que se muestra a continuación y donde aprovecharemos de hacer un par de cálculos a modo de ejemplo. Bo rr Obatala%maxima Maxima 5.36.1 http://maxima.sourceforge.net using Lisp SBCL 1.2.10 Distributed under the GNU Public License. See the file COPYING. Dedicated to the memory of William Schelter. The function bug_report() provides bug reporting information. (%i1) integrate( tan(x), x ); (%o1) log(sec(x)) (%i2) float(sqrt(%pi)); (%o2) 1.772453850905516 (%i3) quit(); Sobre UNIX podemos utilizar los archivos de entradas y salidas estándar para leer e imprimir información en el terminal: <, >, |. Obatala% maxima < archimax.txt Con esta instrucción Maxima ejecutará todos los comandos que se encuentran en el archivo de texto archimax.txt e irá mostrando los resultados en pantalla En la siguiente instrucción Maxima ejecutará todos los comandos que se encuentran en el archivo de texto archimax.txt pero escribirá los resultados en el archivo de salida llamado archimax.out CAPÍTULO 6. APÉNDICE lim in ar 418 rP re Figura 6.4: Curva integrales para y 0 = −x + κe−y y para diferentes valores de κ. Obatala% maxima < archimax.txt > archimax.out También se puede hacer que todos los comandos del archivo sean ejecutados para luego ser enviados al terminal pero paginados. Obatala% maxima < archimax.txt | more ad o Maxima puede ser detenido temporalmente con el comando “Control Z” de manera que para poner procesos en “background” se procede de la manera usual: Obatala% maxima < archimax.txt > archimax.out ^Z Suspended Obatala%> bg [2] maxima < archimax.txt > archimax.out & rr Obatala% O si lo preferimos, y de manera equivalente, podemos escribir la instrucción pero ponemos al final & < archimax.txt > archimax.out & Bo Obatala% maxima [1] 5114 6.2.4. Invocando la ayuda El ambiente wxMaxima permite acceder al manual de ayuda fácilmente visible en la barra de herramientas, parte superior de la ventana. Pero también si conocemos el comando podemos escribir, por ejemplo: (%i1) describe(diff); 0: diff (Functions and Variables for Differentiation) 1: diff <1> (Functions and Variables for Differentiation) 2: diff <2> (Functions and Variables for itensor) Enter space-separated numbers, ‘all’ or ‘none’: 6.2. MAXIMA: SINTAXIS BÁSICA 419 rP re lim in -- Function: diff diff (<expr>, <x_1>, <n_1>, ..., <x_m>, <n_m>) diff (<expr>, <x>, <n>) diff (<expr>, <x>) diff (<expr>) Returns the derivative or differential of <expr> with respect to some or all variables in <expr>. ’diff (<expr>, <x>, <n>)’ returns the <n>’th derivative of <expr> with respect to <x>. ’diff (<expr>, <x_1>, <n_1>, ..., <x_m>, <n_m>)’ returns the mixed partial derivative of <expr> with respect to <x_1>, ..., <x_m>. It is equivalent to ’diff (... (diff (<expr>, <x_m>, <n_m>) ...), <x_1>, <n_1>)’. ’diff (<expr>, <x>)’ returns the first derivative of <expr> with respect to the variable <x>. ’diff (<expr>)’ returns the total differential of <expr>, that is, the sum of the derivatives of <expr> with respect to each its variables times the differential ’del’ of each variable. No further simplification of ’del’ is offered. The noun form of ’diff’ is required in some contexts, such as stating a differential equation. In these cases, ’diff’ may be quoted (as ’’diff’) to yield the noun form instead of carrying out the differentiation..... ar Al seleccionar una de las opciones, por ejemplo si escribimos 1 después de los dos puntos, aparecerá la descripción completa del comando: There are also some inexact matches for ‘diff’. Try ‘?? diff’ to see them. También podemos utilizar: (%i2) apropos("diff"); ad o [covdiff,diff,maxtaydiff,pdiff_diff_var_names,pdiff_prime_limit...] O pedirle al programa algunos ejemplos (%i3) example(diff); rr kill(f,g,h,x,y) done diff(sin(x)+x^3+2*x^2,x) cos(x)+3*x^2+4*x diff(sin(x)*cos(x),x) cos(x)^2-sin(x)^2 diff(sin(x)*cos(x),x,2) -4*cos(x)*sin(x) Bo (%i4) (%o4) (%i5) (%o5) (%i6) (%o6) (%i7) (%o7) . . . Las ayudas completas de Maxima se pueden consultar en: http://maxima.sourceforge.net/es/ 6.2.5. Ejercicios 1. Calcule: a) los 70 primeros decimales del número e 420 CAPÍTULO 6. APÉNDICE b) el arco coseno hiperbólico de 1 c) la expansión de sin(2 arctan(x)) 2. Para la siguiente función (x + 1)3 f (x) = √ x2 − 1 Calcule ∂f (x) ∂f (x) ∂x , ∂x2 ar a) b) Z 4 Z f (x)dx f (x)dx , c) lı́m f (x) , x→−∞ d ) Haga un gráfico de f (x) para valores de x ∈ [−5, 5]. 3. Encuentre las raı́ces de lı́m f (x) x→0 lim lı́m f (x) , x→∞ in 2 p = x7 + x5 + 2x + x 4. Resuelva la siguiente ecuación diferencial dy(x) = y(x) ln(xy(x)) − y(x); dx rP re x y haga una gráfica del campo de direcciones que muestre algunas curvas integrales. 5. Resuelva la siguiente ecuación diferencial dy(t) d2 y(t) − 1 − y(t)2 + y(t) = 0 , 2 d t dt con: y(0) = 0 , dy(t) = −0,1 dt 6. Realice los ejercicios de la sección 1.2.4 con la ayuda de la librerı́a vect de Maxima. ad o 7. En un archivo de texto escriba las siguientes instrucciones que tienen que ver con operaciones de números complejos: Bo rr z_1=1+2%i; z_2=3+4%i; z_1+z_2; z_1*z_2; expand(%); z_1/z_2; rectform(%); polarform(%); guarde el archivo con el nombre pruebamax.txt y en un terminal de su computador, y en el mismo directorio donde está el archivo escriba: localhost% maxima < pruebamax.txt > pruebamax.out & y verifique que en el archivo pruebamax.out se haya realizado los cálculos. Álgebra de números complejos, 60 Álgebra de vectores 3D, 4 Álgebra vectorial Aplicaciones, 22 Índices Álgebra de vectores, 30 Convención de Einstein, 29 Ejemplos cálculos vectoriales, 34 draw, 25 gr3d, 25 vect, 19 wxdraw3d, 25 in Bases recı́procas, 141 Bases recı́procas de vectores, 138 Biyectivo Operador, 223 lim Cambios de Base Representación matricial de operadores, 233 Campo, 80 vectorial, flujo de, 327 de fuerza, 326 Escalar, derivada direccional, 330 Lineas de, 326 Campos Escalares, 325 Vectoriales, 325 Campos Tensoriales, 323 Campos vectoriales Comienzos de derivación/integración, 37 Cartesianas Coordenadas, 168, 301 Cauchy-Schwarz Desigualdad, 92 Componentes Tensores, 151 Componentes de Vectores, 14 Componentes vectores 3D, 14 Composición de Operadores Lineales, 215 Conjunto Completo de Observables que conmutan, 282 Conjuntos con Maxima, 85 Contracción de Tensores, 152 Convención de Einstein, 29 Coordenadas Rotación de, 31 cartesianas, 168, 301 cilı́ndricas, 302 elipsoidales, 305 esfericas, 303 polares, 168 toroidales, 305 Transformaciones, 156 Coordenadas Sistemas de, 14 Coordenadas curvilı́neas Producto escalar, 310 Producto vectorial, 310 Tensores, 309 Coordenadas Generalizadas rr ad o rP re Abelianos Grupos , 77 Algebra de Matrices, 232 Algebra vectorial con ı́ndices, 28 Algebra vectorial y coordenadas, 16 Angulo de fase de un autovector, 265 Aplicaciones Álgebra vectorial, 22 Aproximación de funciones, 116 Autoespacios, 280 Autovalores Matrices reales, 268 Multiplicidad algebraica, 267 Autovalores degenerados, 269, 270 Matrices Hermı́ticas, 280 Autovalores y Autovectores Matrices unitarias, 281 Polinomio caraterı́stico, 266 Autovalores y autovectores, 265 Independencia lineal, 265 Autovalores y autovectores de operadores similares, 281 Autovector Angulo de fase, 265 Autovectores Matrices reales, 268 Multiplicidad geométrica, 267 Bo ar Índice alfabético Banach Espacios Vectoriales Normados, 91 Stefan Banach, 91 Bases Ejemplos bases ortogonales, 107 Ejemplos de Bases de espacios vectoriales, 106 Bases ortogonales, 106 Bases para Espacios vectoriales lineales, 104 421 422 ÍNDICE ALFABÉTICO Bo in lim rP re rr ad o De Moivre Fórmulas de, 63 Delta de Kronecker, 30 Dependencia lineal, 104 Ejemplos de, 109 Vectores 3D, 16 Derivación Campos vectoriales, 37 Derivación vectores 3D, 38 Derivada Direccional, 330 Direccional, Campo escalar, 330 Descomposición ortogonal, 116 Desigualdad Cauchy-Schwarz, 92, 152 Desigualdad de Cauchy-Schwarz Vectores 3D, 7 Determinante, 234 Diferenciación Operadores, 237 Diferenciación de Operadores, 226 Dirac Notación, 83 Distancia Espacios vectoriales lineales, 89 Norma, 91 Producto interno, 92 Divergencia, 333 Dual Espacios Vectoriales, 136 Ejemplos Tensores, 158 Elemento de lı́nea, 155 Elipsoidales coordenadas, 305 Equipotenciales Lı́neas, 326 Escalar Producto, 7, 17 Escalares Campos, 325 Esfuerzo Tensor de, 171 Espacio Imagen, 221 Nulo, 221 Espacio tensorial, 149 Espacio vectorial Operadores lineales, 214 Espacios Minkowskianos, 181 Espacios vectoriales con Maxima, 96 Espacios vectoriales duales, 136 Espacios vectoriales lineales, 80 Bases de, 104 Distancia, 89 Ejemplos de , 81 Ejemplos de Bases de espacios vectoriales, 106 Hilbert, 91 Métricos, 89 Norma, 90 Normados, 90 Producto interno, 91 Espacios vectoriales pseudo-euclidianos, 180 Espectro de un operador, 265 Euler Fórmulas de , 63 Exterior Producto, 148 ar Gradiente, 333 Coordenadas generalizadas, 300, 308 Coseno Teorema del, 93 Cosenos Directores, 14 Cosenos directores, 15 Covector, 136 Coordenadas curvilı́neas, 309 Covectores, 138 Cuaternión, 100 Curvas integrales, 326 Curvas parametrizadas, 306 Curvatura, 308 Ecuaciones Lineales Sistema de, 256 Einstein Convención de, 29 Ejemplos cálculos vectoriales con ı́ndices, 34 Ejemplos de Bases de espacios vectoriales, 106 Ejemplos de bases ortogonales, 107 Ejemplos de dependencia/independencia lineal, 109 Ejemplos de espacios vectoriales lineales, 81 Ejemplos de grupos, 78 Ejemplos de ortogonalizacion, 110 Fórmula de Glauber, 227 Fórmulas de De Moivre, 63 Identidades trigonométricas, 66 Logaritmos y potencias de números complejos, 67 Raı́ces de polinomios, 66 Fórmulas de Euler, 63 Factores de escala, 301 coordenadas esféricas, 303 Flujo Campos Vectorial, 327 Campos vectoriales, 333 Fourier Transformada de, 214 Frenet-Serret Fórmulas de, 309 Funcionales lineales, 136 Funciones de Operadores, 225 ÍNDICE ALFABÉTICO 423 Glauber Fórmula de, 227 Gradiente Coordenadas generalizadas, 333 Gram Determinante, 106 Jorgen Pedersen Gram, 106 Gram-Schmidt Método Ortogonalización, 109 Grupo de Permutaciones, 83 Grupos, 77 Grupos isomorfos, 79 Leyes de Transformación para vectores, 138 Lineal Operador, 212 ar Método de mı́nimos cuadrados, 118 Métrica, 89 Tensor, 154 Métricos Espacios vectoriales lineales, 89 Mı́nimos Cuadrados, 120 Mı́nimos cuadrados Método de, 118 Matrices Algebra de, 232 Matrices similares, 233 Matrices Unitarias Autovalores y Autovectores, 281 Matriz Jacobiana, 156, 310 Maxima draw, 25 gr3d, 25 linsolve, 20 vect, 19 wxdraw3d, 25 Bases para espacios vectoriales, 112 Bases recı́procas, 141 Conjuntos, 85 Independencia lineal, 112 Mı́nimos Cuadrados, 120 Ortogonalización, 114 Polinomios ortogonales, 127 Series de Fourier, 123 Vectores con, 19 MaximaEspaciosVectoriales, 96 Mellin Transformada de, 214 Minkowski Espacios vectoriales, 181 Modelos en Fı́sica, 3 ad o rP re Independencia Lineal, 104 Autovalores y autovectores, 265 Ejemplos de, 109 Vectores 3D, 6 Independencia lineal Maxima, 112 Vectores 3D, 16 Index Operador, 223 Integración Campos vectoriales, 37 Integración vectores 3D, 44 Integral Transformada, 214 Interno Producto, 91, 92 Interpolación polinomial puntos experimentales, 119 Isomorfos Grupos, 79 lim in Hankel Transformada de, 214 Hermı́ticos Operadores, 225 Hilbert David Hilbert, 91 Espacios vectoriales lineales, 91 rr Jacobiano, 156, 310, 314 Bo Kronecker Delta de, 30 Leopold Kronecker, 30 Lı́neas de campo, 326 de corriente, 326 de flujo, 326 Equipotenciales, 326 Laplace Transformada de, 214 Levi-Civita Tensor, 30, 310 Tensor generalizado, 234 Tullio Levi-Civita, 30 Números complejos Álgebra, 60 Aplicaciones fórmulas de Euler y De Moivre, 65 Fórmulas de Euler y De Moivre, 63 Vectores 2D, 60 Norma Distancia, 91 Espacios vectoriales lineales, 90 Producto interno, 92 Normados Espacios vectoriales lineales, 90 Notación Dirac, 83 Nulo Espacio, 221 ÍNDICE ALFABÉTICO Productos de Vectores 3D, 7 Proyectores Autovalores y autovectores, 268 Pseudo-escalares, 32 Pseudo-euclidianos Espacios Vectoriales, 180 Pseudo-vectores, 32 Puntos Experimentales Interpolación polinomial, 119 lim in Recı́procas Bases de vectores, 138 Rectas y vectores, 22 Representación matricial de operadores Cambios de Base, 233 Representación matricial de operadores adjuntos y hermı́ticos, 232 Rotación de coordenadas, 31 rr ad o Permutaciones Grupos de, 83 Pitágoras Teorema de, 93 Planos y vectores, 23 Polares Coordenadas, 168 Polinomial Interpolación de puntos experimentales, 119 Polinomio caracterı́stico, 266 Polinomios ortogonales, 127 Producto escalar, 7 Exterior, 148 Tensorial, 148 Tensorial de tensores, 152 Vectores 3D, 7 Producto escalar, 7, 17 Coordenadas curvilı́neas, 310 Producto interno, 92 Distancia, 92 Espacios vectoriales lineales, 91 Norma, 92 Producto Mixto, 9 Producto Triple, 9 Producto vectorial, 8, 18 Coordenadas curvilı́neas, 310 Producto vectorial mixto, 18 Bo Schmidt Erhard Schmidt, 109 Series de Fourier, 123 Simetrización de tensores, 153 Similares Matrices, 233 Sistemas de coordenadas, 14 Sistemas de ecuaciones lineales, 256 Subgrupos, 79 rP re Operador Biyectivo, 223 Determinante de un, 234 Diferenciación de, 237 Funciones de, 225 Inverso, 223 Vectorial, 330 Operador Lineal, 212 Composición, 215 Operador lineal Espacio vectorial, 214 Operadores adjuntos Representación matricial, 232 Operadores Hermı́ticos, 225 Autovalores degenerados, 280 Operadores hermı́ticos Representación matricial, 232 Operadores Unitarios, 225 Ortogonal Complemento, 116 Descomposición, 116 Ortogonales Ejemplos de bases, 107 Ortogonalidad, 106 Ortogonalización, 110, 114 Método Gram-Schmidt, 109 Ortogonalizacion Ejemplos de, 110 ar 424 Taylor Brook Taylor, 63 Tensor, 147 Bases, 150 Combinaciones Lineales, 152 Componentes, 151 Componentes de, 151 Contracción, 152 Coordenadas curvilı́neas, 309 de esfuerzos, 171 definicion, 147 Esfuerzo 2D, 171 Esfuerzo 3D, 173 Espacio tensorial, 149 Levi-Civita, 30, 234, 310 Métrico, 154 Producto, 148 Producto tensorial de, 152 Simetrización, 153 Stress, 171 Transformación, 156 Tensores Ejemplos, 158 Tensoriales Campos, 323 Teorema de Pitágoras, 93 Teorema del ÍNDICE ALFABÉTICO 425 lim in ar Coseno, 93 Toroidales coordenadas, 305 Torsión, 309 Transformación Coordenadas, 156 Tensor, 156 Vector, 156 Transformaciones Unitarias, 233 Transformada Fourier, 214 Hankel, 214 Integral, 214 Laplace, 214 Mellin, 214 Trayectorias ortogonales, 326 Triple producto vectorial, 18 Bo rr ad o Variedades lineales, 104 Vector Transformación, 156 Vectores Espacios vectoriales lineales, 80 Leyes de Transformación, 138 Vectores 2D Números complejos, 60 Vectores 3D, 4 Álgebra, 4 Álgebra con ı́ndices, 30 Componentes, 14 Dependencia lineal, 16 Derivación, 38 Derivación/integración, 37 Independencia lineal, 16 Integración, 44 Planos, 23 Producto escalar, 17 Producto vectorial, 18 Producto vectorial mixto, 18 Productos, 7 Rectas, 22 Suma/resta, 16 Velocidades/Aceleraciones, 39 Vectores con Maxima, 19 Vectorial Flujo de campo, 327 Operador, 330 Producto, 18 Vectoriales Campos, 325 rP re Unitarias Transformaciones, 233 Unitarios Operadores, 225 View publication stats