Apéndice B APÉNDICE B: PROPIEDADES DE TENSORES DE SEGUNDO RANGO B.1 Descomposición invariante del espacio ⊗2 E El grupo O(n) de las transformaciones ortogonales divide el espacio vectorial de los tensores cartesianos de rango 2, T = ⊗2 E (E: espacio vectorial euclidiano de n dimensiones) en tres subespacios vectoriales. Estos están formados por: a) el espacio de los tensores isótropos, T (i) , también denominados esféricos; b) el espacio de los tensores simétricos de traza nula, T (s) ; y c) el espacio de los tensores antisimétricos, T (a) . Cualquier matriz ortogonal Q transforma estos subespacios en si mismos. El único elemento común es el tensor nulo. Ninguno de estos subespacios posee otro subespacio propio (es decir, cerrado para las operaciones de suma y producto por un escalar) que se transforme en si mismo bajo la acción de Q. Esta descomposición de T en subespacios irreducibles e invariantes respecto de O(n) es, por lo tanto, la mayor posible T = T (i) ⊕ T (s) ⊕ T (a) . (B.1) El espacio T es la suma directa de los espacios compontes. Escrita en componentes la descomposición de los tensores cartesianos resulta de una identidad algebraica fácil de verificar Tij = 1 1 1 2 Tll δ ij + (Tij + Tji − Tll δ ij ) + (Tij − Tji ), n 2 n 2 (B.2) donde Tll es la traza Tr (Tij ) del tensor. Se puede probar que la forma de esta descomposición de las componentes es independiente del sistema de coordenadas cartesianas. B.2 Representación espectral de un tensor simétrico de rango 2 B.2.1 Ecuación de autovalores Sea un tensor simétrico Sij = Sji , i, j = 1, 2, ..., n, cuya matriz n × n es S = ST . El problema de los autovalores de S depende de la solucíon de Su(α) = λ(α) u(α) , (B.3) (α) donde u(α) es un vector columna (n × 1, con componentes ul , l = 1, 2, ..., n) denominado autovector, λ(α) , llamado autovalor, es un número y la notación prevee la existencia de n autovalores con sus respectivos autovectores, α = 1, 2, ..., n. Naturalmente B.3 es equivalente a u(α)T S = λ(α) u(α)T , (B.4) (α) donde v(α) = u(α)T es un vector fila (1 × n, cuyas componentes son vl 1, 2, ..., n). Escribiendo la B.3 como una ecuación secular (S − λ(α) I)u(α) = 0 (α) = ul , l = (B.5) (I: matriz identidad) reconocemos que se trata de un sistema de n ecuaciones algebraicas (α) lineales y homogéneas para las incógnitas ul , l = 1, 2, ..., n, que tiene solución no trivial, (α) ul 6= 0, si y sólo si (B.6) det(S − λ(α) I) = 0. Representación espectral de un tensor simétrico de rango 2 87 Es fácil convencerse de que el desarrollo del determinante puede ordenarse en potencias de λ(α) , generando un polinomio de grado n, denominado polinomio característico det(S − λ(α) I) = Pn (λ) ≡ (−1)n λn + (−1)n−1 an−1 λn−1 + ... + a0 ≡ (−1)n λn + (−1)n−1 Tr (S)λn−1 + ... + det(S) = 0, (B.7) donde el coeficiente an−1 = Tr (S) es la traza de S y a0 = det(S). Las n raices de Pn (λ) determinan el conjunto de los autovalores λ(α) , α = 1, 2, ..., n, y para cada raiz podemos (α) calcular, a partir de B.5, por lo menos un autovector ul . B.2.2 Invariancia del polinomio característico Consideremos una transformación ortogonal con matriz Q, tal que aplicada a vectores columna u, (B.8) u0 = Q u. La matriz S asociada al tensor de componentes Sij se transforma según la fórmula de semejanza S0 = Q SQT . (B.9) La ecuación secular para S0 es S0 u0 = λ0 u0 o sea, det(S0 −λ0 I) = 0, ¤ £ 0 P(n) (λ0 ) = det Q (S − λI)QT = det(Q) det(QT ) det(S − λI) = P(n) (λ). (B.10) (B.11) Se infiere de esto que el polinomio característico permanece invariante en la transformación y que los autovalores λ0 = λ son los mismos. Esto implica la existencia de n invariantes asociados con las componentes de S: los coeficientes del polinomio característico, entre los cuales están la traza y el determinante de S. Dado que P(n) (λ) = (λ(1) − λ)(λ(2) − λ)...(λ(n) − λ) = 0, (B.12) es evidente que Tr (S) = (−1)n−1 (λ(1) + λ(2) + ... + λ(n) ), det(S) = λ(1) λ(2) ...λ(n) . (B.13) En tres dimensiones, además de Tr (S) y det(S) que son lineal y cúbico, respectivamente, en las componentes Sij , existe un invariante cuadrático, Cu (S), el cual equivale a la suma de los tres menores asociados con los elementos diagonales S11 , S22 , S33 , ¯ ¯ ¯ ¯ ¯ ¯ ¯ S22 S23 ¯ ¯ S11 S13 ¯ ¯ S11 S12 ¯ ¯ ¯ ¯ ¯ ¯ ¯. + + (B.14) Cu (S) = a1 = ¯ S32 S33 ¯ ¯ S31 S33 ¯ ¯ S21 S22 ¯ Resumiendo, en tres dimensiones las relaciones entre los autovalores y los invariantes son Tr (S) = λ(1) + λ(2) + λ(3) , Cu (S) = λ(2) λ(3) + λ(1) λ(3) + λ(1) λ(2) , det(S) = λ(1) λ(2) λ(3) . (B.15) B.2.3 Realidad de los autovalores Cuando Sij es simétrico sus autovalores son reales. Esta es una propiedad muy conocida, que se prueba con las siguientes ecuaciones. Partimos de Su = λu, u∗T Su = λ |u|2 , |u|2 ≡ u∗T u, (B.16) donde u∗ indica que sus componentes son complejas conjugadas de u. Transponiendo y conjugando la anterior u∗T ST = λ∗ u∗T , u∗T Su = λ∗ |u|2 , (B.17) luego de premultiplicar por u. Restando las dos últimas se obtiene ∗ (λ∗ − λ) |u|2 = 0, de la cual se deduce la realidad: λ = λ. (B.18) Representación espectral de un tensor simétrico de rango 2 88 B.2.4 Ortogonalidad de los autovectores Dos autovectores u(α) , u(β) asociados a dos autovalores distintos, λ(α) 6= λ(β) , son ortogonales, u(α)T u(β) = 0. Partimos de Su(α) = λ(α) u(α) , Su(β) = λ(β) u(β) , (B.19) y formamos los productos u(β)T Su(α) = λ(α) (u(β)T u(α) ), u(α)T Su(β) = λ(β) (u(α)T u(β) ). (B.20) Pero (u(β)T u(α) ) = (u(α)T u(β) ) puesto que representa el producto escalar de los vectores. Transponiendo la segunda y restando la primera, en virtud de la simetría de S, se obtiene (λ(β) − λ(α) )(u(β)T u(α) ) = 0. (B.21) De donde se concluye que si λ(α) 6= λ(β) , el producto escalar (u(α)T u(β) ) = 0 y los autovectores son ortogonales. En lo que sigue vamos a suponer que los autovectores han ¯ ¯2 sido normalizados, ¯u(α) ¯ ≡ u(α)∗T u(α) = 1. B.2.5 Degeneración Es posible que existan raíces múltiples de P(n) (λ). El caso en el cual dos autovalores coinciden se llama degenerado. Supongamos que λ(α) = λ(β) = λ, y que u y v son dos autovectores con el mismo λ. Si no fueran de entrada ortogonales, procedemos del siguiente modo Su = λu, Sv = λv, ⇒ S(au + bv) = λ(au + bv), (B.22) es decir, Sw = λw, con w = au + bv. Por lo tanto u, v, generan un subespacio lineal, en este caso de dos dimensiones y en general de dimensión equivalente a la multiplicidad del autovalor. Puesto que uT v 6= 0, siempre podemos encontrar un w tal que uT w = 0 mediante la elección a uT v (B.23) =− 2. b |u| Entonces, hay infinitos pares de vectores ortonormales (bases) en el subespacio asociado con el autovalor repetido λ. Por lo tanto, se puede siempre construir un par de autovectores ortogonales, sólo que no son únicos. Este argumento se puede extender al caso de una mayor multiplicidad de las raíces. B.2.6 La matriz particionada de autovectores Una matriz cuyas componentes son a su vez matrices (submatrices) se denomina matriz particionada. Las reglas de multiplicación de las matrices se aplican a las matrices particionadas cuando el producto de las respectivas submatrices tiene sentido (número de filas igual al número de columnas de los factores que intervienen en la multiplicación). Podemos formar la matriz particionada 1 × n de autovectores U = [u(1) , u(2) , ..., u(n) ], (B.24) donde los u(α) son autovectores columna. La U se compone de n submatrices y es también una matriz n × n que contiene todas las componentes de los autovectores de S. Evidentemente UT U = I, (B.25) puesto que, el producto de una matriz particionada n × 1 por otra 1 × n es una matriz n × n y los autovectores, como sabemos, son ortogonales u(α)T u(β) = δ αβ (o han sido ortogonalizados en el caso de raíces múltiples). Se verifica también que UUT = I, (B.26) Representación espectral de un tensor simétrico de rango 2 89 porque, si bien el producto de una matriz particionada 1 × n por otra n × 1 es la matriz particionada de un sólo elemento, 1 × 1, en este caso P el elemento único resulta ser una submatriz n × n, porque cada elemento de la suma α u(α) u(α)T es una matriz n × n con todos los elementos cero, salvo el que corresponde a la posición α de la diagonal principal que vale 1. Valen B.25, B.26 y, por lo tanto, U es una matriz ortogonal. Analogamente, podemos escribir una matriz diagonal con los autovalores Λ=diag(λ(1) , λ(2) , ..., λ(n) ), (B.27) como una matriz particionada mediante los vectores fila λi = [0, 0, ..., 1, ..., 0]λ(i) , en los cuales todos los elementos son nulos excepto el correspondiente a la columna i-esima que vale 1 (λ(i) es un escalar). Es decir, escribimos λ1 λ2 (B.28) Λ= . , . λn y resulta (1) [u (2) ,u (n) , ..., u ] λ1 λ2 . . λn = u(1) λ1 + ... + u(n) λn = [λ(1) u(1) , ..., λ(n) u(n) ], (B.29) expresión que equivale al producto de las matrices UΛ. Por lo dicho, el conjunto de todas las ecuaciones B.3 con α = 1, 2, ..., n se puede escribir en forma compacta como SU = UΛ. (B.30) B.2.7 Diagonalización El trabajo de escribir en forma sintética la ecuación secular para el conjunto completo de los autovalores λ(α) tiene una recompensa: es ahora muy simple obtener el teorema de diagonalización de S. En efecto, (B.31) UT SU = Λ. De manera que empleando una transformación de semejanza mediante la matriz ortogonal de autovectores se obtiene la forma diagonal de S S0 = UT SU =diag(λ(1) , λ(2) , ..., λ(n) ), (B.32) fórmula que demuestra: (a) que los autovalores son las componentes del tensor cuando este adquiere su forma diagonal, y (b) que en ese caso las direcciones de los ejes de coordenadas están definidas por los autovectores. En lugar de U se puede trabajar con (1) v v(2) , (B.33) V = UT = . . v(n) (α) (α) (α) donde v (α) = u(α)T = [u1 , u2 , ..., un ] son ahora vectores filas y llegar al mismo resultado final (B.34) VS =ΛV ⇒ S0 = VSVT =diag(λ(1) , λ(2) , ..., λ(n) ). Ejercicios del Apéndice B 90 B.2.8 Teorema de Cayley-Hamilton Como consecuencia del teorema de diagonalización es fácil probar que cuando se forma el polinomio característico utilizando como argumento la matriz correspondiente, es decir cuando se construye la función de matriz, Pn (S) = (−1)n Sn + (−1)n−1 an−1 Sn−1 + ... + a0 , (B.35) se obtiene la matriz nula Pn (S) = 0. (B.36) En efecto, dado que cada término del polinomio es un coeficiente que multiplica una potencia de S, es evidente que S y Pn (S) se diagonalizan simultáneamente con la misma transformación ortogonal. Cuando S es diagonal, también Pn (S) es diagonal y sus elementos diagonales valen Pn (λ), como es fácil ver. Pero Pn (λ) es invariante y Pn (λ) = 0, de donde resulta el teorema de Cayley-Hamilton. B.3 Ejercicios del Apéndice B Ejercicio B.1 Probar que dos tensores cartesianos de rango dos S ,T , tienen los mismos autovalores si y sólo si existe una transformación ortogonal Q tal que T = QSQT . (B.37) Ejercicio B.2 Introducir dos tensores cartesianos de cuarto rango definidos por componentes como sigue Sijpq ≡ 1 (δ ij δ pq + δ iq δ jp ), 2 Aijpq ≡ 1 (δ ij δ pq − δ iq δ jp ), 2 (B.38) los cuales se denominan operadores de simetrización y antisimetrización, respectivamente. Considerar un tensor cartesiano arbitrario Tij de rango dos y calcular T(ij) = Sijpq Tpq , T[ij] = Aijpq Tpq . (B.39) Comprobar las siguientes propiedades T(ij) = T(ji) , T[ij] = −T[ji] Tij = T(ij) + T[ij] . (B.40) Ejercicio B.3 a) Sea un vector cualquiera ui y un vector nl de módulo 1 que especifica una dirección (las componentes nl son cosenos directores). La media esférica del vector hU (nl )i se define como el valor medio de la función lineal U (nl ) = ul nl , (B.41) nl nl = 1. (B.42) sobre la esfera unidad Probar que la media esférica de cualquier vector es cero, hU (nl )i = 0. b) Para un tensor cartesiano de segundo rango Tij la función bilineal es T (ni , mj ) = Tij ni mj (B.43) donde ni , mj son vectores unitarios que especifican dos direcciones. En este caso la media esférica del tensor hT (ni , nj )i es el valor medio de T (ni , nj ) = Tij ni nj sobre la esfera unidad nl nl = 1. (B.44) Probar que la media esférica de Tij vale hT (ni , nj )i = 1 Tll , 3 (B.45) y que, por lo tanto, es un invariante frente a cambios ortogonales de coordenadas. Ejercicios del Apéndice B 91 Ejercicio B.4 Sea el tensor cartesiano simétrico Sij cuya matriz es 0 C 0 S = C 0 C , 0 C 0 (B.46) √ donde C = 12 2. Calcular los autovalores y los autovectores. Comprobar que los primeros valen λ(1) = −1, λ(2) = 0, λ(3) = 1, (B.47) mientras que los últimos nombrados son (1) 1 v 2 v(2) = C 1 v(3) 2 −C 0 C 1 2 −C . 1 2 (B.48) Verificar que los autovectores son ortogonales entre sí. Que la matriz formada con los autovectores es ortogonal. Que se puede diagonalizar S con una transformación de semejanza empleando la matriz de los autovectores.