PROPIEDADES DE TENSORES DE SEGUNDO RANGO

Anuncio
Apéndice B
APÉNDICE B: PROPIEDADES DE TENSORES DE SEGUNDO RANGO
B.1
Descomposición invariante del espacio ⊗2 E
El grupo O(n) de las transformaciones ortogonales divide el espacio vectorial de los tensores cartesianos de rango 2, T = ⊗2 E (E: espacio vectorial euclidiano de n dimensiones)
en tres subespacios vectoriales. Estos están formados por: a) el espacio de los tensores
isótropos, T (i) , también denominados esféricos; b) el espacio de los tensores simétricos
de traza nula, T (s) ; y c) el espacio de los tensores antisimétricos, T (a) . Cualquier matriz
ortogonal Q transforma estos subespacios en si mismos. El único elemento común es el
tensor nulo. Ninguno de estos subespacios posee otro subespacio propio (es decir, cerrado
para las operaciones de suma y producto por un escalar) que se transforme en si mismo
bajo la acción de Q. Esta descomposición de T en subespacios irreducibles e invariantes
respecto de O(n) es, por lo tanto, la mayor posible
T = T (i) ⊕ T (s) ⊕ T (a) .
(B.1)
El espacio T es la suma directa de los espacios compontes.
Escrita en componentes la descomposición de los tensores cartesianos resulta de
una identidad algebraica fácil de verificar
Tij =
1
1
1
2
Tll δ ij + (Tij + Tji − Tll δ ij ) + (Tij − Tji ),
n
2
n
2
(B.2)
donde Tll es la traza Tr (Tij ) del tensor. Se puede probar que la forma de esta descomposición de las componentes es independiente del sistema de coordenadas cartesianas.
B.2
Representación espectral de un tensor simétrico de rango 2
B.2.1 Ecuación de autovalores
Sea un tensor simétrico Sij = Sji , i, j = 1, 2, ..., n, cuya matriz n × n es S = ST . El
problema de los autovalores de S depende de la solucíon de
Su(α) = λ(α) u(α) ,
(B.3)
(α)
donde u(α) es un vector columna (n × 1, con componentes ul , l = 1, 2, ..., n) denominado autovector, λ(α) , llamado autovalor, es un número y la notación prevee la existencia
de n autovalores con sus respectivos autovectores, α = 1, 2, ..., n. Naturalmente B.3 es
equivalente a
u(α)T S = λ(α) u(α)T ,
(B.4)
(α)
donde v(α) = u(α)T es un vector fila (1 × n, cuyas componentes son vl
1, 2, ..., n). Escribiendo la B.3 como una ecuación secular
(S − λ(α) I)u(α) = 0
(α)
= ul , l =
(B.5)
(I: matriz identidad) reconocemos que se trata de un sistema de n ecuaciones algebraicas
(α)
lineales y homogéneas para las incógnitas ul , l = 1, 2, ..., n, que tiene solución no trivial,
(α)
ul 6= 0, si y sólo si
(B.6)
det(S − λ(α) I) = 0.
Representación espectral de un tensor simétrico de rango 2
87
Es fácil convencerse de que el desarrollo del determinante puede ordenarse en potencias
de λ(α) , generando un polinomio de grado n, denominado polinomio característico
det(S − λ(α) I) = Pn (λ) ≡ (−1)n λn + (−1)n−1 an−1 λn−1 + ... + a0
≡ (−1)n λn + (−1)n−1 Tr (S)λn−1 + ... + det(S) = 0,
(B.7)
donde el coeficiente an−1 = Tr (S) es la traza de S y a0 = det(S). Las n raices de Pn (λ)
determinan el conjunto de los autovalores λ(α) , α = 1, 2, ..., n, y para cada raiz podemos
(α)
calcular, a partir de B.5, por lo menos un autovector ul .
B.2.2 Invariancia del polinomio característico
Consideremos una transformación ortogonal con matriz Q, tal que aplicada a vectores
columna u,
(B.8)
u0 = Q u.
La matriz S asociada al tensor de componentes Sij se transforma según la fórmula de
semejanza
S0 = Q SQT .
(B.9)
La ecuación secular para S0 es
S0 u0 = λ0 u0
o sea,
det(S0 −λ0 I) = 0,
¤
£
0
P(n)
(λ0 ) = det Q (S − λI)QT = det(Q) det(QT ) det(S − λI)
= P(n) (λ).
(B.10)
(B.11)
Se infiere de esto que el polinomio característico permanece invariante en la transformación
y que los autovalores λ0 = λ son los mismos. Esto implica la existencia de n invariantes
asociados con las componentes de S: los coeficientes del polinomio característico, entre
los cuales están la traza y el determinante de S. Dado que
P(n) (λ) = (λ(1) − λ)(λ(2) − λ)...(λ(n) − λ) = 0,
(B.12)
es evidente que
Tr (S) = (−1)n−1 (λ(1) + λ(2) + ... + λ(n) ),
det(S) = λ(1) λ(2) ...λ(n) .
(B.13)
En tres dimensiones, además de Tr (S) y det(S) que son lineal y cúbico, respectivamente, en las componentes Sij , existe un invariante cuadrático, Cu (S), el cual equivale
a la suma de los tres menores asociados con los elementos diagonales S11 , S22 , S33 ,
¯
¯ ¯
¯ ¯
¯
¯ S22 S23 ¯ ¯ S11 S13 ¯ ¯ S11 S12 ¯
¯
¯
¯
¯
¯
¯.
+
+
(B.14)
Cu (S) = a1 = ¯
S32 S33 ¯ ¯ S31 S33 ¯ ¯ S21 S22 ¯
Resumiendo, en tres dimensiones las relaciones entre los autovalores y los invariantes son
Tr (S) = λ(1) + λ(2) + λ(3) , Cu (S) = λ(2) λ(3) + λ(1) λ(3) + λ(1) λ(2) , det(S) = λ(1) λ(2) λ(3) .
(B.15)
B.2.3 Realidad de los autovalores
Cuando Sij es simétrico sus autovalores son reales. Esta es una propiedad muy conocida,
que se prueba con las siguientes ecuaciones. Partimos de
Su = λu,
u∗T Su = λ |u|2 ,
|u|2 ≡ u∗T u,
(B.16)
donde u∗ indica que sus componentes son complejas conjugadas de u. Transponiendo y
conjugando la anterior
u∗T ST = λ∗ u∗T ,
u∗T Su = λ∗ |u|2 ,
(B.17)
luego de premultiplicar por u. Restando las dos últimas se obtiene
∗
(λ∗ − λ) |u|2 = 0,
de la cual se deduce la realidad: λ = λ.
(B.18)
Representación espectral de un tensor simétrico de rango 2
88
B.2.4 Ortogonalidad de los autovectores
Dos autovectores u(α) , u(β) asociados a dos autovalores distintos, λ(α) 6= λ(β) , son ortogonales, u(α)T u(β) = 0. Partimos de
Su(α) = λ(α) u(α) ,
Su(β) = λ(β) u(β) ,
(B.19)
y formamos los productos
u(β)T Su(α) = λ(α) (u(β)T u(α) ),
u(α)T Su(β) = λ(β) (u(α)T u(β) ).
(B.20)
Pero (u(β)T u(α) ) = (u(α)T u(β) ) puesto que representa el producto escalar de los vectores.
Transponiendo la segunda y restando la primera, en virtud de la simetría de S, se obtiene
(λ(β) − λ(α) )(u(β)T u(α) ) = 0.
(B.21)
De donde se concluye que si λ(α) 6= λ(β) , el producto escalar (u(α)T u(β) ) = 0 y los
autovectores son ortogonales. En lo que sigue vamos a suponer que los autovectores han
¯
¯2
sido normalizados, ¯u(α) ¯ ≡ u(α)∗T u(α) = 1.
B.2.5 Degeneración
Es posible que existan raíces múltiples de P(n) (λ). El caso en el cual dos autovalores
coinciden se llama degenerado. Supongamos que λ(α) = λ(β) = λ, y que u y v son
dos autovectores con el mismo λ. Si no fueran de entrada ortogonales, procedemos del
siguiente modo
Su = λu,
Sv = λv, ⇒ S(au + bv) = λ(au + bv),
(B.22)
es decir, Sw = λw, con w = au + bv. Por lo tanto u, v, generan un subespacio lineal,
en este caso de dos dimensiones y en general de dimensión equivalente a la multiplicidad
del autovalor. Puesto que uT v 6= 0, siempre podemos encontrar un w tal que uT w = 0
mediante la elección
a
uT v
(B.23)
=− 2.
b
|u|
Entonces, hay infinitos pares de vectores ortonormales (bases) en el subespacio asociado
con el autovalor repetido λ. Por lo tanto, se puede siempre construir un par de autovectores
ortogonales, sólo que no son únicos. Este argumento se puede extender al caso de una
mayor multiplicidad de las raíces.
B.2.6 La matriz particionada de autovectores
Una matriz cuyas componentes son a su vez matrices (submatrices) se denomina matriz
particionada. Las reglas de multiplicación de las matrices se aplican a las matrices particionadas cuando el producto de las respectivas submatrices tiene sentido (número de
filas igual al número de columnas de los factores que intervienen en la multiplicación).
Podemos formar la matriz particionada 1 × n de autovectores
U = [u(1) , u(2) , ..., u(n) ],
(B.24)
donde los u(α) son autovectores columna. La U se compone de n submatrices y es también
una matriz n × n que contiene todas las componentes de los autovectores de S.
Evidentemente
UT U = I,
(B.25)
puesto que, el producto de una matriz particionada n × 1 por otra 1 × n es una matriz
n × n y los autovectores, como sabemos, son ortogonales u(α)T u(β) = δ αβ (o han sido
ortogonalizados en el caso de raíces múltiples). Se verifica también que
UUT = I,
(B.26)
Representación espectral de un tensor simétrico de rango 2
89
porque, si bien el producto de una matriz particionada 1 × n por otra n × 1 es la matriz
particionada de un sólo elemento, 1 × 1, en este caso
P el elemento único resulta ser una
submatriz n × n, porque cada elemento de la suma α u(α) u(α)T es una matriz n × n con
todos los elementos cero, salvo el que corresponde a la posición α de la diagonal principal
que vale 1. Valen B.25, B.26 y, por lo tanto, U es una matriz ortogonal.
Analogamente, podemos escribir una matriz diagonal con los autovalores
Λ=diag(λ(1) , λ(2) , ..., λ(n) ),
(B.27)
como una matriz particionada mediante los vectores fila λi = [0, 0, ..., 1, ..., 0]λ(i) , en los
cuales todos los elementos son nulos excepto el correspondiente a la columna i-esima que
vale 1 (λ(i) es un escalar). Es decir, escribimos


λ1
 λ2 



(B.28)
Λ= 
 . ,
 . 
λn
y resulta
(1)
[u
(2)
,u
(n)
, ..., u



]


λ1
λ2
.
.
λn



 = u(1) λ1 + ... + u(n) λn = [λ(1) u(1) , ..., λ(n) u(n) ],


(B.29)
expresión que equivale al producto de las matrices UΛ. Por lo dicho, el conjunto de todas
las ecuaciones B.3 con α = 1, 2, ..., n se puede escribir en forma compacta como
SU = UΛ.
(B.30)
B.2.7 Diagonalización
El trabajo de escribir en forma sintética la ecuación secular para el conjunto completo de
los autovalores λ(α) tiene una recompensa: es ahora muy simple obtener el teorema de
diagonalización de S. En efecto,
(B.31)
UT SU = Λ.
De manera que empleando una transformación de semejanza mediante la matriz ortogonal
de autovectores se obtiene la forma diagonal de S
S0 = UT SU =diag(λ(1) , λ(2) , ..., λ(n) ),
(B.32)
fórmula que demuestra: (a) que los autovalores son las componentes del tensor cuando este
adquiere su forma diagonal, y (b) que en ese caso las direcciones de los ejes de coordenadas
están definidas por los autovectores.
En lugar de U se puede trabajar con
 (1) 
v
 v(2) 


,
(B.33)
V = UT = 
 .

 .

v(n)
(α)
(α)
(α)
donde v (α) = u(α)T = [u1 , u2 , ..., un ] son ahora vectores filas y llegar al mismo resultado final
(B.34)
VS =ΛV ⇒ S0 = VSVT =diag(λ(1) , λ(2) , ..., λ(n) ).
Ejercicios del Apéndice B
90
B.2.8 Teorema de Cayley-Hamilton
Como consecuencia del teorema de diagonalización es fácil probar que cuando se forma
el polinomio característico utilizando como argumento la matriz correspondiente, es decir
cuando se construye la función de matriz,
Pn (S) = (−1)n Sn + (−1)n−1 an−1 Sn−1 + ... + a0 ,
(B.35)
se obtiene la matriz nula
Pn (S) = 0.
(B.36)
En efecto, dado que cada término del polinomio es un coeficiente que multiplica una potencia de S, es evidente que S y Pn (S) se diagonalizan simultáneamente con la misma
transformación ortogonal. Cuando S es diagonal, también Pn (S) es diagonal y sus elementos diagonales valen Pn (λ), como es fácil ver. Pero Pn (λ) es invariante y Pn (λ) = 0,
de donde resulta el teorema de Cayley-Hamilton.
B.3
Ejercicios del Apéndice B
Ejercicio B.1 Probar que dos tensores cartesianos de rango dos S ,T , tienen los mismos
autovalores si y sólo si existe una transformación ortogonal Q tal que
T = QSQT .
(B.37)
Ejercicio B.2 Introducir dos tensores cartesianos de cuarto rango definidos por componentes como sigue
Sijpq ≡
1
(δ ij δ pq + δ iq δ jp ),
2
Aijpq ≡
1
(δ ij δ pq − δ iq δ jp ),
2
(B.38)
los cuales se denominan operadores de simetrización y antisimetrización, respectivamente. Considerar un tensor cartesiano arbitrario Tij de rango dos y calcular
T(ij) = Sijpq Tpq ,
T[ij] = Aijpq Tpq .
(B.39)
Comprobar las siguientes propiedades
T(ij) = T(ji) ,
T[ij] = −T[ji]
Tij = T(ij) + T[ij] .
(B.40)
Ejercicio B.3 a) Sea un vector cualquiera ui y un vector nl de módulo 1 que especifica
una dirección (las componentes nl son cosenos directores). La media esférica del
vector hU (nl )i se define como el valor medio de la función lineal
U (nl ) = ul nl ,
(B.41)
nl nl = 1.
(B.42)
sobre la esfera unidad
Probar que la media esférica de cualquier vector es cero, hU (nl )i = 0. b) Para un
tensor cartesiano de segundo rango Tij la función bilineal es
T (ni , mj ) = Tij ni mj
(B.43)
donde ni , mj son vectores unitarios que especifican dos direcciones. En este caso la
media esférica del tensor hT (ni , nj )i es el valor medio de T (ni , nj ) = Tij ni nj sobre
la esfera unidad
nl nl = 1.
(B.44)
Probar que la media esférica de Tij vale
hT (ni , nj )i =
1
Tll ,
3
(B.45)
y que, por lo tanto, es un invariante frente a cambios ortogonales de coordenadas.
Ejercicios del Apéndice B
91
Ejercicio B.4 Sea el tensor cartesiano simétrico Sij cuya matriz es


0 C 0
S = C 0 C ,
0 C 0
(B.46)
√
donde C = 12 2. Calcular los autovalores y los autovectores. Comprobar que los
primeros valen
λ(1) = −1, λ(2) = 0, λ(3) = 1,
(B.47)
mientras que los últimos nombrados son
 (1)   1
v
2
 v(2)  =  C
1
v(3)
2
−C
0
C
1
2

−C  .
1
2
(B.48)
Verificar que los autovectores son ortogonales entre sí. Que la matriz formada con
los autovectores es ortogonal. Que se puede diagonalizar S con una transformación
de semejanza empleando la matriz de los autovectores.
Descargar