´Algebra Multilineal sobre R

Anuncio
Álgebra Multilineal sobre R
Lección dos
álgebra multilineal de espacios euclideanos
por J.M. M.árquez-Bobadilla
CUCEI
Universidad de Guadalajara
álgebra multilineal en espacios de Euclides (espacios con métrica
o producto escalar)
-métrica
-matriz de Gram
-Lema de representación de Riesz
-subir y bajar los ı́ndices
-énfasis cambios de bases y cambios de componentes
-métrica inducida en el álgebra de Grassmann
-clasificación de formas cuadráticas
Espacios vectoriales con producto interior.
Sea V un espacio vectorial sobre los reales R generado por los objetos {b1 , b2 , ..., bn }.
Suponga que existe un producto interior en V i.e. hay un mapa
h ,
i:V ×V →R
el cual es bilineal, simétrico y positivo definido no degenerado: repectivamente
1. haX + cY, Zi = ahX, Zi + chY, Zi
2. hX, aY + cZi = ahX, Y i + chX, Zi
3. hX, Y i = hY, Zi
4. hX, Xi ≥ 0
5. hX, Xi = 0 si y sólo si X = 0
donde a, c son escalares reales y X, Y, Z vectores arbitarios en V .
El tensor métrico es la matriz

g11
 g21

G= .
 ..
g12
g22
gn1
···
···
..
.
g1n
g2n
..
.
gnn
1





donde gij = hbi , bj i.
La matriz inversa G−1 se llama cotensor métrico y sus entradas se indexan
G = [g ij ], por lo que al multiplicar G y G−1 se obtienen las relaciones
−1
δi j = gis g sj = gi1 g 1j + gi2 g 2j + · · · gin g nj
Lema de Representación de Riesz Sea f : V → R un covector en V
con producto interior h , i. Entonces existe un único vector a ∈ V el cual
determina a f , esto es:
f ( ) = ha, i
Para los covectores básicos β i resulta que el vector bi = g is bs (suma sobre s)
satisface
β i ( ) = hbi , i
pues si β i se aplica a el básico bt tenemos
β i (bt )
=
hbi , bt i
=
hg is bs , bt i
=
g is hbs , bt i
=
g is gst
=
δi t
por lo que aplicado a un vector X = X µ bµ arbitario tenemos
β i (X)
=
hbi , X µ bµ i
=
X µ hbi , bµ i
= X µ δi µ
= Xi
Los vectores b1 , b2 , ..., bn son linealmente independientes, forman también una base
para V y se llaman básicos reciprocos.
Siendo T (2,0) V el conjunto de los mapeos bilineales V ×V → R y si B ∈ T (2,0) V
entonces B = Bµν β µ ⊗ β ν .
En el conjunto T (0,2) V está el mapeo bilineal B̄ = B µν bµ ⊗ bν .
¯ = B ν βµ ⊗ b .
Y en T (1,1) V está B̄
µ
ν
Ahora si construimos los básicos reciprocos duales
βi = gis β s
2
vamos a poder calcular que
¯ (b , β ) = B
B(bs , bt ) = B̄(βs , βt ) = B̄
s
t
st
donde los componentes se relacionan mediante el cotensor métrico ası́:
B i j = Bsj g si
con suma sobre s, y
B ij = B i s g sj = Bst g si g tj
con suma sobre t y s, t respectivamente. O bien Bi j = B sj gsi y Bij = Bi s gsj .
Todas estas relaciones entre los componentes con respecto al tensor y cotensor
métricos reciben el nombre de leyes de subir y bajar ı́ndices.
Las formas tiene un producto interior también
Es posible inducir un producto interior en los espacios Λk V . Si A = Ai1 ...ik β i1 ∧
. . . ∧ β ik y C = Cj1 ...jk β j1 ∧ . . . ∧ β jk entonces
hA, Ci = g i1 j1 · · · g ik jk Ai1 ...ik Cj1 ...jk
Por ejemplo para 1-formas tenemos
g i 1 j 1 Ai 1 C j 1
hA, Ci =
= Ai 1 C i 1
que satisface los 5 axiomas de producto interior.
Pullback
Teniendo una transformación lineal L: V → W podemos construir por cada
forma en W otra forma en V . Pues si φ ∈ W ∗ = Λ1 V es decir φ: W → R es
covector en W entonces podemos construir otra transformación lineal φ◦L: V → R,
es decir φ ◦ L ∈ V ∗ = Λ1 V . Ası́ hemos definido una transformación lineal
L∗ : W ∗ → V ∗
vı́a
φ 7→ L∗ φ = φ ◦ L
la regla de asignación L∗ es el pullback de L.
Supongamos que V = h{b1 , ..., bn }i y W = h{c1 , ..., cm }i, ası́ tendremos que
Lbk = Ls k cs ,
3
(A)
es la forma en que las bases se relacionan.
¿Cómo se relacionan las base de covectores?
Sean V ∗ = h{β 1 , ..., β n }i y W = h{γ 1 , ..., γ m }i. Sean gij = hbi , bj i y hkl =
hck , cl i los componentes de los tensores métricos de V y W respectivamente.
Por lo que
L∗ γ i (bk )
= γ i ◦ L(bk )
= γ i (Lbk )
= γ i (Ls k cs )
= Ls k γ i (cs )
= Ls k γ i (cs )
= Ls k δ i s
= Li k
Pero también
Li t β t (bk )
= Li t δ t k
= Li k
Es decir
L∗ γ i (bk ) = Li t β t (bk )
para todo básico bk , por lo que las transformaciones son iguales, i.e.
L∗ γ i = Li t β t ,
(B)
lo que nos indica como se relacionan las bases duales de W, V respectivamente (cf.
(A) arriba).
Finalmente, si ϕ ∈ W ∗ este se expresa como ϕ = ϕµ γ µ y entonces
L∗ ϕ = ϕµ L∗ γ µ = ϕµ Lµ t β t
lo cual muestra que los componentes de L∗ ϕ son
ϕµ Lµ t
Ejercicios
4
L
M
1. Demuestre que si V → W → U es una composición de transformaciones
lineales, entonces el correspondiente diagrama de pullbacks es
M∗
L∗
U∗ → W∗ → V ∗
2. Escriba todo el ejercicio 1 en términos de componentes.
3. Si el covector ϕ ∈ W ∗ tiene una representación ϕ( ) = hξ, i y covector
L∗ ϕ ∈ V ∗ tiene L∗ ϕ( ) = hζ, i, con ξ ∈ W y ζ ∈ V , ¿Cuál es la relación
entre los componentes de L, ξ y ζ?
5
•§§ Cómo cambian los componentes de un tensor si cambiamos de
base
Si B : V → V es un cambio de base ci = Bbi entonces entre las correspondientes bases duales β j de bi y γ k de cl tenemos que B ∗ = B T :
Demostración:
Si B ∗ (γ j ) = αj entonces αj = γ j ◦ B y al evaluar estos covectores en la base
bl tenemos
αj (bl )
= γ j ◦ B(bl )
= γ j (Bbl )
= γ j (cl )
= δj l
es decir los αj hacen lo que las β j sobre los bi , por lo que αj = β j . Ası́ tenemos
que mientras B lleva bi 7→ ci entonces B ∗ hace γ j 7→ β j .
Ahora calculemos cuanto es el número: γ j (bi ).
B ∗ γ j (bi )
= γ j ◦ B(bi )
= γ j (Bbi )
= γ j (vi )
= δj i
pero también
γ j (Bbi )
=
γ j (B σ i bσ )
=
B σ i γ j (bσ)
=
B σ i Aj σ
=
Aj σ B σ i
por lo que Aj σ B σ i = δ j i , luego [A] = [B]−1 i.e.
Aj σ = (B −1 )j σ ,
A.I.B.I
Finalmente para encontrar la matriz de B ∗ , primero hacemos β j = B ∗ γ j =
j
(B )s γ s , lo que al evaluar en bi dará:
∗
j
β j (bi )
=
(B ∗ )s γ s (bi )
δj i
=
(B ∗ )s (B −1 )s i
j
6
pero multiplicando esta última relación con B i k tenemos
j
δj i B i k
=
(B ∗ )s (B −1 )s i B i k
Bj k
=
(B ∗ )s δ s k
=
(B ∗ )k
j
j
aquı́ en
B j k = (B ∗ )k
j
vemos que las filas de B ∗ son las columnas de B, y las columnas de B ∗ son las filas
de B por lo tanto [B ∗ ] = [B]T
Q.E.D.
7
§§ Tensores asociados. Leyes de subir y bajar ı́ndices
A continuación un resumen sinóptico de algunas relaciones entre tipos de tensores, el tensor métrico y las leyes de subir y bajar ı́ndices
§§§ Tensores asociados rango uno
dualidad y reciprocos:
β i (bj ) = δ i j
,
g is gsj = δ i j
,
gjs g si = δ i j
bi = g is bs
,
bi = gis bs
βi = gis β s
,
β i = g is βs
subir y bajar ı́ndices simultaneamente de componentes y bases
x = xs bs = xi δi s bs = xi git g ts bs = xt bt
f = fs β s = fi δ i s β s = fi g it gts β s = f t βt
f (x) = fs β s (xt bt ) = fs xt β s (bt ) = fs xt δ s t = fs xs
f (x) = f s βs (xt bt ) = f s xt gsr β r (bt ) = f s xt gsr δ r t = f s xt gst = f s xs = fs xs
evaluando en básicos:
β i (bj ) = β i (g sj bs ) = g sj β i (bs ) = g sj δ i s = g ij
βi (bj ) = gis β s (bj ) = gis β s (g tj bt ) = gis g tj β s (bt ) = gis g tj δ s t = gis g sj = δij
βi (bj ) = gis β s (bj ) = gis δ s j = gij
Los objetos β k ∧ β l se llaman bi-vectores básicos y se definene como
βk ∧ βl = βk ⊗ βl − βl ⊗ βk
también representan transformaciones bilineales V × V → R también representan
transformaciones bilineales V × V → R y evaluando en básicos tenemos
β k ∧ β l (bi , bj )
=
(β k ⊗ β l − β l ⊗ β k )(bi , bj )
=
β k ⊗ β l (bi , bj ) − β l ⊗ β k )(bi , bj )
=
δk i δl j − δl i δk j
8
proyectores:
β i (x) = β i (xj bj ) = xj δ i j = xi
βi (x) = βi (xj bj ) = gis xj β s (bj ) = gis xj δ i j = gis xi = xs
βi (x) = βi (xj bj ) = gis xj β s (bj ) = gis xj g sj = gis g sj xj = δi j xj = xi
§§§ Tensores asociados rango dos
9
Ejemplo:
2
1
• Sea R = gen b1 =
, b2 =
0
1
1
2 2
• y con métrica hv,
wi = v 1 w
+
v
w
el
usual producto punto
1 2
• y la matriz M =
determina una transformación bilineal
2 3
1 2
: R 2 × R2 → R
2 3
2
mediante la forma cuadrática
1 > v
1
>
(v, w) 7→ v M w =
v2
2
2
3
Entonces la matriz de Gram es [gij ] =
w1
w2
4
2
= v 1 w1 +2v 1 w2 +2v 2 w1 +3v 2 w2
2
2
com inverso [g ij ] =
por lo que los vectores recı́procos son
b1 =
1
1
b1 − b2 =
2
2
1
2
− 12
1
b2 = − b1 + b2 =
2
1
2
− 12
− 12
1
1
2
1
y ası́ la base dual está representada por
1
β (
β2(
)=h
)=h
Por otro lado vemos que
M (b1 , b1 ) = 2 0
M (b1 , b2 ) = 2 0
M (b2 , b1 ) = 1 1
M (b2 , b2 ) = 1 1
evaluando
en
1 2
2
2 3 0
1 2
1
2 3 1
1 2
2
2 3 0
1 2
1
2 3
1
∗
∗
Expresamos a M ∈ R2 ⊗ R2 que da
1
2
− 12
1
2
1
,
i
,
i
básicos
=4
=6
=6
=8
M = 4β 1 ⊗ β 1 + 6β 1 ⊗ β 2 + 6β 2 ⊗ β 1 + 8β 2 ⊗ β 2
Ahora queremos expresar a la misma transformación M pero inducida como
función bilineal
∗
• R2 ⊗ R2 −→ R2
10
∗
• R2 ⊗ R2 −→ R2
∗
∗
• R2 ⊗ R2 −→ R2
es decir, queremos ver como se ven las transformaciones bilineales asociadas
M ∈ R2 ⊗ R2
∗
M ∈ R2 ⊗ R
M ∈ R2 ⊗ R
Las respuesta se obtiene multiplicado M G−1 , G−1 M y G−1 M G−1 respectivamente por lo que para M = M s t bs ⊗ β t tenemos [M i j ] = [g ij ][Mij ] = [g ik Mkj ]
que para nuestro ejemplo es
1
1
− 12
1 2
− 2 − 21
2
=
2 3
1
2
− 12
1
Para M = M s t β s ⊗ bt es
1
1 2
2
2 3
− 12
Y para M = M st bs ⊗ bt es
1
− 12
1
2
2
− 12
1
2
3
− 12
1
1
2
− 12
=
− 12
1
——————————————————–
11
3
2
0
− 12
2
=
0
− 21
− 41
3
2
M
V × V >−→ R
(v, w) 7→ v M w
Mij = M (bi , bj )
M ∈V∗⊗V∗
M = Mst β s ⊗ β t
en la secuencia anterior vemos que M es un aplicación que ”come” dos vectores en el
espacio vectorial (euclidean) V y entrega un escalar. La expresión v > M w es el calculo
> 
m11
v1
 v 2   m21
 .   .
 ..   ..
mn1
vm

m12
m22
···
···
..
mn2
···
.
···
v1
m1n
m2n   v 2 
µ
ν


.. 
  ...  = v Mµν w
.
vn
mnn


check that the dimensions of the matrices are correct for multiplication and to get an
scalar.
M
V ∗ × V −→ R
(f, w) 7→ f M w
M i j = M (β i , bj )
M ∈V ⊗V∗
M = M s t bs ⊗ β t
M s t = g su Mut
G−1 M
ahora
> 
m1 1
f1
 f2   m2 1
 .   .
 ..   ..
mn 1
fn

m1 2
m2 2
···
···
..
···
.
···
——————————————————–
12
w1
m1 n
2
m n   w2 
µ
ν


.. 
  ...  = fµ M ν w
.
wn
n1 n


B1 = Bij β i ⊗ β j : V × V → R
= Bij β i ⊗ β j (bµ , bν )
B1 (bµ , bν )
= Bij β i (bµ )β j (bν )
= Bij δ i µ δ j ν
= Bµν
B2 = B ij bi ⊗ bj : V ∗ × V ∗ → R
B2 (β µ , β ν )
= B ij bi ⊗ bj (β µ , β ν )
= B ij β µ (bi )β ν (bj )
= B ij δ µ i δ ν j
= B µν
B2 (βµ , βν )
=
B ij bi ⊗ bj (gµs β s , gνt β t )
=
B ij gµs gνt bi ⊗ bj (β s , β t )
=
B ij gµs gνt β s (bi )β t (bj )
=
B ij gµs gνt δ s i δ t j
=
B ij gµi gνj
=
Bµ j gνj
=
Bµν
B 3 = B i j β i ⊗ bj : V × V ∗ → R
B3 (bµ , β ν )
B3 (bµ , βν )
=
Bi j β i ⊗ bj (bµ , β ν )
=
Bi j β i (bµ )β ν (bj )
=
Bi j δ i µ δ ν j
=
Bµ ν
=
Bi j β i ⊗ bj (bµ , gsν β s )
=
Bi j gsν β i (bµ )β s (bj )
=
Bi j gsν δ i µ δ s j
=
Bi j gjν δ i µ
=
Bµ j gjν
=
Bµν
13
B 4 = B i j bi ⊗ β j : V ∗ × V → R
B4 (β µ , bν ) =
§§§ Tensores asociados rango tres
g ij Ajkl = Ai kl
g 2j Ajkl = A2 kl
g 3k Ajkl = Aj 3 l
g ij Ajkl = Ai kl
g f l g hk g ij Ajkl = Aihf
g 2l g 4k g 3j Ajkl = A342
g kj Ajkl = Ak kl = A1 1l + A2 2l + · · ·
gvr B rst u = Bv st u
gws gvr B rst u = Bvw t u
gmt gws gvr B rst u = Bvwmu
g ij gkl grs gtu Ajp C lsu v = Ai p Ckrtv
g kj gkl grs gtu Ajp C lsu v = Ak p Ckrtv = A1 p C1rtv + A2 p C2rtv + · · ·
§§ Problemas

0 8 0 1
 10 9 0 1 

1. Si usamos la matriz 
 −1 π e 0  para determinar los componentes de
0 7 8 0
B = Bij β i ⊗ β j y si v = 5b1 − b2 + 8b4 tanto como w = −b1 + 3b2 − b3 + 9b4
entonces calcula B(v, w)


1 3 0 0
 3 10 0 0 

2. Si para la base {b1 , b2 , b3 , b4 } la matriz de Gram es 
 0 0 5 8  en0 0 8 13
tonces determina los componentes de los básicos reciprocos en términos de
los bi ’s

14
3. Calcula (β 1 ∧ β 2 + β 3 ∧ β 4 )(b1 + 2b2 + 3b3 + 4b4 , −b2 − b4 )
4. ¿Cuanto resulta de (5β 1 ∧ β 3 − 8β 2 ∧ β 4 )(b1 − b3 , −b2 + b4 )?
5.
6.
7.
8.
9.
———————————————–
§§ Example of inner-product with a non diagonal matrix
We are going to see an example of how a pairing

1
where [A] =  0
0
degenerated:
0
2
1
hv, wiA = v > [A]w

0
1 , gives a quadratic form definite positive and non
5
 1 

w
1 0 0
In general, hv, wiA = [v 1 , v 2 , v 3 ]  0 2 1   w2 , which is hv, wiA =
w3
0 1 5
3 2
3 3
v 1 w1 + 2v 2 w2 + v 2 w3 + v
w +
5v w
x
But for a generic u =  y  ∈ R3 we have hu, uiA = x2 + 2y 2 + 2yz + 5z 2
z
Now, if we question about the positivity of the previous expresion we gotta make
a change of basis in R3 in such a way the the matrix [A] gets is simpler form the
answer is related with a diagonalization process which achieve:
hu, uiA
= u> Au
=
(JJ −1 u)> A(JJ −1 u)
=
(J −1 u)> )J > AJ(J −1 u)
=
(J −1 u)> DJ −1 u
that is, J > AJ = D is a diagonal matrix. This is posible when we take J =
[v1 , v2 , v3 ] a 3 × 3-matrix with the eigen-vector vi of the matrix [A]
Av1 = λ1 v1 , lAv2 = λ2 v2 , Av3 = λ3 v3
Or matricialy A[v1 , v2 , v3 ] = [λ1 v1 , λ2 v2 , λ3 v3 ] which is the same as
15


λ1 0
0
AJ = J  0 λ2 0 
0
0 λ3
But J > J gonna be diagonal and positive too, so

 
λ1 0
0
µ1
J > AJ = J > J  0 λ2 0  =  0
0
0 λ3
0
0
µ2
0

0
0 =D
µ3
with µi > 0


1 0 0
√
√
So, for the matrix [A] =  0 2 1  gives λ1 = 1, λ2 = 7−2 13 , λ3 = 7+2 13
0 1 5
Once we see than the eigenvalues are positives the quadratic form is represented
hu, uiA = hJ−1 u, J −1 uiD 
µ1 0
0
= (J −1 u)>  0 µ2 0  J −1 u
0
0 µ3
= µ1 x2 + µ2 y 2 + µ3 z 2
Hence hu, uiA > 0 if and only if µ1 , µ2 , µ3 > 0
→
Clearly hu, uiA = 0 if and only if u = 0 .
(end of example)
16
Descargar