Capitulo 1 Concepto de variedad n

Anuncio
Capitulo 1
Concepto de variedad n-dimensional
§1. Introdución:
En este capitulo se trabajará el concepto de variedad diferenciable n-dimensional. Con el fin
de brindar una familia grande de ejemplos concretos y fáciles de visualizar para el estudiante
que apenas este comenzando su incursión por la geometria, trabajaremos paralelamente la
noción de subvariedad de Rn y de variedad abstracta. Una variedad n-dimensional puede
verse como la extensión natural de un subconjuno abierto de Rn , veremos que localmente,
toda variedad n-dimensional se puede describir con n parametros que se mueven libremente,
de la misma manera que sucede con los abierto en Rn .
Definición 1 de variedad: Definimos una variedad n dimensional como una pareja ordenada (M, {φα : Uα → M }α∈A ) donde M es un conjunto y las {φα : Uα → M }α∈A es una
familia de funciones inyectivas definidas en subconjuntos abiertos Uα de Rn , tal que
(1) ∪α φα (Uα ) = M
y
(2) Si para algún par de indices α y β se tiene que φα (Uα ) ∩ φβ (Uβ ) = W 6= ∅, entonces
−1
−1
los subconjuntos de Rn , φα
(W ) y φβ−1 (W ) son abietos y la función φβ−1 ◦ φα : φα
(W ) →
−1
φβ (W ) es una función diferenciable.
Definición 2 de variedad: Diremos que un subconjunto M ⊂ Rn es una subvariedad
m dimensional de Rn , si para cada punto p0 ∈ M existen n − m funciónes diferenciable
fi : V → R, definidas en un abierto V de Rn que contiene a p0 tales que
M ∩ V = {x ∈ V : f1 (x) = f1 (p0 ), . . . , fn−m (x) = fn−m (p0 )}
y
∇f1 (x), . . . ∇fn−m (x) son vectores linealmente independientes para todo x ∈ M ∩ V
Ejemplos: Denotemos el conjunto de matrices n × n por M (n × n). Denotemos por
O(n) = {A ∈ M (n × n) : AAT = I} el conjunto de matrices ortogonales y demostremos que
O(2) es una subvariedad 1 dimensional....
S n = {x ∈ Rn+1 : x21 + . . . + x2n+1 = 1},es una variedad n dimensional
El siguiente ejemplo muestra un poco el caracter local de la función que define a la variedad
M = {(x1 , x2 ) ∈ R2 : x21 + x22 = 1
o
x1 = 5} ....
Ejercicio: Demostrar que las matrices simétricas, antisimétricas, y ortogonales son sub2
variedades de Rn ≡ M (n × n). Hallar la dimensión.
Ejemplo: M = (−1, 1) ∪ { manzana }. Para i = 1, 2 definimos φi : (−1, 1) → M definidas
φ1 (t) = t, ...
Ejercicio: Hallar f : M → S 1 biyectiva tal que f ◦ φi (i = 1, 2) sean continuas.
1
Ejemplo: Sea RP n el conjunto de lineas en Rn+1 que pasan por el origen. Dado un punto
(x1 , . . . , xn+1 ) 6= 0 en Rn+1 , dentaremos por (x1 : x2 : . . . : xn+1 ) la linea {t(x1 , . . . , xn+1 ) :
t ∈ R}. Note que si λ 6= 0 entonces (x1 : x2 : . . . : xn+1 ) = (λx1 : λx2 : . . . : λxn+1 ). Para
i = 1, . . . , n + 1 definamos ....
Ejemplo: Dados dos enteros k y n con 0 < k < n, definamos G(n, k) el conjunto de
subespacios vectoriales k dimensionales de bf Rn. Note que RP n coincide con G(n + 1, 1).
Para todo i = 1 . . . ....? definamos...
Ejercicio: Demostrar que si (M, {φα : Uα → M }α∈A )) y (N, {ξβ : Uβ → N }β∈B ) son
variedades n y m dimensionales respectivamente, entonces, M × N con la familia de
parametrizaciones ηα,β : Uα × Vβ → M × N definidas por η(u, v) = (φα (u), ξβ (v)) es
una variedad n + m dimensional.
Definición: Sea (M, {φα : Uα → M }α∈A ) una variedad n dimensional. Diremos que una
función inyetiva φ : U → M definida en un abierto de Rn es una parametrización de
M si (M, {φα : Uα → M }α∈A ∪ {φ : U → M }) continua es una variedad, es decir si las
dos condiciones de la definición de variedad se siguen teniendo para esta nueva familia de
funciones.
Ejercicio: Demostrar que si V ⊂ Uα es un abierto de Rn entonces φ(u) = φα (u) es una
parametrización de M .
Definición: Sea M ⊂ Rn una subvariedad m-dimensional. Diremos que una función
inyectiva φ : U → M definida en un abierto de Rm es una parametrización de M , si la
matriz Dφ(u) tiene las columnas linealmente independientes para todo u ∈ U .
Topologı́a en variedades n dimensionales y en subvariedades de Rn .
Empezaremos esta sección dando la definición de topologı́a sobre un conjunto.
Definicion: Sea X un conjunto y P (X) el conjunto de todos los subconjuntos de X.
Diremos que un subconjunto τ de P (X) es una topologı́a de X, si X y pertenecen a τ , la
intercección finita de elementos de τ es de nuevo un elemento de τ y la unión arbitraria de
elementos en τ es de nuevo un elemento de τ .
Notación: Si τ es una topologı́a en X, llamaremos a la pareja (X, τ ) un espacio topologico
y los elementos de τ serán llamados abiertos.
Algunos ejemplos de topologı́a: Para cualquier conjunto X, τ1 = {X, } y τ2 = P (X),
son ejemplos de topoloı́as en X. Si τ es una topologı́a en X y Y ⊂ X es un subconjunto de
X entonces τ̄ = {A ∩ Y : A ∈ τ } es una topologı́a de Y ; esta topologı́a recibe el nombre de
topoloı́a en Y inducida por X.
Definición: Diremos que una espacio topologico (X, τ ) es un espacio topológico Hausdorff
si para cualquier par de puntos distintos x1 y x2 existen dos abiertos disjuntos V1 y V2 con la
propiedad de que x1 ∈ V1 y x2 ∈ V2 . También diremos que (X, τ ) es un espacio topológico
conexo, si no existen dos abiertos disjuntos A y B tales que X = A ∪ B.
Definición: Sean (X, τ1 ) y (Y, τ2 ) espacios topologicos. Diremos que una función f : X →
2
Y es una función continua, si para abierto V de Y , f −1 (V ) es un abierto de X. En el caso
en que f sea biyectiva, diremos que f es un homeomorfismo, si tanto f : X → Y como
f −1 : Y → X son funciones continuas.
La siguiente proposicion será de gran utilidad en el resto del capı́tulo,
Proposición: Sean (X, τ1 ) y (Y, τ2 ) espacios topologicos y f : X → Y una función continua
inyectiva. Si para todo y0 ∈ f (X) existe una función continua g : V → X donde V es un
abierto de Y que contiene a y0 tal que g(f (x)) = x para todo x ∈ f −1 (V ), entonces f define
un homeomorfismo de (X, τ1 ) a f (X) con la topologı́a inducida por Y .
Demostración: Ya que f es continua e inyectiva, basta demostrar que f envia abiertos
de X en abiertos de f (X). Sea U un abierto en X y consideremos un punto f (u0 ) ∈ f (U )
con u0 en U . Sea V un abierto de Y con f (u0 ) ∈ V y g : V → X una función continua que
satisface las hipotesis de la proposición, ya que U es abierto en X, tenemos que W = g −1 (U )
es un abierto en Y , un calculo directo muestra que W ∩ f (X) ⊂ f (U ) y por lo tanto f (U ) es
abierto, ya que para todo punto en f (U ), existe un abierto de f (X) totalmente contenido
en f (U ).
Para subvariedades M de Rn la topologı́a que tomaremos será la inducida por el espacio
ambiente, es decir un subconjunto A ⊂ M es un abierto si y solo si existe un abierto V de
Rn tal que A = M ∩ V . Para variedades en general definimos la topologı́a de la siguiente
forma.
Definición: Sea M una variedad n-dimensional. Diremos que un conjunto A ⊂ M es un
abierto de M si para cualquier parametrización φ : U → M de M se tiene que φ−1 (A) es
un subconjunto abierto de Rn .
Fácilmente se puede verificar que la colección de todos los subconjuntos abiertos de M
determina una topologı́a en M .
Ejercicio: Demostrar que si φ : U ⊂ Rn → M es una parametrizacion, entonces φ es una
función continua con la topologia en M inducida por las {φα }.
Ejemplos: MnH = (−1, 1) ∪ (2, 3]. Para i = 1, 2 definimos, φi : (−1, 1) → M por φ1 (t) = t
y φ2 (t) = 3 + t si −1 < t ≤ 0 y φ2 (t) = t si 0 < t < 1.
Mnp = R2 . Para cada x ∈ R, definimos φx : R1 → M por φx (y) = (x, y).
Ejercicio: Demuestre que (Mnp , {φx }x∈R1 ) no admite una base numerable.
Ejercicio: Demostrar que (MnH , {φ1 , φ2 }) es una variedad y la cual no es Hausdorff.
Teorema de la función inversa, Teorema de la función implicita y equivalencia
de los dos teoremas
Teorema: Para todo punto p0 en una subvariedad m dimensional M ⊂ Rn , existe una
parametrización φ : U ⊂ Rm → M ⊂ M tal que p0 ∈ φ(U ).
Demostración:
3
Ejercicio: Sea M ⊂ Rn una subvariedad de Rn y sea
A = {φ : U ⊂ Rm → M : φ es una parametrización}
Demuestre que (M, A) es una variedad. Más aún, demuestre que la topologia inducida por
Rn coincide con la topologia inducida por las parametrizaciones A.
Ejercicio: Sea M una subvariedad m dimensional de Rn . Demuestre que una función
inyectiva φ : U → M definida en un abierto de Rm es una parametrización, si y solo si
φ : U → M es una parametrización de la variedad (M, A) donde A esta definido en el
ejercicio anterior.
Ejercicio: Sea M una subvariedad m dimensional de Rn . Demuestre que la función
identidad id : M → M es un homeomorfismo de M con la topologı́a inducida por Rn a M
vista como variedad abstracta con el atlas A.
Definición de vector tangente en M ⊂ Rn
Ejemplo: Tp S n = {v ∈ Rn+1 : hv, pi = 0}
Teorema: Tp es un espacio vectorial m dimensional.
Corolario: Si f1 , . . . , fn−m : U ⊂ Rn → {R1 } son funciones que definen a M , entonces
Tp M = {v ∈ Rn : h∇fi (p), vi = 0
para todo i = 1, . . . , n − m}
Comentario: Derivada direccional hace ver los vectores como operadores.
Definición de función diferenciable
Ejercicio: Demuestre que la aplicación π : RP n → S n es diferenciable.
Definición de vector en una variedad
Teorema: Tp M es un espacio vectorial n-dimensional.
Ejercicio: Si p0 es un punto en φα (Uα ) ∩ φβ (Uβ ) hallar la matriz de cambio de base de
{∂1α , ∂2α , . . . , ∂nα } y {∂1β , ∂2β , . . . , ∂nβ }
Proposición para definir la diferencial de una función:
Teorema: Teorema de la función inversa para funciones entre variedades.
Immersiones y encajes
Definición de encaje e immmersion:
Pregunta: Cuando una curva diferenciable de (a, b) → R2 es una immersion?
4
Ejemplo: α(t) = (t3 , t2 ) no es una inmersión, a pesar de que la gráfica de esta curva tiene
un pico, la curva es diferenciable.
Pregunta: Cuando una función f : U → R3 es una immersión; U es un subconjunto
abierto de R2 ?.
Proposición: Todo inmersión es localmente un encaje.
Definición: Punto critico, valor critico y valor regular
Proposición: Si q ∈ M2 es un valor regular de la función f : M1 → M2 y f −1 (q) es
diferente del conjunto vacio, entonces f −1 (q) es una subvariedad n − m dimensional.
Ejercicio: Sea M = S 3 × S 2 y defina la función ξ : M → G(2, 4) como
ξ((x1 , x2 , x3 , x4 ), (y1 , y2 , y3 )) = {w ∈ R4 : hw, xi = 0, hw, y1 V1 (x)+y2 V2 (x)+y3 V3 (x)i = 0}
donde los Vi : S 3 → R4 ’s son funciones diferenciales tales que {x, V1 (x), V2 (x), V4 (x)}
forman una base ortonormal de R4 . Demostrar que ξ es diferenciable, sobreyectiva y que
todos los puntos en G(2, 4) son valores regulares de ξ. Calcular explicitamente ξ −1 (π) donde
π en un plano en G(2, 4).
Defibnnicion de Haz tangente:
Ejercicio: Demuestre que la aplicación π : T M → M definida por π(p, v) = p es una
función diferenciable. Más aún, todos los puntos de M son valores regulares de esta función.
Esta función π es llamada la proyección natural de T M en M .
Orientabilidad
Definición: Sea M una variedad n dimensional y sea α : [0, 1] → M una curva continua.
Un campo vectorial V a lo largo de α es una función que asigna a cada t ∈ [0, 1] un
vector en Tα(t) M . Diremos que V es continuo (o diferenciable), si la aplicacion φV : [0, 1] →
T M dada por φV (t) = (α(t), V (t)) es continua (o diferenciable). Diremos que n campos
vectoriales a lo largo de α, {V1 (t), . . . , Vn (t)} son un marco a lo largo de α si para cada
t ∈ [0, 1], los vectores {V1 (t), . . . , Vn (t)} forman una base para Tα(t) M . Diremos que una nupla (V1 (t), . . . , Vn (t)) es un marco ordenado a lo largo de la curva α, si {V1 (t), . . . , Vn (t)}
es un marco a lo largo de α.
Definición: Sea V un espacio vectorial n-dimensional y sea BV es conjunto de todas las
bases ordenadas de V . Diremos que dos elementos b1 = {v1 , . . . vn } y b2 = {w1 , . . . wn }
Pn
son equivalentes si al escribir wi =
j=1 aij vj se tiene que la matriz A = (aij ) tiene
determinante positivo. Si b1 y b2 son equivalentes, escribimos b1 ∼ b2 . Claramente ∼ define
una relación de equivalencia en BV y el conjunto B∼V tiene dos elementos. Los elementos de
BV
∼ son llamados orientaciones de V , es decir una orientación es una clase de equivalencia
de B∼V .
5
Ejemplo: En R3 tenemos que la orientacion dada por la base ((1, 0, 0), (0, 1, 0), (0, 0, 1)) es
la misma que la orientacion dada por la base ((1, 0, 0), (1, 1, 0), (1, 1, 1)) pero es diferente a
la orientación dada por la base ((0, 1, 0), (1, 0, 0), (0, 0, 1)). Es decir, si
01 = [((1, 0, 0), (0, 1, 0),(0, 0, 1))], 02 = [((1, 0, 0), (1, 1, 0), (1, 1, 1))]
y
03 = [((0, 1, 0), (1, 0, 0), (0, 0, 1))]
entonces, O1 = O2 y O1 6= O3 , más aún
BV
∼
= {O1 , O3 }.
Ejercicio: Teniendo en cuenta la definción anterior demostre que: (1) La matriz A es única
y tiene determinante distinto de cero, (2) ∼ es una relación de equivalencia y (3) B∼V tiene
dos elementos.
Estamos ahora listos para definir variedad orientable. Daremos 3 definiciones distintas y
demostraremos que estas definiciones son equivalentes.
Definición 1 de orientabilidad Diremos que M es no orientable si existe una curva cerrada continua α : [0, 1] → M con α(0) = α(1) = p0 y un marco ordenado (V1 (t), . . . , Vn (t)) a
lo largo de α tal que b1 = (V1 (0), . . . , Vn (0)) y b2 = (V1 (1), . . . , Vn (1)) determinan la misma
orientación en Tp0 M . Diremos que M es orientable, si M no es no orientable.
Definición 2 de orientabilidad Diremos que M es orientable, si existe una familia de
parametrizaciones {ξβ : Uβ → M }β∈B tal que
(1) ∪β∈B ξβ (Uβ ) = M
(2) El determinante de la matriz jacobiana de la funciones fβ̄,β = ξβ̄−1 ◦ ξβ es positivo cada
vez que la composición fβ̄,β se pueda definir.
Definición 3: Diremos que M es orientable, si existe una función definida en M tal que a
cada punto p ∈ M le asigna una orientación de Tp M de una manera continua, en el sentido
de que para cada p0 ∈ M existe una parametrización φ : U → M tal que p0 ∈ φ(U ) y
∂φ
f (φ(u)) = [( ∂φ
u1 (u), . . . , u1 (u))] para todo u ∈ U .
Teorema: Las tres definiciones de orientabilidad son equivalentes
Demostración: Empecemos demostrando que la definiciónes 2 y 3 son equivalentes. Supongamos que una variedad M es orientable bajo la definición 3. Sea F = {φα : Uα →
M }α∈A una familia de parametrizaciones que cubre toda la variedad tal que cada Uα es
conexo. Para cada α ∈ A definamos, φ̃α : Ũα → M donde
Ũα = {(u1 , u2 , . . . , um ) : (−u1 , u2 , . . . , um ) ∈ Uα } and φ̃α (u) = φα (−u1 , u2 , . . . , um )
Note que si definimos τ : Rm → Rm por τ (u) = (−u1 , u2 . . . , um ) entonces τ (U ) = Ũ y
φ̃ = φ ◦ τ . Es claro que φ̃α (Ũα ) = φα (Uα ) y la orientación inducida en Tp M con p = φ̃(u) =
φ(τ (u)) por la base ordenada,
6
{(
∂ φ̃α
∂ φ̃α
(u), . . . ,
(u))}
∂u1
∂um
es diferente de la orientación dada por la base
{(
∂φα
∂φα
(τ u), . . . ,
(τ u))}
∂u1
∂um
ya que todos los vectores coinciden excepto los primeros que difieren por un signo. Usando la familia de parametrizaciones F definiremos la siguiente familia la cual claramente
satisfacerá la condición de la definición 2. Para cada α ∈ A definiamos ξα = φα si
∂φα
α
˜
f (φ(u)) = [( ∂φ
∂u1 (u), . . . , ∂um (u))] y ξα = φα en el otro caso. Para demostrar que la
definición 2 implica la definición 3 basta tomar la familia de parametrizaciones que brinda
la definición 2 y definir f (p) como la orientacion dada por los vectores (∂1 , . . . , ∂n ) asociados
con una parametrización de la familia que cubra al punto p. La condicion sobre la familia
en la definición 2 de orientación garantiza que f esta bien definida. La continuidad de f
es evidente de su definición. Veamos ahora que la definición 3 de orientabilidad implica
la definición 1 de orientabilidad. Supongamos que existe una función f que asigna una
orientación en cada punto de la variedad como en la definición 3. Consideremos una curva
α : [0, 1] → M con α(0) = α(1) = p0 y (V1 (t), . . . , vn (t)) un marco ordenado continuo a los
largo de α. Por la continuidad de f se tiene que si f (p0 ) = [(V1 (0), . . . , vn (0))], entonces
f (α(t)) = [(V1 (t), . . . , vn (t))] y por lo tanto [(V1 (0), . . . , vn (0))] = [(V1 (1), . . . , vn (1))], de
la misma manera, si f (p0 ) 6= [(V1 (0), . . . , vn (0))], entonces f (α(t)) 6= [(V1 (t), . . . , vn (t))]
y por lo tanto [(V1 (0), . . . , vn (0))] = [(V1 (1), . . . , vn (1))]; por lo tanto M es orientable
con respecto a la definición 1. Por último demostremos que si M es orientable bajo la
definición 1, entonces debe ser orietable bajo la definición 3. Supongamos que M es orientable bajo la definición 1 y tomemos un punto p0 ∈ M y una base ordenada (v10 , . . . , vn0 )
de Tp0 M , para cada punto p ∈ M tomemos una curva α : [0, 1] → M que conecte a p0
con p y tomemos un marco ordenado (V1 (t), . . . , vn (t)) a lo largo de α de tal forma que
V1 (0) = v10 , . . . , Vn (0) = vn0 , luego definamos f (p) = [V( 1), . . . , vn (1)]. Se tiene que f esta
bien definida porque si no lo estubiese podriamos encontrar una curva cerrada y un marco
ordenado continuo a lo largo de esta curva tal que la orientación dada por este marco en
t = 0 es diferente de la orientación dada por el marco en t = 1, lo cual es una contradición
porque M es orientable bajo la definición 1. Este argumento termina la demostración del
teorema.
Campos vectoriales
Definición: Un campo vectorial X en una variedad n dimensional M , es una función que
asigna a cada punto p en M un vector en X(p) ∈ Tp M . Diremos que el campo vectorial X
es diferenciable, si para todo punto p0 existe una parametrización φ : U → M que cubre a
p0 tal que las funciones a1 , . . . , an definidas en U , dadas por la ecuación
X(φ(u)) = a1 (u)
∂φ
∂φ
(u)
(u) + . . . + an (u)
∂u1
∂un
7
son diferenciables.
Ejercicio: Sea X es un campo vectorial diferenciable en M . Demuestre que,
(a) La aplicación X̃ : M → T M dada por X̃(p) = (p, X(p)) es una función diferenciable.
(b) Si f : M → R es una función diferenciable, entonce la función Xf : M → R dada por
Xf (p) = dfp (X(p)) es una función diferenciable.
Note que en el sentido de la parte (b) del ejercicio anterior, un campo vectorial X puede ser
visto como un operador en el espacio de funciones diferenciales. El siguiente ejemplo muestra
que, en general, la composición de dos de estos operadores no es un operador que proviene
de un campo vectorial. Consideremos M = R2 = {(x, y) : x, y ∈ R} y X(p) = (1, 0) o lo
∂
que es equivalente X = ∂x
, en este caso la composición del operador X consigo mismo nos
2
∂
∂2
da el operador ∂x2 , Si el operador ∂x
2 proveniese de un campo vectorial entonces podria
∂
∂
escribirse como Z(x, y) = a(x, y) ∂x
+ b(x, y) ∂y
pero claramente esto no es cierto, para verlo
2
basta observar que si f : R → R esta definida por f (x, y) = x2 entonces Zf (0, 0) = 0 y
XXf (0, 0) = 2. Una observación que resulta muy util en el estudio de variedades es que
si tomamos dos campos vectoriales diferenciales X y Y en una variedad M , entonces el
operador que se obtiene al commutar la composición de los operadores asociados con X
y con Y , es decir, al tomar el operardor f → XY f − Y Xf este operador proviene de un
campo vectorial el cual será llamda el braket de X con Y y denotado por [X, Y ]. Más
precisamente tenemos,
Lemma: Si X y Y son dos campos vectoriales diferenciales en una variedad n dimensional
M , entonces existe un único campo vectorial diferenciable Z tal que Zf = XY f − Y Xf
para toda función diferenciable f : M → R
Demostración: La unicidad se tiene porque un vector esta completamente determinado
por la forma como actua sobre las funciones. Para demostrar la existencia para cada p0 en
M tomemos una parametrización φ : U → M que cubra a p0 y escribamos
X(φ(u)) = a1 (u)
∂φ
∂φ
∂φ
∂φ
(u) + . . . + an (u)
(u) , Y (φ(u)) = b1 (u)
(u) + . . . + bn (u)
(u)
∂u1
∂un
∂u1
∂un
y definamos el campo vectorial Z en todo φ(U ), (en particular en p0 ) por
Z(φ(u)) =
n
X
i=1
(ai
n
X
∂a1 ∂φ
∂an ∂φ
∂b1
∂bn
− bi
− bi
)
(u) + . . . +
(ai
)
(u)
∂ui
∂ui ∂u1
∂u
∂u
∂u
i
i
n
i=1
entonces se puede demostrar que efectivamente Zf = XY f − Y Xf para toda función
definida en φ(U ). Claramente el campo vectorial Z es diferenciable y el hecho de que este
bien definido se sigue porque el valor de Z en un punto no depende de la parametrización
escogida porque esta completamente determinado por X y Y ya que Zf = XY f − Y Xf
para todo función f .
8
Proposición: Propiedades del Braket
Teorema: (Existencia y unicidad de curvas intergrales para campos vectoriales
en M
Mencionar el teorema de Frobenius Dar la definición de distribución y explicar como
el braket mide que tanto falla una distribucion de ser completamente integrable.
Métricas riemanianas y tensores
Sean α1 , α2 : [a, b] → Rn dos curvas diferenciables, supongamos que estas curvas se interceptan en el punto p = α1 (t1 ) = α2 (t2 ) ∈ Rn . Dados dos vectores v = (v1 , . . . , vn ) y
w = (w1 , . . . , wn ), denotaremos el producto interno euclidiana entre v y w como hv, wi, es
decir hv, wi
pv1 w1 + . . . + vn wn . Es bien conocido que la longitud de la curva α1 viene
R b=
dada por a hα̇1 (t), α̇1 (t)idt y que el ángulo θ que forman estas dos curvas en el punto p
donde se interceptan lo podemos encontrar despejando θ de la ecuación
p
p
hα̇1 (t1 ), α̇1 (t1 )i hα̇2 (t2 ), α̇2 (t2 )i cos θ = hα̇1 (t1 ), α̇2 (t2 )i
Recordemos que un producto interno en un espacio vectorial V es una aplicación bilineal
g : V × V → R simetrica definida positiva, es decir, g(v, w) = g(w, v) para todo par de
vectores v y w en V y g(v, v) > 0 para todo vector v ∈ V diferente del vector nulo.
Viendo las ecuaciones para calcular longitudes de curvas y angulo entre vectores nos damos
cuenta que lo único que se necesita para extender estas definiciones es tener un producto
interno definido en cada punto de Rn y no es necesario que este sea el mismo para cada
punto (como ocurre en el caso de la geometrı́a euclidiana). Esta idea de definir un producto
interno en cada punto conduce a la noción de variedad Riemanniana,
Definición: Sea M una variedad n dimensional. Diremos que g es una métrice riemanniana,
si g es una función que asigna a cada punto p ∈ M un producto interno g(p) : Tp M ×Tp M →
R. Como es de esperarse se pedirá que este producto interno varı́e continuamente con p,
esto lo hacemos pidiendo que para cualquier parametrización φ : U ⊂ Rn → M se tenga que
∂φ ∂φ
los las funciones en U definidas por gij (u) = g(φ(u))( ∂u
) sean funciones diferenciables
,
i ∂uj
para todo i, j ∈ {1, . . . , n}
Definición: Una variedad M en la que se ha definido una métrica riemanniana será llamada
una variedad riemanniana.
Una vez tenemos una métrica riemanniana definida en una variedad M , podemos copiar la
definición de longitud de curvas y de angulo entre vectores de la geometrı́a euclidiana,
Definición:
R b p Dada una curva diferenciable α : [a, b] → M definimos su longitud l(α) como
l(α) = a g(α(t))(α̇(t), α̇(t))dt
9
También podemos
definirpel ángulo entre dos vectores no nulos v, w ∈ Tp M como el único θ ∈
p
[0, π] tal que g(p)(v, v) g(p)(w, w) cos θ = g(p)(v, w). Claramente, cuando g(p)(v, w) = 0
tomaremos θ = 0 si v = λw y λ > 0 y θ = π si v = λw y λ < 0. En esta definición se
esta haciendo uso del siguiente resultado de álgebra lineal conocido como la desigualdad de
Cauchy-Schwartz
Lemma Si g : V × V → R es un producto interno en un espacio vectorial V , entonces para
todo v, w ∈ V se tiene que g(v, w)2 ≤ g(v, v)g(w, w). Más aún, para un par de vectores no
nulos v, w ∈ V , se tiene que g(v, w)2 = g(v, v)g(w, w) si y solo si w = λv para algún λ ∈ R.
Demostración: Tomemos v, w ∈ V dos vectores no nulos. Claramente la función cuadractica h : R → R definida por
h(t) = g(w + tv, w + tw) = g(w, w) + 2g(w, v)t + g(v, v)t2
satisface que h(t) ≥ 0 para todo t ∈ R. Por lo tanto, h debe tener a lo mas una raiz real,
usando la formula cuadrática concluimos que necesariamente se debe tener que 4g(w, v)2 −
4g(w, w)g(v, v) ≤ 0, esta desigualdad demuestra la primera parte del lema (note que en
caso de que uno de los vectores es el vector cero, entonces el lema es trivial). Para la
segunda parte del lema, tenemos que: si g(v, w)2 = g(v, v)g(w, w), entonces la función h
tiene una raiz real, es decir, existe λ ∈ R tal que h(t0 ) = g(w + t0 v, w + t0 v) = 0, usando las
propiedades de g concluimos que necesariamente w + t0 v debe anularse, es decir, w = λv
tomando λ = −t0 . Reciprocamente, si w = λv, entonces la función cuadratica h tendrı́a
como única raiz a t0 = −λ, luego, necesariamente debe tenerse que g(v, w)2 = g(v, v)g(w, w)
Ejemplo 1: g es una métrica riemanniana en M = Rn si y sólo si g(x)(v, w) = hw, A(x)wi
2
para todo v, w ∈ Tx M = Rn , donde A : Rn → Rn es una función diferenciable tal que
parta todo x ∈ Rn , A(x) es una matriz simétrica con todos sus valores propios positivos.
Ejercicio: Sea M = R2 y sea g la métrica riemanniana dada por la formula
g(x1 , x2 )((v1 , v2 ), (w1 , w2 )) =
4
(v1 w1 + v2 w2 ) ∀x ∈ M and v, w ∈ T(x1 ,x2 ) M
(1 + x21 + x22 )
a) Determine la función de R2 al conjunto de matrices cuadradas 2 por 2 a la cual se hace
referencia en el ejemplo 1.
b) Definamos α1 (t) = 2(cos t, sin t) para todo t ∈ [o, 2π] y α2 (t) = (0, t) para todo t ∈ [−2, 2].
Calcule la longitud de α1 y α2 usando la métrica g.
c) Calcule los puntos donde se interceptan α1 y α2 y determine el ángulo que forman las
curvas en estos puntos.
d) Hacer la parte a), b) y c) usando la metrica g̃ donde,
10
g̃(x1 , x2 )(v, w) =
(2v1 w1 + v1 w2 + w1 v2 + 2v2 w2 )
∀x ∈ M and v, w ∈ T(x1 ,x2 ) M
(x2 + 1)
Verifique que efetivamente la matriz A(x1 , x2 ) tiene sus valores propios positivos. Dejar la
respuesta en termino de integrales.
De la misma forma como se define una metrica riemanniana se puede definir un tensor. La
idea de un tensor es la de asociar a cada punto p en una variedad M un objeto algebraico y
lineal relacionado con Tp M . En este capitulo solo consideraremos cuando estos objetos son
aplicaciones multilineales de Tp M en R, Pero podrı́a ser tranformaliones lineales de Tp M
en Tp M , o tranformaciones lineales de Λ2 Tp M → Λ2 Tp M donde Λ2 Tp M es el espacio de
aplicaciones bilineales alternantes sobre Tp M por ejemplo, como ocurre en con el tensor de
curvatura que será estudiado despues.
En general, estos tensores van a servir para poner mas estructura sobre las variedades o
para el estudio de las mismas. Ellos son muy utilizados por los fı́sicos ya que los tensores
pueden modelar propiedades "sofisticadas” de la materia.
Empecemos dando la definición formal de Tensor y una proposición que nos permitirá de
una manera sencilla dar varios ejemplos de tensores.
Definición: Diremos que un tensor T de tipo (k, 0) sobre una variedad M n dimensional,
es una función que a cada punto p ∈ M le asigna una aplicación k lineal T (p) en Tp M , es
decir para cada p ∈ M
T (p) : Tp M × . . . × Tp M → R
de una manera diferenciable en el sentido en que para todo p0 ∈ M , y toda parametrización
φ : U → M que cubra a p0 , se tiene que las nk funciones Ti1 ,...,ik : U → R con ij ∈ {1, . . . , n}
definidas por
Ti1 ,...,ik (u) = T (φ(u))(
∂φ
∂φ
(u), . . . ,
(u))
∂ui1
∂uik
son diferenciables.
Ejemplos: Si (M, g) es una variedad riemanniana y X1 , . . . , Xk son campos vectoriales
en M , definimos el tensor de orden k ωX1 ,...,Xk como
ωx1 ,...,Xk (p)(v1 , . . . , vk ) = g(p)(X1 (p), v1 ) · · · g(p)(Xk (p), vk )
vi ∈ Tp M
Ejemplo: (Producto tensorial) Si T es un tensor de orden k y S es un tensor de orden
r denimos el tensor de orden k + r, T ⊗ S por
11
T ⊗ S(p)(v1 , . . . , vk , w1 , . . . , wr ) = T (p)(v1 , . . . , vk )S(p)(w1 , . . . , wk )
vi , wj ∈ Tp M
El tensor T ⊗ S es llamado el producto tensorial de T y S, Note que el producto tensorial
es asociativo pero no conmutativo. Note tambien, con respecto al ejemplo anterior, que
ωX1 ,...,Xk = ωX1 ⊗ · · · ⊗ ωXk
Ejemplo: (la diferencial de una función) Si f : M → R es una función diferenciable,
entonces la diferencial de f define un (1, 0) tensor ya que para todo p ∈ M , df (p) : Tp M → R
es una aplicación lineal.
Ejemplo: Si σ : {1, . . . , k} → {1, . . . , k} es una función biyectiva, es decir si σ pertenece al
grupo de permutaciones de k elementos Sn , y T es un tensor de orden k, entonces definimos
el tensor de orden k, σT por
σT (p)(v1 , . . . , vk ) = T (vσ(1) , . . . , vσ(k) )
vi ∈ Tp M
Lema: Dado un abierto U ⊂ M existe abierto V ⊂ U tal que V̄ ⊂ U y una función
f : M → R tal que f (x) > 0 para todo x ∈ V y f (x) = 0 para todo x ∈
/ U . Más aún dado
un punto p0 ∈ U y una constante positiva c, podemos escojer f tal f (p0 ) = c.
Proposición: Sea M una variedad, χ(M ) el espacio de campos vectoriales diferenciables
en M y C ∞ (M ) el espacio de funciones diferenciables. Si T : χ(M ) × . . . × χ(M ) → C ∞ (M )
es una aplicación k-lineal, tal que para todo función diferencial f se tiene que
T (X1 , . . . , Xi−1 , f Xi , Xi+1 , . . . , Xk ) = f T (X1 , . . . , Xi−1 , Xi , Xi+1 , . . . , Xk )
entonces T (p) : Tp M × Tp M → R definido por T (p)(v1 , . . . , vk ) = T (V1 , . . . , Vk )(p) donde
Vi ∈ χ(M ) son campos vectoriales tales que Vi (p) = vi está bien definido y determina un
tensor de tipo (k, 0).
Demostración:
Consideremos una parametrización φ : B0 (2) → M definida en la bola abierta con centro
en el origen y radio 2, tal que φ(0) = p0 . Definamos la función f : M → R definida por
f (m) = 0 si m 6∈ φ(B0 (1)) y tal que f˜ = f (φ(u)) = f˜ donde
|u|2
f˜(u) = e |u|2 −1
si |u| < 1 y
f˜(u) = 0
si |u| ≥ 1
Claramente f es diferenciable en todo M , es decir, f ∈ C ∞ (M ) Note que además, se tiene
que f (p0 ) = 1. Definamos también por Xi los campos vectoriales en φ(B0 (2)) dados por la
∂φ
(u). Para demostrar que T (p) esta bien definida,
parametrización, es decir, Xi (φ(u)) = ∂u
i
basta demostrar que si Wi son campos vectoriales en χ(M ) tales que Wi (p0 ) = Vi (p0 ) = vi ,
12
entonces T (W1 , . . . , Wk )(p0 ) = T (V1 , . . . , Vk )(p0 ). Ya que los campos vectoriales Vi y Wi
son diferenciables, existen funciones diferenciables ãij y b̃ij definidas en B0 (2) tales que
Vi (φ(u)) =
n
X
ãij (u)Xj (φ(u))
and Wi (φ(u)) =
j=1
n
X
b̃ij (u)Xj (φ(u))
j=1
Ya que Vi (p0 ) = Wi (p0 ), entonces ãij (0) = b̃ij (0) para todo i ∈ {1, . . . k} y j ∈ {1, . . . , n}.
Definamos los campos vectores Yi ∈ χ(M ) por Yi (p) = 0 si p ∈ φ(B0 (2)) y Yi (p) =
f (p)Xi (p), aij : M → R como la funcion que se anula fuera de φ(B0 (2)) y que satisfacen que
aij (φ(u)) = f˜ãij para todo u ∈ φ(B0 (2)), claramente las funciones aij son diferenciables.
Analogamente definiremos las funciones bij : M → R. Note que aij (p0 ) = bij (p0 ).
Por la propidades del la aplicación T tenemos que
T (V1 , . . . , Vk )(p0 ) = f 2k (p0 )T (V1 , . . . , Vk )(p0 )
= T (f 2 V1 , . . . , f 2 Vk )(p0 )
n
n
X
X
= T(
a1j Yj , . . . ,
akj Yj )(p0 )
j=1
=
=
n
X
j1 ,...,jk =1
n
X
j=1
a1j1 (p0 ) · · · akjk (p0 )T (Y1 , . . . , Yk )(p0 )
b1j1 (p0 ) · · · bkjk (p0 )T (Y1 , . . . , Yk )(p0 )
j1 ,...,jk =1
T (W1 , . . . , Wk )(p0 )
Luego T (p) está bien definido y T determina un tensor.
Definición de pullback y de contraccion de un tensor.
Definición de una k forma diferencial
Definición ( de ω1 ∧ · · · ∧ ωk donde ωi son 1 formas)
Definición (de dω cuando ω es una 1 forma.
Ejercicio: Demuestre que si f : M → N es una función diferenciable, entonces f ∗ (ω1 ∧
· · · ∧ ωk ) = f ∗ ω1 ∧ · · · ∧ f ∗ ωk . También demuestre que f ∗ (dω) = d(f ∗ ω). Los ω 0 s son 1
formas en N .
El gradiante de una función definida en una variedad riemanniana
Para definir el gradiante basta tener en cuenta el siguiente lema.
Lema: Si {v1 , . . . , vn } es una base de Tp M entonces la matriz aij = g(p)(vi , vj ) es invertible.
Más aún, dado una aplicacion lineal ξ : Tp M → R, existe un único vector v ∈ Tp M
13
tal que ξ(w) = g(p)(v, w) para todo w ∈ Tp M . El vector v puede escribirse como v =
c1 v1 + . . . + cn vn donde c(c1 , . . . , cn )T = A−1 b donde b = (ξ(v1 ), . . . , ξ(vn ))T .
Demostración:
Definicion de gradiante de una función
Proposición: Sea (N, g) una variedad riemanniana y M ⊂ N una subvariedad. Supongamos que M tiene la métrica riemanniana inducida por la metrica g. Si f : M → R es la
restricción de una función F : N → R, entonces ∇f (p) es la proyección ortogonal del vector
∇F (p) en el subespacio Tp M .
Proposición: Sea M es una subvariedad de Rn dotada de la métrica riemanniana inducida
por la métrica Euclidiana en Rn . Si F : M → R una función diferenciable. y f : M → R
es la función definda por f (m) = F (m) para todo m ∈ M entonces
∇f (m) = proyección ortoganal de ∇F (m) en el espacio Tp M
Ejemplo: Funciones linales restringidas a una hivervariedad de Rn .
Ejemplo: (Multiplicadores de Lagrange)
Ejemplo: Valores propios de una matriz simétrica.
Comparar con operadores elipticos en una variedad compacta.
Conexiones Afines y Conexion de Levi-Civita
La idea de una conexion en una variedad riemanniana es la de poder definir la derivada
de un campo vectorial en la dirección de un vector determinado. Para campos vectoriales
en Rn esto lo podemos hacer de una manera natural, definiendo para un campo vectorial
X : Rn → Rn y un vector v en Rn = Tp Rn
1
(X(p + tv) − X(p)) = DX(p)v
h→0 h
∇v X(p) = lim
La dificultad en tratar de implementar la misma idea para un campo vectorial X en una
variedad M es que en general si tomamos un vector v ∈ Tp M y una curva α(t) en M tal
que α(0) = p y α0 (0) = v entonces la diferencia X(α(t)) − X(p) no tiene sentido porque los
vectores X(α(t)) y X(p) están en espacios vectoriales difererentes y por lo tanto la resta de
estos vectores no esta definida. La razón por la cual esta resta es posible en Rn es porque
todos los espacios tangentes Tp Rn se pueden identificar. En el transcurso de esta sección
veremos como el concepto de conexion nos permitirá identificar dos espacios tangentes que
están unidos por una curva, en cierta forma la conexión nos permite conectar los vectores
de Tp M con los vectores de Tq M por medio de una curva que una a p con q, de aquı́
14
el nombre de conexión para esta forma de derivar campos vectoriales a lo largo de una
dirección.
Definición De Conexión
Ejemplo: Explicar las posibles conexiones en Rn .
Lema:Si Z(p0 ) = X(p0 ), entonces ∇X Y (p0 ) = ∇Z Y (p0 )
Demostración: Basta observar que si consideramos T : χ(M ) × χ(M ) → C ∞ (M ) como la
aplicación dada por T (X, W ) = h∇X Y, W i, entonces por las propiedades de la conexion se
tiene que T define un tensor de order (2, 0), y por lo tanto para todo w ∈ Tp0 M se tiene que
h∇X Y (p0 ), wi = T (X(p0 ), w) = T (Z(0), w) = h∇Z Y (p0 ), wi. Estas igualdades implican el
lema.
Lema: Si Y se anula en una vecindad de p0 entonces ∇X Y (p0 ) = 0
Sea U un abierto del punto p0 en donde el campo vectorial Y se anula, y definamos una
función f : M → R tal que f (x) = 0 para todo x ∈
/ U y f (p0 ) = 1. Luego el campo vectorial
Z = f Y se anula es identicamente cero y por lo tanto
0 = ∇X Z(p0 ) = X(f )(p0 )Y (p0 ) + f (p0 )∇X Y (p0 ) = ∇X Y (p0 )
Lema: Dado un abierto U ⊂ M y un punto p0 ∈ U existe abierto V ⊂ U con p0 ∈ U , tal
que V̄ ⊂ U , y una función f : M → R tal que f (x) ≥ 0 para todo x ∈ M , f (x) = 1 para
todo x ∈ V y f (x) = 0 para todo x ∈
/ U.
Antes de hacer la demostración, mencionar el caso M = R y su demostración.
Lemma: Si X es un campo vectorial en un comjunto abierto U y p0 ∈ U , entonces existe
un¬ subconjunto abierto V ⊂ U y un campo vectorial X̃ en definido en todo M , tal que
X̃ ¬U = X.
Lema: Dado un abierto U de M , existe un única conexion ∇U : χ(U ) × χ(U ) → χ(U )
tal que ∇U
X Y (p) = ∇X̃ Ỹ (p)
¬ para todo¬ p ∈ U cada vez que X̃ y Ỹ sean campos vectoriales
definidos en todo M y X̃ ¬U = X y Ỹ ¬U = Y
Demostración:
Proposición: Para todo conjunto abierto U de M se puede definir una única ∇ : χ(U¬ ) ×
χ(U ) → χ(U ) tal que ∇X Y (p) = ∇X̃ Ỹ (p) para todo p ∈ U , siempre que X = X̃ ¬U y
¬
Y = Ỹ ¬U donde X̃ y Ỹ son campos vectoriales en M .
Definición: Simbolos de Christofell.
Definición y Proposición: Derivada covariante a lo largo de una curva.
Definición de transporte paralelo.
Ejemplo. Rn con la conexion de levi civita
15
Proposición: Existe una única conexión de simétrica y compatible con la métrica
Ejemplo: R2+ con la métrica
1
y 2 δij
Proposición: Si ∇ : χ(M )×χ(M ) → χ(M ) es la conexión de Levi - Civita y α : [a, b] → M
es una curva en M entonces
dhV (t), W (t)i
DV
DW
=h
(t), W (t)i + h
(t), V (t)i
dt
dt
dt
para todo par de campos vectoriales V y W a lo largo de la curva α.
Demostración
Proposición La conexión de Levi - Civita es invariante bajo isometrias.
Ejemplo El cono.
Proposición: sobre la conexión de Levi - Civita de una inmersion isometrica
Ejemplo: Transporte paralelo sobre circunferencias de radio 1.
Ejemplos.
16
Ejercicios
1. Sea ηn la matriz cuadrada n × n diagonal cuya entrada (1, 1) es −1 y las demas entradas
en la diagonal son 1. Demuestre que el conjunto
M = {A ∈ M3×3 : Aη3 AT = η3 }
Es un variedad y describa TI M donde I es la matriz identidad.
2. Demuestre que
G(2, 3) = {π ⊂ R3 : π es un plano en R3 que pasa por el origen}
es una variedad.
3. Sea S 2 = {x ∈ R3 : |x|2 = 1}. Demuestre que T S 2 = {x, v) : |x|2 = 1,
una variedad y encuentre una base para T(1,0,0,0,0,0) T S 2 .
hx, vi = 0} es
4. Sean S 2 y T S 2 como en el ejercicio anterior.
a. Demuestre que φ : S 2 → T S 2 dada por φ(x) = (x, 0) para todo x ∈ S 2 es una immersion.
b. Sea π : T S 2 → S 2 dada por π(x, v) = x para todo (x, v) ∈ T S 2 . Demuestre que
cualquier x ∈ S 2 es un valor regular de π y calcule π −1 (x).
c. Definamos las siguientes funciones fi : S 2 → R
f1 (x) = x1 ,
f2 (x) = x21 ,
f3 (x) = sin x2
Halle los puntos criticos de f1 , f2 y f3 .
d. Definamos las siguientes funciones fi : T S 2 → R
f1 (x) = x1 + v2 ,
f2 (x) = v2 ,
f3 (x) = x21
Halle los puntos criticos de f1 , f2 y f3 .
5. a. Demostrar que RP 2 no es orientable.
b. Demuestre que si c ∈ R es un valor regular de f : R3 → R, entonces f −1 (c) es una
variedad orientable.
6. Considere las métricas en S 2 y T S 2 inducidas por las métricas euclidianas en R3 y en
R6 respectivamente. Halle el gradiante de las funciones fi definidas en el ejercicio 4.
17
7. Halle el bracket de los campos vectoriales ∇f1 y ∇f2 para las funciones f1 , f2 : S 2 → R
definidas en el ejercicio 4.
8. Sea S 3 = {x ∈ R4 : |x|2 = 1}. Defina Vi : S 3 → R4 por V1 (x) = (−x2 , x1 , −x4 , x3 ) y
V2 (x) = (−x3 , x4 , x1 , −x2 ). Verifique que V1 y V2 son campos vectoriales tangentes en S 3 y
calcule [V1 , V2 ]
9. a. Demuestre que S13 = {x ∈ R4 : hx, η4 xi = 1} es una variedad.
b. Si v es un vector en R4 tal que hv, η4 vi = −1, demuestre que
Mv = {x ∈ S13 : hx, η4 vi = 0}
es una variedad 2 dimensional
c. Demuestre que la métrica en Mv dada por g(x)(v1 , v2 ) = hv1 , η4 v2 i para todo v1 , v2 ∈
Tx Mv es una métrica riemanniana.
d. Encuentre una curva en M(1,0,0,0) y halle su longitud con respecto a la métrica dada en
la parte c.
10. Sea M = {(x, y) ∈ R2 : y > 0} y g la metrica dada por
g(x, y)(v1 , v2 ) =
1
hv1 , v2 i
y
Calcule la longitud de la curva α : [¯, 1] → M dada por α(t) = (0, t).
11. Si φ es una 2-forma en una variedad M , demuestre que
dφ(X1 , X2 , X3 ) =X1 (φ(X2 , X3 )) − X2 (φ(X1 , X3 )) + X3 (φ(X1 , X2 ))
− φ([X1 , X2 ], X3 ) + φ([X1 , X3 ], X2 ) − φ([X2 , X3 ], X1 )
define una 3-forma
Notación: ei denotara la base usual de Rn y dxi es la 1-forma en Rn definida por dxi (x)(v) =
hei , vi.
12. Demostrar que dx1 ∧ dx3 y dx1 ∧ dx2 son elementos linealmente independientes en el
espacio de aplicaciones bilineales alternantes en R4 .
13. Sea M una variedad. Demostrar que si f : M → R es una función diferenciable,
entonces d(df ) = 0.
14. (a) Demostrar que si f : Rn → Rm es una función diferenciable, entonces f ∗ dyi = dfi
donde f (x) = (f1 (x), . . . , fm (x)).
18
(b) Demostrar que si w1 , w2 son dos 1 formas en Rm , entonces f ∗ (w1 ∧w2 ) = f ∗ w1 ∧f ∗ w2 .
(c) Generalizar el resultado de la parte (b) para k 1-formas w1 , . . . , wk en Rm .
15. Sea
L2 = {A ∈ M2×2 ≡ R4 : AT ηA = η}
donde η es la matriz diagonal 2 × 2 con un 1 en la entrada (1, 1) y un −1 en la entrada
(2, 2).
(a) Demuestre que L2 es una variedad y calcule su dimensión.
(b) Encuentre una parametrización de L2 .
(c) Verifique que la matriz identidad I2 esta en L2 y encuentre una base para TI2 L2 .
16 Realice el mismo ejercicio 5 para
O(2) = {A ∈ M2×2 ≡ R4 : AT A = I2 }
y para
O(3) = {A ∈ M3×3 ≡ R9 : AT A = I3 }
Note que estamos denotando la matriz identidad n × n por In .
17. Defina la función f (A) = traza(A) en las variedades L2 , O(2) y O(3) y calcule los
puntos crı́ticos de f .
18. Sea S n = {x ∈ Rn+1 : |x| = 1}.
(a) Halle una parmetrización φ : U ⊂ Rn → S n de S n .
(b) Demuetre que las funciones F1 (x) = (1−x21 , −x1 x2 , . . . , −x1 xn+1 ) y F2 (x) = (−x1 x2 , 1−
x22 , −x2 x3 , . . . , −x2 xn+1 ) definen campos vectoriales tangentes en S n
(c) Halle funciones a1 (u), . . . an (u) y funciones b1 (u), . . . bn (u) definidas en U tales que
n
X
∂φ
F1 (φ(u)) =
ai (u)
(u)
∂ui
i=1
y F2 (φ(u)) =
n
X
i=1
(d) Halle [F1 , F2 ]
9.Sea M = {x ∈ R4 : x21 + x22 = 12 , x23 + x24 = 21 }.
19
bi (u)
∂φ
(u)
∂ui
(a) Demuestre que los funciones V1 (x) = 3x1 (−x2 , x1 , 0, 0) y V2 (x) = 4x22 (−x2 , x1 , 0, 0) +
ex3 (0, 0, −x4 , x3 ) definen campos vectoriales en M .
(b) Calcule [V1 , V2 ].
20
Integración sobre variedades compactas
Dada una matriz cuadrada n × n A, con vectores columna A1 , . . . An , se tiene que la interpretación geométrica del determinante de A, det(A), es la siguiente: det(A) = 0 si y
solo si, los vectores Ai son linealmente independientes. Si det(A) 6= 0 entonces, el signo de
det(A) 6= 0 determina si la base ordenada (A1 , . . . , An ) esta tiene la misma orientación que
la base usual ei = (0, . . . , 0, 1, 0 . . . , 0) de Rn y |det(A)| mide el volumen de paralepipedo n
dimensional que expanden los vectores columna, es decir el volumen del solido
P (A1 , . . . , An ) = {s1 A1 + . . . + sn An : 0 ≤ si ≤ 1}
De la interpretación anterior, se tiene que si T : Rn → Rn es la transformación lineal dada
por T (x) = Ax donde A es una matriz n×n, se tiene que, si C = {(x1 , . . . , xn ) : 0 ≤ xi ≤ 1},
un cubo unitario, entonces, el volumen de T (C) es |det(A)|.
Consideremos un abierto
acotado U ⊂ Rn , y una función f : U → R se tiene que un
R
valor aproximado de U f dx1 · · · dxn se obtiene al tomar una partición "finaÔ Ω1 , . . . Ωk ,
del conjunto U , tomar un punto pi en cada Ωi y luego calcular
Si (f ) =
k
X
f (pi )Vi
i=1
donde Vi es el volumen de la región Ωi .
Aqui viene un dibujo explicativo
Si consideramos ahora un difeomorfismo T : V → U , para cada x0 ∈ U se tiene que
Tx0 (x) = T (x0 ) + Df (x0 )(x − x0 ), es la función afine que mejor aproxima a la función f .
Esta a su vez implica que si Ωi es un subconjunto abierto de Ωi con diametro "pequeño”,
entonces el volumen de f (Ωi ) es aproximadamente igual a |det(Df (pi )|, donde pi es un punto
arbitrario en Ωi . Estas observaciones, junto con la interpretación intuitiva de integral dada
anteriormente, hacen que el siguiente teorema, el cual no demostraremos, sea intuitivamente
evidente.
Teorema: Si T : V → U es un difeomofismo entre dos subconjuntos abiertos acotados de
Rn y f : U → R es una función diferenciable y acotada, entonces
Z
U
f (y)dy1 · · · dyn =
Z
f (◦T (x))|det(DT (x))|dx1 · · · dxn
V
21
Este teorema, nos indica que si M es una variedad riemanniana, Rφ : U ⊂ Rn → M y
f : M → R es una función continua, entonces una forma de definir φ(U ) f es asi:
Z
φ(U )
f=
Z
f (φ(u))vol(
U
∂φ
∂φ
,...,
)du1 · · · dun
∂u1
∂un
∂φ
∂φ
donde vol( ∂u
, . . . , ∂u
) es el volumen del paralepipedo generado por los vectores de Tφ (u)M ,
1
n
∂φ
∂φ
∂u1 , . . . , ∂un . Para calcular este volumen, recordemos que para cada p ∈ M , Tp M es un
espacio vectorial dotado de un producto punto g(p) : Tp M × Tp M → R. Observemos que
si tomamos v1 , . . . , vn una base ortonormal del espacio vectorial Tp M entonces la aplicacion lineal S que envia al vector ei = (0, . . . , 0, 1, 0 . . . , 0) ∈ Rn en el vector vi es una
isometrı́a y por lo tanto es más que natural definir el volumen del paralepido generado por
n vectores w1 , . . . , wn como el volumen del paralepipedo en Rn generado por los vectores
S −1 (w1 ), . . . S −1 (vn ). En el argumento anterior, supongamos que p = φ(u), y definamos la
∂φ ∂φ
matriz G(u) como la matriz cuyas entradas son gij (u) = h ∂u
,
i, donde, como es habitual
i ∂uj
n
h , i denota la métrica g(p). Si la transformación lineal S : R → Tp M esta definida en el
∂φ
argumento anterior y S(wi ) = ∂u
, para ciertos vectores wi ∈ Rn entonces, si definimos A
i
como la matriz cuadrada cuyas vectores columnas son los vectores wi , se tendra que:
vol(
∂φ
∂φ
,...,
) = |det(A)|
∂u1
∂un
Note que si denotamos a las entradas de la matriz A como aij entonces tenemos que
∂φ
= a11 v1 + . . .
∂u1
22
Descargar