ESTUDIO DE ALGUNOS INVARIANTES DE 4

Anuncio
ESTUDIO DE ALGUNOS INVARIANTES DE 4-VARIEDADES
Un trabajo presentado
por
ALEXANDER CAVIEDES CASTRO
C.C. 80.737.895
Dirigido y aprobado en su estilo por
por
STELLA HUERFANO
Remitido al Departamento de Matemáticas de la
Universidad Nacional de Colombia
como requisito parcial para optar al tı́tulo de:
Matemático
Mayo del 2005
Departamento de Matemáticas
RESUMEN
1
Las soluciones de las Ecuaciones Seiberg-Witten modulo transformaciones gauge determinan
un espacio llamado Moduli Seiberg-Witten. Para definir invariantes análogos a los de Donaldson
se deben establecer los siguientes resultados:
1. El espacio Moduli Seiberg-Witten, es una variedad finito-dimensional; para lo cual se usa teorı́a
de operadores elı́pticos y F redholm.
2. Es necesario establecer la compacidad del espacio de soluciones o una hipótesis más débil análoga
a esta.
3. Es necesario establecer orientabilidad.
Las ecuaciones Seiberg-Witten son invariantes bajo transformaciones gauge y el espacio moduli
Seiberg-Witten es definido modulo esta acción. Las principales dificultades al trabajar con las
ecuaciones Seiberg-Witten pueden provenir de las soluciones reducibles, por consiguiente es
necesario
4. No encontrar soluciones reducibles en una familia genérica de ecuaciones.
El objetivo primordial de este informe, es establecer estas condiciones que permiten definir el
Invariante Seiberg-Witten. El tratamiento seguido aquı́ es el encontrado en [18] y [19].
1 Este
escrito hace parte del proyecto:1101-05-11-445 de Colciencias
ii
INTRODUCCIÓN
2
Una variedad n-dimensional topológica (o simplemente n-variedad topológica) es un espacio
topológico de Haussdorff que satisface el segundo axioma de contabilidad, tal que para cada punto
existe una vecindad homeomorfa a la bola abierta U n = {x ∈ Rn : |x| < 1}. Por una variedad
diferenciable entendemos una variedad topológica que admite una estructura diferenciable (vea
[22, sección 1.1], [24, sección 4.2]). Uno de los principales desafı́os de los matemáticos del siglo XX,
consistió en clasificar las n-variedades; motivados principalmente por la denominada conjectura
de Poincaré la cual establece que toda 3-variedad compacta simplemente conexa es homeomorfa
a la 3-esfera. Es fácil dar ejemplos de 4-variedades compactas simplemente conexas que no son
homeomorfas a S 4 = {x ∈ R5 : |x| = 1} (por ejemplo S 2 × S 2 donde S 2 representa la esfera
unitaria). Sin embargo para n > 3, existe un análogo a la conjectura de Poincaré : Toda n-variedad
compacta con el mismo tipo de homotopı́a que una n-esfera es homeomorfa a S n (vea [16, pag141]).
En 1961 Smale prueba la conjectura de Poincaré para dimensión mayor o igual a 5 y prueba el
teorema del cobordismo de tipo h (vea [7, pag 41]). Este resultado inaugura la clasificación de las
posibles estructuras suaves y topológicas de las variedades de dimensión mayor o igual a 5. En
los 70’s los principales problemas de esta teorı́a fueron resueltos, se dieron respuestas generales
y se obtuvieron resultados cualitativos. Como por ejemplo una variedad cerrada y simplemente
conexa de dimensión ≥ 5 está determinada por su tipo de homotopı́a y su clase de Pontrjagin.
Una vez resueltos los problemas de clasificación de variedades de altas dimensiones se procedió a
trabajar en dimensión 3 y 4; ya que en general los resultados obtenidos en altas dimensiones
no se pueden adecuar para estas bajas dimensiones. Por ende nuevas ideas son necesarias para
estudiar variedades de bajas dimensiones. En dimensión 3, existe por lo menos un plan conjecturado
principalmente por Thurston ([26]). Este plan consiste en determinar las variedades riemannianas
homogéneas, ya que según las sospechas de Thurston toda 3-variedad cerrada puede ser cortada
en piezas que son localmente variedades riemannianas homogéneas. Esta dirección sigue de cerca
la idea de que para una 3-variedad el grupo fundamental juega un rol importante para determinar
cuando dos 3-variedades son difeomorfas. Para dimensión 4, una pregunta básica es si hay un
plan de clasificación similar al de Thurston, al menos para variedades simplemente conexas; no
se conoce la respuesta a esta pregunta. Pero simultaneamente en 1980, S.K. Donaldson y M.
Freedman obtuvieron resultados independientes con respecto a la estructura de 4-variedades ([6] y
[4]). Por un lado Freedman utilizando técnicas similares a las de altas dimensiones para 4-variedades
topológicas, establece los teoremas análogos de altas dimensiones como por ejemplo el teorema del
2 Este
escrito hace parte del proyecto:1101-05-11-445 de Colciencias
iii
iv
cobordismo de tipo h para n = 4. A partir de ésto él deduce una clasificación de las 4-variedades
topológicas simplemente conexas. Una consecuencia de esta clasificación es que dos 4-variedades
diferenciables cerradas y simplemente-conexas son del mismo tipo de homotopı́a sı́ y solo sı́ ellas
son homeomorfas. En este punto la teorı́a de clasificación de 4-variedades topológicas es similar a
la de variedades de altas dimensiones. Por otra parte Donaldson, usando teorı́as de gauge, prueba
que la clasificación de difeomorfismos de 4-variedades diferenciables simplemente conexas debe ser
radicalmente diferente a la clasificación de homeomorfismos para 4-variedades topológicas dada por
Freedman. Por ejemplo Donaldson prueba que el teorema del cobordismo de tipo h falla para 4variedades diferenciables, probando que existen dos 4-variedades simplemente conexas con el mismo
tipo de homotopı́a y por ende homeomorfas, pero no difeomorfas. Estos ejemplos demuestran que
el enfoque dado para 4-variedades topológicas es diferente al de 4-variedades diferenciables lo cual
es único en dimensión 4. Otro ejemplo de anomalı́a única en dimensión 4 son las denominadas
variedades exóticas o falso R4 , i.e., una variedad homeomorfa a, pero no difeomorfa a R4 .
Donaldson empleó teorı́a gauge, que le permitió definir invariantes los cuales permitı́an diferenciar estructuras diferenciables de una variedad cuatrodimensional suave, a partir del estudio de
las Ecuaciones de Yang-Mills. En teorı́a gauge se consideran conexiones de G-haces vectoriales P
sobre una variedad riemanniana, orientada, conexa y cuatro dimensional X. Las conexiones que en
un principio fueron estudiadas por Donaldson son las soluciones de las ecuaciones de Yang-Mills,
llamadas Instantons la cuales están dadas del siguiente modo: Sea ? el operador estrella de Hodge.
Sea A una conexión sobre el haz P y ΩA su curvatura. La parte dual de la curvatura, como sabemos
es,
1 A
A
ΩA
+ = (Ω + ?Ω )
2
y la ecuación de Yang-Mills es ?ΩA = −ΩA o ΩA
+ = 0. Estas conexiones están caracterizadas por
un problema de tipo variacional, usando el funcional de Yang-Mills . El funcional de Yang-Mills es
una aplicación Y M : A → R dada por
Z
Y M (A) =
kΩA k2 ,
X
donde A es el espacio de conexiones sobre el G-haz principal P ; un punto crı́tico de este funcional
son los instantos. Cuando G = U (1) la ecuación de Yang-Mills es lineal y los instantons son
totalmente descritos por la teorı́a Hodge.
En el caso en que G = SU (2), la ecuación de Yang-Mills es una ecuación diferencial parcial no
lineal elı́ptica sobre el espacio de conexiones modulo trasformaciones gauge o automorfismos de
haces; su espacio solución, modulo transformaciones gauge, es por lo general una variedad finitodimensional, pero no necesariamente compacta, esta no-compacidad no permite aplicar con facilidad las técnicas de la teorı́a gauge a aplicaciones topológicas. El espacio de soluciones del funcional
de Yang-Mills modulo transformaciones gauge es llamado espacio Moduli Donaldson. La procedura que Donaldson empleó se puede resumir del siguiente modo: Escoger una ecuación diferencial
parcial, mostrar que el espacio solución es una variedad compacta finito-dimensional. El espacio
solución dependerá de la escogencia de una métrica riemanniana, pero la “clase cobordismo”del
v
espacio solución puede ser definido independiente de la escogencia de la métrica riemanniana. Esta
clase puede ser un nuevo tipo de invariante topológico, y desde que esté es definido en términos de
una ecuación diferencial parcial, es posible que tal invariante distinga estructuras diferenciables de
la variedad cuatrodimensional X, en este camino fue que Donaldson probó que ciertas variedades
difereciables admiten diferentes tipos de estructuras diferenciables y los invariantes de Donaldson
permitı́an diferenciar tales estructuras diferenciables, bajo difeomorfismos. Los invariantes de Donaldson poseen una dificultad técnica y es que la no-compacidad del espacio moduli no permite
calcular de manera trivial los invariantes de Donaldson. En 1994 Witten en su artı́culo titulado
Monopoles and Four-Manifolds, siguiendo una lı́nea de razonamiento parecida a la de Donaldson,
define las ecuaciones conocidas hoy en dı́a como ecuaciones Seiberg-Witten.
En la teorı́a de Seiberg-Witten, se aprovecha el hecho de que una 4-variedad suave riemanniana,
orientada y compacta X, posee una estructura spinc , que es un levantamiento del haz tangente T X,
desde SO(4) a Spinc (4); para definir un operador de Dirac. La estructura spinc permite definir
dos haces vectoriales W + y W − y un haz lineal hermitiano L, el operador de Dirac es definido
como un operador diferencial DA , DA : Γ(W + ) → Γ(W − ), y dependerá de la escogencia de una
conexión unitaria A para L y de la conexión Levi-Civitá de la variedad riemanniana X. Sı́ FA+ es
la parte dual de la curvatura de la conexión A, entonces, las Ecuaciones Seiberg-Witten se definen
como:
FA+ = σ(ψ)
DA (ψ) = 0.
El conjunto de soluciones Seiberg-Witten es el conjunto de parejas (A, ψ), donde A es una conexión
unitaria de L y ψ una sección de W + , que satisfacen las Ecuaciones Seiberg-Witten. Los términos de
las Ecuaciones Seiberg-Witten se pueden interpretar de la siguiente manera: la parte que contiene
al Operador de Dirac pretende aprovechar todas las herramientas que giran en torno alrededor del
estudio de la geometrı́a spin, de los operadores elı́pticos y de la teorı́a de ı́ndices; por otro lado la
otra parte de la Ecuación pretende explotar la técnica empleada por Donaldson, en el estudio de las
Ecuaciones de Yang-Mills. La mayor dificultad al trabajar con las Ecuaciones Seiberg-Witten, son
las llamadas soluciones reducibles, estas soluciones reducibles no permiten asegurar, entre otras
cosas, que el espacio de Soluciones de las Ecuaciones Seiberg-Witten modulo transformaciones
gauge sea una variedad diferenciable, para arreglar este inconveniente, se considera el sistema de
Ecuaciones Seiberg-Witten perturbado:
FA+ = σ(ψ) + φ
DA (ψ) = 0,
donde φ es una forma autodual. Se puede probar que sı́ b+ ≥ 1, para una escogencia genérica de
φ, el espacio de soluciones de las Ecuaciones Seiberg-Witten φ-perturbadas no posee soluciones
reducibles, a partir de este hecho podemos asegurar que el Espacio de soluciones de las Ecuaciones
Seiberg-Witten φ-perturbadas modulo transformaciones gauge es una variedad finito dimensional,
orientada y compacta (a diferencia del espacio moduli de Donaldson). Estas propiedades son las
que permiten definir invariantes análogos a los de Donaldson.
TABLA DE CONTENIDO
Página
RESUMEN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
ii
INTRODUCCIÓN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
iii
CAPITULO
1..
GRUPOS SPIN Y ALGEBRAS DE CLIFFORD . . . . . . . . . . . . . . . . . . .
1
1.1. Cuaterniones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Algebras de Clifford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
4
1.2.1. El grupo Spin(V) . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.2. Identificacı́on del álgebra de Clifford con el álgebra exterior . . . . . .
6
9
1.3. La complejificación del álgebra de Clifford . . . . . . . . . . . . . . . . . . .
10
1.3.1. El grupo Spinc (V) . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
1.4. El caso cuatrodimensional . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
1.4.1. Dualidad . . . . . . . . . . .
1.4.2. La función cuadrática . . . .
1.4.3. Representación spin compleja
1.4.4. El grupo Spinc (4) . . . . . .
2..
.
.
.
.
16
18
20
22
Haces Fibrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
2.1. Nociones básicas de Teorı́a de Lie . . . . . . . . . . . . . . . . . . . . . . . .
23
2.1.1. Algebras de Lie . . . . . .
2.1.2. Grupos de Lie . . . . . .
2.1.3. Exponencial de matrices .
2.1.4. Representación adjunta .
.
.
.
.
vi
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
24
27
28
TABLE OF CONTENTS
vii
2.2. Haces Fibrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3. Haces principales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4. Haces vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.1. Operaciones sobre haces vectoriales . . . . . . . . . .
2.4.2. Haces asociados . . . . . . . . . . . . . . . . . . . . .
2.4.3. Campo Vectorial Fundamental . . . . . . . . . . . . .
2.4.4. Conexiones sobre haces principales . . . . . . . . . . .
2.4.5. Diferenciación Covariante . . . . . . . . . . . . . . . .
2.4.6. Relación entre conexiónes de haces principales y haces
2.4.7. Curvatura . . . . . . . . . . . . . . . . . . . . . . . . .
2.4.8. Conexión Levi-Civitá . . . . . . . . . . . . . . . . . .
2.4.9. Curvatura de Ricci y la curvatura escalar . . . . . . .
3..
4..
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
vectoriales
. . . . . . .
. . . . . . .
. . . . . . .
.
.
.
.
.
.
.
.
.
34
35
37
39
41
45
47
50
53
Operador de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
57
3.1. Estructuras Spin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
57
3.1.1. Haces Spin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.2. Haces spinc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.3. Haces de Clifford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
57
59
62
3.2. Conexiones sobre estructuras spin . . . . . . . . . . . . . . . . . . . . . . . .
65
3.2.1. Conexiones spin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.2. Fórmula explı́cita para las conexiones sobre W . . . . . . . . . . . . .
3.2.3. Conexiones sobre estructuras spinc . . . . . . . . . . . . . . . . . . .
65
69
70
3.3. El operador de Dirac . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
3.3.1. Fórmula de Weitzenböck . . . . . . . . . . . . . . . . . . . . . . . . .
73
Ecuaciones Seiberg-Witten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
77
4.1. Ecuaciones Seiberg-Witten . . . . . . . . . . . . . . . . . . . . . . . . . . . .
77
4.1.1. El Grupo Gauge . . . . . . . . . . . . . . . . . . . . . .
4.1.2. El Espacio Moduli Seiberg-Witten . . . . . . . . . . . .
4.1.3. Aspectos variacionales de las ecuaciones Seiberg-Witten
4.1.4. Compacidad del Espacio Moduli Seiberg-Witten . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
28
30
33
.
.
.
.
.
.
.
.
78
79
82
85
4.2. Transversalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3. Definición del Invariante Seiberg-Witten . . . . . . . . . . . . . . . . . . . .
87
93
TABLE OF CONTENTS
5..
Apéndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
viii
96
5.1. Teorı́a Hodge y grupos de cohomologı́a . . . . . . . . . . . . . . . . . . . . . 96
5.2. Operadores diferenciables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.3. Espacios Sobolev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
5.3.1. Teoremas de Sobolev . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.3.2. Operadores Elı́pticos y normas de Sobolev . . . . . . . . . . . . . . . 106
5.4. Teoremas de Transversalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
5.4.1. Teorema de ı́ndice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.5. Orientación de Operadores Fredholm . . . . . . . . . . . . . . . . . . . . . . 109
BIBLIOGRAFIA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
C A P Í T U L O
1
GRUPOS SPIN Y ALGEBRAS DE CLIFFORD
Para n > 2 el grupo ortogonal SO(n) tiene grupo fundamental Z/2Z y de aquı́ tiene un cubrimiento universal llamado Spin(n). En este capı́tulo se introducirán formalmente los conceptos de
álgebras de Clifford, cuyo objetivo primordial es dar una construcción algebraica del correspondiente grupo Spin(n) para SO(n), dichas construcciones aunque geométricas guardan un profundo
significado geométrico. Primero se presentará dicha construcción en el caso n = 3, presentando
a Spin(3) = SU (2) como un subgrupo multiplicativo del álgebra de los Cuaterniones, que es de
hecho un álgebra de Clifford, luego se generalizan las ideas de esta construcción en dimensiones
superiores. En adición, aprovechando las herramientas construidas, se construyen representaciones
del álgebra de Clifford y se presenta la representación spin compleja, que serán de utilidad en el
tratamiento posterior sobre variedades spin. El capı́tulo finaliza, con un tratamiento detallado de
las construcciones realizadas en el caso n = 4.
El tratamiento aquı́, sigue en rasgos generales, al encontrado en [2] y [19] sobre el tema; algunas
notas que consideré importantes y aclaratorias son sacadas de [1], [14], [18] ,[21] y [30].
1.1.
Cuaterniones
Consideremos el conjunto de matrices complejas de tamaño 2 × 2:
(
!
)
α β
H=
: α, β ∈ C .
−β̄ ᾱ
Este conjunto es un espacio vectorial real ó complejo, cuya suma de espacio vectorial es la suma
usual de matrices; además es cerrado bajo la multiplicación de matrices. Sı́ α = x0 + ix1 y β =
y0 + iy1 , tenemos que:
!
!
!
!
!
α β
1 0
i 0
0 1
0 i
= x0
+ x1
+ y0
+ y1
,
−β̄ ᾱ
0 1
0 −i
−1 0
i 0
luego las matrices
I=
1
0
!
0
,i =
1
!
i 0
,j =
0 −i
1
0
−1
!
1
,k =
0
!
0 i
.
i 0
forman una base para H. Luego H es un espacio vectorial real de dimensión 4 y todo elemento
de H es de la forma x0 + x1 i + yo j + y1 k, donde x0 , x1 , y0 , y1 ∈ R ó de la forma α + βj =
x0 + x1 i + (y0 + y1 i)j.
Bajo multiplicación de matrices
i2 = j2 = k2 = −I,
ij = −ji = k, jk = −kj = i, ki = −ik = j.
Definición 1.1.1. El conjunto H con la suma y la multiplicación usual de matrices es una álgebra
(sobre R ó C) llamada el álgebra de los Cuaterniones .
Sea H1 = {A ∈ H : det(A) = 1}, este conjunto es homeomorfo a la esfera S 3 = {x ∈ R4 : kxk =
1} y en adición le proporciona una estructura algebra a S 3 .
Proposición 1.1.2. El conjunto de matrices especiales unitarias, SU (2), es igual a H1 .
∗
Demostración: Por definición SU (2) = {A ∈ M2 (C) : A A = I, det(A) = 1}. Sı́ A =
α
γ
β
δ
!
∈
SU (2), luego de la definición de SU (2) se tiene:


αᾱ + β β̄ = 1, (1)




αγ̄ + β δ̄ = 0, (2)


γγ̄ + δ δ̄ = 1, (3)




αδ − βγ = 1, (4).
Para ver que A ∈ H1 tenemos que probar que γ = −β̄ y δ = ᾱ.
Por (2) αγ̄ = −β δ̄, luego, α(γ̄γ) = (−βγ)δ̄, por las ecuaciones (3) y (4) se obtiene α(1 − δ δ̄) =
(1 − αδ)δ̄, por ende, α − αδ δ̄ = δ̄ − αδ δ̄, de lo cual, α = δ̄. De la anterior igualdad y de (2) se tiene
que γ = −β̄; por lo tanto A ∈ H1 . !
α β
Recı́procamente sı́ A =
∈ H1 , entonces se verifica fácilmente que A∗ A = I,
−β̄ ᾱ
!
!
!
!
ᾱ −β
αᾱ + β β̄
0
1 0
α β
,
=
=
0
αᾱ + β β̄
0 1
−β̄ ᾱ
β̄ α
es decir, A ∈ SU (2).
Corolario 1.1.3. El grupo matricial SU (2) es homeomorfo a S 3 .
Para x = x1 + x2 i + x3 j + x4 k ∈ H, definimos Re(x) = x1 , Im(x) = x2 i + x3 j + x4 k y la
conjugación como x̄ = x1 − x2 i − x3 j − x4 k; esta conjugación es tal que xy = ȳx̄, para x, y ∈ H.
Proposición 1.1.4. El espacio vectorial H0 = Im(H) = {x ∈ H : Re(x) = 0} = {x ∈ H :
x̄ = −x}, es invariante con respecto a transformaciones de conjugación de elementos de H1 , i.e,
sı́ q ∈ H1 y x ∈ H0 , entonces, qxq −1 ∈ H0 .
2
Demostración: Sea q ∈ H1 , sı́ x ∈ H0 entonces qxq −1 = qxq̄ = qx̄q̄ = −qxq −1 , luego adq (x) ∈ H0 ,
ya que adq (x) = −adq (x).
Es conocido que el conjunto de matrices ortogonales de orden n, denotado por O(n) , induce
una transformación lineal de Rn que es una isometrı́a y a su vez cualquier isometrı́a lineal de
Rn es representada por una matriz ortogonal. Un elemento O ∈ O(n), por definición de O(n),
es tal que OOT = I luego det(OOT ) = det(O)2 = 1 y por consiguiente det(O) = ±1, por lo
tanto O(n) = O(n)+ ∪ O(n)− , donde O(n)± = {O ∈ O(n) : det(O) = ±1}, estos conjuntos
son conexos. Los elementos de O(n)+ son llamados isometrı́as directas o rotaciones y los
elementos de O(n)− isometrı́as indirectas. El espacio O(n)+ es llamado el grupo de matrices
ortogonales especiales y es denotado usualmente como SO(n) .
La transformación lineal T : R3 → H0 , dada por T (x, y, z) = xi + yj + zk, identifica a H0 con
R3 y además es una isometrı́a lineal. Como H0 posee una estructura de álgebra heredada de la del
álgebra de los cuaterniones, entonces, vı́a la transformación T , proveemos a R3 de una estructura
de álgebra; es más, R3 puede ser visto como una subálgebra de H.
Proposición 1.1.5. Sı́ q ∈ H1 entonces la función lineal adq : R3 → R3 , dada para x ∈ R3 por
adq (x) = T (qT (x)q −1 ); es una rotación de R3 , i.e, un elemento de SO(3).
Demostración: Por brevedad T (x) será escrito como x, para x ∈ R3 . Dado que kadq (x)k =
kqxq −1 k = kxk, la función adq es una isometrı́a lineal de R3 . Definimos ρ : H1 = SU (2) → O(3),
por ρ(q) = adq . La función ρ es continua y ρ(1) = I3 ; como SU (2) es conexo entonces ρ(SU (2))
está contenido en la componente conexa de O(3) que contiene al elemento identidad I3 , la cual es
SO(3), luego las funciones adq son rotaciones de R3 .
En la proposición anterior se construyo una función
ρ : SU (2) → SO(3),
dada por ρ(q) = adq .
(1.1)
Proposición 1.1.6. La función ρ : SU (2) → SO(3) es un homomorfismo de grupos sobreyectivo
y Ker(ρ) = {q ∈ SU (2) : adq = I3 } = {I2 , −I2 }.
Demostración: Una prueba de este resultado será presentada más adelante; vea Proposición 1.2.13.
Definición 1.1.7. Sean X, Y dos variedades diferenciables, f : X → Y es una función recubridora sı́:
1. La función f es no singular, i.e, para todo x ∈ M , la aplicación inducida dfx : Tx X → Tf (x) Y
es sobreyectiva.
S
2. Para cada y ∈ Y existe Uj ⊂ Y tal que f −1 (Uj ) = i=1 Vij , es la unión disyuntas de abiertos
de X, para los cuales f |Vij : Vij → Uj es un difeomorfismo.
Cuando tal f existe, a la variedad Y se le suele llamar base y a la variedad X el espacio
recubridor de Y .
3
Definición 1.1.8. Sean X y Y dos variedades diferenciables con una función cubridora f : X → Y .
Sı́ el cardinal del conjunto f −1 (y) es m para todo y ∈ Y , el espacio X es un m-recubrimiento de
Y . En el caso en que m = 2, el espacio X se dice que es un doble recubrimiento de Y y la función
f se dice que es un recubrimiento doble.
Definición 1.1.9. Sea A un grupo de Lie 1 y ρ : A → SO(n) un homomorfismo sobreyectivo
suave, que satisface Kerρ = Z2 , entonces, ρ se denomina una función spin de SO(n) y A es
llamado el grupo spin de orden n y es denotado por Spin(n); el cual es único, vı́a homotopı́a,
por ser A un doble cubrimiento de SO(n) (vea el tratamiento de espacios recubridores descrito en
[20]).
Proposición 1.1.10. La función ρ : SU (2) → SO(3), definida en la Ecuación 1.1, es la función
spin de SO(3) y por lo tanto Spin(3) = SU (2).
La función spin y el grupo spin de SO(n), para n ≥ 3, serán construidos empleando el concepto
de álgebra de Clifford. Este es el objetivo primordial de la siguiente sección.
1.2.
Algebras de Clifford
Sea V un espacio vectorial real de dimensión n con un producto interno h ,
es denotada por k k. Consideremos el álgebra tensorial
i, cuya norma
T (V ) = ⊕n≥0 V ⊗ ... ⊗ V ,
|
{z
}
n veces
donde V ⊗0 = R. El álgebra tensorial es una álgebra asociativa con unidad 1 ∈ R y cuyo producto
es el producto tensorial ⊗.
Definición 1.2.1. El álgebra de Clifford Cl(V ) generada por V , la cual depende del producto
interno, es el cociente de T (V ) por el ideal generado por todos los elementos de la forma
v ⊗ v + kvk2 1T (V )
(1.2)
Sı́ V = Rn con su producto interno usual, el álgebra de Clifford generada por Rn es denotada
como Cl(n). La multiplicación interna de Cl(V ) es llamada multiplicación de Clifford .
Definición 1.2.2. Sea E un módulo sobre K, K ∈ {R, C}, E es llamado módulo de Clifford
sı́ hay un homomorfismo de K-álgebras c : Cl(V ) → End(E). Para simplificar escribiremos
c(x)(y) ≡ x · y,
(1.3)
para x ∈ E y y ∈ Cl(V ). El producto x · y en (1.3) se suele llamar multiplicación de Clifford
sobre E.
1 Vea
definición de Grupo de Lie en la Definición 2.1.6.
4
Proposición 1.2.3. El álgebra de Clifford Cl(V ) generada por V es el cociente de T (V ) por el
ideal generado por todos los elementos de la forma
v ⊗ w + w ⊗ v + 2hv, wi1T (V )
v, w ∈ V
(1.4)
Demostración: Es una consecuencia inmediata de la ley del paralelogramo
hv, wi =
kv + wk2 − kv − wk2
2
Ejemplos
1. Las primeras ocho álgebras de Clifford Cl(n) están resumidas en la siguiente tabla:
Cl(0)
Cl(1)
Cl(2)
Cl(3)
Cl(4)
Cl(5)
Cl(6)
Cl(7)
Cl(8)
R
C
H
H⊕H
M2 (H)
M4 (C)
M8 (R)
M8 (R) ⊕ M8 (R)
M16 (R)
2. El resto de álgebras de Clifford son obtenidas a partir de las ocho primeras, ya que para
n ≥ 0, Cl(n + 8) = M16 (Cl(n)) (Vea [2, pags135-136]) .
Escogiendo una base ortonormal {e1 , ..., en } para V , podemos describir a Cl(V ) en términos de
generadores y relaciones del siguiente modo: los elementos de la base {e1 , ..., en }, deben satisfacer
la siguiente relación ei · ej + ej · ei = 2δi,j , explı́citamente,

e · e = −e · e , i 6= j,
i
j
j
i
,
e2 = −1
i
donde la operación es la multiplicación de Clifford de Cl(V ). De esto tenemos que cada elemento
de Cl(V ) se puede escribir de manera única como suma de productos de la forma:
ei1 · ... · eil ,
con 1 ≤ i1 < ... < il ≤ n;
por lo tanto la dimensión de Cl(V ), como un espacio vectorial real, es 2n .
Para establecer una Propiedad Universal para las álgebras de Clifford, haremos las siguientes
convenciones: Sı́ j : V → Cl(V ) es la inclusión natural de V en Cl(V ) y sı́ x = x1 e1 +...+xn en ∈ V ,
entonces,
n
n
n
X
X
X
[j(
xi ei )]2 = −
x2i = −k
xi ei k2 ,
i=1
i=1
luego [j(x)]2 = −kxk2 · 1, para todo x ∈ V .
5
i=1
Teorema 1.2.4 (Propiedad universal de las álgebras de Clifford). Sea A una álgebra real
con unidad. Sı́ f : V → A es una transformación lineal para la cual
[f (x)]2 = −kxk2 · 1,
para todo x ∈ V y 1 ∈ A,
(1.5)
entonces, existe un único homomorfismo de álgebras reales F : Cl(V ) → A, para el cual F ◦ j = f.
V
j
@ f
@
R
@
- A
∃!F
Cl(V )
Demostración: Sea {e1 , ..., en } una base ortonormal de V . El homomorfismo F : Cl(V ) → A es
definido como F (ei ) = f (ei ) y es extendido linealmente por
F (ei1 · ... · eil ) = f (ei1 ) · ... · f (eil ),
claramente F es único y F ◦j = f . La Ecuación 1.5 garantiza que la función F está bien definida.
Corolario 1.2.5. Sea on ∈ O(n), una isometrı́a lineal de Rn . Sea ǒn , ǒn : Rn → Cl(n), definida
como ǒn = j ◦ on , entonces, existe una única extensión On : Cl(n) → Cl(n) de ǒn , la cual es un
homomorfismo de álgebras.
Demostración: La transformación on induce una base ortonormal dada por ei = on (ei ), 1 ≤ i ≤ n,
donde {e1 , ..., en } es la base usual de Rn . Sı́ x = (x1 , · · · , xn ) ∈ Rn , entonces
on (x) = x1 e1 + · · · + xn en ;
y claramente j(on (x)) · j(on (x)) = −kon (x)k2 = −kxk2 , por la propiedad universal de las álgebras
de Clifford, existe una única extensión On : Cl(n) → Cl(n) de ǒn .
1.2.1.
El grupo Spin(V)
Sı́ α0 : V → Cl(V ), α0 = −j(x), por la propiedad universal de las álgebras de Clifford existe un
único automorfismo de álgebra α : Cl(V ) → Cl(V ) tal que α(er ) = −er y α ◦ α = ICl(V ) . Además,
para 1 ≤ i1 < ... < ik ≤ n, tenemos que

e · ... · e , sı́ k es par
i1
ik
α(ei1 · ... · eik ) = (−1)k ei1 · ... · eik =
−ei · ... · ei , sı́ k es impar
1
k
Proposición 1.2.6. El álgebra de Clifford Cl(V ) se descompone como Cl(V ) = Cl0 (V ) ⊕ Cl1 (V ),
donde Cl0 (V ) = {u ∈ Cl(V ) : α(u) = u} y Cl1 (V ) = {u ∈ Cl(V ) : α(u) = −u}. Esta descomposición es multipicativa, en el sentido de que

uv ∈ Cl (V )
sı́ u, v ∈ Cl0 (V ) ó u, v ∈ Cl1 (V ),
0
,
uv, vu ∈ Cl1 (V ) sı́ u ∈ Cl0 (V ) y v ∈ Cl1 (V )
6
y por consiguinete Cl0 (V ) es una subálgebra de Cl(V ) y Cl1 (V ) es un modulo sobre esta subálgebra.
Además Cl(V ) ≈ Cl0 (V ⊕ R).
1
1
Demostración: Sea v ∈ Cl(V ), definimos v0 = (v + α(v)) y v1 = (v − α(v)), los cuales satisfacen
2
2
α(v0 ) = v0 , α(v1 ) = −v1 y v = v0 + v1 , además Cl0 (V ) ∩ Cl1 (V ) = {0}, luego, Cl(V ) = Cl0 (V ) ⊕
Cl1 (V ). Esta descomposición es multiplicativa ya que α es un homomorfismo de anillos.
Por último, sı́ v = v0 + v1 ∈ Cl(V ) y e = 0 ⊕ 1 ∈ V ⊕ R, definimos una aplicación β :
Cl(V ) → Cl0 (V ⊕ R), por β(v) = β(v0 + v1 ) = v0 + v1 · e, donde v0 ∈ Cl0 (V ) y v1 ∈ Cl1 (V );
β(v) ∈ Cl0 (V ⊕ R), ya que α(β(v)) = α(v0 ) + α(v1 ) · α(e) = v0 + (−v1 ) · (−e) = β(v) y claramente
β es un isomorfismo.
Definición 1.2.7. Denotaremos como SV al conjunto de vectores unitarios del espacio vectorial
V , i.e, SV = {x ∈ V : kxk = 1}.
Sı́ u ∈ SV ⊂ V , entonces, u2 = −kuk2 = −1, de modo que u−1 = −u = α(u).
Definición 1.2.8. El conjunto hSV i = {u1 · ... · uk : u1 , ..., uk ∈ SV }, es el grupo pin de V y es
denotado como Pin(V) .
Para cada elemento invertible, u, de Cl(V ), sea
adu : V → Cl(V )
; ρu (v) = α(u)vu−1 para todo v ∈ V .
(1.6)
Con esta función deseamos generalizar la construcción de la función spin de SO(3). Pero antes de
obtener resultados generales, necesitamos algunos resultados geométricos de Rn :
Lema 1.2.9. Cada A ∈ O(n) es un producto de reflexiones de hiperplano. Sı́ el número de esos
productos es par entonces A ∈ SO(n) e impar sı́ A ∈ O− (n) .
Demostración: Un hiperplano de un espacio vectorial V de dimensión n con producto interno, es
un subespacio vectorial de V de dimensión n − 1. Cada hiperplano H de V tiene asociada una
transforfación lineal θH : V → H llamada reflexión en el hiperplano H . Para definir θH , cada
elemento x ∈ V puede ser escrito de manera única como x = xH + x0H , con xH ∈ H y hy, x0H i
para todo y ∈ H, entonces, θH (x) = xH − x0H . Cualquier reflexión de un hiperplano H de Rn es
una isometrı́a indirecta de Rn . La demostración del presente Lema se encuentra en [2, Proposición
1.41].
El anterior Lema motiva la siguiente definición:
Definición 1.2.10. Sea V un espacio vectorial real de dimensión finita con un producto interno.
El conjunto de todas las isometrı́as lineales de V lo denotaremos como O(V ) y denotaremos por
SO(V ) al conjunto de isometrı́as lineales de V que se pueden expresar como producto de un número
par de reflexiones de hiperplano
Proposición 1.2.11. Para todo u ∈ P in(V ), adu : V → V es una isometrı́a lineal, además para
u ∈ SV , adu es la reflexión asociada al hiperplano perpendicular a u.
7
Demostración: Sea u ∈ SV y x ∈ V ; sı́ hu, xi = 0 entonces u · x = −x · u ,por la Proposición 1.2.3,
y adu (x) = α(u)xu−1 = −ux(−u) = uxu = −u2 x = −(−1)x = x. Por otro lado, sı́ x = tu, para
algún t ∈ R, entonces, adu (x) = uxu = tu3 = −tu = −x. Luego para u ∈ SV ,

x,
sı́ hu, xi = 0,
adu (x) =
−x, sı́ x = tu para algún t ∈ R
Esto prueba que adu (x) ∈ V y que adu es la reflexión del hiperplano ortogonal a u.
Para u ∈ hSV i = P in(V ), existen u1 , ..., ur ∈ SV tales que u = u1 · ... · ur , luego adu (x) =
u1 · ... · ur xur · ... · u1 = adu1 ◦ ... ◦ adur (x), es decir, adu es un producto de reflexiones de hiperplanos,
entonces, adu es una isometrı́a lineal de V .
Definición 1.2.12. El grupo Spin de V está dado por, Spin(V ) ≡ P in(V ) ∩ Cl0 (V ). Cuando
V = Rn , Spin(Rn ) es denotado como Spin(n).
Teorema 1.2.13. Sea V un espacio vectorial de dimensión finita con un producto interno y ρ :
Spin(V ) → O(V ), definida como, ρ(u) = adu , para todo u ∈ Spin(n). Entonces, ρ−1 (SO(V )) =
Spin(V ) y Ker(ρ) = {1, −1}, por lo tanto ρ y Spin(V ) son la función y grupo spin de SO(V )
respectivamente.
Demostración: Sea v ∈ P in(V ), luego existen v1 , ..., vk ∈ SV ⊂ Cl1 (V ), tal que v = v1 · .. · vk .
Sı́ v ∈ P in(V ) ∩ Cl0 (V ) = Spin(V ), por la Proposición 1.2.6, k es par, luego adv ∈ SO(V )
y por lo tanto v ∈ φ−1 (SO(V ). Sı́ v ∈ φ−1 (SO(V )), entonces, adv = adv1 ◦ ... ◦ advk , como
adv ∈ SO(V ), k es par, entonces, v ∈ Spin(V ). Sı́ φ(u) = IV , entonces, u ∈ R y |u| = 1, es decir,
Ker(φ) = {1, −1}.
Como Spin(n) es el doble cubrimiento de SO(n), entonces, para x ∈ Spin(n) existe una vecindad abierta U de x tal que ρ : U ⊂ Spin(n) → ρ(U ) ⊂ SO(n) es un difeomorfismo y la derivada en x, dρx : Tx Spin(n) → Tρ(x) SO(n), es un isomorfismo lineal. En particular, la derivada
dρ : spin(n) → so(n) es un isomorfismo de álgebras de Lie 2 y spin(n) = so(n) = {A ∈ Mn (R) :
AT = −A} y recordemos que dim{A ∈ Mn (R) : AT = −A} = n2 . A continuación veremos que el
álgebra de Lie de Spin(n) puede ser descrita como una subálgebra de Cl(n):
Proposición 1.2.14. Para n ≥ 2, el álgebra de Lie de Spin(n) es
P
t
e
·
e
:
t
∈
R
ij
i
j
ij
spin(n) =
⊂ Cln .
1≤i<j≤n
∞ tr
P
(ei · ej )r . Se
r=0 r!
puede verificar que exp(tei · ej ) = cos t + sin tei · ej = ei · (− cos tei + sin tej ), es decir, exp(tei · ej ) ∈
Spin(n). Tomando la derivada en cero de la curva αij : R → Spin(n), dada por αij (t) = exp(tei ·ej ),
se obtiene que ei · ej ∈ spin(n). Como dim(spin(n)) = n2 , los elementos ei · ej conforman una base
para spin(n).
Demostración: Para 1 ≤ i < j ≤ n y t ∈ R, consideremos la serie exp(tei · ej ) =
2 Vea
Sección 2.1.2
8
La acción de la derivada dρ : spin(n) → so(n) sobre la base ei · ej está dada por dρ(ei · ej ) =
2E ji − 2E ij , donde E ij es la matriz n × n con uno en la entrada ij y cero en las demás, ya
que los elementos {E ij − E ji }{1≤i,j≤n} conforman una base de so(n). Similarmente, el efecto
del homomorfismo ρ : Spin(n) → SO(n) sobre exp(tei · ej ) es ρ(exp(tei · ej )) = cos(2t)(In ) +
sin(2t)(E ji − E ij ).
1.2.2.
Identificacı́on del álgebra de Clifford con el álgebra exterior
Sea V un espacio vectorial real de dimensión finita, dotado con un producto interno h, i y
una base ortonormal orientada {e1 , ..., en }. Sea ∧V el conjunto de tensores alternantes de V y
V ∗ el conjunto de funcionales lineales reales del espacio lineal V . El producto interno h, i de V
permite identificar de manera natural a V con V ∗ , para v ∈ V corresponde w = hv, i ∈ V ∗ . Por
conveniencia de ahora en adelante V = V ∗ .
Proposición 1.2.15. Sea ∧k V el conjunto de tensores alternantes de orden k sobre V . El conjunto
de todos los ei1 ∧...∧eik , 1 ≤ i1 < ... < ik ≤ n, es una base para ∧k V y por lo tanto tiene dimensión
n
k . Además el conjunto de todos los ei1 ∧ ... ∧ eik , 1 ≤ k ≤ n y 1 ≤ i1 < ... < ik ≤ n, es una base
para ∧V y por lo tanto ∧V tiene dimensión 2n .
El álgebra de Clifford Cl(V ) y ∧V son isomorfos como espacios vectoriales ya que la aplicación
q : ∧V → Cl(V ), q(ei1 ∧ ... ∧ eik ) = ei1 · ... · eik , 1 ≤ i1 < ... < ik < ... ≤ n, es un isomorfismo lineal
entre espacios vectoriales. Sin embargo el producto exterior “ ∧ ” de ∧V no es una multiplicación
de Clifford ya que sı́ lo fuera ei ∧ ei = 1. Una multiplicación de Clifford para ∧V es generada por:
v ∗ (v1 ∧ ... ∧ vk ) ≡ v ∧ (v1 ∧ ... ∧ vk ) − ι(v)(v1 ∧ ... ∧ vk ),
donde ι(v)(v1 ∧ ... ∧ vk ) =
k
P
i=1
v, v1 , ..., vk ∈ V ;
(1.7)
(−1)k hv, vi iv1 ∧ ... ∧ vbi ∧ ... ∧ vk .
Proposición 1.2.16. Para v ∈ V y w ∈ ∧V definimos una acción c : V → End(∧V ) por
c(v)(ω) = v ∗ ω = v ∧ ω − ι(v)ω. La acción c : V → End(∧V ), se extiende al álgebra de Clifford
Cl(V ).
Demostración: Note que para v1 , v2 ∈ V y ω ∈ ∧V , tenemos que
v1 ∧ ι(v2 )ω + ι(v2 )v1 ∧ ω = hv1 , v2 iω,
(1.8)
luego c(v) ◦ c(v) = −kvk2 IV . Por la propiedad universal de las álgebras de Clifford esta acción,
extiende de modo único al álgebra de Clifford Cl(V ), en particular c(ei · ej ) = c(ei ) ◦ c(ej ).
V
Proposición 1.2.17. La función δ : Cl(V ) → V , definida por δ(a) = c(a)(1∧V ) posee como
V
inversa a q : V → C(V ), la cual está dada por q(ei1 ∧ ... ∧ eil ) = ei1 · ... · eil , para 1 ≤ i1 < ... <
ik ≤ n.
9
Demostracion: Sea ei1 ∧ ... ∧ eik , 1 ≤ i1 < ... < ik ≤ n, luego
δ(q(ei1 ∧ ... ∧ eik ))
= c(ei1 · ... · eik )(1∧V ) = c(ei1 ) ◦ ... ◦ c(eik )(1∧V )
= c(ei1 ) ◦ ... ◦ c(eik−1 )(eik ∧ 1∧V − ι(eik )1∧V ) = c(ei1 ) ◦ ... ◦ c(eik−1 )eik
= c(ei1 ) ◦ ... ◦ c(eik−2 )(eik−1 ∧ eik − ι(eik−1 )eik )
= c(ei1 ) ◦ ... ◦ c(eik−2 )eik−1 ∧ eik = ... = ei1 ∧ ... ∧ eik .
Por otro lado q(δ(ei )) = q[c(ei )(1∧V )] = q(ei ) = ei . Luego q es la inversa de δ.
En ∧V definimos la multiplicación de Clifford para η, ω ∈ ∧V como η ∗ ω = c(q(η))(ω) ∈ ∧V .
Corolario 1.2.18. El álgebra de Clifford (Cl(V ), ·) es isomorfa al álgebra tensorial (∧V, ∗).
Demostración: Observe que δ(a·b) = c(a·b)(1∧V ) = c(a)(c(b)(1∧V )) = c(q(δ(a))(δ(b)) = δ(a)∗δ(b).
Por otro lado q es por definición un homomorfismo entre las álgebras (Cl(V ), ·) y (∧V, ∗), ya
que q(ei1 ∗ ... ∗ eik ) = q(ei1 ∧ ... ∧ eik ) = ei1 · ... · eik = q(ei1 ) · ... · q(eik ) para 1 ≤ i1 < ... < ik ≤ n.
Luego (Cl(V ), ·) es isomorfa al álgebra tensorial (∧V, ∗).
Observación: El producto de Clifford definido como “ ∗ ” permite ver al álgebra ∧V como una
álgebra de Clifford. Note que para i 6= j
ei ∗ ej = ei ∧ ej − ι(ei )ej = ei ∧ ej = −ej ∧ ei + ι(ej )(ei ) = −ej ∗ ei .
Por otro lado ei ∗ ei = ei ∧ ei − ι(ei )ei = −1.
1.3.
La complejificación del álgebra de Clifford
Consideremos la complejificación Cl(V ) ⊗ C del álgebra de Clifford Cl(V ). Sea {e1 , ..., en } una
base ortonormal orientada de V , n ≥ 2.
Definición 1.3.1. El operador de quilaridad está dado por ξ : Cl(V ) ⊗ C → Cl(V ) ⊗ C, donde
ξ(w) = Γ · w, con Γ = i[(n+1)/2] e1 · ... · en ∈ Cl(V ) ⊗ C, donde [(n + 1)/2] es la parte entera de
(n + 1)/2.
Proposición 1.3.2. El operador de quilaridad Γ satisface
Γ2 = 1Cl(V ) ,
Γv + (−1)n vΓ = 0 para todo v ∈ V .
(1.9)
Además está bien definido para bases ortonormales que definan parte de la misma orientación que
{e1 , ..., en }.
Corolario 1.3.3. El operador de quilaridad ξ, induce una descomposición de Cl(V ) ⊗ C, como:
Cl(V ) ⊗ C = (Cl(V ) ⊗ C)+ ⊕ (Cl(V ) ⊗ C)− ,
donde (Cl(V ) ⊗ C)± = {w ∈ Cl(V ) ⊗ C : ξ(w) = Γ · w = ±w}.
10
(1.10)
Demostración. La prueba es similar a la de la Proposición 1.2.6, solo que en este caso α es reemplazado por ξ.
Corolario 1.3.4. El elemento Γ ∈ Cl(V )⊗C pertenece al centro de Cl(V )⊗C cuando la dimensión
de V es impar. Sı́ la dimensión de V es par, Γ conmuta con Cl0 (V ) ⊗ C y anticonmuta con
Cl1 (V ) ⊗ C.
Lema 1.3.5. Sea V un espacio vectorial de dimensión par junto con un producto interno. Sea
c : Cl(V ) ⊗ C → End(S) un homomorfismo de álgebras, donde S es un espacio vectorial complejo,
entonces, existe una descomposición, inducida por el operador de quilaridad ξ,
S = S+ ⊕ S−
y para cualquier v ∈ V , v 6= 0, la acción de Clifford determina los isomorfismos
c(v) : S + → S −
y
c(v) : S − → S + .
Además la acción de Clifford c induce acciones
(Cl0 (V ) ⊗ C)+ → End(S + ),
−
(Cl1 (V ) ⊗ C)− → Hom(S + , S − ),
−
(Cl0 (V ) ⊗ C) → End(S ),
+
−
+
(Cl1 (V ) ⊗ C) → Hom(S , S ).
(1.11)
(1.12)
Las acciones de (1.10) y (1.11) se comportan de modo trivial en S − y S + , respectivamente.
Demostración: Sea Γ el operador de quilaridad de Cl(V ) ⊗ C, como la dimensión de V es par,
(IS + c(Γ))
(IS − c(Γ))
entonces, Γ·v = −v ·Γ para todo v ∈ V . Sı́ γ + =
: S → S y γ− =
: S → S;
2
2
+
−
γ y γ satisfacen las siguientes relaciones:
γ+ + γ−
γ+γ− = γ−γ+
+ 2
(γ ) = γ
+
= IS ,
= 0,
y
(γ − )2 = γ − .
Sı́ S + = γ + (S) y S − = γ − (S); por las relaciones anteriores se tiene que S = S + ⊕ S − . Sı́ v ∈ V y
v 6= 0, tenemos que:
c(v)γ + = c(v)
c(v) + c(v · Γ)
c(v) − c(Γ)c(v)
(IS + c(Γ))
=
=
= γ − c(v).
2
2
2
Análogamente c(v)γ − = γ + c(v). Lo anterior demuestra que c(v) : S + → S − , c(v) : S − → S + y
como c(v) ◦ c(v) = −kvk2 IS , entonces, la función c(v) es inyectiva y por ende las restricciones de
c(v) a S ± son isomorfismos.
Sea w ∈ (Cl0 (V ) ⊗ C)+ , luego Γ · w = w · Γ = w y
c(w)γ +
(IS + c(Γ))
c(w) + c(w · Γ)
c(w) + c(Γ · w)
=
=
2
2
2
IS + c(Γ)
(I + c(Γ))
+
c(w) =
c(w) = γ c(w)
2
2
= c(w)
=
Esto prueba que c(w) : S + → S + ; del mismo modo se prueba que c(w)γ − = 0. Las demás
afirmaciones se obtienen de manera análoga.
11
Definición 1.3.6. Una polarización del espacio vectorial complejo V ⊗ C es un subespacio P ⊂
V ⊗C que es isotrópico , es decir, satisface V ⊗C = P ⊕P̄ y para v ∈ P , se tiene que Q(v, v), donde
Q es la extensión lineal compleja, de V a V ⊗ C, del producto interno de V , i.e., Q(a + bi , c + di ) =
ha, ci − hb, di + (h, bci + ha, di)i. La polarización se dice orientada, sı́ existe una base ortonormal
{e1 , ...., en } de V , tal que P es generado por los vectores
{wj =
e2j−1 − ie2j
√
: 1 ≤ j ≤ n/2}
2
y por lo tanto la componente P̄ es generada por los vectores
{w̄j =
e2j−1 + ie2j
√
: 1 ≤ j ≤ n/2}
2
Se puede verificar directamente que los elementos {wj }j=1,...,n/2 , satisfacen las siguientes propiedades:
wi · wi = w̄i · w̄i = 0,
wi · w̄i + w̄i · wi = −2,
(1.13)
para i 6= j, tenemos
wi · wj = −wj · wi ,
wi · w̄j = −w̄j · wi ,
w̄i · w̄j = −w̄j · w̄i .
(1.14)
Teorema 1.3.7. Sea V un espacio vectorial euclideano-orientado de dimensión par, luego existe
un único módulo de Clifford S, llamado el módulo spinor , tal que la multiplicación de Clifford
induce un isomorfismo de álgebras
c : Cl(V ) ⊗ C → End(S).
Consecuentemente S posee una descomposición S = S + ⊕S − , inducida por el operador de quilaridad
de Cl(V ) ⊗ C; los subespacios S + y S − son llamados submódulo spinor positivo y el submódulo
dim(V )
spinor negativo, respectivamente, y dimC (S) = 2dim(V )/2 , dimC (S + ) = dimC (S − ) = 2( 2 −1) .
Además la acción de Clifford induce los isomorfismos
(Cl0 (V ) ⊗ C)+ ≈ End(S + ),
(Cl1 (V ) ⊗ C)− ≈ Hom(S + , S − ),
(Cl0 (V ) ⊗ C)− ≈ End(S − ),
(Cl1 (V ) ⊗ C)+ ≈ Hom(S − , S + ).
En adición, S posee un producto interno tal que
he · s1 , e · s2 i = hs1 , s2 i,
para s1 , s2 ∈ S y e ∈ V con kek = 1, por consiguiente sı́ e ∈ Spin(n), entonces, c(e) ∈ Aut(S).
Demostración: Sea P una polarización orientada de V ⊗ C, se probará que S = ∧P . Cualquier
elemento v ∈ V ⊗ C → Cl(V ) ⊗ C se descompone como v = v1 + v2 ∈ P ⊕ P̄ . La componente
v1 ∈ P actúa sobre ∧P por producto exterior:
c1 (v1 )ω =
√
2ω ∧ v1 , ω ∈ ∧P.
12
La componente v2 actúa sobre ∧P del siguiente modo:
√
c2 (v2 )ω = − 2κ(v2 )(ω), ω ∈ ∧P,
donde κ(v)(p1 ∧ ... ∧ pk ) =
k
P
ˆ j ∧ ... ∧ pk , para v ∈ V y p1 , ..., pk ∈ P ,
(−1)k−j+1 Q(v, pj )p1 ∧ ...∧p
j=1
donde Q es la extensión lineal del producto interno de V .
La acción de cualquier v = v1 + v2 ∈ V ⊗ C sobre ∧P es
c(v1 ⊕ v2 )w = c1 (v1 )w + c2 (v2 )ω ω ∈ ∧P.
Note que c1 (v1 )[c2 (v2 )(ω)]+c2 (v2 )[c1 (v1 )(ω)] = −2Q(v1 , v2 ). Para v ∈ V , kvk2 = hv, vi = Q(v̄, v) =
Q(v, v) = Q(v1 + v2 , v1 + v2 ) = Q(v1 , v1 ) + Q(v2 , v2 ) + 2Q(v1 , v2 ) = 2Q(v1 , v2 ), por consiguiente
c(v) ◦ c(v)ω = −kvk2 ω. Por la propiedad universal del álgebra de Clifford, la acción c se puede
extender a Cl(V ) → End(S), además es posible extender esta acción de Cl(V ) a Cl(V ) ⊗ C. Esta
acción es inyectiva y dimC (Cl(V ) ⊗ C) = 2n = (2n/2 )2 = dimC (S)2 = dimC (End(S)), por lo tanto,
Cl(V ) ⊗ C y End(S) son isomorfos como álgebras. La unicidad es consecuencia del Teorema de
Wederburn (vea [2, pag 104]); el resto del teorema es consecuencia del Lema 1.3.5.
Definición 1.3.8. Supongamos que n es par. La representación spin , se define como la restricción de c a Spin(n) de la acción de Clifford de Cl(n) sobre el módulo spinor S del Teorema
anterior. En el caso en que n sea impar la representación spin se define, a partir del isomorfismo de álgebras β, β : Cl0 (n) → Cl(n − 1) de la Proposición 1.2.6 y la acción de Clifford
c : Cl(n − 1) → End(S), como la restricción a Spin(n) de la función c ◦ f . La representación spin
es denotada como 4S : Spin(n) → Aut(S).
Proposición 1.3.9. Sı́ la dimensión de V es par, la representación spin se descompone en dos
representaciones, denotadas por 4±
S tal que:
±
4±
S : Spin(n) → Aut(S )
1.3.1.
El grupo Spinc (V)
Definición 1.3.10. El grupo multiplicativo generado por Spin(V ) y U (1) = S 1 en Cl(V ) ⊗ C es
llamado el grupo Spin complejo y es denotado por Spinc (V ).
Lema 1.3.11. El grupo Spinc (V ) es isomorfo a (Spin(V ) × S 1 )/Z2 .
Demostración: Todo elemento de Spinc (V ) es de la forma α · β, α ∈ Spin(V ), β ∈ S 1 ; ya que S 1
pertenece al centro de Cl(V ) ⊗ C. La función dada por
f : Spin(V ) × S 1 → Spinc (V ),
f (α, β) = α · β
es sobreyectiva y Ker(f ) = {(α, α−1 ) : α ∈ Spin(V ) ∩ S 1 }. Como α ∈ Spin(V ) ∩ S 1 entonces
α ∈ {±1}, entonces, Ker(f ) = {(1, 1), (−1, −1)}.
13
El anterior lema nos permite definir la siguiente aplicación:
ρc : Spinc (V ) ≈ (Spin(V ) × S 1 )/Z2 → SO(V ) × S 1 ,
(1.15)
como sigue: para [(α, β)] ∈ (Spin(V ) × S 1 )/Z2 , ρc ([(α, β)]) = (ρ(α), β 2 ), donde ρ : Spin(V ) →
SO(V ) es la función spin del Teorema 1.2.13. Esta aplicación está bien definida ya que [(α, β)] =
{(α, β), (−α, −β)} y ρ(α) = ρ(−α), (β)2 = (−β)2 ; la aplicación ρc es claramente sobreyectiva
y Ker(ρc ) = {[(1, 1)], [(1, −1)]} ≈ Z2 , por lo tanto Spinc (V )/Z2 ≈ SO(V ) × S 1 . De lo anterior
concluimos la siguiente proposición:
Proposición 1.3.12. La aplicación ρc : Spinc (V ) → SO(V ) × S 1 es un doble cubrimiento de
SO(V ) × S 1 .
Proposición 1.3.13. La aplicación
π1 ◦ ρc = ρ̌ : Spinc (V ) → SO(V ),
donde π1 es la proyección sobre el primer factor de SO(V ) × S 1 , es la extensión de la acción de
conjugación ρ de Spin(V ) sobre V a la acción de conjugación de Spinc (V ) sobre V ⊂ Cl(V ) ⊗ C
y Ker(π1 ◦ ρc ) ≈ S 1 . Además la acción de conjugación de Spinc (V ) deja invariante al álgebra
de Clifford real Cl(V ). Además hay un natural homomorfismo de grupos natural denotado como
det, det : Spinc (V ) → S 1 , dado por π2 ◦ ρ̌, donde π2 es la proyección sobre el segundo factor de
SO(V ) × S 1 .
Demostración: Sea s ∈ Spinc (V ), luego existen α ∈ Spin(V ) y β ∈ S 1 , tal que s = α · β, luego
sea ads : V → Cl(V ) ⊗ C, ads (v) = s · v · s−1 = α · β · v · (β)−1 · (α)−1 = α · v · α−1 = adα (v); de
donde ads = adα . Recordemos que ρ : Spin(V ) → SO(V ), está definida por ρ(α) = adα : V → V .
Definimos ρ̌ : Spinc (V ) → SO(V ) por ρ̌(s) = ads = adα . De otra parte ρc (s) = ρc (α · β) =
(ρ(α), β 2 ), luego, π1 ◦ ρc (s) = ρ(α) = adα = ads = ρ̌(s), lo cual prueba que π1 ◦ ρc es la extensión
deseada. Por último, Ker(π1 ◦ ρc ) = {s = α · β ∈ Spinc (V ) : ρ(α) = 1} = S 1 .
Por último, la representación spin compleja tiene una importante generalización:
Proposición 1.3.14. La representación spin compleja 4S : Spin(V ) → AutC (S) se extiende a
una representación 4̌S : Spinc (V ) → AutC (S).
1.4.
El caso cuatrodimensional
Sea V un espacio vectorial real de dimensión 4, con producto interno y {e1 , e2 , e3 , e4 } una base
ortonormal de V . Una polarización orientada P de V es generada por
{w1 =
e3 − ie4
e1 − ie2
√
}.
, w2 = √
2
2
14
La base estándar de S = ∧P es {1, w1 , w2 , w1 ∧ w2 } y se puede probar que {1∧P , w1 ∧ w2 }, {w1 , w2 }
son los generadores de S + y S − , respectivamente. En este caso S ≈ C4 , S + ≈ C2 × (0, 0), S − ≈
(0, 0) × C2 y se tiene una representación
c : Cl4 ⊗ C → End(S) ≈ End(C4 ).
Las correspondientes acciones de w1 , w2 , w¯1 , w¯2 sobre S se pueden resumir en la siguiente tabla:
0
1
w1 ∧ w2
w1
w2
c(w1 )
√
2w1
0
0
√
− 2w1 ∧ w2
c(w2 )
√
2w2
0
√
2w1 ∧ w2
0
c(w1 )
0
√
2w2
√
− 2 · 1∧V
0
c(w2 )
0
√
− 2w1
0
√
− 2 · 1∧V
Por lo tanto se obtienen las siguientes representaciones matriciales; para las acciones de w1 , w2 , w̄1
y w̄2 sobre S, usando como base el conjunto ordenado {1, w1 ∧ w2 , w1 , w2 }:




0 0 0 0
0 0 0 0


√ 
√ 
0 0 0 −1
0 0 1 0
w1 = 2 · 
w2 = 2 · 
(1.16)
,

1 0 0 0 
0 0 0 0
0 0

0
√ 
0
w1 = 2 · 
0
0
0
0 −1
0 0
0 0
1 0
0
1 0

0
0

,
0

0 0
√ 
0 0
w2 = 2 · 
0 −1
0 0
0
0
0

0 −1
0 0


0 0
0 0
(1.17)
wi + w̄i
−wi + w̄i
√
√
e2i =
, se deduce que las representaciones matriciales
2
2i
para las acciones de e1 , e2 , e3 y e4 sobre S son:
Dado que e2i−1 =

0 0
0 0

e1 = 
1 0
0 1

0
0

e3 = 
0
1

−1 0
0 −1

,
0
0
0
0

0 0 −1
0 1 0

,
−1 0 0 
0
0

0
0

e2 = 
i
0


0 i 0
0 0 −i

,
0 0 0
−i 0 0

0 0 0 i
0 0 i 0


e4 = 

0 i 0 0
i
0
0
0
(1.18)
(1.19)
0
Las anteriores matrices son las matrices de Pauli y las denotaremos simplemente como e1 , e2 , e3 y
e4 , las cuales son la representación matricial de la base ortonormal {e1 , e2 , e3 , e4 } de V ⊂ Cl(V )
en End(S), usando como base el conjunto ordenado {1, w1 ∧ w2 , w1 , w2 }.
Hay otra forma de obtener estas matrices de Pauli, obteniendo explı́citamente el álgebra de
Clifford Cl(V ).
15
Proposición 1.4.1. El álgebra de Clifford Cl4 es isomorfa, como álgebra, a M2 (H).
Demostración: Sea x = (x1 , x2 , x3 , x4 ) ∈ R4 y δ : R4 → M2 (H), definida como
δ(x) = δ(x1 , x2 , x3 , x4 ) =
!
0
−x1 I + x2 i + x3 j + x4 k
.
x1 I + x2 i + x3 j + x4 k
0
Como δ(x) ◦ δ(x) = −kxk2 Id4 , por la propiedad universal de las álgebras de Clifford existe una
extensión δ̄, δ̄ : Cl4 → M2 (H), de δ la cual es inyectiva. De otra parte dimR (Cl4 ) = 16 =
dimR (M2 (H)), entonces, δ̄ es un isomorfismo de álgebras, es decir, Cl4 ≈ M2 (H).
Cada elemento (x1 , x, x3 , x4 ) ∈ R4 es identificado en M4 (C) mediante la transformación δ con
la matriz:


0
0
−x1 + x2 i −x3 + x4 i

0
0
x3 + x4 i −x1 − x2 i



,
x1 + x2 i −x3 + x4 i

0
0
x3 + x4 i x1 − x2 i
0
0
Note que sı́ x ∈ {(1, 0, 0, 0), (0, 1, 0, 0), (0, 0, 1, 0), (0, 0, 0, 1)}, entonces, δ(x) es una de las matrices
de Pauli. Sı́ Qx = x1 I + x2 i + x3 j + x4 k, entonces, la representación de x en M4 (C) está dada por:
!
t
0 −Q¯x
Qx
0
+
+ +
+
Para cada elemento x = x1 e1 + x2 e2 + x3 e3 + x4 e4 ∈ V , s+ = s+
1 1∧ P + s2 w1 ∧ w2 ≈ (s1 , s2 ) ∈ S ,
−
−
− −
−
−
s = s1 w1 P + s2 w2 ≈ (s1 , s2 ) ∈ S . Sı́ Qx = x1 I + x2 i + x3 j + x4 k ∈ H; la acción de Clifford de
V sobre S ± , está dada por:
V ⊗ S+ → S−,
V ⊗ S− → S+,
1.4.1.
x ⊗ s+ → Qx s+
(1.20)
x ⊗ s− → −Q̄tx s− .
(1.21)
Dualidad
Sea V un espacio vectorial cuatro dimensional con un producto interno h, i. Podemos emplear
el producto interno para identificar a V con su dual V ∗ . Sea {e1 , e2 , e3 , e4 } una base ortonormal
orientada de V .
Definición 1.4.2 (Operador de Hodge). El operador estrella de Hodge ?:
? : ∧2 V → ∧2 V
es definido por extensión lineal como
?(ei ∧ ej ) = (er ∧ es )
16
donde (i, j, r, s) es una permutación par de (1, 2, 3, 4). De hecho podemos definir el operador ? de
Hodge,
? : ∧p V → ∧4−p V, p = 0, 1, 2, 3, 4,
por
?(1) = e1 ∧ e2 ∧ e3 ∧ e4 ,
?(ei ) = er ∧ es ∧ et ,
donde (i, r, s, t) es una permutación par de (1, 2, 3, 4)
El operador ? de Hodge está bien definido, i.e, no depende de la base ortonormal orientada con
la cual se define y sobre p-formas satisface la identidad ?2 = (−1)p(4−p) = (−1)p , en particular
para p = 2 tenemos que ?2 = 1.
Proposición 1.4.3. El espacio vectorial ∧2 V , puede ser descompuesto como la suma directa
∧2 V = ∧2+ V ⊕ ∧2− V,
donde ∧+ V 2 = {w ∈ ∧2 V : ?w = w} y ∧− V 2 = {w ∈ ∧2 V : ?w = −w}.
Demostración: La prueba es similar a la del Teorema 1.2.6.
El espacio vectorial ∧2+ V es generado por
f1 =
e1 ∧ e2 + e3 ∧ e4
e1 ∧ e3 + e4 ∧ e2
e1 ∧ e4 + e2 ∧ e3
, f2 =
, f3 =
,
2
2
2
(1.22)
y ∧2− V es generado por
e1 ∧ e2 − e3 ∧ e4 ˆ
e1 ∧ e3 − e4 ∧ e2 ˆ
e1 ∧ e4 − e2 ∧ e3
fˆ1 =
, f2 =
, f3 =
.
2
2
2
(1.23)
Los elementos de ∧2+ V y ∧2− V son llamados los tensores alternantes auto-duales (SD) y los tensores
alternantes anti-auto-duales (ASD) respectivamente. Los correspondientes elementos, en el álgebra
de Clifford Cl(V ) = ∧V , de los elementos (1.22) son:

f1
=
f2
=
f3
=
−i

e1 · e2 + e3 · e4
0
=
2
0
0

0

e1 · e3 + e4 · e2
−1
=
2
0
0

0
−i
e1 · e4 + e2 · e3

=
2
0
0
17

0 0 0
i 0 0


0 0 0
0 0 0

1 0 0
0 0 0


0 0 0
0 0 0

−i 0 0
0 0 0

,
0 0 0
0
0
0
(1.24)
(1.25)
(1.26)
!
!
!
−i 0
0 1
0 −i
Como las matrices −i =
,j =
, −k =
, son una base del álgebra de
0 i
−1 0
−i 0
Lie de SU (2) que es Im(H), se tiene que ∧2+ V es justamente el álgebra de Lie de SU (2), representada en End(S + ) y además ∧+ 2( V ) actúa trivialmente sobre S − . En particular se construye
un isomorfismo de ∧2+ V a su(S + ) = {A ∈ M2 (C) : A∗ = −A, traza(A) = 0}; este isomorfismo
es tal que preserva el producto interno de ∧2+ (V ) y el producto interno en su(S + ), definido para
A, B ∈ su(S + ) como:
traza(AB)
.
hA, Bi =
2
Este isomorfismo se extiende a un isomorfismo de álgebras complejificadas:
% : ∧2+ V ⊗R C → su(S + ) ⊗R C = sl(S + ) = {A ∈ M2 (C) : T raza(A) = 0}
∧2+ (V )
?
∧2+ (V )C
≈-
%
(1.27)
su(S + )
?
- sl(S + )
La aplicación
η : S + ⊗ S̄ + → sl(S + ) ⊕ C
(1.28)
hη, φi
hη, φi
,dada por η(φ, η̄) = (φ ⊗ η̄ − traza(φ⊗η̄)
) ⊕ ( traza(φ⊗η̄)
) = (φ ⊗ η̄ −
)⊕(
), donde, φ ⊗ η̄
2
2
2
2
!
φ1 η̄1 φ1 η̄2
es la matriz
, es un isomorfismo entre espacios vectoriales, luego,
φ2 η̄1 φ2 η̄2
End(S + ) ≈ S + ⊗ (S + )∗ ≈ S + ⊗ S̄ + ≈ sl(S + ) ⊕ C ≈ ∧+ VC ⊕ C.
1.4.2.
(1.29)
La función cuadrática
Sı́ representamos
un elemento ϕ = ϕ1 1 + ϕ2 w1 ∧ w2 ∈ S + , ϕ1 , ϕ2 ∈ C, simplemente como
!
ϕ1
ϕ=
, entonces,
ϕ2
!
−i 0
hϕ, e1 · e2 ϕi = hϕ, e3 · e4 ϕi = (ϕ¯1 ϕ¯2 )
0 i
!
0 1
hϕ, e1 · e3 ϕi = hϕ, e4 · e2 ϕi = (ϕ¯1 ϕ¯2 )
−1 0
!
0 −i
hϕ, e1 · e4 ϕi = hϕ, e2 · e3 ϕi = (ϕ¯1 ϕ¯2 )
−i 0
ϕ1
ϕ2
!
ϕ1
ϕ2
= −i(kϕ1 k2 − kϕ2 k2 ),
!
ϕ1
ϕ2
= ϕ̄1 ϕ2 − ϕ̄2 ϕ1 = −2iIm(ϕ1 ϕ̄2 )
!
= −i(ϕ̄1 ϕ2 + ϕ̄2 ϕ1 ) = −2iRe(ϕ1 ϕ̄2 ),
donde ei · ej representa la acción de Clifford de ∧2+ (V ) ⊂ Cl(V ) sobre S + .
18
iP
Lema 1.4.4. La expresión σ(ϕ) = −
hϕ, ei · ej ϕiei · ej , para ϕ ∈ S + , es una 2-forma real
4 i<j
y autodual sobre V .
Demostración. Note que 4iσ(ϕ) = hϕ, f1 ϕif1 + hϕ, f2 ϕif2 + hϕ, f3 ϕif3 , donde f1 , f2 , f3 son la base
de ∧2+ (V ), escrita en la Ecuación 1.22, luego, σ(ϕ) es autodual y es real por que hϕ, fj ϕi, j = 1, 2, 3,
es una expresión puramente imaginaria.
Sea σ : S + → ∧+ (V ), para ϕ ∈ S + , en términos matriciales tenemos que:


kϕ1 k2 − kϕ2 k2
ϕ
ϕ̄
1 2


2
σ(ϕ1 , ϕ2 ) = i 
kϕ2 k2 − kϕ1 k2 
ϕ̄1 ϕ2
2
Teniendo en cuenta 1.29, tenemos que
S+
→ S + ⊗ S̄ + → sl(S + )
→ η(ϕ, ϕ̄) = −iσ(ϕ)
!
kϕ1 k2 ϕ1 ϕ̄2
kϕk2
1 kϕk2
σ(ϕ) = i(ϕ ⊗ ϕ̄ −
Id) = i(
−
2
2
ϕ2 ϕ̄1 kϕ2 k2
0
ϕ
→ ϕ ⊗ ϕ̄
!
0
)
kϕk2
kϕk2
Corolario 1.4.5. Para ϕ ∈ S + , la expresión [ϕ⊗ϕ∗ −
Id] es auto-dual, puramente imaginaria
2
y de traza cero.
Definición 1.4.6. La función σ : S + → ∧2+ V se le denomina la función o forma cuadrática
del espacio vectorial cuatrodimensional V .
Proposición 1.4.7. Sea σ : S + → ∧2+ (V ), para ϕ ∈ S + , se cumple:
kϕk4
4
ikϕk4
hσ(ϕ)ϕ, ϕi = −
2
h%(w)ϕ, ϕi = −2ih%(w), σ(ϕ)i,
kσ(ϕ)k2
(1.30)
=
(1.31)
(1.32)
donde w ∈ ∧2+ (V ) y % : ∧2+ (V ) ⊗ C → sl(S + ) es la Función 1.27.
Demostración: En su(2) la norma es inducida por el producto interno, luego, hA, Bi =
kσ(ϕ)k2 =
−2
P
i<j
hϕ, ei · ej ϕi2
16
1
traza(AB).
2
=
(kϕ1 k2 − kϕ2 k2 )2 + 4Im(ϕ1 ϕ̄2 )2 + 4Re(ϕ1 ϕ̄2 )2
(kϕ1 k2 − kϕ2 k2 )2 + 4kϕ1 k2 kϕ2 k2
=
4
4
(kϕ1 k2 + kϕ2 k2 )2
kϕk4
=
.
4
4
19
Por otro lado
hσ(ϕ)ϕ, ϕi = h−
= −
iX
hϕ, ei · ej ϕiei · ej ϕ, ϕi
4 i<j
iX
hϕ, ei · ej ϕihei · ej ϕ, ϕi
4 i<j
=
iX
hϕ, ei · ej ϕihϕ, ei · ej ϕi
4 i<j
=
i
iX
hϕ, ei · ej ϕi2 = − kϕk4
4 i<j
2
Un elemento %(w) ∈ ∧2+ VC ≈ sl(S + ) es de la forma ρ(w) = α1 f1 +α2 f2 +α3 f3 donde α1 , α2 , α3 ∈ C,
y f1 , f2 , f3 ∈ su(S + ) como en la Ecuación 1.22 . Como 4iσ(ϕ) = hϕ, f1 ϕif1 +hϕ, f2 ϕif2 +hϕ, f3 ϕif3 ,
entonces,
t
hρ(w)ϕ, ϕi = ϕ̄ρ(w) ϕ
= ϕ̄(−α¯1 f1 − α¯2 f2 − α¯3 f3 )ϕ
= −(ᾱ1 ϕ̄f1 ϕ + ᾱ2 ϕ̄f2 ϕ + ᾱ3 ϕ̄f3 ϕ)
= −(α¯1 hϕ, f1 ϕi + ᾱ2 hϕ, f2 ϕi + ᾱ3 hϕ, f3 ϕi);
por otra parte, como los elementos f1 , f2 , f3 son ortonorgales y de norma
√
2, entonces,
hρ(w), 4iσ(ϕ)i = hα1 f1 + α2 f2 + α3 f3 , σ(ϕ)i
= ᾱ1 hϕ, f1 ϕikf1 k2 + ᾱ2 hϕ, f2 ϕikf2 k2 + ᾱ3 hϕ, f3 ϕikf3 k2
=
2(α¯1 hϕ, f1 ϕi + ᾱ2 hϕ, f2 ϕi + ᾱ3 hϕ, f3 ϕi);
luego, hρ(w)ϕ, ϕi = −2ihρ(w), σ(ϕ)i.
1.4.3.
Representación spin compleja
Proposición 1.4.8. La representación spin 4S : Spin(4) → Aut(C4 ), de la Definición 1.3.8,
envı́a a Spin(4) en SU (2) × SU (2).
Demostración: El grupo matricial SU (2) es generado, como grupo multiplicativo, por las matrices
de la forma:
!
!
cos θ
sin θ
cos θ i sin θ
,
,
− sin θ cos θ
i sin θ cos θ
!
cos θ − i sin θ
0
,
0
cos θ + i sin θ
para θ ∈ [0, 2π] (Vea detalles en [2]).
20
Como Spin(4) = h{cos t + sin tei ej : t ∈ [0, 2π], 1 ≤ i < j ≤ 4}i ⊂ Cl4 , los elementos 4S (ei ), i ∈
{1, 2, 3, 4}, son las matrices de Pauli, entonces, por cálculo directo tenemos que:


cos t − i sin t
0
0
0


0
cos t + i sin t
0
0


4S (cos t + sin te1 e2 ) = 



0
0
cos t + i sin t
0
0
0
cos t − i sin t
0

cos t + i sin t
0
0
0


0
cos t − i sin t
0
0


4S (cos t + sin te3 e4 ) = 



0
0
cos t + i sin t
0
0
0
0
cos t − i sin t


cos t sin t
0
0
− sin t cos t
0
0 


4S (cos t + sin te1 e3 ) = 
,
 0
0
cos t − sin t
0
0
sin t cos t


cos t sin t
0
0
− sin t cos t
0
0 


4S (cos t + sin te2 e4 ) = 

 0
0
cos t sin t 
0
0
− sin t cos t


cos t
−i sin t
0
0
−i sin t
cos t
0
0 


4S (cos t + sin te1 e4 ) = 
,
 0
0
cos t i sin t
0
0
i sin t cos t


cos t
−i sin t
0
0
−i sin t
cos t
0
0 


4S (cos t + sin te2 e3 ) = 
.
 0
0
cos t
−i sin t

0
0
−i sin t
cos t
Este cálculo junto con la observación inicial, implica la proposición deseada.
Como Cl4 ⊗C es isomorfo al espacio vectorial M4 (C) (de matrices 4×4 con entradas complejas),
entonces, la representación spin compleja 4S , en términos matriciales de un elemento u ∈
Spin(4) está dada por
!
A+
0
u=
∈ M4 (C),
0 A−
donde A± ∈ SU (2).
Como S + = C2 × (0, 0) y S − = (0, 0) × C2 , u actúa sobre s+ ∈ S + , y s− ∈ S − como
!
!
A+
0
A+
0
4S
(s+ ) = A+ s+ , 4S
(s− ) = A− s− .
0 A−
0 A−
21
Las matrices A± ∈ M2 (C), son las representaciones matriciales de las transformaciones 4±
S
definidas sobre End(S + ).
Recordemos que en términos matriciales todo elemento x = (x1 , x2 , x3 , x4 ) ∈ R4 ⊂ Cl4 ⊗ C ≈
M4 C es de la forma
!
t
0 Q¯x
x=
,
Qx
0
donde Qx = x1 I + x2 i + x3 j + x4 k ∈ H.
La función spin ρ : Spin(4) → SO(4), está dada por ρu (x) = uxu−1 , para u = (A+ , A) ∈
Spin(4) = SU (2) × SU (2) y x ∈ R4 .
Tenemos que
!
!
!
A+
0
0 Q̄tx
Āt+
0
ρu (x) = uxū =
0 A−
Qx 0
0 Āt−
!
!
t
0
A+ Q̄t Āt−
0
A− QĀt+
=
=
,
A− QĀt+
0
A− QĀt+
0
luego, el representante matricial de ρu (x) en el álgebra de los Cuaterniones H es A− QĀt+ .
1.4.4.
El grupo Spinc (4)
Recordemos que Spinc (4) = (Spin(4) × S 1 )/Z2 = (SU (2) × SU (2) × S 1 )/Z2 .
Sea f : SU (2) × SU (2) × S 1 → U (2) × U (2), dada por f (A+ , A− , λ) = (λA+ , λA− ), para,
(A+ , A− , λ) ∈ SU (2) × SU (2) × S 1 ; Ker(f ) = {(A+ , A− , 1), (−A+ , −A− , −1)} ≈ Z2 .
Luego Spinc (4) = (SU (2) × SU (2) × S 1 )/Z2 = f (SU (2) × SU (2) × S 1 ) = (Ǎ+ , Ǎ− ) ∈
U (2) × U (2) : det(A+ ) = det(A− ) = {(λA+ , λA− ) : A+ , A− ∈ SU (2), λ ∈ U (1) = S 1 } =
!
λA+
0
c
Spin (4) =
: A+ , A− ∈ SU (2), λ ∈ U (1) = S 1
(1.33)
0
λA−
La función ρ : Spin(4) → SO(4) puede ser extendida a una función ρ̌ : Spinc (4) → SO(4)
definida como:
!
λA+
0
ρ̌
(Q) = A− Q(A+ )−1 ;
0
λA−
la cual coincide con la presentada en el caso general.
También existe un homomorfismo de grupos det : Spinc (4) → U (1), dado por det(λA+ , λA− ) =
2
λ . Por último, el grupo Spinc (4) actúa sobre S+ y S− como:
!
!
λA+
0
λA+
0
4̌S
(s+ ) = A+ s+ , 4̌S
(s− ) = A− s− .
0
λA−
0
λA−
22
C A P Í T U L O
2
Haces Fibrados
En el presente capı́tulo se desarrolla el lenguaje por medio del cual se trabajará en el resto
del trabajo. La primera noción fundamental será la de haz fibrado, y como casos particulares de
esta los haces vectoriales y haces principales. La segunda noción fundamental será la de conexión
que es la generalización a haces de las conexiones que se estudian en geometrı́a riemanniana las
cuales determinan el concepto de transporte paralelo. Se define el concepto de conexión para haces
principales, visto como una forma, y haces vectoriales, visto como una diferenciación covariante. Se
muestra que estas nociones en haces vectoriales y haces principales son equivalentes en cierto sentido. Finalmente se termina dando un breve repaso de algunas nociones de Geometrı́a riemanniana
y se introducen conceptos como el de curvatura.
Los tópicos desarrollados en este capı́tulo siguen a [21] y algunas anotaciones fueron sacadas
de [10], [19] y [18].
2.1.
2.1.1.
Nociones básicas de Teorı́a de Lie
Algebras de Lie
Definición 2.1.1. Una K-álgebra de Lie sobre K, K ∈ {R, C},es un espacio vectorial g sobre K,
junto con una función K-lineal [, ] : g × g → g llamada el corchete de Lie , tal que para todo
x, y, z ∈ g,
[x, y] = −[y, x], (Antisimetrı́a)
[[x, y], z] + [[y, z], x] + [[z, x], y] = 0.
(Identidad de Jacobi)
Ejemplo 2.1.2.
1. Sea Mn (K) el conjunto de matrices n × n con entradas en K, (K ∈ {R, C}); Mn (K) es un
álgebra de Lie, cuyo corchete de Lie o conmutador es definido como,
[A, B] = AB − BA,
el cual satisface las condiciones de la definición 2.1.1.
23
2. Sea X una variedad diferenciable, un campo vectorial suave de X es una aplicación suave
S
v : X → x∈X {x} × Tx X, tal que para todo x ∈ X, v(x) ≡ vx ∈ {x} × Tx X, donde Tx X es el
espacio tangente de x en la variedad X. Un campo vectorial, v, es lo mismo que una aplicación
v : C ∞ (X, R) → C ∞ (X, R), donde C ∞ (X, R) es el anillo de las funciones reales suaves definidas
sobre X y vx (f ) ≡ v(f )(x), x ∈ X y f ∈ C ∞ (X, R) . Sean {xi } las coordenadas de X dadas por
una carta U de la variedad X, el espacio Tx X, para x ∈ U , posee una base inducida por estas
∂
coordenadas dada por { ∂x
}, luego, en términos de estas coordenadas, en U , tenemos que,
i
X
i ∂f i
v(f )(x) =
vx
, vx ∈ R.
∂x
i
x
i=1
Sean v, w dos campos vectoriales suaves de X, entonces, el corchete de Lie es definido como
[v, w]f = v(wf ) − w(vf )
(2.1)
; en términos de un sistema de coordenadas locales tenemos que:
[v, w]f =
X
i,j=1
(v i
∂wj
∂v j ∂f
− wi
)
.
∂xi
∂xi ∂xj
Luego el conjunto de campos vectoriales suaves de una variedad diferenciable es un ejemplo de
álgebra de Lie infinitodimensional.
2.1.2.
Grupos de Lie
Definición 2.1.3. Un grupo topológico es un espacio topológico G que posee estructura de grupo
cuyas operaciones internas de multiplicación, (x, y) → x·y, y de inversión, x → x−1 , son continuas.
Definición 2.1.4. Sea G un grupo topológico y Y un espacio topológico, una acción a izquierda
(respectivamente a derecha) de G sobre Y es una aplicación continua σ : G × Y → Y ,
σ(g, y) = g · y (respectivamente σ : Y × G → Y , σ(y, g) = y · g), la cual satisface:
i). Para todo y ∈ Y y eG la identidad de G, eG · y = y (respectivamente y · eG = y).
ii). Para todo y ∈ Y y todo g1 , g2 ∈ G, (g1 g2 )·y = g1 ·(g2 ·y) (respectivamente, y·(g1 g2 ) = (y·g1 )·g2 ).
Definición 2.1.5. Una acción a izquierda de G sobre Y se dice ser :
1. Efectiva sı́ y = g · y, para todo y ∈ Y , implica que g = e.
2. Libre sı́ y = g · y, para algún y ∈ Y , implica que g = e.
3. Transitiva sı́, dados dos puntos y1 , y2 ∈ Y , existe g ∈ G tal que y1 = g · y2 .
Dado y ∈ Y , la órbita de y es el conjunto Gy = {g · y : g ∈ G} ⊂ Y . El estabilizador de y es
el subgrupo {g ∈ G : g · y = y} ⊂ G.
Observación: Las definiciones anteriores se tienen, para las acciones de grupo a derecha y se
definen de manera análoga.
Definición 2.1.6. Un grupo de Lie es una variedad diferenciable G que posee estructura de
grupo cuyas operaciones internas de multiplicación, (x, y) → x · y, y de inversión, x → x−1 , son
suaves.
24
Definición 2.1.7. Una subvariedad suave, H, de un grupo de Lie, G, que es a la vez un subgrupo
de G, en el sentido algebraico, es un subgrupo de Lie .
Ejemplo 2.1.8.
El grupo de matrices Gln (K) = {A ∈ Mn (K) : A es invertible}, K ∈ {C, R}, es un grupo de Lie
cuya multiplicación interna de grupo es la multiplicación usual de matrices.
Definición 2.1.9. Un subgrupo de Lie de Gln (K) es un grupo matricial de Lie sobre K.
Algunos ejemplos de Grupos matriciales de Lie son: O(n) = {A ∈ Gln (R) : A−1 = AT },
SO(n) = {A ∈ O(n) : det(A) = 1}, U (n) = {A ∈ Gln (C) : A−1 = A∗ }, SU (n) = {A ∈ U (n) :
det A = 1}, Spin(n).
Sea G un grupo matricial de Lie, G ⊂ Mn (K); sı́ γ : (−ε, ε) → G, ε > 0, es una curva de
G, entonces, para cualquier t ∈ (−ε, ε), γ 0 (t) es un elemento de Mn (K), luego, TeG G puede ser
considerado como un subespacio vectorial de Mn (K). En TeG G definimos el corchete de Lie, para
A, B ∈ TeG G, como [A, B] = AB − BA.
Proposición 2.1.10. Sea G un grupo matricial de Lie, G ⊂ Mn (K), sı́ A, B ∈ TeG G, entonces,
AB − BA = [A, B] ∈ TeG G.
Demostración: Para A, B ∈ TeG G, existen α y β curvas diferenciables en G para las cuales α(0) =
β(0) = eG y α0 (0) = A; β 0 (0) = B. Vamos a probar que existe una curva diferenciable γ en G tal
que γ(0) = eG y γ 0 (0) = [α0 (0), β 0 (0)] = [A, B]. Consideremos la función
F : Dom(α) × Dom(β) → G;
F (s, t) = α(s)β(t)α(s)−1
Para cada s ∈ Dom(α), la función F (s, ·) : Dom(β) → G es una curva diferenciable en G con
F (s, 0) = eG . Diferenciando tenemos que
dF (s, t) = α(s)β 0 (0)α(s)−1
dt t=0
de esto modo probamos que
α(s)β 0 (0)α(s)−1 ∈ TeG G, s ∈ Dom(α)
Dado que TeG G es un subconjunto cerrado de Mn (k) (por ser espacio vectorial finitodimensional),
tenemos que
1
lı́m
α(s)β 0 (0)α(s)−1 − β 0 (0) ∈ g
s→0 s
Como resultado de la regla del producto (aplicada a α(t) · α(t)−1 = eG ) tenemos que:
d
(α(t)−1 ) = −α(t)−1 α0 (t)α(t)−1
dt
25
Ası́ pues, tenemos que
1
lı́m
α(s)β 0 (0)α(s)−1 − β 0 (0)
s→0 s
=
d α(s)β 0 (0)α(s)−1
ds s=0
= α0 (0)β 0 (0)α−1 (0) − α(0) β 0 (0)α(0)−1 α0 (0)α(0)−1
y como α(0) = β(0) = eG , entonces,
d α(s)β 0 (0)α(s)−1 = α0 (0)β 0 (0) − β 0 (0)α0 (0) = [α0 (0), β 0 (0)]
ds s=0
Lo cual prueba que [α0 (0), β 0 (0)] = [A, B] ∈ TeG G.
Definición 2.1.11. Sea G un grupo matricial de Lie, el espacio tangente G en el elemento unidad
eG ∈ G, TeG = g, es el álgebra de Lie asociada a G .
Para G y H grupos matricales de Lie, sı́ φ : G → H es un homomorfismo diferenciable, entonces,
la derivada de φ en eG ∈ G:
dφeG : TeG G → Tφ(e)=eH H
es una transformación lineal entre las álgebras de Lie g y h de G y H respectivamente, la cual
será denotada simplemtente como dφ.
Proposición 2.1.12. Sean G y H dos grupos matriciales de Lie y φ : G → H un homomorfismo
diferenciable, entonces, la derivada dφ : g → h es un homomorfismo de álgebras de Lie, i.e., para
A, B ∈ g tenemos que
dφ([A, B]) = [dφ(A), dφ(B)].
Demostración: Siguiendo las ideas y la notación del en la prueba del Teorema 2.1.10, para curvas
diferenciables, α, β en G con α(0) = β(0) = I, podemos usar la composición
φ ◦ F (s, t) = φ(F (s, t)) = φ(α(s))φ(β(t))φ(α(s))−1 ,
luego,
[dφ(α0 (0)), dφ(β)0 (0)] =
[(φ ◦ α)0 (0), (φ ◦ β)0 (0)]
∂ 2 φ(F (s, t)) =
∂s∂t
s,t=0
∂ 2 F (s, t) = dφ(
) = dφ[α0 (0), β 0 (0)].
∂s∂t s,t=0
26
2.1.3.
Exponencial de matrices
Definición 2.1.13. Sea A ∈ Mn (k), la exponencial de A se define como
exp(A) =
X An
n!
(2.2)
n≥0
Es conocido que la serie 2.2 converge para todo A ∈ Mn (K), donde Mn (K) posee la métrica
kAxk
. La exponencial de una matriz goza de las siguientes
usual de matrices kAk =
sup
x∈Rn −{0} kxk
propiedades:
Proposición 2.1.14. Sean A, B ∈ Mn (k), entonces,
1. exp(A + B) = exp(A) exp(B), sı́ [A, B] = 0.
2. det(exp(A)) = etraza(A) , en particular, exp(A) ∈ Gln (k).
3. La función exp : Mn (k) → Gln (k), definida por A → exp(A) es C ∞ , i.e., suave.
4. Para cualquier A ∈ Mn (k), la curva t → exp(tA) es un homomorfismo suave del grupo aditivo
d
R al grupo Gln (k) , tal que dt
(exp(tA))t=0 = A.
5. Existen vecindades abiertas U ⊂ g, V ⊂ G, de 0 y 1, respectivamente para las cuales la función
exp : U ⊂ g → V ⊂ G,
es un difeomorfismo local.
Es posible expresar el álgebra de Lie g de un grupo matricial de Lie G en términos de la función
exponencial:
Proposición 2.1.15. Sea G un grupo matricial de Lie y g su correspondiente álgebra de Lie,
entonces,
g = {A ∈ Mn (k) : exp(tA) ∈ G para todo t ∈ R}
Para un grupo matricial G, con álgebra de Lie g y para A ∈ g, tenemos que exp(A) ∈ G, por
ende, exp : g → G, es una aplicación que nos permite conectar la estructura algebraica de G con
la estructura lineal de g.
Lema 2.1.16. El álgebra de Lie de O(n), denotada como o(n), es el conjunto de matrices antisimétricas de Mn (R). Análogamente, el álgebra de Lie de U (n), denotada como u(n), es el conjunto
de matrices antihermitianas de Mn (C).
Demostración: Sea α : (−1, 1) → O(n) una curva suave la cual satisface α(0) = I. Como α(t)T α(t) =
d
α(t)T α(t) = 0, consecuentemente, α0 (t)T α(t) + α(t)T α0 (t) = 0, lo cual implica
I, entonces,
dt
que, α0 (0)T + α0 (0) = 0, luego α0 (0) es antisimétrica. Por otro lado, sı́ A es una matriz antisimétrica, consideremos la curva α : (−1, 1) → Gln (R); α(t) = exp(tA), entonces, α(t)T α(t) =
exp(tA)T exp(tA) = exp(tAT ) exp(tA) = exp(−tA) exp(tA) = I. Ası́ tenemos que α(t) es una curva α : (−1, 1) → O(n), tal que α0 (0) = A, entonces, A ∈ o(n). Por lo tanto o(n) es el conjunto de
matrices antisimétricas de Mn (R). Del mismo modo se tiene que u(n) es el conjunto de matrices
antihermitianas.
27
Corolario 2.1.17. El álgebra de Lie de SO(n), denotada como so(n), es el conjunto de matrices
antisimétricas de Mn (R). El álgebra de Lie de SU (n), denotada como su(n), es el conjunto de
matrices antihermitianas con traza cero de Mn (C).
Demostración: El primer enunciado es consecuencia directa de la Proposición anterior, ya que
SO(n) es localmente idéntico a O(n). El segundo enunciado requiere un poco más de trabajo, sea
det : U (n) → S 1 , la función determinante, por el Teorema de la Función Implı́ta det−1 = SU (n) es
una subvariedad suave de U (n) tal que dim(SU (n)) = dim(U (n)) − dim(S 1 ) = dim(U (n)) − 1. Por
otro lado, sea traza : u(n) → iR, es una transformación lineal sobreyectiva, por lo tanto el conjunto
de matrices antihermitianas de traza cero es un espacio vectorial de dimensión dim u(n) − 1 =
dim(U (n)) − 1. Sea A ∈ u(n), tal que traza(A) = 0, entonces, para t ∈ C, det(exp(tA)) =
exp(traza(tA)) = exp(0) = 1, por lo tanto exp(tA) ∈ SU (n) para todo t ∈ C, lo cual prueba que
A ∈ su(n) y como dim(su(n)) = dim({A ∈ u(n) : traza(A) = 0}), entonces, su(n) = {A ∈ u(n) :
traza(A) = 0}.
2.1.4.
Representación adjunta
Sea G un grupo matricial de Lie y g ∈ G. Definimos Adg : G → G por Adg (h) = ghg −1 para
cada h ∈ G, Adg es claramente un difeomorfismo, e induce un automorfismo de g, d(Adg ) = adg .
Definición 2.1.18 (Representación adjunta). La función G → Aut(g), dada por g → adg para
g ∈ G, es llamada la representación adjunta de G
Dado que adgh = adg ◦ adh , para todo g, h ∈ G, la representación adjunta de G es un homomorfismo de grupos.
Lema 2.1.19. Sea G un grupo matrical de Lie, con álgebra de Lie g, sı́ g ∈ G, entonces, para
cada A ∈ g, gAg −1 ∈ g y el isomorfismo adg : g → g es dado por adg (A) = gAg −1 .
Demostración. Sea A ∈ g, luego existe una curva suave α en G con α(0) = eG y α0 (0) = A;
adg (α0 (0)) = (d(Adg ))(α0 (0)) = (Adg ◦ α)0 (0), esta última es consecuencia de la regla de la cadena.
Como (Adg ◦α)(t) = gα(t)g −1 , diferenciando obtenemos que adg (A) = (Adg ◦α)0 (0) = gα0 (0)g −1 =
gAg −1 . En particular, g (como conjunto de matrices) es cerrado bajo conjugación por elementos
de G.
2.2.
Haces Fibrados
Definición 2.2.1. Un haz fibrado diferenciable (P, π, X, F, G) consiste de los siguientes elementos:
i). Una variedad diferenciable P , llamada el espacio total.
ii). Una variedad diferenciable X, llamada el espacio base.
iii). Una variedad diferenciable F , llamada la fibra.
iv). Una función suave π : P → X sobreyectiva llamada la proyección de P sobre X. La imagen
28
inversa π −1 (x) = Fx ≈ F es llamada la fibra en el punto x ∈ X.
v). Un grupo de Lie G, tal que G es un subgrupo de Aut(F ) .
vi). Un cubrimiento abierto Υ = {Uα }α∈Γ de la variedad X tal que para todo x0 ∈ X, existe
Uα ∈ Υ y un difeomorfismo Ψα : π −1 (Uα ) → Uα × F de la forma Ψi = (π, ψi ), es decir, el
siguiente diagrama es conmutativo:
π −1 (Uα ) ⊂ P
Ψα HH π
HH
j
- X
Uα × F
π1
donde π1 es la proyección natural de Uα × F ⊂ X × F → X. El par (Uα , Ψα ) se denomina una
trivialización local y la familia {(Uα , Ψα )}α∈Γ se denominan una trivialización del haz fibrado.
vii). La función ψα,x ≡ ψα |Px : Px → F es un difeomorfismo. Sobre Uα ∩ Uβ 6= ∅, la aplicación
−1
gα,β ≡ ψα,x ◦ ψβ,x
: F → F , es un elemento de G. Entonces ψα y ψβ están relacionadas por una
función suave gαβ : Uα ∩ Uβ → G
−1
gαβ (x) = ψα,x ◦ ψβ,x
;
y tal que
−1
Ψ−1
β (x, f ) = Ψα (x, gαβ (x)f );
las funciones {gαβ } son llamadas las funciones de transición del haz fibrado .
Lema 2.2.2 (Condición cocı́clica). Sea {(Uα , Ψα )}α∈Γ una trivialización del haz fibrado (P, π, X, F, G)
cuyas funciones de transición son {gαβ }, entonces, en Uα ∩Uβ ∩Uγ 6= ∅, las funciones de transición
satisfacen gαβ · gβγ · gγα = e y gαα = e.
Definición 2.2.3. Sea H = (P, π, X, F, G) un haz fibrado, una sección del haz H es una función
suave s : X → P , tal que s ◦ π = IdX , i.e., es una elección suave de un elemento de P en cada
fibra Px del haz, x ∈ X. El conjunto de secciones de H será denotado como Γ(H).
Definición 2.2.4. Sean H = (P, π, X, F, G) y H 0 = (P 0 , π 0 , X 0 , F 0 , G0 ), dos haces fibrados, una
función entre haces es una función suave f : P → P 0 , tal que la restricción de f en cada fibra
de P es una función entre fibras, i.e., para cada x ∈ X existe un único y ∈ X 0 tal que f (Fx ) ⊂ Fy0 .
Dos haces fibrados H = (P, π, X, F, G) y H 0 = (P 0 , π 0 , X, F 0 , G0 ) sobre una misma variedad X
son equivalentes sı́ existe una función entre haces f : P 0 → P que es un difeomorfismo y que
además f (Px0 ) = Px , para cada x ∈ X.
Dado un haz fibrado H = (P, π, X, F, G), una pregunta natural es: ¿a partir de que mı́nima
información puedo reconstruir todo el haz fibrado H, o, que información lo determina?; el siguiente
Teorema nos da la respuesta a esa pregunta:
Teorema 2.2.5 (Teorema de Reconstrucción). Sean X y F dos variedades diferenciables
finito-dimensionales, G un grupo de Lie y {Uα }α∈Γ un cubrimiento abierto de X. Supongamos
que, para todo α, β ∈ Γ con Uα ∩ Uβ 6= ∅ hay una función suave
gαβ : Uα ∩ Uβ → G ⊂ Aut(F )
29
y que estas funciones tienen la propiedad de que para Uα ∩ Uβ ∩ Uγ 6= ∅
gαβ (x)gβγ (x)gγα (x) = eG ,
para todo x ∈ Uα ∩Uβ ∩Uγ , entonces, existe un haz fibrado (P, π, X, F, G) el cual tiene al cubrimiento
{Uα }α∈J como su trivialización y a las funciones gαβ como sus funciones de transición, además
es único bajo equivalencias de haces fibrados.
Demostración. A continuación presentaremos la construcción de dicho haz:
Sea P̌ = {(α, x, f ) ∈ Γ × X × F : x ∈ Uα }, definimos la relación de equivalencia ∼ sobre P̌
como:
(α, x, f ) ∼ (β, y, g) sı́ y solo sı́ x = y ∈ Uα ∩ Uβ , f = gαβ (x)g.
Sea P = P̌ / ∼, denotamos la clase de equivalencia de (α, x, f ) por [α, x, f ]; definimos la proyección
π : P → X por π([α, x, f ]) = x, π : P → X. La trivialización local Ψα : Uα × F → π −1 (Uα )
está dada por Ψα : (x, f ) = [α, x, f ]. El haz fibrado deseado será entonces (P, π, X, F, G).
Los demás detalles de la prueba se pueden encontrar en [23, Pag 308].
2.3.
Haces principales
Definición 2.3.1. Un haz principal diferencial o simplemente G-haz principal, es un haz
fibrado (P, π, X, F, G), tal que F = G, junto con una acción de grupo σ : P ×G → P , σ(p, g) = p·g,
la cual satisface las siguiente condiciones:
i). Para todo p ∈ P y g ∈ G, π(p · g) = p, i.e., la acción de grupo, σ, preserva las fibras.
ii). Para todo x0 ∈ X, existe un conjunto abierto Uα ⊂ X y un difeomorfismo
Ψα : π −1 (Uα ) → Uα × G
de la forma Ψα = (π, ψα ), y ψα : π −1 (Uα ) → G satisface:
ψα (p · g) = ψα (p) · g,
(equivariancia de la acción de G sobre P )
para p ∈ π −1 (Uα ) y g ∈ G.
Sea sα : Uα → π −1 (Uα ) la sección dada por
sα (x) = Ψ−1
α (x, e),
(2.3)
−1
entonces, la inversa de Ψα , Ψ−1
(Uα ), está dada por Ψ−1
α : Uα × G → π
α (x, g) = sα (x) · g.
Sea x ∈ Uα ∩ Uβ y ψα |Px : Px → G y ψβ |Px : Px → G, entonces, tenemos una función de
transición:
gαβ (x) = ψα |Px ◦ (ψβ |Px )−1 : G → G.
Definimos una función
ǧαβ : Uα ∩ Uβ → G,
30
dada por
ǧαβ (x) = ψα (p)(ψβ (p))−1 ,
para cualquier p ∈ Px , i.e., π(p) = x. Esta función está bien definida ya que, para p, q ∈ Px ,
tenemos que:
Ψβ (p · ψβ (p)−1 ) = (π(p · ψβ (p)−1 ), ψβ (p · ψβ (p)−1 )) = (x, ψβ (p) · ψβ (p)−1 ) = (x, e)
= (x, ψβ (q) · ψβ (q)−1 ) = (π(q · ψβ (q)−1 ), ψβ (q · ψβ (q)−1 )) = Ψβ (q · ψβ (q)−1 ),
Como Ψβ es un difeomorfismo, entonces, p · ψβ (p)−1 = q · ψβ (q)−1 luego ψα (p · ψβ (p)−1 ) = ψα (p) ·
ψβ (p)−1 = ψα (q) · ψβ (q)−1 = ψα (q · ψβ (q)−1 ), i.e., la función ǧαβ está bien definida. Un cálculo
análogo nos permite demostrar el siguiente Lema:
Lema 2.3.2. Para cada x ∈ Uα ∩ Uβ ,
gαβ (x)(g) = ψα |Px ◦ (ψβ |Px )−1 (g) = ǧαβ (x) · g,
para todo g ∈ G. Consecuentemente, en Ui ∩ Uj 6= ∅ tenemos que
sα (x) · ǧαβ (x)
−1
= Ψ−1
α (x, ǧαβ (x)) = Ψα (x, gαβ (x)(e))
= Ψ−1
β (x, e) = sβ (x),
donde sα , sβ son las secciones obtenidas a partir de las trivializaciones ({Ui , Ψi }) y {Uj , Ψj },
respectivamente.
Proposición 2.3.3. Sea P un G-haz principal sobre X. Para todo x ∈ X, la fibra π −1 (x) = Px
es una subvariedad de P .
Demostración: Es una consecuencia inmediata del Teorema de la Función Implı́cita aplicado a la
proyección π : P → X.
Proposición 2.3.4. Sea P un G-haz principal y sea Px la fibra de P en x, x ∈ X, entonces, para
p ∈ Px tenemos que Px = {p · g : g ∈ G} = p · G, i.e., la órbita de p coincide con toda la fibra Px ,
además la acción de grupo, σ, es libre.
Demostración: Por definición de G-haz principal, π(p · g) = π(p) = x, luego {p · g : g ∈ G} ⊂ Px .
Sea q ∈ Px y (U, Ψ) una trivialización local tal que x ∈ U , entonces, ψ(p), ψ(q) ∈ G, sı́ g =
ψ(p)−1 ψ(q) ∈ G, entonces, ψ(p) · g = ψ(q) = ψ(p · g), luego, Ψ(p · g) = (π(p · g), ψ(p · g)) =
(x, ψ(q)) = (π(q), ψ(q)) = Ψ(q). Como Ψ es inyectiva entonces p · g = q, luego Px ⊂ p · G.
Supongamos, que para p ∈ P , tenemos que existe g ∈ G, tal que, p · g = p, entonces, utilizando
la trivialización (U, Ψ), tenemos que, ψ(p)g = ψ(p · g) = ψ(p), luego g = e y por lo tanto la acción
de grupo, σ, es libre.
Ejemplo 2.3.5.
31
El más simple ejemplo de G-haz principal sobre una variedad X es el haz trival X × G, donde
π : X × G → X es la proyección sobre el primer factor y la acción de G sobre X × G está definida
como (x, h) · g = (x, hg). En este caso la trivialización se reduce a (X, Ψ) donde Ψ es la función
identidad, Ψ = IdX × IdG : π −1 (X) = X × G → X × G. Este es el haz trivial sobre X .
Ejemplo 2.3.6.
Sea X una variedad diferenciable de dimensión n y para x ∈ X, sea Tx X el espacio tangente
de la variedad diferenciable X, el haz tangente está definido como
[
TX =
({x} × Tx X),
x∈X
este haz no es un haz principal, pero hace parte de una clase importante de haces llamados haces
vectoriales, este haz vectorial posee un haz principal asociado llamado el frame bundle . Sea Lx X
el conjunto de bases de Tx X y
[
LX =
({x} × Lx X),
x∈X
y π : LX → X la proyección natural.
Sea xµ las coordenadas de X dadas por una carta Uµ de la variedad diferenciable X. El espacio
tangente de X en un punto x ∈ X, Tx X, posee una base inducida por estas coordenadas dada por
{ ∂x∂ µ }. Dada una base u = {X1 , ..., Xn } de Tx X, u, es expresada en términos de { ∂x∂ µ } como:
Xi =
n
X
Xµij
j=1
∂ ,
∂xµj x
1 ≤ i ≤ m,
donde (Xµij ) ∈ GL(n, R) es una matriz tal que (Xµij ) ∈ GL(n, R). Definimos para LX la trivialización Ψµ : π −1 (Uµ ) → Uµ × GL(n, R) como Ψµ (u) = (x, (Xµij )). La acción de a = (aµij ) ∈
GL(n, R) está dada por a · (x, u) = (x, au), donde au es una nueva base de Tx X definida por el
producto matricial de a y (Xµij ).
Sean Uµ , Uη dos cartas de X con coordenadas xµ , xη respectivamente, tal que Uµ ∩ Uη 6= ∅.
Sı́ x ∈ Uµ ∩ Uη , tenemos que,
Xi =
n
X
j=1
n
Xµij
X
∂ ∂ =
X̄
,
η
∂xµj x j=1 ij ∂xηj x
donde (Xµij ), (Xηij ) ∈ GL(n, R). El cambio de coordenadas está dada por:
Xµij =
n
X
∂xµ ( iη ) X̄ηij
∂xj x
j=1
∂xµ luego las funciones de transición gµη : Uµ ∩ Uη → GL(n, R), se definen como gµη (x) = ( ∂xiη )x .
j
Note que cuando la variedad es Riemanniana, i.e., está dotada de un producto interno en cada
Tx X, podemos tomar el espacio de bases ortonormales en cada espacion tangente de M ; en este caso
las funciones de transición toman sus valores en O(n) ⊂ Gln R, formando un O(m)-haz principal.
Además sı́ la variedad es orientada podemos restringirnos a las bases ortonormales positivamente
orientadas y conseguir un SO(n)-haz principal.
32
2.4.
Haces vectoriales
Definición 2.4.1. Un haz vectorial es un haz fibrado cuya fibra es un espacio vectorial. Un G-haz
vectorial E → X de rango m es un haz fibrado de la forma (E, π, X, Km , G), K ∈ {R, C}.
Por el Teorema de Reconstrucción podemos describir a un haz vectorial n términos de sus
funciones de transición del siguiente modo: Sea X una variedad diferenciable finito-dimensional y
G ⊂ Glm (K) un grupo matricial de Lie y F = Kn . Sea {Uα : α ∈ Γ} un cubrimiento abierto de X,
tal que para cada α, β ∈ Γ con Uα ∩ Uβ 6= ∅ existen funciones de transición
gαβ : Uα ∩ Uβ → G ⊂ Glm (K),
las cuales satisfacen la condición cocı́clica
gαβ · gβγ = gγα ,
Uα ∩ Uβ ∩ Uγ 6= ∅.
sı́
Sea Ě el conjunto de las triplas (α, x, v) ∈ I × X × Km , tal que x ∈ Uα . Definimos una relación de
equivalencia ∼ sobre H por
(α, x, v) ∼ (β, y, w) ⇔
x = y ∈ Uα ∩ Uβ ,
v = gαβ (x)w.
Denotemos las clases de equivalencia de (α, x, v) por [α, x, v] y el conjunto de clases de equivalencia
por Ě/ ∼. Definimos una proyección π : Ě/ ∼→ M por π([α, x, v]) = x y definimos
Ψi : π −1 (Uα ) → Uα × Km por Ψα ([α, x, v]) = (x, v)
(2.4)
Sı́ σ ∈ γ(E), es una sección del haz vectorial E, podemos escribir σ(p) = [i, x, σi (p)], donde
σi : Ui → Km es una función suave. Las funciones σi son llamadas los representantes locales
de la sección σ y ellos esán relacionados uno con el otro por la fórmula
en Ui ∩ Uj .
σi = gij σj
(2.5)
Para una variedad diferenciable X, los siguientes son haces vectoriales:
i). Los conjuntos de la forma X × Kn , son haces vectoriales denominados triviales
ii). El haz tangente T X,
[
TX =
{x} × Tx X,
x∈X
es un haz vectorial de dimensión 2 dim(X) y cuyas fibras son los espacios tangentes de la variedad
diferenciable X, además sus funciones de transición coinciden con las del frame bundle LX (vea
ejemplo 2.3.6), y al igual que LX, sı́ la variedad X es riemanniana los valores de las funciones de
transición del haz tangentese se reducen al grupo O(n); sı́ la variedad X es orientable y riemanniana
las funciones de transición se reducen al grupo SO(n). Las secciones del haz tangente T X son
llamadas campos vectoriales y serán denotadas por Γ(T X) o por X (X).
iii). El haz cotangente T ∗ X,
[
T ∗X =
{x} × (Tx X)∗ ,
x∈X
33
donde (Tx X)∗ es el espacio dual del espacio vectorial Tx X, T ∗ X es un haz vectorial de dimensión
2n. Las secciones suaves del haz cotangente son llamadas formas diferenciables de orden 1.
iv). Los siguientes conjuntos también son haces vectoriales:
[
El conjunto Tsr (X) =
{x} × Tsr (x), es llamado el haz tensorial de tipo (r, s) sobre X
x∈X
El conjunto
k
^
X=
[
{x} × ∧k (Tx X),
es llamado el k-ésimo haz exterior sobre X,
x∈X
donde Tsr (x) : Tx X ⊗ · · · ⊗ Tx X ⊗ Tx∗ X ⊗ · · · ⊗ Tx∗ X y
|
{z
} |
{z
}
r−veces
Vk
(Tx X) son los tensores alternantes de
s−veces
Vk
orden k del espacio vectorial Tx X. Las secciones suaves del haz
X son denominadas formas
k
diferenciables de orden k y es denotada como Ω (X).
El hecho de que las funciones de transición tomen sus valores en un grupo matricial G es
importante en el sentido de que los invariantes de tipo lineal que preserva el grupo G, pueden
ser definidos, tambien, de manera consistente en cada fibra del haz vectorial. Por ejemplo sı́ G =
O(m) ⊂ Glm (R), entonces, G tiene la propiedad importante de que preserva el producto interior
usual de Rn , i.e., para A ∈ O(m) y x, y ∈ Rn , hAx, Ayi = xt (A)t Ay = xt y = hx, yi; sı́ E = Ě/ ∼
es un haz vectorial determinado por las funciones de transición gαβ : Uα ∩ Uβ → O(m), tenemos
que para una clase de equivalencia [α, x, v] de E podemos definir un producto interno en cada fibra
Ex = {[α, x, v] ∈ E : v ∈ Rn }, x ∈ X, para vx = [α, x, v] y wx = [α, x, w] por hvx , wx i = hv, wi, la
cual no depende del representante escogido de la clase de equivalencia, ya que sı́ vx = [α, x, v] =
[β, x, v 0 ] y wx = [α, x, w] = [β, y, w0 ], entonces, hvx , wx i = hv, wi = hgαβ v 0 , gαβ w0 i = hv 0 , w0 i.
Similarmente sı́ G es el grupo de matrices unitarias U (m) ⊂ Glm (C), un U (m)-haz es un haz
vectorial complejo de rango m, que posee un producto hermitiano en cada fibra ,i.e., para cada
x ∈ X tenemos una aplicación h ix : Ex × Ex → C, definida como hvx , wx i = (v̄x )t · wx , esta
aplicación está bien definida y no depende del representante al igual que antes.
Definición 2.4.2. Un haz vectorial ortogonal de rango m , es un haz vectorial cuyas funciones de
transición toman sus valores en O(m). Un haz vectorial hermitiano de rango m, es un haz vectorial
cuyas funciones de transición toman sus valores en U (m).
Definición 2.4.3. Un haz vectorial lineal real (ó complejo) es un haz vectorial real (ó complejo)
de rango uno.
2.4.1.
Operaciones sobre haces vectoriales
Al igual que en espacios vectoriales, entre haces vectoriales se definen operaciones tales como
suma directa ⊕, el producto tensorial ⊗, etc. A continuación presentamos una formalización de la
construcción de tales operaciones.
Definición 2.4.4. Sean π1 : E1 → X y π2 : E2 → X dos haces vectoriales sobre X cuyas funciones
1
2
de transición son {gij
} y {gij
} respectivamente.
34
El haz suma directa E1 ⊕ E2 es aquel cuyas fibras son la suma directa de las fibras E1x ⊕ E2x ,
para cada x ∈ X y cuyas funciones de transición son
!
1
gij
0
1
2
.
gij ⊕ gij =
2
0 gij
El haz producto tensorial E1 ⊗ E2 es aquel cuyas fibras son el producto tensorial de las fibras
1
2
E1x ⊗ E2x para cada x ∈ X y cuyas funciones de transición son gij
⊗ gij
.
Definición 2.4.5. Un homomorfismo lineal de haces vectoriales E1 , E2 sobre X, es una
aplicación f : E1 → E2 , la cual preserva las fibras y la restricción fx : E1x → E2x es una transformación lineal. Un homomorfismo lineal de un haz vectorial sobre sı́ mismo es un endomorfismo
lineal .
El conjunto de homomorfismos lineales, f : E1 → E2 , se denota como Hom(E1 , E2 ); cuando
E1 = E2 = E se denota como End(E).
Sean E1 , E2 dos haces vectoriales, el conjunto de aplicaciones lineales Hom(E1 , E2 ) es un haz
vectorial. Recordemos que para dos espacios vectoriales V, W tenemos que Hom(V, W ) ≈ V ∗ ⊗ W ,
en esta misma dirección Hom(E1 , E2 ) es un haz vectorial cuyas funciones de transición son las del
haz vectorial E1∗ ⊗ E2 . En el caso en que E2 sea un O(m)-haz vectorial (o unU (m)-haz vectorial),
tenemos un producto interno el cual permite identificar a E2∗ con E2 (Ē2 , en el caso en que sea un
U (m)-haz vectorial), entonces, Hom(E1 , E2 ) = E1 ⊗ E2 (ó Hom(E1 , E2 ) = E1 ⊗ Ē2 ).
Lema 2.4.6. Sea L un haz hermitiano lineal, sobre una variedad diferenciable X, entonces Hom(L, L) ≈
C, i.e., es el haz trivial.
Demostración: Sean gij : Ui ∩ Uj → U (1) las funciones de transición del haz vectorial L. Como
Hom(L, L) ≈ L ⊗ L∗ , sus funciones de transición son gij ⊗ ḡij = gij · ḡij = 1, por ende el haz
Hom(L, L), es el haz trivial.
2.4.2.
Haces asociados
Sea π : P → X un G-haz principal sobre X con acción σ : P × G → P , σ(p, g) = p · g. Sea
F una variedad diferenciable y sea ξ : G × F → F , dada por ξ(g, f ) = g · f , una acción suave a
izquierda de G sobre F , esta acción induce una representación ξ, del grupo G, ξ : G → Dif f (F ).
Definimos una acción a derecha de G sobre P × F , “*”, dada por:
(p, f ) ∗ g = (p · g, g −1 · f ).
(2.6)
Denotamos por P ×G F el espacio de órbitas de P × F por la acción “*”. Explı́citamente, la acción
“*” define una relación de equivalencia ∼ sobre P ×F , mediante: (p1 , f1 ) ∼ (p2 , f2 )∗g. La clase que
contiene a (p, f ) = [p, f ] = {(p · g, g −1 · f ) : g ∈ G}, entonces, P ×G F = {[p, f ] : (p, f ) ∈ P × F } y
consideremos a P ×G F con la topologı́a cociente determinada por la aplicación η : P ×G → P ×G F ,
η(p, f ) = [p, f ]. También definimos πG : P ×G F → X por πG ([p, f ]) = π(p). Para cualquier x ∈ X,
−1
πG
(x) = {[p, f ] : f ∈ F }, donde p ∈ π −1 (x).
35
Sı́ (V, Ψ) es una trivialización local del G-haz principal P , Ψ es un difeomorfismo, tal que,
Ψ : π −1 (V ) → V × G con Ψ(p) = (π(p), ψ(p)), ψ(p · g) = ψ(p) · g, para todo p ∈ π −1 (V ) y g ∈ G.
Sea s : V → π −1 (V ) la sección dada por
s(x) = Ψ−1 (x, e).
(2.7)
−1
(V ) por Φ(x, f ) = [s(x), f ];
Φ : V × F → πG
(2.8)
Definimos la aplicación
note que πG (Φ(x, f )) = πG ([s(x), f ]) = π(s(x)) = x, ası́ que la imagen de Φ es un subconjunto de
−1
πG
(V ). Veamos que Φ es un difeomorfismo, para ello observemos que:
−1
πG
(V ) =
[
−1
πG
(x) =
x∈V
[
{[p, f ] : π(p) = x, f ∈ F } = η(π −1 (V ) × F ).
x∈V
−1
i). Veamos que Φ es sobreyectiva. Sea [p, f ] ∈ πG
(V ), sı́, π(p) = x, entonces, π(p) = π(s(x)) = x,
ası́ que existe g ∈ G tal que p = s(x)·g (proposición 2.3.4). Por lo tanto para (s(x)·g, g −1 ·f ) ∈ P ×F
se tiene que (s(x) · g, g −1 · f ) ∼ (s(x), f ), para todo f ∈ F , i.e., (p, g −1 · f ) = (s(x), f ) para
todo f ∈ F , consequentemente, se tiene que, Φ(x, g · f ) = [s(x), g · f ] = [g ∗ (s(x), g · f )] =
[s(x) · g, g −1 · (g · f )] = [p, f ], i.e., Φ es sobreyectiva.
ii). Veamos que Φ es inyectiva. Supongamos que Φ(x1 , f1 ) = Φ(x1 , f2 ), (x1 , f1 ), (x2 , f2 ) ∈ V ×F ,
entonces, (s(x1 ), f1 ) ∼ (s(x2 ), f2 ) ası́ que, en particular, π(s(x1 )) = π(s(x2 )), i.e., x1 = x2 = x,
por lo tanto, (s(x), f1 ) ∼ (s(x), f2 ), luego existe g ∈ G, tal que, s(x) = s(x) · g y f2 = g −1 f1 . Como
la acción σ es libre (Proposición 2.3.4), entonces, g = e y por tanto f1 = f2 , i.e., la función Φ es
inyectiva.
iii). Veamos que Φ es un difemomorfismo. La función Φ es suave pues s y η son suaves, la
−1
inversa de Φ, Φ−1 : πG
(V ) → V × F está dada por Φ−1 ([s(x), f ]) = (x, f ) para todo x ∈ V , i.e.,
Φ−1 ([p, f ]) = (π(p), g · f ), donde p = s(π(p)) · g, para algún g ∈ G, luego φ−1 es suave pues s y π
−1
lo son, Φ−1 es suave, y por tanto Φ : V × F → πG
(V ) es un difeomorfismo.
Por último como πG ◦ Φ(x, f ) = πG ([s(x), f ]) = π(s(x)) = x, por lo tanto hemos probado
que (P ×G F, X, πG , F ) es localmente un haz trivial. Supongamos que (Vi , Ψi ) y (Vj , Ψj ) son dos
trivializaciones del G-haz principal π : P → X con Vi ∩ Vj 6= ∅. Sean si : Vi → π −1 (Vi ) y sj : Vj →
π −1 (Vj ) las secciones definidas como en la Ecuación 2.6 y gij : Vi ∩ Vj → G la función de transición
−1
correspondiente. Cada trivialización proporciona un difeomorfismo Φ−1
: πG
(Vi ) → Vi × F y
i
−1
−1
Φj : πG (Vj ) → Vj × F . Sea (x, f ) ∈ (Vi ∩ Vj ) × F , entonces,
Φ−1
i ◦ Φj : (Vi ∩ Vj ) × F → (Vi ∩ Vj ) × F
Φ−1
i ◦ Φj (x, f )
−1
= Φ−1
i ([sj (x), f ]) = Φi ([si (x) · gij (x), f ])
−1
= Φ−1
· (gij (x) · f )])
i ([si (x) · gij (x), (gij (x))
=
Φ−1
i ([si (x), gij (x) · f ]) = (x, gij (x) · f ).
36
(2.9)
Hemos construido un haz fibrado (P ×G F, X, πG , F ) cuyas fibras son copias de F y sus funciones
de transición están dadas por ξ ◦ gij : Vi ∩ Vj → Dif f (F ).
Definición 2.4.7. Dado un G-haz principal π : P → X y F una variedad diferenciable para la
cual G actúa por izquierda, bajo la acción ξ. El haz fibrado (P ×G F, X, πG , F ) es llamado el haz
fibrado asociado a π : P → X y a la acción izquierda ξ de G sobre F .
Hay un importante tipo de haces inducidos por un G-haz principal π : P → X. Sea V un
K-espacio vectorial finito dimensional y φ : G × V → V , una representación de G sobre V .
El haz vectorial asociado es denotado como P ×φ V → X y es llamado el haz vectorial
asociado con π : P → X y la representación, φ de G.
Proposición 2.4.8. Cada G-haz principal π : P → X, donde G, G ⊂ Glm (K), es un grupo
matricial de Lie, tiene asociado un haz vectorial, llamado el haz de grupo de π : P → X.
Demostración: Como G ⊂ Mn (K), existe una acción natural a izquierda de G sobre Kn , A · v,
A ∈ G, v ∈ Kn , la cual induce el deseado haz vectorial.
Sea E un G-haz vectorial real o complejo de rango m sobre una variedad X. Consideremos el
haz PE de las bases en E, este es un Glm (K)-haz principal cuyas fibras en cada punto x ∈ X,
es el conjunto de bases de cada fibra Ex . La acción de Glm (K) sobre PE es definida como: sea
g = (aij ) una matriz de Glm (K), entonces, dada una base p = (v1 , ..., vm ) de Ex en un punto x,
P
0
definimos, p · g = (v10 , ..., vm
) donde vj0 = k vk akj , j = 1, ..., n; esta acción es claramente suave.
Esta construcción es una generalización de la presentada en el Ejemplo 2.3.6 y el haz principal PE
es llamado el haz de bases asociado a E.
En este punto observaremos que sı́ P → X es un G-haz principal cuyas funciones de transición
están dadas por gij : Ui ∩ Uj → G, y sı́ para un espacio vectorial V , φ : G → Aut(V ) es una
representación de G sobre V , entonces, las funciones de transición del haz P ×φ V están dadas por
φ ◦ gij : Ui ∩ Uj → Aut(V ). Ası́ pues el haz vectorial P ×φ V se presenta de dos maneras:
i). Como el cociente de P × V bajo la relación de equivalencia inducida por “ ∗ ”.
ii). Como un conjunto de clases de equivalencia de I × X × V , donde (i, x, v) ∼ (j, y, w), sı́ x = y ∈
Ui ∩ Uj y v = φ ◦ gij (w). En adelante nos referiremos a P ×φ V usando indistintamente cualquiera
de estas dos presentaciones.
2.4.3.
Campo Vectorial Fundamental
Sea P un G-haz principal sobre X, G un grupo amtricial de Lie, G ⊂ Gln (K). Para cada
x ∈ X, la fibra Px ⊂ P es una subvariedad difeomorfa al grupo de Lie G. Como para todo p,
p ∈ Px ⊂ P , tenemos que Tp (Px ) ⊂ Tp P , entonces, Tp (P ) posee un subespacio vectorial Tp (Px ) el
cual es isomorfo a g, el álgebra de Lie de G.
Consideremos la acción σ, σ : P × G → P, σ(p, g) = p · g, de G sobre P . Para cada p ∈ P
definimos σp : G → P por σp (g) = σ(p, g) = p · g. Definimos una función, también denotada por σ,
de g a Γ(T P ), Γ(T P ) las secciones suaves del haz tangente o simplemente los campos vectoriales
37
suaves de la variedad P, como sigue: Para cada A ∈ g (A vista como un elemento de g ⊂ Mn (K)),
definimos σ(A)(p) = dσp |eG (A) ∈ Tp (P ).
Describiremos a σ del siguiente modo: Definamos α : R → G por α(t) = exp(tA) (vea Sección
2.1.3), entonces, α0 (0) = A y σ(A)(p) = dσp |eG (A) = dσp |eG (α0 (0)) = (σp ◦ α)0 (0). Pero (σp ◦
α)(t) = σ(p, exp(tA)), luego
d
σ(A)(p) =
(p · exp(tA))
.
dt
t=0
Definición 2.4.9. Para cada A ∈ g, el campo vectorial σ(A) ∈ Γ(T P ) es llamado el campo
vectorial fundamental sobre P determinado por A.
Definición 2.4.10. Sea P un G-haz principal sobre X. Para x ∈ X y p ∈ π −1 (x) = Px , el
espacio vectorial Tp (Px ) ⊂ Tp (P ) es llamado el subespacio vertical de P en p, denotado como
V ertp (P ). A los elementos de V ertp (P ) los llamaremos vectores verticales en p.
Proposición 2.4.11. Sea A ∈ g, A 6= 0, entonces, σ(A)(p) 6= 0, para todo p ∈ P .
Demostración: Supongamos lo contrario, que existe p ∈ P , para el cual σ(A)(p) = 0, por lo tanto
p · exp(tA) es constante para cada t, luego, p · exp(tA) = p; como la acción σ es libre (Proposición
2.3.4), entonces, exp(tA) = Id para cada t, pero exp es un difeomorfismo local cerca a cero en G
ası́ que esto contradice que A 6= 0.
Como las fibras de P son invariantes bajo la acción de σ y, para cada A ∈ g, σ(A)(p) es el
vector velocidad en t = 0 de la curva t → p · exp(A) ∈ Px , entonces, σ(A)(p) es un vector vertical
en p para cada A ∈ g. Por lo tanto sı́ fijamos p ∈ P , la asignación A → σ(A)(p) es una función
lineal de g → V ertp (P ). Esta aplicación es un isomorfismo lineal entre espacios vectoriales, ya que
ambos espacios tienen la misma dimensión y por la Proposición anterior es inyectiva.
Corolario 2.4.12. Sea P un G-haz principal sobre X. Para cada p ∈ P , la función A → σ(A)(p)
es un isomorfismo lineal entre el álgebra de Lie de G, g, y V ertp (P ) ⊂ Tp (P ).
Para cada g ∈ G la función Rg : P → P dada por Rg (p) = p · g es un difeomorfismo de P sobre
sı́ mismo. La diferencial
dRg |p : Tp (P ) → Tp·g (P ),
(2.10)
induce una relación entre G y Tp (P ), vı́a la función R, R : Tp (P ) × G → Tpg P , dada por: para
v ∈ Tp (P ),
R(v, g) = dRg |p (v) ∈ Tpg P,
(2.11)
, R(v, g) será denotado simplemente como v · g, esta relación satisface (v + w) · g = v · g + w · g y
para g 0 ∈ G se tiene, por la regla de la cadena, que (v · g) · g 0 = (v · gg 0 ).
Proposición 2.4.13. Sı́ P y P 0 son dos haces principales, cuyas acciones de grupo son σ y σ 0
respectivamente, entonces, para f : P → P 0 , una función entre haces para la cual f (σ(p, g)) =
σ 0 (f (p), g) para p ∈ P, g ∈ G, por la regla de la cadena, tenemos que para todo g ∈ G, p ∈ P ,
v ∈ Tp P , df |p·g (v · g) = df |p (v) · g.
38
2.4.4.
Conexiones sobre haces principales
Sea P un G-haz principal sobre X (asumiremos que G es un grupo matrical de Lie y denotaremos
su álgebra de Lie como g).
Definición 2.4.14. Una conexión es una g-forma ω sobre P , i.e., que para cada p ∈ P tenemos
una aplicación lineal ωp : Tp (P ) → g, la cual satisface las siguientes propiedades:
1. Para cada p ∈ P , g ∈ G, v ∈ Tp P , tenemos que,
ωp·g (v · g) = g −1 · ωp (v) · g
2. ω(σ(A)) = A, i.e., para todo A ∈ g y p ∈ P , ωp (σ(A)(p)) = A, donde g −1 · ωp (v) · g =
adg−1 (ωp (v)), como en el Lema 2.1.19, y donde v · g es como en la Ecuación 2.11.
Definición 2.4.15. Sea ω una conexión sobre P , P un G-haz principal sobre X. Para cada p ∈ P ,
definimos el subespacio horizontal Horp (P ) de Tp (P ) determinado por ω por:
Horp (P ) = {v ∈ Tp (P ) : ωp (v) = 0}.
Recordemos que para p ∈ P , se definió V ertp (P ) = Tp (Pπ(p) ), Pp la fibra de P que contiene a
p.
Proposición 2.4.16. Sea P un G-haz principal sobre X, w una conexión del haz P y Horp (P )
el subespacio horizontal determinado por ω, entonces,
Tp (P ) = Horp (P ) ⊕ V ertp (P ).
Demostración: Sı́ v ∈ Horp (P ) ∩ V ertp (P ), entonces, v = ω(A)(p) para algún A ∈ g (Corolario
2.4.12), como v ∈ Horp (P ), ωp (v) = 0, entonces, ωp (v) = ωp (ω(A)(p)) = A = 0, i.e., v =
σ(A)(p) = 0 y Horp (P ) ∩ V ertp (P )={0}. Para culminar la prueba será suficiente demostrar que
dim Horp (P ) + dim V ertp (P ) = dim Tp (P ). Como ωp es una transformación lineal de Tp (P ) a g
tenemos que dim Tp (P ) = dim Ker(ωp ) + dim ωp (Tp (P )) = dim Horp (P ) + dim ωp (Tp (P )). Dado
que ωp (Tp (P )) ⊂ g, entonces, dim(ωp (Tp (P ))) ≤ dim g; por otro lado como ωp (σ(A)(p)) = A , para
todo A ∈ g, teniendo en cuenta el Corolario 2.4.12, tenemos que dim(ωp (Tp (P ))) ≥ dim g, luego
dim(ωp (Tp (P ))) = dim g = dim V ertp (P ). De esta última igualdad se concluye que dimp (P ) =
dim Horp (P ) + dim V ertp (P ).
Como dim Tp (P ) = dim P = dim G+dim X = dim g+dim X = dim V ertp (P )+dim X, entonces,
dimX = dimHorp (P ). La Proposición anterior nos permite establecer la estrecha relación entre la
conexión ω y los espacios Horp (P ), es más, estos espacios horizontales la determinan. En algunos
textos, se define el concepto de conexión como una familia {Hp }p∈P de subespacios de Tp P , de tal
modo que Hp ⊕ V ertp (P ) = Tp (P ), para todo p ∈ P .
Proposición 2.4.17. Para g ∈ G, y p ∈ P tenemos que
(Horp (P )) · g = Horpg (P )
39
Demostración: Sı́ v ∈ Horp (P ), entonces, ωp·g (v · g) = g −1 ωp (v)g = 0, luego, (Horp (P )) · g ⊂
Horpg (P ). Sı́ v 0 ∈ Horp·g (P ), entonces, existe v ∈ Tp (P ) tal que v · g = v 0 , ya que dσg |p es un
isomorfismo entre Tp (P ) y Tpg P ; el resultado sigue de: ωp (v) = g · ωp·g (w) · g −1 = 0.
Definición 2.4.18. Sea f : P1 → P2 una función suave y ω una g-forma sobre P2 . La forma
f ∗ (w) se define que como
(f ∗ ω)(p)(v) = ω(f (p))( df |p (v));
para p ∈ P1 , v ∈ Tp (P1 ), se tiene que f ∗ (ω)(p) : Tp (P1 ) → g, luego en efecto f ∗ (ω) es una g-forma.
La g-forma f ∗ ω se le denomina la forma pullback determinada por la función f .
Proposición 2.4.19. Sean π1 : P1 → X y π2 : P2 → X dos G-haces principales sobre X,
f : P1 → P2 una función entre haces, tal que f (p · g) = f (p) · g, para todo p ∈ P, g ∈ G; y ω una
conexión sobre P2 , entonces, f ∗ (ω) es una conexión sobre P1 .
Demostración: Para g ∈ G, p ∈ P1 , v ∈ Tp (P1 ), A ∈ g tenemos
(f ∗ ω)p·g (v · g)
= ωf (p·g) ( df |p·g (v · g)) = ωf (p)·g ( df |p (v) · g)
= g −1 ωf (p) ( df |p (v)) g = g −1 · (f ∗ ω)p (v) · g.
Por otro lado
df |p (σ(A)(p))
=
=
d
d
(p · exp(tA)) ) =
(f (p · exp(tA)))
dt
dt
t=0
t=0
d
(f (p) · exp(tA))
= σ(A)(f (p))
dt
df |p (
t=0
Por lo tanto,
(f ∗ ω)p (σ(A)(p)) = ωf (p) (df |p (σ(A)(p)))
= ωf (p) (σ(A)(f (p))) = A.
Una de las razonnes más importantes por las cuales se define una conexión es porque nos
permite generalizar el concepto de transporte paralelo, el siguiente resultado nos permite definir
formalmente ese transporte paralelo:
Teorema 2.4.20. Sea π : P → X un G-haz principal sobre X y ω una conexión sobre P . Sea
α : [0, 1] → X una curva suave en X, con α(0) = x0 ∈ X y sea p0 ∈ π −1 (x0 ). Entonces existe una
única curva α̌ : [0, 1] → P tal que:
1. α̌(0) = p0 ,
2. π ◦ α̌(t) = α(t), para todo t ∈ [0, 1], y
3. α̌0 (t) ∈ Horα̌(t) (P ) para todo t ∈ [0, 1].
40
Demostración: Para probar esto, simplemente se regresa el haz y la conexión vı́a la curva α. Esto
nos permite tratar el caso cuando X = [0, 1] y α la identidad. En este caso la conexión determina
d
un campo vectorial sobre el espacio P , el cual se proyecta al campo vectorial dt
sobre el intervalo
[0, 1]. El levantamiento horizontal α̌ que necesitamos construir es simplemente el sendero integral
para este campo vectorial con las condiciones iniciales dadas. Los detalles generales de la prueba
se pueden encontar en [21, pag 307].
El transporte paralelo inducido por la conexión ω será definido como sigue: Supongamos que
x0 , x1 ∈ X y α : [0, 1] → X es una curva suave con α(0) = x0 y α(1) = x1 . Para cualquier p0 ∈
π −1 (x0 ) existe una única curva suave α̌(p0 ) : [0, 1] → P , que cumple las condiciones del Teorema
2.4.20; definimos ηα : π −1 (x0 ) → π −1 (x1 ), por ηα (p0 ) = α̌(1) y será llamado el transporte
paralelo alrededor de α, determinado por la conexión ω. Esta es la razón por la cual se
tiene el nombre de “conexión”, una conexión da una manera de conectar fibras determinadas por
un sendero en la base.
2.4.5.
Diferenciación Covariante
Definición 2.4.21. Una conexión de un haz vectorial (E, π) sobre X es una función
dω : Γ(E) → Γ(T ∗ (X) ⊗ E) = Γ(Hom(T X, E))
(2.12)
la cual satisface la siguiente condición:
dω (f σ + η) = (df ) ⊗ σ + f dω σ + dω η
Regla de Leibnitz,
(2.13)
donde f : X → K es una función suave, i.e., f ∈ C ∞ (X).
Una conexión dω induce una derivada direccional, sobre E, del siguiente modo: para V un
campo vectorial de X y σ ∈ Γ(E), el valor
∇ωV σ = dω (σ)(V ),
(2.14)
el cual, se denomina la derivada covariante de σ en la dirección de V , la expresión ∇ω
será escrita como ∇, cuando no halla necesidad de hacer énfasis en la conexión ω.
El ejemplo más simple de una conexión ocurre sobre el haz E = X × Kn . Una sección de este
haz puede ser identificada como una función
 
σ1
 
σ =  ·  : X → Km , donde σ i : X → K, para i = 1, · · · , m.
(2.15)
m
σ
Podemos usar la derivada exterior para definir la conexión trivial d sobre E:
  

σ1
dσ 1
  

d ·  =  · ,
σm
dσ m
41
denotada simplemente como dσ, note que para x ∈ X, dσx : Tx X → Km , luego la conexión
d : Γ(X × Kn ) → Γ(Hom(T X, X × Kn )) es definida formalmente como:
d(σ)(x) : Tx X → X × Km ,
por ux → (x, dσx (ux )),
para que concuerde con la Definición 2.4.21.
De un modo más general, dada una matriz m × m


1
ω11
·
ωm


ω= ·
···
· ,
m
ω1m
·
ωm
donde cada ωij son 1-formas de X con valores en K, definimos una conexión dω sobre E = X × Kn ,
por:
  
 
 
1
dσ 1
ω11
·
ωm
σ1
σ1
  
 
 
dω  ·  =  ·  +  ·
(2.16)
···
·  · ,
m
σm
dσ m
·
ωm
σm
ω1m
o simplemente
dω σ = dσ + ωσ,
(2.17)
donde la operación en el último sumando es simplemente la multiplicación matricial. La condicón
de Leibnitz puede ser verificada usando las propiedades de la derivada exterior: Si f ∈ C ∞ (X),
dω (f σ + η) = d(f σ + η) + ω(f σ + η)
= df ⊗ σ + f dσ + dη + f ωσ + ωη
= df ⊗ σ + f dω (σ) + dω η.
Proposición 2.4.22. Toda conexión dω sobre un haz trivial E = X × Km se puede expresar de la
forma (2.17), para alguna matriz ω m × m, con entradas 1-formas definidas sobre X con valores
en K.
Demostración: Sean ei : X → Kn las secciónes constante dadas por
 
1
0
 
e1 =   ,
·
 
0
1
 
e2 =   ,
·
···
em
 
0
0
 
=  .
·
0
0
1
Calculando el valor de dω en cada sección ei tenemos que

ωj1
m
 ω2  X
 
ei ωji ,
dω (ej ) =  j  =
 ·  i=1

ωjm
42
(2.18)
donde cada ωji es una 1-forma de X. Una sección σ del haz trivial es de la forma σ =
m
P
ei σi ; por
i=1
la regla de Leibnitz tenemos que
dω (σ) =
m
X
i=1
ei dσ i +
m
X
ei ωji σ j = dσ + ωσ,
i,j=1
donde σ es la matriz de 1-formas ωji , definidas sobre X con valores en K.
Sea E un haz vectorial con funciones de transición {gij }i,j∈I . Una sección σ ∈ Γ(E) posee
un representante local σi : Ui → Km , si dω es una conexión sobre E, entonces, dω σ posee un
representante local (dω σ)i , el cual es una m-tupla de 1-formas sobre Ui . El representante dω σi
puede ser escrito, sobre Ui , como
(dω σ)i = dσi + ωi σi ,
(2.19)
donde la matriz ωi de 1-formas sobre Ui es llamada la representante local de la conexión dω .
Notemos que la conexión dω está bien definida, puesto que se cumple
dσi + ωi σi = gij (dσj + ωj σj ) sobre Ui ∩ Uj 6=.
Recordemos que los representates locales de una sección σ están relacionados por σj = gji σi ,
dσi + ωi σi = gij (d(gji σi ) + ωj gji σi ) = dσi + gij (dgji + ωgji )σi .
Por lo tanto concluimos que
−1
ωi = gij dgji + gij ωj gij
.
(2.20)
Esta última Fórmula es usada para definir conexión en términos de los representantes locales de
la conexión, i.e., la conexión es determinada por sus representantes locales y puedo reconstruir la
conexión conociendo sus representantes locales, siempre y cuando la Ecuación 2.20 sea satisfecha.
Definición 2.4.23. Una conexión sobre un haz vectorial E, π : E → X, E de rango m, con
un cubrimiento {Ui }i∈I de X, y funciones de transición {gij }i,j∈I es una colección de operadores
diferenciables
d + ωi ,
donde d es la derivada exterior de las funciones de X con valores en Km y ωi es una matriz m × m
de 1-formas sobre Ui que satisfacen la fórmula 2.20 en Ui ∩ Uj , cuando Ui ∩ Uj 6=.
Proposición 2.4.24. La definición 2.4.21 de conexión es equivalente con la Definición presentada
en 2.4.23
Demostración: Sea E un haz vectorial sobre X y una conexión ωi = {d + ωi }i∈I como en la
definición 2.4.23. Sea σ una sección del haz vectorial E y σi : Ui → Kn sus correspondientes
representantes locales. Por la condición 2.20 tenemos que
dσi + ωi σi
= d(gij σj ) + (gij dgji + gij ωj gji )gij σj = dgij σj + gij dσj + (gij dgji gij + gij ωj )σj
=
(dgij + gij dgji gij )σj + gij (dσj + ωj σj ).
43
Como gij · gji = Id , entonces, dgij gji + gij dgji = 0, por tanto dgij + gij dgji gij = 0, lo cual implica
que
dσi + ωi σi = gij (dσj + ωj σj ).
Deseamos definir una conexión dω : Γ(E) → Γ(Hom(T X, E)), para ello definimos sobre Ui ⊂ X
la aplicación dω (σ) : T Ui → E por (x, ux ) → [i, x, (d + ωi )(σi )x (ux )], E visto como clases de
equivalencia, como se definió en el Teorema de Recosntrucción 2.2.5. Note que esta aplicación
está bien definida ya que (d + ωi )σi = gij (d + ωj )σj , i.e., (dω )i = gij (dω )j y además obviamente
satisface la regla de Leibnitz.
Definición 2.4.25. Sı́ E es un O(m)-haz vectorial, una conexión ortogonal de E es una
conexión ω cuyos representates locales ωi tiene la propiedad de que toman sus valores en o(m),
donde o(m) es el espacio de las matrices antisimétricas de orden m.
La anterior definición es preservada bajo la transformación que establece la Ecuación 2.20
porque sı́ gij ∈ G = O(m) y ωj ∈ o(m), entonces, gij ωj gji ∈ o(m) (Lema 2.1.19) y gij dgji ∈ o(m),
ya que:
(gij dgji )T
=
(dgji )T gji = (−gji dgij gji )T gji = −gij (dgij )T
T
= −gij d(gij
) = −gij dgji .
Definición 2.4.26. Si E es un U (m)-haz vectorial, una conexión unitaria o hermitiana de
E es una conexión tal que ωi toma sus valores en u(m), donde u(m) es el conjunto de matrices
anti-hermitianas de tamaño m
Al igual que antes, esta condición es preservada bajo la condición 2.20. Las anteriores definiciones motivan la siguiente definición:
Definición 2.4.27. Sı́ E es un G-haz vectorial, una G-conexión es una conexión cuyos representates locales ωi toman sus valores en el álgebra de Lie g, el álgebra de Lie de G.
Lema 2.4.28. Una conexión dω sobre un O(m)-haz vectorial es ortogonal entonces dhσ1 , σ2 i =
hdω (σ1 ), σ2 i + hσ1 , dω (σ2 )i. Un resultado similar se tiene para conexiones unitarias.
Demostración: Supongamos sin pérdida de generalidad que el haz E es trivial y sean σ1 , σ2 dos
secciones del haz E. Supongamos que dω = d + ω, donde ω es una matriz antisimétrica de 1-formas
(aquı́ se usa el hecho de que la conexión es ortogonal). Obviamente dhσ1 , σ2 i = hdσ1 , σ2 i+hσ1 , dσ2 i,
y dado que hωσ1 , σ2 i = σ1T ω T σ2 = −σ1T ωσ2 = −hσ1 , ωσ2 i, entonces,
dhσ1 , σ2 i = hdσ1 , σ2 i + hσ1 , dσ2 i + hωσ1 , σ2 i + hσ1 , ωσ2 i
= hdσ1 + ωσ1 , σ2 i + hσ1 , dσ2 + ωσ2 i = hdω (σ1 ), σ2 i + dω σ1 , dω (σ2 )i.
Para un haz E no trivial, el Lema es consecuencia del hecho de que el haz E es ortogonal.
Lema 2.4.29. Sea E un haz hermitiano lineal, A y A0 dos conexiones hermitianas sobre E,
entonces, existe una 1-forma Q puramente imaginaria tal que dA − dA0 = Q.
44
Demostración: Sea {Ui }i∈I un cubrimiento de E, con funciones de transición {gij }i,j∈I y (A)i y
(A0 )i los representantes locales de las conexiones A y A0 respectivamente, entonces, en Ui , tenemos
que,
(dA )i = d + (A)i , (dA0 ) = d + (A0 )i .
En Ui ∩ Uj , como el haz E es lineal tenemos que
(A)i = gij dgji + (A)j ,
(A0 )i = gij dgji + (A0 )j ;
por lo tanto, en Ui ∩ Uj , tenemos que:
(dA )i − (dA0 )i
(A)j − (A0 )j
= (A)i − (A0 )i = (A)i − gji dgji − ((A0 )j − gji dgji )
= (dA )j − (dA0 )j ;
lo cual prueba que dA − dA0 es una 1-forma, y es puramente imaginaria, por ser los representantes
de A y A0 1-formas con valores en u(1) = iR.
2.4.6.
Relación entre conexiónes de haces principales y haces vectoriales
Supongamos que ω es una conexión sobre el G-haz principal π : P → X, G ⊂ Gln (K), G
un grupo matricial de Lie. Sea φ una representación de G sobre Kn y E = P ×φ Kn el haz
vectorial asociado (ver Definición 2.4.7). Podemos usar la conexión ω de P para definir una derivada
covariante sobre E; esta diferenciación covariante es un operador lineal:
dω : Γ(E) → Γ(T ∗ (X) ⊗ E).
Recordemos que E = (P × V )/∗ (“ ∗ ” como en la Ecuación 2.6). Sea σ ∈ Γ(E), luego para x ∈ X,
tenemos que
σ(x) = [p(x), v(x)],
donde p(x) es una sección local del haz P → X y v(x) es una función suave con valores Kn .
Para x ∈ X, la función v induce una aplicación lineal
dvx : Tx X → Tv(x) Kn = Knv(x) ,
(Knv(x) = {(v(x), v) : v ∈ Kn }),
(2.21)
por otro lado, para p tenemos el siguiente diagrama,
Tx X
dpx
- Tp(x) P
ωp(x)
- g
- End(Kn )
(2.22)
Donde la última flecha g → End(Kn ), es la aplicación lineal inducida por la representación
φ : G → Aut(Kn ). El valor de ∇ω (σ)(x) evaluado sobre un vector tangente ux ∈ Tx X se define
como:
∇ω (σ)(x)(ux ) = [p(x), ωp(x) (dpx (ux ))v(x) + dvx (ux )].
(2.23)
45
Esta expresión está bien definida y no depende de la escogencia de las funciones p y v, para ver
esto, sean p, p∗ , v, v ∗ tales que [p, v] = [p∗ , v ∗ ], luego existe g ∈ G tal que p∗ = p · g y v ∗ = g −1 · v,
ωp∗ (dp∗ (u))v ∗ + dv ∗ (u) = ωp·g (dp(u) · g)(g −1 · v) + d(g −1 · v)(u)
= g −1 · ωp (dp(u))g(g −1 · v) + g −1 d(v)(u)
= g −1 · (ωp (dp(u))v + dv(u)),
lo cual prueba que la diferenciación covariante está bien definida. Note que sı́ escogemos la sección
p, tal que p es horizontal a vx ∈ Tx P , i.e., p es tal que dpx (vx ) ∈ Horp (x)P , entonces, la expresión
2.23 se simplica (ver definición 2.4.14) como,
∇ω (σ)(ux ) = [p(x), dvx (ux )].
La diferenciación covariante satisface la ley de Leibnitz,
∇ω (f σ) = f ∇ω (σ) + df ⊗ σ,
(2.24)
para cualquier sección σ de E y función f K-valuada sobre X: Sea ux ∈ Tx X, σ = [p, v] y
f : X → K, luego,
∇ω (f σ)(ux )
= [p(x), ωp(x) (dpx (ux ))f (x)v(x) + d(f v)x (ux )]
= [p(x), f (x)ωp(x) (dpx (ux ))v(x) + dfx (ux ) · v(x) + f (x)dvx (ux )]
= f (x)∇ω (σ)(ux ) + [p(x), dfx (ux ) · v(x)],
la cual implica 2.24.
Sı́ V posee un producto interno h ,
i y G ⊂ O(V ), adicionalmente tenemos que
dhσ1 , σ2 i = h∇ω σ1 , σ2 i + hσ2 , ∇ω σ2 i
Proposición 2.4.30. Dado un G-haz principal, π : P → X, G un grupo matricial de Lie, una
conexión ω sobre P está completamente determinada por la derivada covariante ∇ω inducida sobre
el haz vectorial asociado P ×G Kn .
Demostración: Sea σ una sección de P y consideremos la sección en P ×G Kn , dada por, σ0 (x) =
[σ(x), v], por lo tanto, para vp ∈ Tp P , dπp (vp ) ∈ Tπ(p) X y como σ◦π = IdX , entonces, dσ◦dπ = IX ;
por lo tanto
∇ω (σ0 )(dπp (vp ))
= [σ(π(p)), ωσπ(p) (dσπ(p) (dπp (vp ))v(π(p))]
=
[p, ωp (vp )v] = [p, wp ],
entonces, para cualquier vector tangente vp , la asignación vp → wp , determina un endomorfismo
de V el cual es un elemento de g ⊂ End(V ); este elemento es el valor de ωp (vp ).
46
Sı́ π : P → X es un G-haz principal con conexión ω y ({Ui , Ψi }) es una trivialización local de P ,
podemos ver a la trivialización como una sección si : Ui → π −1 (Ui ) (vea Ecuación 2.3), entonces,
tenemos una forma G-valuada s∗i (w), esta forma es el representante local de la conexión ω
con respecto a la trivialización ({Ui , Ψi }), y será denotada simplemente como ωi y coincide con
el representante local de la conexión del haz vectorial P ×G Kn inducida por ω. Supongamos que
{Uj , Ψj } es otra trivialización, entonces, a esta trivialización le asociamos una sección
sj : Uj → π −1 (Uj ),
sı́ gij : Ui ∩ Uj → G es la correspondiente función de transición, entonces, si (x) = sj (x) · gji (x)
(vea Lema 2.3.2); por lo tanto,
s∗i (ω)(x) = gji (x)−1 sj (x)∗ (ω)gji (x) + gji (x)−1 dgji (x),
(2.25)
ωi = gij ωj gji + gij dgji ,
(2.26)
ó simplemente,
de la Definición 2.20, sabemos que esta condición define una conexión en el haz vectorial P ×G Kn
la cual coincide con la inducida por la conexión ω. Supongamos que φ es una representación de
G sobre Kn , entonces, φ : G → Aut(V ) induce una representación dφ : g → End(V ). Sı́ σ es
una sección de P ×φ Kn , entonces, sobre este haz vectorial, el representante local de la derivada
covariante ∇ inducida por ω sobre el haz P ×φ Kn , satisface
(∇(σ))i = dφ(ωi )(σi ) + dσi .
(2.27)
Proposición 2.4.31. Sea π : P → X un G-haz principal, G ⊂ Mn (K), sı́ dω es una G-conexión
del haz vectorial P ×G Kn , entonces, existe una conexión ω de P , tal que induce la conexión dω de
P ×G Kn .
2.4.7.
Curvatura
Hasta ahora hemos definido el concepto de conexión para haces vectoriales, como una derivada
covariante, y el concepto de conexión para haces principals. Hemos visto que trabajar con una es
lo mismo que trabajar con la otra, i.e., en cierto modo son equivalentes. Por ejemplo sı́ tenemos
un G-haz principal y G ⊂ Gln (K), podemos construir el haz vectorial P ×G Kn ; y una conexión ω
en P induce una derivada covariante P ×G Kn sobre el haz vectorial. Por otro lado una derivada
covariante adecuada del haz P ×G Kn indude una conexión en el haz principal P . Otro concepto
tan importante como el de conexión es el de curvatura, el cual definiremos a continuación:
Revisemos algunos hechos de la derivada exterior. Sea
Ωp (X) = Γ(∧p (X)) = {p-formas diferenciables sobre X, }
donde Ω0 (X) es el espacio de funciones de con valores en R. La derivada exterior en Ω0 (X) es
precisamente la diferencial usual, i.e., sı́ f ∈ C ∞ (X), f está dada por,
dim(X)
df =
X
i=1
47
∂f i
dx .
∂xi
Extendemos este operador a Ωp (X) para todo p ∈ {1, · · · , dim(X)} y obtenemos la derivada
exterior, d : Ωp (X) → Ωp+1 (X), tal que sı́ ω ∈ Ωp (X) y ω = ωi1 ,...,ik dxi1 ∧ · · · dxik , dω =
dωi1 ,...,ik ∧ dxi1 ∧ · · · dxik , la cual satisface la regla de Leibnitz,
d(α ∧ β) = dα ∧ β + (−1)p α ∧ β,
para α ∈ Ωp−r (X) y β ∈ Ωr (X)
y d ◦ d = 0. Estas ideas pueden ser generalizadas a haces vectoriales. Sea E un haz vectorial sobre
X y Ωp (E; X) = Γ(∧p (T X)⊗E) = {p-formas sobre T X con valores en E}. Una conexión dω sobre
E puede ser considerada como una función lineal dω : Ω0 (E) → Ω1 (E), Ω0 (E) = Γ(E), la cual
satisface la regla de Leibnitz.
Como en el caso de la derivada exterior usual, podemos extender dω a Ωp (X) para todo p ∈
{1, · · · , dim(X)}
dω : Ωp (X; E) → Ωp+1 (X; E),
pidiendo que la regla de Leibnitz se tenga,
dω (α ∧ β) = dα ∧ β + (−1)r α ∧ dω (β),
para α ∈ Ωr (E; X) y β ∈ Ωp−r (E; X).
(2.28)
A diferencia de la derivada exterior usual; no es cierto en general que dω ◦ dω = 0.
Definición 2.4.32. La aplicación dω ◦ dω : Ω0 (E; X) → Ω2 (E; X), es llamada la curvatura de
la conexión dω .
Proposición 2.4.33. La curvatura dω ◦ dω : Ω0 (E; X) → Ω2 (E; X), de una conexión dω , es un
operador lineal.
Demostración: Sea f : X → R y σ ∈ Ω0 (E; X), luego
dω ◦ dω (f σ + η) = dω (df ⊗ σ + f dω σ + dω η)
= d(d(f )) ⊗ σ − df ⊗ dω σ + df ⊗ dω σ + f (dω ◦ dω )(σ) + dω ◦ dω η
= f (dω ◦ dω )(σ) + dω ◦ dω η.
En el caso del haz trivial, X ×Km , aplicamos dω ◦dω a las secciones constantes ei , i ∈ {1, · · · , m}.
m
P
Entonces dω ◦ dω (ei ) =
ej Ωji , donde cada Ωij es una 2-forma de X. La linealidad implica que
j=1
dω ◦ dω (ei σ i ) =
m
P
i,j=1
ei Ωij σ j , o en notación matricial dω ◦ dω (σ) = Ωσ, donde Ω es una matriz
m × m de 2-formas.
Supongamos ahora que E es un haz vectorial real (o complejo) de rango m sobre X definido
por el cubrimiento abierto {Ui }i∈I y las funciones de transición gij . Cada sección σ, σ ∈ Γ(E),
posee un representante local σi , y dω ◦ dω (σi ) = Ωi σi donde Ωi es una matriz de 2-formas sobre
Ui . Diferenciando la expresión (2.19) tenemos que como (dω )i = d + ωi , entonces,
dω ◦ dω (σi )
=
(d + ωi )(dσi + ωi σi )
= d(dσi ) + (dωi σi − ωi ∧ dσi + ωi ∧ dσi + (ωi ∧ ωi )σi )
=
(dωi + ωi ∧ ωi )σi ,
48
y de aquı́ Ωi = dωi + ωi ∧ ωi . Como dω ◦ dω está bien definido (como en el caso de las conexiones),
las matrices Ωi deben satisfacer
Ωi σi = gij Ωj gji σj
sobre Ui ∩ Uj .
Por lo tanto concluimos que Ωi = gij Ωj gji . Esta última expresión nos permite definir a la curvatura
en términos de una 2-forma con valores en End(E), i.e., para x ∈ X, ux , vx ∈ Tx X, definimos la
aplicación
Ωω (ux , vx ) : Ex → Ex ,
Ex ⊂ E,
(2.29)
dada por Ωω (ux , vx )([i, x, v]) = [i, x, (Ωi )x (ux , vx )v], usando la notación dada en 2.4 para E,
esta aplicación está bien definida ya que para [i, x, v] = [j, x, w], tenemos que v = gij (x)w;
pero [i, x, (Ωi )(ux , vx )v] = [j, x, (Ωj )(ux , vx )w], ya que (Ωi )(ux , vx )v = (gij (x)Ωi (ux , vx )gji (x)v) =
gij (x)Ωj (ux , vx )w. Esto último implica que la 2-forma Ω con valores en End(E) está bien definida;
a esta 2-forma tambien se le suele llamar la curvatura de la conexión dω .
Lema 2.4.34. Sea E un haz vectorial con conexión dω y curvatura Ωω cuyos representantes locales
son {Ωi }i∈I , entonces,
dΩi = Ωi ∧ ωi − ωi ∧ Ωi = [Ωi , ωi ].
Identidad de Bianchi.
(2.30)
Demostración:
dΩi
= d(ωi + ωi ∧ ωi ) = dωi ∧ ωi − ωi ∧ dωi
= dωi ∧ ωi + ωi ∧ ωi ∧ ωi − (ωi ∧ ωi ∧ ωi + ωi ∧ dωi )
= Ωi ∧ ωi − ωi ∧ Ωi = [Ωi , ωi ].
En el caso de que la conexión dω sea ortogonal para un O(m)-haz E, como Ωi = dωi + ωi ∧ ωi
y ωi es antisimétrica, esto implica que la matriz Ωi es antisimétrica (Ωti = d(ωiT ) + (ωi ∧ ωi )T =
−dωi − ωiT ∧ ωiT = −Ωi ). Cuando ω es una conexión unitarias sobre un U (m)-haz E, las matrices
Ωi son antihermitianas.
Proposición 2.4.35. Si E es un haz hermitiano lineal, A y A0 dos conexiones hermitianas sobre
E, entonces, existe una 1-forma puramente imaginaria Q tal que dA − (dA0 ) = Q. Recı́procamente,
sı́ Q es una 1-forma puramente imaginaria y dA es una conexión sobre iR, entonces, dA +Q es una
conexión. Además sı́ FA y FA0 son las curvaturas asociadas a A y A0 , respectivamente, entonces,
FA − FA0 = dQ.
Demostración: Sean (A)i y (A0 )i los representantes locales de las conexioes A y A0 respectivamente, entonces, en Ui tenemos que,
dA − dA0 = (A)i − (A0 )i = Q,
49
como (FA )i = d(A)i + (A)i ∧ (A)i y (FA0 )i = d(A0 )i + (A0 )i ∧ (A0 )i , y el haz E es lineal, entonces,
(FA )i = d(A)i y (FA0 )i = d(A0 )i , por lo tanto, en Ui tenemos
(FA )i − (FA0 )i = d((A)i − (A0 )i ) = dQ.
Proposición 2.4.36. Sea E un haz vectorial lineal, i.e., un haz cuyas funciones de transición
toman sus valores en K − {0}, entonces, la curvatura de cuaquier conexión dω del haz vectorial E,
es una 2-forma globalmente definida sobre todo X.
Demostración: Sea E una haz vectorial, definido por un cubrimiento {Ui }i∈I y funciones de transición {gij }i,j∈I . Localmente la curvatura Ω de la conexión ω es una matriz (Ωi ){m×m} de 2-formas.
En este caso m = 1, y dado que Ωi = gij Ωj gji = gij gji Ωj = Ωj , por lo tanto Ω es una 2-forma
definida globalmente.
Proposición 2.4.37. Sı́ E es un U (1)-haz con una U (1)-conexión dω , entonces, la curvatura Ω
asociada a la conexión dω es puramente imaginaria.
Demostración: Dado que Ω toma sus valores en el álgebra de Lie de U (1), tenemos que Ω = −Ω,
i.e, Ω es una 2-forma puramente imaginaria.
Podemos escribir Ω = −iFω , donde Fω es una 2-forma de valores real. La identidad de Bianchi
implica que dFω = 0, lo cual implica que la forma Fω representa un elemento del segundo grupo
de cohomologı́a H 2 (X; R) y de define como la primera clase caracterı́stica de Chern del haz
lineal E, la cual es independiente de la conexión unitaria y es denotada como c1 (E).
2.4.8.
Conexión Levi-Civitá
Definición 2.4.38. Sea X una variedad diferenciable. Una métrica riemanniana g, es un
elemento de Ω2 (X), el cual satisface las siguientes condiciones, para cada x ∈ X y ux , vx ∈ Tx X:
i) gx (ux , vx ) = gx (vx , ux ),
ii)gx (ux , ux ) ≥ 0 y gx (ux , ux ) = 0 sı́ y solo sı́ ux = 0.
Definición 2.4.39. Sea X una variedad diferenciable, sı́ X admite una métrica riemanniana g,
el par (X, g) es llamado una variedad riemanniana.
Sea (X, g) una variedad riemanniana, y E = T X, el haz tangente de la variedad riemanniana
X, luego T X es un haz ortogonal, por ser la variedad X riemanniana. Como hemos visto una
conexión sobre el haz tangente es una aplicación lineal dω : Γ(T X) → Γ(T ∗ X ⊗ T X), la cual
satisface la regla de Leibnitz e induce una derivada covariante ∇ω .
Definición 2.4.40. El operador de torsión ς se define para los campos vectoriales u, v ∈ (X) como
ς(u, v) = ∇u v − ∇v u − [u, v]; donde [, ] es el corchete de Lie definido en el álgebra de Lie (X) de
los campos vectoriales C ∞ de la variedad X(vea Ecuación 2.1).
50
Proposición 2.4.41. El operador de torsion ς satisface las siguientes propiedades:
ς(u, v) = −ς(v, u),
ς(f u, gv) = f gς(u, v);
para todo f, g ∈ C ∞ (X) y u, v ∈ (X)
La idea geométrica del operador de torsión puede ser encontrada en [23, pag 218]. El operador
de torsión mide la falla que se encuentra al cerrar un paralelogramo, de pequeños desplazamientos,
dentro de la variedad X, sujeta al transporte paralelo inducido por la conexión dω .
∂
Sea U una carta de X con coordenadas locales {x1 , · · · , xn } y sea ei el vector tangente ∂x
i . La
métrica g con respecto a este sistema coordenado está dada por la matriz simétrica {gij }. En este
sistema el tensor métrico g se expresa como g = gij dxi ⊗ dxj . La conexión dω induce una derivada
covariante para la cual tenemos que:
∇ω
ei (ej ) =
n
X
Γki,j ek ,
k=1
donde las n3 funciones Γki,j se denominan los sı́mbolo de Christoffel, note la anologı́a de los
sı́mbolos de Christoffel con los representantes locales de la conexión dω como en 2.18 cuando
E = T X, luego al igual que con los representantes locales podemos determinar la conexión dω
en términos de sı́mbolos de Christoffel. El representante local ωα en términos de sı́mbolos de
Christoffel, está dada por:
 1

Γ1,1 e1 + · · · + Γ11,n en · · · Γ1n,1 e1 + · · · + Γ1n,n en


ωα = 
(2.31)
·
···
·

n
n
n
n
Γ1,1 e1 + · · · + Γ1,n en · · · Γn,1 e1 + · · · + Γn,n en
Desearı́amos que la conexión dω fuese ortogonal, para lo cual la condición del Lema-2.4.28 se
transforma:
h∇ω ek (ei ), ej i + hei , ∇ω ek (ej )i = ∂k (hei , ej i).
En términos de los sı́mbolos de Christoffel esto significa que
∂k g = Γk · g + g · (Γk )t
(2.32)
donde Γk es la matriz cuyas entrada (r, s) es Γsk,r . Una condición deseable serı́a que la conexión dω
fuese libre de torsión, lo cual es equivalente a que
∇v w − ∇w v = [v, w],
donde v, w ∈ (X)
En términos de coordenadas locales, que la conexión sea libre de torsión signigica que:
∇ei (ej ) = ∇ej (ei ),
ya que [ei , ej ] = 0.
(2.33)
En términos de sı́mbolos de Christoffel, esto significa que Γjk,i = Γji,k , para todo i, j, k, esto es
equivalente a que la entrada (i, j) de la matriz Γk , es igual a la entrada (k, j) de Γi .
51
Lema 2.4.42. Existe una única conexión ω ortogonal libre de torsión sobre el haz tangente T X
de una variedad riemanniana (X, g).
Demostración: 1. Unicidad: Supongamos que Γjk,i y Γ̌jk,i son dos conjuntos de sı́mbolos de
Christoffel dados por conexiones ortogonales libres de torsión ω y ω̌, expresados en términos de un
sistema de coordenadas dado (Uα , φα ) de X. Sea µk = Γk − Γ̌k . Como los sı́mbolos de Christoffel
corresponde a conexiones ortogonales, tenemos por la Ecuación 2.32:
µk · g + (µk · g)t = 0.
Como ambas conexiones son libres de torsión tenemos que (µk )i,j = (µi )k,j . Sea νk = µk · g, luego
para todo k tenemos que νk + (νk )T = 0 y tambien tenemos que (νk )i,j = (νi )k,j , para todo i, j, k.
Por lo tanto, tenemos
(νk )i,j = (νi )k,j = −(νi )j,k = −(νj )i,k = (νj )k,i = (νk )j,i = −(νk )i,j .
Por lo tanto (νk )i,j = 0 para todo i, j, k. Como g es invertible, esto prueba que µk = 0 para todo
k, lo cual prueba que Γk = Γ̌k para todo k.
2. Existencia: Para cada k, definimos la conexión cuyos sı́mbolo de Christoffel son:
(Υk )i,j =
1
(∂k gi,j + ∂i gj,k − ∂j gk,i ).
2
Definimos Γk = Υk · g −1 ; como
1
1
(∂k gi,j + ∂i gj,k − ∂j gk,i ) = (∂i gk,j + ∂k gj,i − ∂j gi,k ) = (Υi )k,j ,
2
2
por ser la matriz g un dos tensor simétrico, la matriz que representa a g es simétrica, entonces,
(Γk )i,j = (Γi )k,j , lo que implica que la conexión dω es libre de torsión, lo cual coincide con lo
anotado despues de la Ecuación 2.33.
Por otro lado como
(Υk )i,j =
Γk · g + g · (Γk )T = Υk · g −1 · g + g · (Υk · g −1 )T = Υk + g · (g −1 )ΥTk = Υk + (Υk )T ,
y como
(Υk + (Υk )T )i,j
1
(∂k gi,j + ∂i gj,k − ∂j gk,i + ∂k gj,i + ∂j gi,k − ∂i gk,j )
2
=
(Υk )i,j + (Υk )j,i =
=
1
(∂k gi,j + ∂i gj,k − ∂j gk,i + ∂k gi,j + ∂j gk,i − ∂i gj,k ) = ∂k gi,j ,
2
lo que implica que ∂k g = Γk ·g+g·(Γk )T , ver Ecuación 2.32. Entonces los sı́mbolos de Christoffel
inducen una conexión ortogonal libre de torsión.
Γjk,i
Definición 2.4.43 (Conexión Levi-Civitá). Sea (X, g) una variedad riemanniana, entonces,
la conexión ortogonal libre de torsión del haz tangente T X, a la que se refiere el Lema-2.4.42, se
llama la conexión de Levi-Civitá, cuyos sı́mbolos de Christoffel Γjk,i en coordenadas locales,
están determinados por la métrica g por Γk = Υk · g −1 , donde
(Υk )i,j =
1
(∂k gi,j + ∂i gj,k − ∂j gk,i ).
2
52
2.4.9.
Curvatura de Ricci y la curvatura escalar
Lema 2.4.44. Sea E un haz vectorial sobre una variedad X y ω una conexión cuya curvatura
asociada es Ω, entonces,
Ω(u, v)(σ) = ∇u ◦ ∇v (σ) − ∇v ◦ ∇u (σ) − ∇[u,v] σ;
donde u, v son campos vectoriales de X, σ ∈ Γ(E) y ∇ es la derivada covariante inducida por la
conexión ω.
Demostración: Sea Uα una carta de X con coordenadas locales {x1 , ..., xn }, la cual es una trivialización local del haz vectorial E. Los campos vectoriales u, v se pueden expresar en términos de
coordenadas locales como u = ui ∂i y v = v j ∂j . Por un lado tenemos que
∇u ◦ ∇v (σ) = ∇ui ∂i ◦ ∇vj ∂j (σ) = ui ∇∂i ◦ (v j ∇∂j )(σ)
= ui ∂i v j ∇∂j σ + ui v j ∇∂i ∇∂j σ;
análogamente
∇v ◦ ∇u (σ) = v j ui ∇∂j ∇∂i σ + v j ∂j ui ∇∂i σ.
Como [u, v] = (ui ∂i v j − v i ∂i uj )∂j , entonces
∇[u,v] = (ui ∂i v j − v i ∂i uj )∇∂j .
Luego
∇u ◦ ∇v (σ) − ∇v ◦ ∇u (σ) − ∇[u,v] σ
=
(ui v j − v i uj )(∇∂i ◦ ∇∂j )σ.
= ui v j (∇∂i ◦ ∇∂j − ∇∂j ◦ ∇∂i )σ.
Para finalizar recordemos que Ωα (u, v)(σ) = (dωα (u, v) + (ωα (u) ∧ ωα (v)))σ, donde ωα es una
matriz de 1-formas que representa localmente a ω y ωα se escribe en coordenadas locales como
ωα = ωi dxi , {dxi } la base dual de {∂i }, donde cada ωi es una función matricial cuyas entradas son
funciones de valor real. En coordenadas locales tenemos que
dωα (u, v)(σ) = (ui v j − uj v i )(∂i ωj )σ = (ui v j )(∂i ωj − ∂j ωi )σ;
por otro lado como
ωα (u) ∧ ωα (v)σ
=
[ωα (u), ωα (v)]σ
= ui v j [ωα (∂i ), ωα (∂j )]σ
= ui v j (ωα (∂i )ωα (∂j ) − ωα (∂j )ωα (∂i ))σ
luego
dωα (u, v)(σ) + ωα (u) ∧ ωα (v)σ
= ui v j (∂i ωj − ∂j ωi + ωα (∂i )ωα (∂i ) − ωα (∂j )ωα (∂i ))σ)
= ui v j (∇∂i ◦ ∇∂j − ∇∂j ◦ ∇∂i )σ.
53
Luego
Ωα (u, v)(σ) = ∇u ◦ ∇v (σ) − ∇v ◦ ∇u (σ) − ∇[u,v] σ.
Supongamos que (X, g) es una variedad riemanniana y que la conexión dω es la conexión de
Levi-Civita, denotada simplemente como ∇, de aquı́ en adelante, (recordemos que la conexión LeviCivitá depende de la métrica g de la variedad riemanniana X, ası́ que una notación más adecuada
serı́a ∇g , pero se denotará a ∇g simplemente por ∇, a no ser que se diga lo contrario.
Sean U, V ∈ Tx X y el endomorfismo inducido R(U, V ) : Tx X → Tx X (vea 2.29), el cual es
anti-adjunto, por ser el haz tangente T X un O(m)-haz.
Proposición 2.4.45. Para U, V, W ∈ Tx X, x ∈ X, tenemos la siguiente identidad
R(U, V )(W ) + R(V, W )(U ) + R(W, U )(V ) = 0
(2.34)
Demostración: Extendamos U, V, W a campos vectoriales U ∗ , V ∗ , W ∗ en una vecindad de x, x ∈ X,
en la cual conmutan los campos vectoriales conmutan, i.e, [U ∗ , V ∗ ] = [V ∗ , W ∗ ] = [W ∗ , U ∗ ] = 0, lo
cual es posible de obtener resolviendo un sistema de ecuaciones diferenciales lineales de orden 1.
Como las extensiones U ∗ , V ∗ , W ∗ conmutan, por el Lema anterior, y por ser ∇ libre de torsión,
tenemos que:
i)R(U ∗ , V ∗ )(W ∗ ) = ∇U ∗ ◦ ∇V ∗ (W ∗ ) − ∇V ∗ ◦ ∇U ∗ (W ∗ )
ii)R(V ∗ , W ∗ )(U ∗ ) = ∇V ∗ ◦ ∇W ∗ (U ∗ ) − ∇W ∗ ◦ ∇V ∗ (U ∗ )
iii)R(W ∗ , U ∗ )(V ∗ ) = ∇W ∗ ◦ ∇U ∗ (V ∗ ) − ∇U ∗ ◦ ∇W ∗ (V ∗ )
iv)∇U ∗ V ∗ = ∇V ∗ U ∗ ,
∇V ∗ W ∗ = ∇W ∗ V ∗ ,
∇W ∗ U ∗ = ∇U ∗ W ∗ .
Luego
R(U ∗ , V ∗ )(W ∗ ) + R(V ∗ , W ∗ )(U ∗ ) + R(W ∗ , U ∗ )(V ∗ ) =
∇U ∗ ◦∇V ∗ (W ∗ )−∇V ∗ ◦∇U ∗ (W ∗ )+∇V ∗ ◦∇W ∗ (U ∗ )−∇W ∗ ◦∇V ∗ (U ∗ )+∇W ∗ ◦∇U ∗ (V ∗ )−∇U ∗ ◦∇W ∗ (V ∗ ) =
∇U ∗ ◦∇V ∗ (W ∗ )−∇V ∗ ◦∇W ∗ (U ∗ )+∇V ∗ ◦∇W ∗ (U ∗ )−∇W ∗ ◦∇U ∗ (V ∗ )+∇W ∗ ◦∇U ∗ (V ∗ )−∇U ∗ ◦∇V ∗ (W ∗ ) = 0.
Como la curvatura es un 2-tensor, el valor de la expresión 2.34, en U, V y W es independiente de
las extensiones de U, V y W , luego,
R(U, V )(W ) + R(V, W )(U ) + R(W, U )(V ) = 0.
Definición 2.4.46. Sea (X, h i) una variedad riemanniana con conexión de Levi-Civitá ∇ y curvatura R. La Curvatura de Ricci de X es la forma bilineal sobre T X dada por
X
Ric(V, W ) = h−
R(ei , V )(ei ), W i,
i
donde {e1 , e2 , · · · , en } es una base ortonormal para Tx X, y V, W ∈ X .
54
∂
Sea (x1 , · · · , xn ) un sistema de coordenadas para el cual los vectores tangentes { ∂x
}|x forman
i
una base ortonormal en un punto x. Entonces la curvatura R en el punto x está dada por:
X k,l
(Ri,j )dxk ∧ dxl .
R=
k,l
En esta notación los ı́ndices de arriba se refieren a los ı́ndices de las 2-formas y los de abajo son
ı́ndices matriciales. Este tensor es antisimétrico tanto en los ı́dices de arriba, por ser formas, como en
i,j
los de abajo, por tratarse de matrices antisimétricas. Se puede ver que hR(ei , ej )(ei ), ek )i = −Ri,k
,
y aquı́
X i,j
Ric(ej , ek ) =
Ri,k
i
Lema 2.4.47. La curvatura de Ricci está bien definida y es una forma bilineal simétrica.
Pn
Demostración: Consideremos dos bases ortonormales (e1 , · · · , en ) y (e01 , · · · , e0n ), con e0i = j=1 Ai,j ej
P
para alguna matrix ortonormal A. Como A es ortonormal se tiene i Ai,j Ai,k = δj,k .
Como R es lineal en cada una de sus variables, tenemos que
X
XX
XXX
hR(e0i , V )(e0i ), W i =
Ai,j hR(ej , V )(e0i ), W i =
Ai,j Ai,k hR(ej , V )(ek ), W i
i
i
j
i
j
k
XX
=
(
Ai,j Ai,k hR(ej , V )(ek ), W i)
j,k
=
X
i
δj,k hR(ej , V )(ek ), W i =
X
hR(ej , V )(ej ), W i.
j
j,k
Esto prueba que la curvatura Ricci está bien definida, ahora veamos que es una forma bilineal
simétrica.
Es claro de la antisimetrı́a de la curvatura como matriz y como forma que:
hR(U, V )(W ), Y i = −hR(V, U )(W ), Y i
hR(U, V )(W ), Y i = −hR(U, V )(Y ), W i.
Por la proposición-2.4.45 tenemos que,
hR(U, V )(W ), Y i = −hR(W, U )(V ), Y i − hR(V, W )(U ), Y i = hR(W, U )(Y ), V i + hR(V, W )(Y ), U i
= −hR(Y, W )(U ), V i − hR(U, Y )(W ), V i − hR(W, Y )(V ), U i − hR(Y, V )(W ), U i
=
2hR(W, Y )(U ), V i + hR(U, Y )(V ), W i + hR(Y, V )(U ), W i
=
2hR(W, Y )(U ), V i − hR(V, U )(Y ), W i = 2hR(W, Y )(U ), V i − hR(U, V )(W ), Y i;
lo cual implica que hR(U, V )(W ), Y i = hR(W, Y )(U ), V i, por tanto Ric(V, W ) =
P
i −hR(ei , W )(ei ), V i = Ric(W, V ); i.e., Ric es simétrico.
P
i h−R(ei , V
)(ei ), W i =
Definición 2.4.48. La curvatura escalar de una variedad riemanniana (X, g) es una función
s : X → R, dada por s = T raza(Ric)
55
En términos de la 2-formas de curvatura, tenemos que:
X i,j
X i,j
s=
Ri,j = 2
Ri,j .
i,j
i<j
La curvatura escalar será de utilidad luego, ya que hace parte del enunciado de la fórmula de
Weitzenböck.
56
C A P Í T U L O
3
Operador de Dirac
Sea X una 4-variedad diferenciable, riemanniana y orientada, cuyo haz tangente tiene funciones
de transición
gij : Ui ∩ Uj → SO(4),
X se dice que posee estructura spin sı́ existen funciones de transición ǧij : Ui ∩ Uj → Spin(4), tales
que, ρ ◦ ǧij = gij , donde ρ es la función spin de SO(n). La 4-variedad X no siempre posee una
estructura spin pero sı́ una spinc , con esta estructura spinc , podemos construir haces vectoriales
W + , W − y una haz lineal hermitiano L. Sı́ A es una conexión unitaria de L, esta conexión
junto con la conexión Levi-Civita de la variedad riemanniana X determinan un operador DA ,
DA : Γ(W + ) → Γ(W − ), llamado el operador de Dirac. El objetivo de este capı́tulo es presentar
la definición del operador de Dirac y termina con la prueba de la Fórmula de Weitzenböck. El
tratamiento seguido aquı́ fue tomado de diferentes fuentes como [18], [19] y [11].
3.1.
3.1.1.
Estructuras Spin
Haces Spin
Recordemos que existe un grupo topológico, denominado Spin(n), para el cual existe un homomorfismo sobreyectivo ρ : Spin(n) → SO(n), tal que Ker(ρ) = {±1} para n ≥ 3, esta aplicación
se denominó función spin (ver Teorema 1.2.13).
Sea X una variedad riemanniana orientada, cuyo haz principal asociado al haz tangente T X, el
haz cuya fibra en x ∈ X es el conjunto de bases ortonormales de Tx X, es denotado por PSO(n) (T X),
junto con {Ui }i∈I un cubrimiento abierto de X y las funciones de transición de T X:
gij : Ui ∩ Uj → SO(n)
Definición 3.1.1. Una estructura spin sobre una variedad riemanniana orientada X está dada
por un cubrimiento abierto {Ui }i∈I de X y una colección de funciones de transición
ǧij : Ui ∩ Uj → Spin(n),
tal que ρ ◦ ǧij = gij y que satisfacen la condición cocı́clica, i.e., para Ui ∩ Uj ∩ Uk 6= ∅,
ǧij · ǧjk · ǧki = 1.
57
Definición 3.1.2. Sea X una variedad riemanniana orientada con estructura spin, el haz principal spin sobre X asociado a la estructura spin es el Spin(n)-haz principal, determinado por
el cubrimiento abierto {Ui }i∈I de X y las funciones de transición ǧij de la estructura spin (ver
Teorema de Reconstrucción 2.2.5), este haz principal de denotará como πSpin : PSpin(n) (T X) → X.
Proposición 3.1.3. Sea X una variedad riemanniana orientada con estructura Spin, entonces,
el haz principal PSO(n) (T X) es un haz asociado de PSpin(n) (T X) vı́a la acción ρ, i.e.,
PSO(n) (T X) = PSpin(n) (T X) ×ρ SO(n),
(3.1)
donde un elemento g, g ∈ Spin(n), actúa sobre SO(n) vı́a la multiplicación a izquierda por ρ(g).
Demostración. Debemos verificar que las funciones de transición de PSpin(n) ×ρ SO(n) y de PSO(n)
coinciden, lo cual es una consecuencia inmediata de la Definición de estructura spin, ya que, las
funciones de Transición de PSpin(n) ×ρ SO(n) son ρ ◦ ǧij = gij (vea comentario anterior a la
Definición 2.4.7).
Proposición 3.1.4. Existe una función φ : PSpin(n) (T X) → PSO(n) (T X), tal que φ restringida a
las fibras corresponde a ρ y φ(p · g) = φ(p) · ρ(g), para p ∈ PSpin(n) (T X) y g ∈ Spin(n). Además
el siguiente diagrama es conmutativo:
PSpin(n) (T X)
Q
Q
πSpin
Q
s
Q
φ
X
- PSO(n) (T X)
π
+
Demostración: Recordemos que PSpin(n) (T X) y PSO(n) (T X) pueden ser descritos, a partir de
sus funciones de transición, como clases de equivalencia de I × X × Spin(n) y I × X × SO(n),
respectivamente (ver Teorema de Reconstrucción 2.2.5).
Definimos φ([i, x, s]) = [i, x, ρ(s)], esta aplicación está bien definida ya que sı́ (i, x, s) ∼ (j, x, t)
entonces s = gˇij (x) · t, luego, ρ(s) = ρ(ǧij )(x)ρ(t) = gij (x)ρ(t), lo cual implica que [i, x, ρ(s)] =
[j, x, ρ(t)] luego por definición de φ, φ restringida a cada una de las fibras es una copia de ρ.
Para verificar la ρ-equivariancia de φ, sea p ∈ PSpin(n) (T X) y g ∈ Spin(n), luego sı́ p = [i, x, s],
entonces, φ(p · g) = φ([i, x, s] · g) = φ([i, x, s · g]) = [i, x, ρ(s · g)] = [i, x, ρ(s)] · ρ(g) = φ(p) · ρ(g). La
conmutatividad del diagrama se sigue de la definición de φ.
Los siguientes Lemas proporcionan un criterio para saber cuando una variedad riemanniana
orientable X posee una estructura spin:
Lema 3.1.5. Una variedad riemanniana orientada X, posee una estructura spin sı́ y solo sı́ la
segunda clase de Stiefel-Whitney ω2 (T X) ∈ H 2 (X; Z2 ) es igual a cero, donde H 2 (X; Z2 ) es el
segundo grupo de cohomologı́a de Čech.
Lema 3.1.6. El conjunto de distintas estructuras spin de X está en correspondencia uno-a-uno
con H 1 (X; Z2 ), H 1 (X; Z2 ) es el primer grupo de cohomologı́a de Čech. .
58
Demostración: La prueba de estos lemas puede ser encontrada en [14, pag82]
Definición 3.1.7. Las variedades que admiten una estructura spin son llamadas variedades
spin.
Sea S el módulo spinor y 4S : Spin(n) × S → S la representación spin compleja (vea Teorema
1.3.7 y Definición 1.3.8). Esta representación induce un haz W ,
W = PSpin(n) (T X) ×4S S.
(3.2)
Proposición 3.1.8. El haz vectorial W = PSpin(n) (T X) ×Spin(n) S se descompone como suma
directa de haces vectoriales
W = W + ⊕ W −,
donde W ± = PSpin(n) (T X) ×Spin(n) S ±
Demostración: Recordemos que el módulo spinor S se descompone como S = S + ⊕ S − y que la
±
representación spin se puede descomponer en dos representaciones 4±
→ S±.
S : Spin(n) × S
El haz vectorial W = PSO(n) (T X) ×4S S es el espacio cociente entre PSO(n) (T X) × S por la
acción (p, s) ∗ g = (p · g −1 , 4S (g)s). Para s ∈ S existen s1 ∈ S + , s2 ∈ S − , tal que s = s1 + s2 y
−
4S (g)(s) = 4+
S (g)(s1 )+4S (g)(s2 ). En términos de clases de equivalencia de PSpin(n) (T X)×4S S,
tenemos que [p, s] = [p, s1 ] + [p, s2 ]; supongamos que para q ∈ PSpin(n) (T X) y t1 , t2 ∈ S, tenemos
que [q, t1 ]+[q, t2 ] = [p, s1 ]+[p, s2 ], luego existe g ∈ Spin(n) tal que p·g −1 = q y 4S (g)(s) = t1 +t2 ,
−
+
−
+
−
como 4S (g)(s) = 4+
S (g)(s1 ) + 4S (g)(s2 ) = t1 + t2 y 4S (g)(s1 ) ∈ S , 4S (g)(s2 ) ∈ S , entonces,
+
−
+
t1 = 4S (g)(s1 ), t2 = 4S (g)(s2 ), luego [p, s1 ] = [q, t1 ] en W y [p, s2 ] = [q, t2 ] en W − , luego
W = W + ⊕ W −.
Supongamos que X es una variedad spin de dimensión cuatro. Sı́ PSO(4) (T X) es el haz principal
asociado al haz tangente T X, cuyas funciones de transición son gij : Ui ∩Uj → SO(4), entonces, las
funciones de transición de PS pin(4)(T X), ǧi,j : Ui ∩ Uj → Spin(4) = SU (2) × SU (2), satisfacen la
relación ρ ◦ ǧij = gij y la condición cocı́clica ǧij ǧjk = ǧik , en Ui ∩ Uj ∩ Uk . Los haces vectoriales
complejos de rango dos, W + y W − , poseen funciones de transición dadas por
4− ◦ǧij : Ui ∩Uj → {(0, 0)}×SU (2) = SU (2)− ;
4+ ◦ǧij : Ui ∩Uj → SU (2)×{(0, 0)} = SU (2)+
luego en este caso, W + y W − son SU (2)-haces vectoriales.
3.1.2.
Haces spinc
Del mismo modo en que se definió la estructura spin de una variedad X, podemos definir la
estructura spinc . Por la Proposición 1.3.12, tenemos que la función ρ : Spin(n) → SO(n), puede
ser extendida a una aplicación ρ̌ : Spinc (n) → SO(n).
Definición 3.1.9. Sea X una variedad riemanniana orientada. Una estructura spinc de X está dada por un cubrimiento abierto {Ui }i∈I y una colección de funciones de transición
ǧij : Ui ∩ Uj → Spinc (n),
59
(3.3)
tales que ρ̌ ◦ gˇij = gij y que satisfacen la condición cocı́clica,
ǧij ◦ ǧjk ◦ ǧki = I,
para Ui ∩ Uj ∩ Uk 6= ∅.
El haz principal cuyas funciones de transición corresponden a las de la Ecuación 3.3, es el haz
principal asociado a la estructura spinc y es denotado como πSpin(n)c : PSpinc (n) (T X) → X.
Proposición 3.1.10. Sea X una variedad riemanniana orientada con estructura spinc , entonces,
el haz principal PSO(n) (T X) es un haz asociado de PSpinc (n) (T X) vı́a la acción ρ̌, i.e.,
PSO(n) (T X) = PSpin(n) (T X) ×ρ̌ SO(n),
(3.4)
donde un elemento g, g ∈ Spinc (n), actúa sobre SO(n) vı́a la multiplicación a izquierda por ρ̌(g).
Recordemos que existe un doble cubrimiento ρc de SO(n) × S 1 , ρc : Spinc (n) → SO(n) × S 1 ,
tal que la proyección sobre el primer factor es ρ̌ y hay un homomorfismo natural det,
det : Spinc (n) → S 1 ,
(Vea Proposición 1.3.12).
Definición 3.1.11. Sea X una variedad diferenciable con estrutura spinc ; el haz lineal hermitiano
asociado a la estructura spinc , es:
L = PSpinc (n) (T X) ×det C,
(3.5)
. Las funciones de transición de L están dadas por
det ◦ gˇij : Ui ∩ Uj → S 1 .
(3.6)
Proposición 3.1.12. Sea X una variedad riemanniana orientada con estructura spinc , entonces,
el haz principal PSO(n) (T X) es un haz asociado de PSpinc (n) (T X) vı́a la acción ρ̌, i.e.,
PSO(n) (T X) = PSpin(n) (T X) ×ρ̌ SO(n),
(3.7)
donde un elemento g, g ∈ Spinc (n), actúa sobre SO(n) vı́a la multiplicación a izquierda por ρ̌(g).
Del mismo modo se tiene que
PSO(n) (T X) ⊕ L = PSpin(n) (T X) ×ρc (SO(n) × S 1 ),
(3.8)
donde un elemento g, g ∈ Spinc (n), actúa sobre SO(n) × S 1 vı́a la multiplicación a izquierda por
ρc (g).
Demostración: La prueba es similar a la de la Proposición 3.1.3.
Proposición 3.1.13. Sea X una variedad diferenciable riemanniana orientada con estructura
spinc , entonces, existe una aplicación φc : PSpinc (n) (T X) → PSO(n) (T X)⊕L, tal que φc restringida
60
a las fibras corresponde a ρc y φc (p·g) = φc (p)·ρc (g) para p ∈ PSpinc (n) T X y g ∈ Spinc (n).Además
el siguiente diagrama es conmutativo:
PSpinc (n) (T X)
HH
πSpinc (n) H
j
H
φc
X
- PSO(n) (T X) ⊕ L
,
π⊕πL
donde π, πL , πSpinc (n) es la proyección de PSO(n) (T X), PSpinc (n) (T X) y L respectivamente.
Demostración: La prueba es similar a la de la Proposición 3.1.4 sı́ se tiene en cuenta que
PSpinc (n) (T X) ×ρc (SO(n) × S 1 ) = PSO(n) (T X) ⊕ L.
De modo análogo a como se hizo en la Ecuación 3.2 podemos construir un haz vectorial, inducido
por la representación spin compleja 4̌S : Spinc (n) × S → S (Vea Proposición 1.3.14),
W = PSpin(n) (T X) ×4̌ S
(3.9)
−
dado que 4̌S se puede descomponer en dos representaciones 4̌+
S , 4̌S , hay dos haces vectoriales
inducidos por estas representaciones, al igual que antes,
W ± = PSpinc (n) (T X) ×4̌± S.
S
En el caso en que X sea una variedad riemanniana cuatro dimensional con estructura spinc , como
Spinc (4) = {(A, B) ∈ U (2) × U (2) : det(A) = det(B)} (Vea Sección 1.4.4), las funciones de
c
±
transición de W ± están claramente determinadas por la representación 4̌±
S : Spin (4) → U (2) ,
en este caso las funciones de transición de W ± son:
4̌±
S ◦ ǧij : Ui ∩ Uj → U (2).
Supongamos que X es una variedad spin cuatro dimensional. Luego para un cubrimiento {Ui }i∈I ,
existen funciones de transición,
ǧij : Ui ∩ Uj → Spin(4),
que satisfacen las condiciones de la Definición 3.1.1 y sea L1/2 un haz lineal hermitiano cualquiera
sobre X con funciones de transición
hij : Ui ∩ Uj → S 1 ,
(3.10)
definimos una estructura spin c sobre X, con funciones de transición
hij gij : Ui ∩ Ui → Spinc (4).
Estas funciones conforman una estructura spinc para X (cualquier estructura spin de una variedad
induce tantas estructuras spinc como haces lineales hermitianos) y por lo tanto inducen un haz
61
Spinc (n), PSpinc (4) (T X). Para este haz, el haz lineal L asociado a la estructura spinc , tiene la
propiedad de que L1/2 ⊗ L1/2 = L, siendo L1/2 definido por las funciones de transición de la
Ecuación 3.10, esta es la razón por la cual desde un principı̀o se le llamó L1/2 (por lo general en la
literatura se encontrará que el haz que aquı́ llamamos L es denotado como L2 ).
Además sı́ V ± y W ± son los haces vectorales inducidos por la estructura spin y spinc de X,
entonces, claramente
W ± = V ± ⊗ L1/2 .
Una varieadad riemanniana cuatro dimensional, no siempre posee una estructura spin genuina,
pero sı́ una spinc , como lo enuncia el siguiente Lema que fue demostrado por Hirzebruch y Hopf,
el cual será de de vital importancia en este trabajo:
Lema 3.1.14. Sea X una variedad riemanniana orientada cuatro dimensional, entonces, X posee
una estructura spin c
Demostración. Los detalles generales de la prueba, de este resultado, pueden ser encontrados en
[19, pag25] o en [12].
3.1.3.
Haces de Clifford
Sea X una variedad riemanniana orientada y pn : SO(n) → Aut(Rn ), la representación estándar
de SO(n) en Rn . Esta representación induce una representación ∧k pn : SO(n) → Aut(∧k (Rn )),
luego con estas representaciones de SO(n), tenemos que,
T X = PSO(n) (T X) ×pn Rn ,
(3.11)
∧k (T X) = PSO(n) ×∧k pn ∧k (Rn ).
(3.12)
Recordemos que cada transformación ortogonal de Rn induce una transformación de Cl(n) (vea
Corolario 1.2.5), luego hemos construido una representación de SO(n), cln ,
cln : SO(n) → Aut(Cl(n))
(3.13)
Definición 3.1.15. El haz de Clifford de una variedad riemanniana orientada X es el haz
Cl(X) = PSO(n) (T X) ×cln Cl(n).
(3.14)
Es evidente que cada una de las nociones de álgebras de Clifford es llevada sobre los haces de
Clifford, por ejemplo, hay una descomposición
Cl(X) = Cl0 (X) ⊕ Cl1 (X).
(3.15)
Recordemos que Rn ⊂ Cl(n), análogamente el haz tangente T X, es un subhaz de Cl(X), lo
cual es obvio a partir de la Ecuaciones 3.11 y 3.14; además la fibra Cl(X)x , x ∈ X, es Cl(Tx X),
ya que cln |Rn = pn , luego el haz de Clifford es el haz de las álgebras de Clifford de cada uno de los
espacios tangentes Tx X de X, es decir,
62
Proposición 3.1.16. El haz de Clifford de X, Cl(X), es el haz que tiene como fibra en cada punto
x ∈ X el álgebra de Clifford Cl(Tx X).
Proposición 3.1.17. Sea X una variedad riemanniana orientada, entonces existe λ : Cl(X) →
V
X, el cual es un isomorfismo de haces vectoriales.
Demostración: Consideremos la aplicación δ : Cl(n) → ∧Rn , definida como en la Proposición
1.2.17. Luego como ∧k (T X) = PSO(n) (T X) ×∧k pn ∧k (Rn ) y Cl(X) = PSO(n) (T X) ×cln Cl(n).
Definimos la aplicación
^
λ : Cl(X) →
X, dada por λ([p, w] → [p, δ(w)].
La cual está bien definida y preserva las fibras ya que δ ◦ cln = ∧k pn ◦ δ.
La versión compleja del haz de Clifford Cl(X), se define como
Cl(X) ⊗ C = PSO(n) (T X) ×cln (Cl(n) ⊗ C).
Proposición 3.1.18. El operador de quilaridad Γ = i[(n+1)/2] e1 · · · en ∈ Cl(n) ⊗ C es invariante
bajo la acción de SO(n).
Demostración: Sea o ∈ SO(n), luego cln (o)(Γ) = i[(n+1)/2] o(e1 ) · · · o(en ) = Γ, ya que {o(e1 ), · · · , o(en )}
es una base ortonormal que define la misma que define la base {e1 , · · · , en }, y como el operador de
quilaridad Γ no depende de la base ortonormal con la cual se define, entonces, cl(n)(o)(Γ) = Γ.
La anterior proposición nos permite definir el operador de quilaridad como una sección de
Cl(X) ⊗ C, con Γ2 = 1; usando esta sección tenemos una descomposición
(Cl(X) ⊗ C) = (Cl(X) ⊗ C)+ ⊕ (Cl(X) ⊗ C)− .
Sı́ la variedad X posee una estructura spin o spinc , cuyos haces asociados a estas estructuras son
PSpin(n) (T X) ó PSpinc (n) (T X), consideremos las representaciones Ad : Spin(n) → Aut(Cl(Rn )),
ˇ : Spinc → Aut(Cl(Rn )),
dada por Adg (x) = −gxg −1 para g ∈ Spin(n) o la extesión de esta Ad
−1
c
ˇ h (x) = −hxh para h ∈ Spin (n). Estas representaciones satisfacen las relaciones, Ad = cln ◦ρ,
Ad
ˇ = cln ◦ ρ̌, ρ̌ : Spinc (n) → SO(n). De estas
donde ρ : Spin(n) → SO(n) es la función spin y Ad
relaciones concluimos los siguientes resultados:
Proposición 3.1.19. Sea X una variedad con estructura spin, entonces,
Cl(X) = PSpin(n) (T X) ×Ad Cl(n).
Proposición 3.1.20. Sea X una variedad con estructura spinc , entonces,
Cl(X) = PSpinc (n) (T X) ×Ad
ˇ Cl(n).
63
Sea X una variedad riemanniana orientada. Sea W como en la fórmula (3.2) ó (3.9), según el
caso en que X posea una estructura spin o spinc . Recordemos que hay una representación
c : (Cl(n) ⊗ C) × S → S,
o equivalentemente c : Cl(n) ⊗ C → End(S);
(3.16)
la cual se denomina multiplicación de Clifford. Note que sı́ λ ∈ Cl(n) ⊗ C, σ ∈ S y α ∈ Spin(n)
(ó α ∈ Spinc (n)), tenemos que
c(Adα (λ)) ◦ c(α)(σ) = c(−αλα−1 ) ◦ c(α)(σ) = −c(α) ◦ c(λ)(σ),
ˇ α (λ)) ◦ c(α)(σ) = −c(α) ◦ c(λ)(σ))
(ó c(Ad
ˇ α (λ) · σ = −α · (λ · σ))
en notación multiplicativa, “·”, tenemos que Adα (λ) · σ = −α · (λ · σ) (ó Ad
Como W = PSpin(n) (T X) ×4S S y Cl(X) ⊗ C = PSpin(n) (T X) ×Ad (Cl(n) ⊗ C), (ó W =
PSpinc (n) (T X) ×4̌S S y Cl(X) ⊗ C = PSpinc (n) (T X) ×Ad
ˇ (Cl(n) ⊗ C),) la multiplicación de
Clifford se define como:
γ : (Cl(X) ⊗ C) ⊗ W → W
(3.17)
[p, λ] ⊗ [p, σ] → [p, c(λ)(σ)],
λ ∈ Cl(n) ⊗ C, σ ∈ S y p ∈ PSpin(n) (T X) (o p ∈ PSpinc (n) (T X)).
Esta multiplicación de Clifford está bien definida ya que sı́ (p, λ) ∼ (q, µ) y (p, σ) ∼ (q, ς), entonces,
existe α ∈ Spin(n) tal que (p, σ) = (p · α−1 , 4α (ς)) = (p · α−1 , c(α)(ς)) y (p, λ) = (p · α−1 , Adα (µ)).
Calculando tenemos que γ([q, µ] ⊗ [q, ς]) = [q, c(µ)(ς)], pero [q, c(µ)(ς)] ∼ [p, c(λ)(σ)], ya que
−c(α) ◦ c(µ)(ς) = c(Adα (µ)) ◦ c(α)(ς) = c(λ)(σ)
ˇ α (µ)) ◦ c(α)(ς) = c(λ)(σ)).
(ó − c(α) ◦ c(µ)(ς) = c(Ad
Sobre las fibras, esta multiplicación es una copia de la multiplicación de Clifford c. Todo lo tratado
sobre la multiplicación de Clifford inicial, c, se puede aplicar a la nueva multiplicación de Clifford,
“γ, definida sobre haces. En el caso en que n sea par, las consecuencias del Teorema 1.3.7, se tienen
para la multiplicación de Clifford “γ”, solo que en este caso reemplazamos S por W y V por T X.
Corolario 3.1.21. Sea γ : Cl(X) ⊗ W → W , la multiplicación de Clifford definida en la Ecuación
3.17, entonces, W ± son determinados, como en Lema 1.3.5, por el operador de quilaridad Γ, i.e.,
W ± = {ψ ∈ W : γ(Γ)(ψ) = ±ψ}.
Corolario 3.1.22. Sean σ1 , σ2 ∈ Γ(W ), entonces he · σ1 , e · σ2 i = hσ1 , σ2 i, para todo e ∈ Tx X, con
kek = 1. Como e2 = −1, tenemos que he · σ1 , σ2 i = −hσ1 , e · σ2 i
Observación: Note que para ρ : Spin(n) → SO(n) (ó, ρ̌ : Spinc → SO(n)), tenemos que el haz
tangente T X ⊗ C se escribe como:
T X ⊗ C = PSpin(n) (T X) ×ρ (Rn ⊗ C),
T X ⊗ C = PSpinc (n) (T X) ×ρ̌ (Rn ⊗ C),
64
ó
(3.18)
(3.19)
según el caso en que la variedad X posea estructura spin o spinc , luego T X ⊗ C es un subhaz
de Cl(X) ⊗ C, pero la presentación 3.18 (ó 3.19), nos permiten definir una acción de Clifford de
T X ⊗ C sobre W , en particular sobre W ± , luego tenemos acciones de Clifford
(T X ⊗ C) ⊗ W → W
(T X ⊗ C) ⊗ W + → W −
(T X ⊗ C) ⊗ W − → W +
En el caso en que dim(X) = 4, como T X ⊗ C es un haz complejo de rango 4 y W ± son haces
complejos de dimensión 2, por razones de dimensión, la acción de Clifford induce un isomorfismo T X ⊗ C ≈ Hom(W + , W − ) ≈ Hom(W − , W + ). La acción de Clifford puede ser presentada
explı́citamente, en el caso n = 4 para T X , como,
T X ⊗ W + → W −,
T X ⊗ W − → W +,
por, [p, Q] ⊗ [p, x] = [p, Qx]
por, [p, Q] ⊗ [p, x] = [p, −Q̄t x],
p ∈ PSpin(n) (T X) (ó PSpinc (n) (T X)), x ∈ S y Q es la presentación matricial en forma de cuaterniones de un elemento de R4 (comparar con las Ecuaciones 1.20 y 1.21 del Capı́tulo 1). Estas
representaciones inducen la representación
c : TX ⊗ W → W
0 −Q̄t
[p, Q] ⊗ [p, y] → [p,
Q
0
!
y].
Luego hay una aplicación de haces vectoriales T (X) → End(W ), inducida por la multipllicación
de Clifford. Esta aplicación tiene la propiedad de que
!
!
!
0 −Q̄t
0 −Q̄t
0 −Q̄t
c[p, Q] ◦ c[p, Q]([p, y]) = c[p, Q]([p,
y]) = [p,
y]
Q
0
Q
0
Q
0
= [p, −kQk2 Idy] = c[p, −kQk2 I]([p, y]).
Esta aplicación se extiende al haz de Clifford Cl(X)⊗C y obtenemos γ : Cl(X)⊗C → End(W ),
el cual es un isomorfismo de haces vectoriales. Aunque estamos considerando el caso en que n = 4,
la acción de Clifford siempre induce un isomorfismo de este estilo para n par (comparar con el
Teorema 1.3.7).
3.2.
3.2.1.
Conexiones sobre estructuras spin
Conexiones spin
Sea X una variedad riemannian orientada con haz tangente T X y estructura spin, sean PSO(n) y
PSpin(n) los haces principales asociados a T X y a la estructura spin, respectivamente. Recordemos
65
que PSO(n) = PSpin(n) ×ρ SO(n), donde ρ : Spin(n) → SO(n) es la función spin (en adelante
denotaremos a PSO(n) (T X) y a PSpin(n) (T X) simplemente por PSO(n) y PSpin(n) , respectivamente).
Una conexión ω de PSO(n) induce una conexión sobre PSpin(n) , vı́a la transformación φ :
PSpin(n) → PSO(n) , de la Proposición 3.1.4 del siguiente modo:
Como la función φ es ρ-equivariante, para PSpin(n) definimos la forma so(n)-valuada, por
φ∗ ωp (vp ) = ωφ(p) ((dp φ)(vp )),
para p ∈ PSpin(n) y vp ∈ Tp (PSpin(n) ),
esta es la forma pullback de ω vı́a φ (compare con la Definición 2.4.18); a priori esta no tiene
que ser una conexión, ya que se probó que la forma pullback es una conexión sı́ la función que
la determina es entre haces principales con la misma estructura de grupo y es equivariante (vea
Proposición 2.4.19); en este caso tenemos un Spin-haz (PSpin(n) ) y un SO(n)-haz (PSO(n) ), la
razón por la cual φ∗ ω es una conexión es porque Spin(n) y SO(n) poseen la misma álgebra de Lie
y por que φ es ρ-equivariante, i.e., φ(p · g) = φ(p) · ρ(g) para p ∈ PSpin(n) , g ∈ Spin(n).
Proposición 3.2.1. Sea ω una conexión de PSO(n) y φ como en la Proposición 3.1.4, entonces,
φ∗ ω es una conexión de PSpin(n) .
Demostración: De la definición de φ∗ ω, φ∗ ω es una forma so(n)-valuada ó, que es lo mismo, una
forma spin(n)-valuada, ya que spin(n) = so(n). Por otro lado se tiene que para g ∈ Spin(n), p ∈
PSpin(n) , v ∈ Tp PSpin(n) y A ∈ spin(n) tenemos que
(φ∗ ω)p·g (v · g)
= ωφ(p·g) (dφ|p·g (v · g)) = ωφ(p)·ρ(g) (dφ|p (v) · ρ(g))
= ρ(g)−1 [ωφ(p) (dφ|p (v))]ρ(g) = ρ(g)−1 · (φ∗ ω)p (v) · ρ(g),
la última ecuación puede ser reemplazada por g · (φ∗ ω)p (v) · g −1 ya que g ∈ Spin(n) actúa sobre
SO(n) vı́a la transformación ρ (vea Proposición 3.1.4). Por otro lado
d
d
dφ|p (σ(A)(p)) = dφ|p ( (p · exp(tA)) ) =
(φ(p · exp(tA)))
dt
dt
t=0
t=0
d
=
(φ(p) · ρ(exp(tA)))
= σ(A)(φ(p))
dt
t=0
Por lo tanto,
(φ∗ ω)p (σ(A)(p)) = ωφ(p) (dφ|p (σ(A)(p)))
= ωφ(p) (σ(A)(φ(p))) = A.
La prueba de esta Proposición es muy similar a la de la Proposición 2.4.19 (comparar pruebas),
pero difieren, porque, en este caso φ es ρ-equivariante.
Definición 3.2.2. Sea X una variedad riemanniana orientable con estructura spin. Sı́ ω es la
conexión Levi-Civitá de la variedad X, entonces, la conexión φ∗ ∇ es llamada una conexión spin.
66
El haz de Clifford Cl(X) es asociado a X por la representación (vea Ecuación 3.13)
cln : SO(n) → Aut(Cl(n)),
Como Aut(Cl(n)) es un grupo de Lie, hay un homomorfismo de Lie asociado a cln
cln∗ : so(n) → End(Cl(n));
cln∗ tiene la propiedad de que para cada elemento A ∈ so(n)
(cln∗ A)(ϕ · ψ) = (cln∗ A)(ϕ) · ψ + ϕ · (cln∗ A)(ψ),
(3.20)
para todo ϕ, ψ ∈ Cl(n).
Proposición 3.2.3. Sea ω una conexión del haz principal PSO(n) , esta conexión induce una derivada covariante ∇cln sobre Cl(X), tal que para ϕ, ψ ∈ Γ(Cl(X)), se tiene que:
∇cln (ϕ · ψ) = ∇cln (ϕ) · ψ + ϕ · ∇cln (ψ),
(3.21)
donde el punto aquı́ denota multiplicación de Clifford.
Demostración: Recordemos que una conexión sobre un haz principal induce una derivada covariante sobre cualquier haz vectorial asociado (vea Sección 2.4.6). En este caso la conexión ω de
PSO(n) induce una diferenciación covariante sobre el haz Cl(X), que denotaremos por ∇cl . Sean
ϕ y ψ secciones de Cl(X), luego existe p una sección local de PSO(n) y v, w : X → Cl(n), tal que
ϕ = [p, v] y ψ = [p, w]. Recordemos que para estas secciones la derivada covariante se define como:
∇cl (ϕ) = [p, cln∗ (ωp (dp))v + dv],
∇cl (ψ) = [p, cln∗ (ωp (dp))w + dw],
por lo tanto de estas expresiones se concluye que
∇cl (ϕ · ψ)
= [p, cln∗ (ωp (dp))(v · w) + d(v · w)]
= [p, cln∗ (ωp (dp))(v) · w + v · cln∗ (ωp (dp))(v) + dv · w + v · dw]
= [p, (cln∗ (ωp (dp))(v) + dv) · w] + [p, v · (cln∗ (ωp (dp))(w) + dw)]
= ∇cln (ϕ) · ψ + ϕ · ∇cln (ψ).
Una conexión ω sobre PSO(n) induce una conexión φ∗ ω sobre PSpin(n) , la cual a su vez induce
una derivada covariante ∇W sobre el haz W = PSpin(n) ×4S S, W como en la Ecuación 3.2; la
conexión inducida de W es ademas unitaria, ya que Spin(n) actúa por transformaciones unitarias
bajo la representación spin 4S . La acción de Clifford de Cl(X) sobre W , definida en 3.17, es
compatible con estas conexiones en el sentido de que:
∇W (ϕ · σ) = ∇cln ϕ · σ + ϕ · ∇W (σ).
67
Proposición 3.2.4. Sean ∇W y ∇cln las derivada covariantes asociadas a W y a Cl(X), respectivamente, entonces,
∇W (ϕ · σ) = ∇cln ϕ · σ + ϕ · ∇W (σ),
para ϕ ∈ Γ(Cl(X)) y σ ∈ Γ(W ).
Demostración: Recordemos que podemos ver a Cl(X) como Cl(X) = PSpin(n) ×Ad Cl(n), W =
PSpin(n) ×4S S, 4S : Spin(n) → Aut(S). Sea c : (Cl(n)⊗)S → S la multiplicación de Clifford,
entonces, para A ∈ Cl(n), g ∈ Spin(n) y s ∈ S, tenemos que,
4S (g)(c(A)(u))
= c(g) ◦ c(A(u)) = c(gA)(u)
= c(gAg −1 )(u) = c(gAg −1 ) ◦ c(g)(u)
= c(Adg (A))(4S (g)(u)),
ó simplemente con notación de multiplicación de Clifford como
4S (g)(Au) = Adg (A) · 4S (g)(u);
(3.22)
por lo tanto para ǧ ∈ spin(n), σ ∈ S y η ∈ Cl(n), tenemos que:
(4S )∗ (η · σ) = {Ad∗ ǧ(η)} · σ + η · {(4S )∗ ǧ}σ,
(3.23)
a partir de esto, el resultado sigue de manera similar a la prueba de la Proposición anterior.
Sea Γ el operador de quilaridad, como sabemos Γ puede ser visto como una sección del haz de
Clifford Cl(X), que a x → Γx ∈ Cl(Tx X).
Proposición 3.2.5. En el caso en que ∇cln sea la derivada covariante en Cl(X) inducida por la
conexión Levi-Civitá del haz tangente T X, entonces, el operador de quilaridad es auto-paralelo, es
decir,
∇(cln ) (Γ) = 0.
Demostración: Sea {Uk }k∈I una trivialización del haz Cl(X). Probaremos que ∇(cln ) (e1 · e2 · ... ·
en ) = 0, donde ei , i = 1, · · · , n, son las secciones constantes, de la trivialización Ui . Como sabemos
el representante local de la conexión Levi Cevitá en Uk es de la forma
d + ωk ,
donde ωk es una matriz antisimétrica (por ser la conexión Levi-Cevitá ortogonal) de 1-formas
determinada por las secciones e1 , ..., en , i.e.,
(∇(ej ))k =
n
X
i=1
68
ei (ωji )k ,
donde ∇ representa a la conexión Levi-Civitá. Para la conexión inducida ∇cln de la Levi-Cevitá para
Cl(X), tenemos aplicando repetidas veces la Proposición 3.21 que
(∇(cln ) (e1 · · · en ))k
= ∇(e1 )k · e2 · ... · en + e1 · ∇(e2 )k · ... · en + e1 · e2 · ... · ∇(en )k
n
n
n
X
X
X
= (
ei (ω1i )k ) · e2 · ... · en + e1 · (
ei (ω2i )k ) · ... · en + e1 · e2 · ... · (
ei (ωni )k )
i=1
i=1
i=1
= (ω11 + ω22 + ... + ωnn )e1 · ... · en ,
aquı́ el punto representa la multiplicación interna de Clifford de Cl(n) para la cual ei ·ej +ej ·ei = δij ;
de arriba tenemos que (∇(cln ) (e1 · · · en ))k = 0 sı́ ω11 + ω22 + ... + ωnn = 0, pero esto se tiene desde
un comienzo por ser la matriz ωk antisimétrica, entonces, (∇(cln ) (e1 · · · en ))k = 0 y por ende
∇cln (Γ) = 0.
Corolario 3.2.6. Para la conexión inducida po la conexión Levi-Civitá los espacios Cl(X) ⊗ C±
son invariantes bajo la derivada covariante ∇cln . En el caso en que la variedad X sea de dimensión
par, los subhaces vectoriales de W , W ± , son tambien invariantes bajo la conexión ∇W .
Demostración: Como W ± = {v ∈ W : Γ · v = ±v}, sea ϕ una sección de W ± , entonces, para el
operador de quilaridad Γ, tenemos que
Γ · ∇W (ϕ)
= ∇(cln ) (Γ) · ϕ + Γ · ∇W (ϕ)
= ∇W (Γ · ϕ) = ∇W (±ϕ) = ±∇W (ϕ)
La prueba de la primera afirmación es similar.
3.2.2.
Fórmula explı́cita para las conexiones sobre W
Sea X una variedad riemanniana orientada con estructura spin, y sean PSO(n) y PSpin(n) los
correspondientes haces asociados. Sea W el haz vectorial asociado a PSpin(n) , definido en 3.2. Sea
∇ la conexión Levi-Civitá para PSO(n) y ∇W la derivada covariante inducida por ∇ sobre W ,
∇W : Ω0 (W ; X) → Ω1 (W ; X).
Sea {Uk }k∈I un cubrimiento de X, que define una trivialización, para el haz PSO(n) (y tambien para
el haz W ) y sean ωk los correspondientes representantes locales de la conexión Levi-Civitá sobre
Uk , entonces, para σ ∈ Γ(W ), los representantes locales de ∇W satisfacen
(∇W (σ))k = (4S )∗ (ωk )σk + dσk ,
(vea Ecuación 2.27), donde (4S )∗ es la acción de spin(n) sobre S inducida de la acción de spin
sobre S, 4S : Spin(n) → Aut(S). Desde que ei ∧ ej es la matriz antisimétrica con -1 en la entrada
(i, j) y 1 en (j, i), tenemos que la matriz ωk es el elemento
X
ωk =
(ωji )k ei ∧ ej
i<j
69
en so(n), pero recordemos, por el comentarior posterior a la Proposición 1.2.14, que ei ∧ ej ∈
so(n) = spin(n) es identificado con (ei · ej )/2 en el álgebra de Clifford Cl(n). Por lo tanto
(4S )∗ (ωk ) =
1X
(ωji )k ei · ej .
2 i<j
Por lo tanto la fórmula final escrita respecto a la trivialización dada es
(∇W (σ))k = (
3.2.3.
1X
(ωji )k ei · ej ) · σk + dσk ,
2 i<j
Conexiones sobre estructuras spinc
Sea X una variedad riemannian orientada con estructura spinc , y sean PSO(n) , PSpinc (n) los
correspondientes haces asociados al haz tangente T X y a la estructura spinc , respectivamente. En
este caso como Spinc (n) y SO(n) no poseen la misma álgebra de Lie, no podemos automáticamente
llevar una conexión, ω, de PSO(n) a una de PSpinc (n) ; sin embargo existen funciones, ρc : Spinc (n) →
SO(n) × S 1 , la cual es un doble cubrimiento, y φc : PSpinc → PSO(n) ⊕ L (vea Proposición 3.1.13),
donde L es el U (1)-haz definido en la Ecuación 3.5; tal que la función φc : PSpinc (n) → PSO(n) ⊕ L
es ρc -equivariante. Sı́ ω y A son conexiones de PSO(n) y L, respectivamente, entonces ω ⊕ L es una
conexión de PSO(n) ⊕ L y (φc )∗ (ω ⊕ A) es una conexión de PSpinc (n) y por lo tanto en cualquier
haz inducido de PSpinc (n) tenemos una diferenciación covariante, inducida por las conexiones ω y
A.
Sean ωk y Ak los representantes locales de ω y A, tal que d(Ak ) = −iFA , donde −iFA es la
curvatura de la conexión A y FA es una 2-forma de valor real. En términos locales la diferenciación
covariante de W , inducida por A y ω, está dada, para σ ∈ Γ(W ), por
X
1
∇A (σ) = dσk + (Ak +
(ωji )k ei · ej ) · σk ,
2
i<j
(3.24)
donde σk es el representante local de la sección σ. En términos de representantes locales tenemos
que el representante local, %k , de la conexión ∇A es
%k =
X
1
(Ak +
(ωji )k ei · ej ),
2
i<j
por consiguiente el representante local de la curvatura de la conexión ∇A es
Ωk = d%k + %k ∧ %k
n
=
X
1
(−iFA +
Rji ei · ej ),
2
i<j
donde −iFA es la curvatura de A y {Rij } es el representante local de la curvatura de ω.
70
(3.25)
3.3.
El operador de Dirac
Definición 3.3.1. Sea X una variedad riemanniana con estructura spin. El Operador de Dirac
D : Γ(W ) → Γ(W ) es definido como
D(σ)(x) =
n
X
ei · ∇ei (σ)(x),
(3.26)
i=1
donde {e1 , · · · , en } es una base ortonormal orientada para Tx X y donde “·”es la multiplicación de
Clifford, y ∇ es la conexión spin definida sobre V inducida de la conexión Levi-Cevitá y W es el
haz fibrado, W = PSpin(n) ×4S S, como en 3.2.
Para una variedad riemanniana orientada X con estructura spinc , el haz vectorial W , como en
3.9, posee una conexión inducida por las conexiones de Levi-Cevitá de T X y por una conexión A
sobre el haz lineal L, definido en 3.5, la cual denotaremos como ∇A , para esta conexión sobre W
definimos el operador de Dirac como:
Definición 3.3.2. Sea X una variedad riemanniana con estructura spinc . El operador de Dirac
DA : Γ(W ) → Γ(W ) está dado por:
DA (σ)(x) =
n
X
ei · ∇A
ei (σ)(x),
(3.27)
i=1
donde {e1 , · · · , en } es una base ortonormal orientada para Tx X y donde “·”es la multiplicación de
Clifford.
Lema 3.3.3. El operador de Dirac D, para una variedad X con estructura spin, es independiente
de la escogencia de la base ortonormal {e1 , · · · , en }
Demostración: Supongamos que {e01 , · · · , e0n } es otra base ortonormal orientada. La matriz B,
cambio de base, con componentes Bi,j es un elemento de SO(n). Como la multiplicación de Clifford
es bilineal, tenemos que para cualquier α ∈ W
e0i · α =
n
X
Bi,j ej · α,
(3.28)
Bi,j ∇ej (σ).
(3.29)
i=1
y como ∇e es lineal en e, tenemos que
∇e0i (σ) =
n
X
i=1
71
Combinando las Ecuaciones 3.28 y 3.29, tenemos que
n
X
e0i · ∇e0i (σ)
=
i=1
n X
n
n
X
X
(
Bi,j ej · (
Bi,j 0 ∇ej0 (σ)))
j 0 =1
i=1 j=1
=
X
Bi,j Bi,j 0 ej · ∇ej0 (σ)
i,j,j 0
=
=
X
j,j 0
n
X
δj,j 0 ej · ∇ej0 (σ)
ej · ∇ej (σ).
j=1
Lo cual completa la prueba.
Lema 3.3.4. Para una variedad X con estructura spinc , el operador de Dirac DA , es independiente
de la escogencia de la base ortonormal {e1 , · · · , en }.
Demostración: La prueba es análoga a la anterior, simplemente reemplazamos D por DA .
Lema 3.3.5. Sea λ : X → C, entonces para σ, σ ∈ Γ(W ), tenemos que
DA (λσ) = λDA (σ) + dλ · σ.
(3.30)
Demostración: Sea {e1 , ..., en } una base ortonormal tangente alrededor de un punto x ∈ X. Luego
X
DA (λσ) =
ei · ∇ei (λσ)
i
=
X
=
X
ei · λ∇ei (σ) + ∂ei λσ
i
λei · ∇ei (σ)+ ∂ei λ ei · σ
i
= λDA (σ) + dλ · σ
Sea {Uα }α∈I un cubrimiento de X el cual define una trivialización local del haz principal PSO(n) ,
tenemos que para un representante local σα de una sección σ de W en Uα y para las secciones
ortonormales {e1 , · · · , en } de T X|Uα , el representante local sobre Uα , D(σ)α , del operador de Dirac
evaluado en σ, D(σ) es
X
D(σ)α =
ei · (∇ei σ)α
i
=
X
i
ei · (
dσα
1 X
+
(ωk,j )α (ei ) (ej ek ) · σα ),
dxi
2
j<k
donde “·” representa la multiplicación de Clifford y la matriz de 1-formas cuyas componentes son
(ωi,j )α es el representante local de la conexión Levi-Cevitá; de esta última expresión concluimos
que el operador de Dirac es un operador lineal diferencial de primer orden.
72
En el caso en que X tenga una estructura spinc , junto con una U (1)-conexión A sobre el haz
lineal L, la fórmula es (ver Ecuación 3.24)
X
X
dσα
1X
DA (σ)α =
el ·
+
(A(el )el +
(ωk,j )α (el )(ej ek )) · σα
(3.31)
dxl
2
l
l
j<k
Lema 3.3.6. Sea A y A0 = A + δ, δ ∈ Ω1 (X), dos U (1)-conexiones sobre el haz lineal L asociado
a la estructura spinc de una variedad X, entonces, para cualquier σ ∈ Γ(W ), tenemos que
1
0
DA
(σ) = DA (σ) + δ · σ.
2
Demostración: Es una consecuencia inmediata de la Ecuación 3.31.
3.3.1.
(3.32)
Fórmula de Weitzenböck
Sea E un haz vectorial ortogonal o hermitiano sobre una variedad compacta riemanniana y
orientada, luego las fibras de E, Ex , poseen un producto interno. Sean σ1 , σ2 ∈ Γ(E), luego el
producto interno induce una función hσ1 , σ2 i : X → K, dada por hσ1 , σ2 i(x) = hσ1 (x), σ2 (x)i, para
x ∈ X. Con el producto interior h , i de E definimos un producto interno sobre Γ(E) dado por:
Z
hσ1 , σ2 i.
(σ1 , σ2 )L2 =
(3.33)
X
Sea ω una conexión ortogonal o hermitiana sobre E, con derivada covariante ∇ω , entonces, la
conexión laplaciana ∇∗ω ∇ω : Γ(E) → Γ(E), es definida en términos de una base local ortonormal
P
tangente {e1 , ..., en } sobre X, como ∇∗ω ∇ω σ− = k ∇ek ∇ek (σ) (hemos empleado la notación ∇ek
en lugar de ∇ω ek ).
Como el producto interno sobre Γ(E), definimos de modo similar el siguiente,
Z
(∇ω σ1 , ∇ω σ2 )L2 =
h∇ω σ1 , ∇ω σ2 i,
(3.34)
X
donde h∇ω σ1 , ∇ω σ2 i se expresa en términos de una base ortonormal, local tangente, como:
X
h∇ω σ1 , ∇ω σ2 i =
h∇ej σ1 , ∇ej σ2 i.
(3.35)
j
Proposición 3.3.7. Sea E un haz vectorial ortonormal (o hermitiano) con conexión ortogonal (o
hermitiana) sobre una variedad riemanniana, orientada y compacta X. La conexión laplaciana,
∇∗ω ∇ω : Γ(E) → Γ(E) es tal que (∇∗ω ∇ω σ1 , σ2 )L2 = (∇ω σ1 , ∇ω σ2 )L2 , para toda σ1 , σ2 ∈ Γ(E).
Además ∇∗ω ∇ω σ1 = 0 sı́ y solo sı́ σ1 es globalmente paralela, i.e., sı́ ∇ω σ1 = 0.
Demostración: Sea x ∈ X y sea {e1 , · · · , en } una base ortonormal, tangente, local con la propiedad
de que (∇ω ej )(x) = 0 para todo j. Entonces en un punto x ∈ X tenemos que
X
h∇∗ω ∇ω σ1 , σ2 i(x) = −
h∇ej ∇ej σ1 , σ2 i(x)
j
X ∂
=−
h∇ej σ1 , σ2 i(x) − h∇ej σ1 , ∇ej σ2 i(x) ,
∂x
j
j
73
la última lı́nea resulta del hecho de que la conexión ω es ortogonal (o hermitiana). Sea V el campo
vectorial sobre X definido por la condición hV, Zi ≡ h∇Z σ1 , σ2 i para todo Z ∈ T X, la existencia
de V es por el Teorema de Representación de Riesz para espacios vectoriales de dimensión finita,
entonces, la divergencia de V , div(V ), se expresa como:
X
div(V )(x) ≡
h∇ej V, ej i(x)
j
=
X
j
(
∂
hV, ej i − hV, ∇xj ej )(x)
∂xj
X ∂
=
hV, ej i(x)
∂xj
j
=
X ∂
h∇ej σ1 , σ2 i(x),
∂xj
j
la última igualdad se obtiene usando la definición de V . Luego combinando ambas expresiones
obtenemos,
h∇∗ω ∇ω σ1 , σ2 i(x) = −div(V )(x) + h∇ω σ1 , ∇ω σ2 i(x),
luego integrando sobre X, tenemos que (∇∗ω ∇ω σ1 , σ2 )L2 = (∇ω σ1 , ∇ω σ2 )L2 . Los resultados restantes
son consecuencia de esta última ecuación.
Regresemos al caso en que la variedad X posee estructura spin ó spinc , asociado a esta estructura tenemos un haz W . En el caso en que X posea una estructura spin, el haz W posee
una conexión inducida por la conexión Levi-Civitá, a partir de esta conexión se define el operador
de Dirac D. Sı́ X posee una estructura spinc , W posee una conexión inducida por la conexión
Levi-Civitá de T X y una conexión A del haz lineal L asociado a la estructura spinc , a partir de
esta conexión se define el operador de Dirac DA .
Proposición 3.3.8. Sea X una variedad riemanniana orientada y compacta con estructura spin,
entonces, el operador de Dirac D es autoadjunto, es decir,
Z
Z
(Dσ1 , σ2 )L2 =
hD(σ1 ), σ2 i =
hσ1 , D(σ2 )i = (σ1 , Dσ2 ),
X
X
para toda sección σ1 , σ2 ∈ Γ(W ).
Demostración: La prueba sigue en lı́neas generales la prueba del Teorema anterior, pues tenemos
74
que:
hD(σ1 ), σ2 i(x) =
X
hei · ∇ei σ1 , σ2 i(x) = −
i
X
h∇ei (σ1 ), ei σ2 i(x)
i
X ∂
(
hσ1 , ei · σ2 i − hσ1 , ∇ei (ei · σ2 )i)(x)
∂xi
i
X ∂
=−
hσ1 , ei · σ2 i − hσ1 , ∇ei (ei ) · σ2 i − hσ1 , ei · ∇ei σ2 i (x)
∂xi
i
X
∂
=
hσ1 , ei · ∇ei (σ2 )i(x) −
hσ1 , ei · σ2 i(x)
∂xi
i
X ∂
= hσ1 , D(σ2 )i(x) −
hσ1 , ei · σ2 i(x).
∂xi
i
=−
Al igual que antes sea V el campo vectorial definido por la condición:
hV (x), Z(x)i = −hσ1 (x), Z(x) · σ2 (x)i,
para todo campo vectorial Z y x ∈ X, luego
X ∂
(
hV, ei i − hV, ∇ei ei i)(x)
∂xi
i
i
X ∂
X ∂
hV, ei i(x) = −
hσ1 , ei · σ2 i(x),
=
∂xi
∂xj
i
i
div(V )(x) ≡
X
h∇ei V, ei i(x) =
luego hD(σ1 ), σ2 i = hσ1 , D(σ2 )i(x) + div(V )(x); por lo tanto integrando sobre X tenemos que
(D(σ1 ), σ2 )L2 = (σ1 , D(σ2 ))L2 .
Proposición 3.3.9. Sea X una variedad riemanniana orientada y compacta con estructura spinc ,
entonces, el operador de Dirac DA es autoadjunto, es decir,
Z
Z
2
(DA σ1 , σ2 )L =
hDA (σ1 ), σ2 i =
hσ1 , DA (σ2 )i = (σ1 , DA σ2 ),
X
X
para toda sección σ1 , σ2 ∈ Γ(W ).
Demostración: La demostración es análoga a la de la Proposición anterior.
Teorema 3.3.10 (Fórmula de Weitzenböck). Sea X una variedad riemanniana orientada con
estructura spinc , y sean PSO(n) y PSpinc (n) los correspondientes haces asociados al haz tangente y
a la estructura spinc , respectivamente. Sea A una conexión del haz lineal L de la estructura spinc
y sea DA el operador de Dirac sobre W determinado por la conexión Levi-Cevitá y la conexión A
sobre el haz L. Entonces para cualquier sección ψ, ψ ∈ Γ(W ), tenemos que
(DA ◦ DA )(ψ) = ∇∗A ∇A (ψ) +
s
iX
−
FA (ek , el )ek el · ψ
4 2
(3.36)
k<l
donde −iFA ∈ Ω2 (X; iR) es la curvatura de A, s es la curvatura escalar de la conexión Levi-Cevitá y
en el último término de la Ecuación 3.36 la multiplicación es la multiplicación de Clifford.
75
Demostración: Sea {e1 , ..., en } una base tangente ortonormal en un punto x ∈ X. Extendamos los
ei a campos vectoriales de tal modo que ∇ek el = 0 y que [el , ek ] = 0 para todo l, k. La conexión
Levi-Cevitá será denotada por ∇, luego DA ◦ DA se escribe como:
X
X
X
X
2
(∇ek el · ∇el + el · ∇ek ◦ ∇el )(ψ)
ek · ∇ek (
el · ∇el (ψ)) =
ek ·
DA
(ψ) =
k
=
X
l
l
k
X
ek · el ∇ek ◦ ∇el (ψ) = −
k,l
∇ek ∇ek (ψ) +
X
ek · el (∇ek ◦ ∇el − ∇el ◦ ∇ek )(ψ)
k<l
k
= − ∇∗A ∇A (ψ) +
X
ek · el ΩA (ek , el )ψ,
k<l
donde ΩA es la curvatura de la conexión spinc y por el Lema 2.4.44. Sustituyendo la fórmula 3.25
en esta expresión tenemos que
2
DA
(ψ) = ∇∗A ∇A (ψ) +
X
ek · el (
k<l
1 X k,l
i
Rj,i ei · ej − FAk,l )ψ.
2 i<j
2
Por otro lado
X
ek · el (
k<l
1 X k,l
1 X k,l
Rj,i ei · ej ) =
Rj,i ek · el · ei · ej
2 i<j
8
k,l,i,j
=−
1 X k,l
Ri,j ek · el · ei · ej
8
k,l,i,j
=−
1X
(
8 j
X
k,l
Ri,j
ek el ei +
k6=l,l6=i,i6=k
X
k,l
k,l
(Rk,j
ek el ek + Rl,j
ek el el ))ej .
k,l
La primera expresión de la última ecuación es cero por la Proposición 2.4.45. Luego
X
k<l
ek · el (
1 X X k,l
1 X k,l
k,l
Rj,i ei · ej ) = −
( (Rk,j el ej − Rl,j
ek ej ))
2 i<j
8 j
k,l
1X
=−
2Ric(el , ej )el · ej
8
l,j
1X
1X
=
2Ric(el , el ) −
(2Ric(el , ej )el · ej − 2Ric(ej , el )el · ek )
8
8
l
l<j
Como el tensor de Ricci es simétrico tenemos que
X
k<l
ek · el (
1 X k,l
1X
s
Rj,i ei · ej ) =
Ric(el , el ) = .
2 i<j
4
4
l
Lo cual demuestra la fórmula de Weitzenböck.
76
C A P Í T U L O
4
Ecuaciones Seiberg-Witten
Las soluciones de las Ecuaciones Seiberg-Witten modulo transformaciones gauge determinan
un espacio llamado Moduli Seiberg-Witten. Para definir invariantes análogos a los de Donaldson
se deben establecer los siguientes resultados:
1. El espacio Moduli Seiberg-Witten, es una variedad finito-dimensional; para lo cual se usa teorı́a
de operadores elı́pticos y F redholm.
2. Es necesario establecer la compacidad del espacio de soluciones o una hipótesis más débil análoga
a esta.
3. Es necesario establecer orientabilidad.
Las ecuaciones Seiberg-Witten son invariantes bajo transformaciones gauge y el espacio moduli
Seiberg-Witten es definido modulo esta acción. las principales dificultades al trabajar con las
ecuaciones Seiberg-Witten pueden provenir de las soluciones reducibles, por consiguiente es
necesario
4. No encontrar soluciones reducibles en una familia genérica de ecuaciones.
El objetivo primordial de este capı́tulo, es establecer estas condiciones que permiten definir el
Invariante Seiberg-Witten. El tratamiento seguido aquı́ es el encontrado en [18] y [19].
4.1.
Ecuaciones Seiberg-Witten
Sea V un espacio vectorial cuatrodimensional orientado y con producto interno. Como vimos
en el capı́tulo 1, el álgebra de Clifford complejificada Cl(V ) ⊗ C, posee una representación S, para
la cual Cl(V ) ⊗ C ≈ End(S) = End(S + ⊕ S − ) y hay una aplicación σ : S + → ∧2+ (V ) denominada
la función cuadrática (vea Definición 1.4.6).
Sea X una variedad diferenciable cuatrodimensional, riemanniana, orientada, compacta. Como
X es cuatro dimensional, posee una estructura spinc . Recordemos que asociado a la estructura
spinc tenemos el haz principal Pspinc , el cual tiene asociado los haces vectoriales spin positivo y
spin negativo, los cuales son denotados por W + y W − respectivamente (vea Ecuación 3.9), además
de un haz lineal L (vea Definicón 3.5). Recordemos que los haces W + y W − poseen un producto
hermitiano. Además existe un isomorfismo entre haces vectoriales tal que
End(W + ) ≈ W + ⊗ W̄ + ≈ sl(W + ) ⊕ C ≈ (∧2+ (T X) ⊗ C) ⊕ C,
77
(4.1)
[vea Fórmula 1.29], y además tenemos una aplicación σ : W + → ∧2+ (T X), la cual es la extensión
natural de la función cuadrática inicial σ : S + → ∧+ (V ), la cual representa los elementos diagonales
de W + ⊗ W̄ + en ∧2+ (T X). Sea A una conexión del haz L, entonces el operador de Dirac DA :
Γ(W ) → Γ(W ), restringido en Γ(W+ ), tiene imagen en Γ(W− ) (el operador de Dirac DA invierte
la polaridad), ya que la acción de Clifford envı́a elementos de W + a W − y la conexión dA de W ,
inducida por la conexión Levi-Cevitá y la conexión A de L, envı́an secciones de W + a W + . La
+
restricción de DA en Γ(W+ ), D|Γ(W + ) : Γ(W + ) → Γ(W − ) será denotada simplemente como DA
.
−
De manera anaĺoga se define DA
: Γ(W − ) → Γ(W + ).
Definición 4.1.1 (Ecuaciones Seiberg-Witten). Sea −iFA la curvatura asociada de la conexión
A de L y −iFA+ su parte dual, entonces, las ecuaciones Seiberg-Witten son las ecuaciones, sobre
Γ(W + ):
+
DA
(ψ) = 0
(4.2)
FA+ = σ(ψ),
(4.3)
σ la función cuadrática.
Definición 4.1.2. El espacio de configuración A se define como
A = {(dA , ψ) : A es una U(1)-conexión de L y ψ ∈ Γ(W + )},
(4.4)
una pareja (dA , ψ) ∈ A, es escrita simplemente como (A, ψ).
Sı́ escogemos una conexión fija, A0 , entonces el espacio de configuraciones se puede escribir
como:
A = {(dA0 − ia, ψ) : a ∈ Ω1 (X), ψ ∈ Γ(W + )}
(4.5)
Una solución de las ecuaciones Seiberg-Witten es un par (A, ψ) ∈ A tal que las ecuaciones 4.2
y 4.3 son satisfechas.
Definición 4.1.3. Una solución (A, ψ) ∈ A, de las ecuaciones Seiberg-Witten, se dice reducible
sı́ ψ = 0, en caso contrario se dice que es irreducible.
4.1.1.
El Grupo Gauge
Definición 4.1.4. Sea L un haz lineal hermitiano sobre X, el grupo de transformaciones gauge
de L es el conjunto de funciones suaves g : X → U (1) y es denotado por G.
Proposición 4.1.5. Una transformación gauge g de L induce un automorfismo de L, g actuando
por multiplicación escalar, recı́procamente un automorfismo de L, que preserve la métrica hermitiana de L, es inducido por una transformación gauge.
Definición 4.1.6. Sı́ p0 un punto en X, los elementos del conjunto G0 = {g ∈ G : g(p0 ) = 1}, son
llamados transformaciones gauge fijas.
78
Tenemos un producto directo, G = G0 × S, donde S es el conjunto de transformaciones gauge
constantes. Las transformaciones gauge actúan por conjugación sobre las conexiones unitarias de
L,
g ∗ dA = g ◦ dA ◦ g −1 ,
(4.6)
g ∈ G, visto como automorfismo de L.
Para una sección σ ∈ Γ(L), en términos de representantes locales, tenemos que (g ∗ dA σ)α =
g(dg −1 σα ) + g(Aα g −1 σα ) = gdg −1 σα + gg −1 dσα + Aα σα = gdg −1 σα + (dA σ)α , donde Aα es unaforma puramente imaginaria sobre Uα , por consiguiente
g ∗ dA = dA + gdg −1 .
(4.7)
Lema 4.1.7. Sea A una conexión hermitiana sobre un haz lineal hermitiano L. La curvatura de
A es invariante con respecto a las transformaciones gauge, i.e., FA = Fg∗A , donde FA , Fg∗A , son
las curvaturas de A y g ∗ A, respectivamente, y g ∈ G.
Demostración: Como g ∗ A = A + gdg −1 , para g ∈ G, entonces, por el Corolario 2.4.29 tenemos
que FA − Fg∗A = d(gdg −1 ) = 0.
En el caso en que X sea simplemente conexa, cada elemento g ∈ G, puede ser escrito como
g = eiu ,
u : X → R,
(4.8)
y la acción de conjugación de G se simplifica a g ∗ dA = dA − idu.
Lema 4.1.8. Supongamos que la variedad X es conexa. El estabilizador en G de una conexión
unitaria A del haz lineal L es el grupo de funciones constantes de X a S 1 , un grupo naturalmente
identificado con S 1 .
Demostración: El conjunto de funciones g : X → S 1 tal que dg = 0, es el estabilizador de cualquier
conexión A, el cual por ser la variedad X conexa, coincide con el conjunto de funciones constantes.
4.1.2.
El Espacio Moduli Seiberg-Witten
El espacio de transformaciones gauge G actúa sobre el espacio de configuraciones A del siguiente
modo:
g ∗ (A, ψ) = (g 2 ∗ A, gψ) = (A + g 2 dg −2 , gψ) = (A − 2g −1 dg, gψ).
(4.9)
Proposición 4.1.9. Sı́ (A, ψ) ∈ A, es una solución de las ecuaciones Seiberg-Witten, entonces,
g ∗ (A, ψ) es también una solución de las ecuaciones Seiberg-Witten, para g ∈ G.
79
Demostración: Sı́ DA es el operador de Dirac, inducido por la conexión A, entonces, por los Lemas
3.3.5 y 3.3.6 tenemos que:
2g −1 dg · gψ
2
= gDA (ψ) + dg · ψ − dg · ψ
DA−2g−1 dg (gψ) = DA (gψ) −
= gDA (ψ) = 0.
Por otro lado,
+
FA−2g
−1 dg
= FA+ − 2d+ (g −1 dg) = FA+ = σ(ψ)
iX
iX 2
= −
hψ, ei · ej ψiei · ej = −
|g| hψ, ei · ej ψiei · ej
4 i<j
4 i<j
= −
iX
hgψ, gei · ej ψiei · ej = σ(gψ).
4 i<j
El espacio de configuraciones, A, se puede extender a un espacio de Sobolev (vea Apéndice) del
siguiente modo:
Apk = {(dA0 − ia, ψ) : a ∈ Lpk (T ∗ X), ψ ∈ Lpk (W + )}.
(4.10)
Análogamente, el espacio de transformaciones gauge, se puede extender a un espacio Sobolev como:
p
Gk+1
= Lpk+1 (X × C) ∩ C 0 (X, U (1)),
(4.11)
esta intersección es Lpk+1 (X × U (1)) cuando k + 1 − 4/p > 0, por el Teorema de Encajamiento de
2
Sobolev, y sı́ p = 2, los espacios A2k y Gk+1
son espacios de Hilbert.
p
Proposición 4.1.10. Supongamos que k y p son tales que k + 1 − 4/p > 0, entonces, Gk+1
es un
p
grupo de Lie infinito-dimensional cuya álgebra de Lie es Lk+1 (X × iR) con corchete de Lie trivial.
p
Además Gk+1
actúa suavement sobre Apk .
p
Demostración (Bosquejo): El álgebra de Lie de Gk+1
= Lpk+1 (X × U (1)), será Lpk+1 (X × iR), ya
p
que al tomar una curva α : (−ε, ε) → Gk+1
, tal que α(0) = e, e : X → U (1) la función constante
p
que envı́a cada elemento de X a 1 ∈ C, como Gk+1
⊂ Lpk+1 (X × C), la cual es una álgebra de
Banach, entonces
α(t) − e
α0 (0) = lı́m
,
t→0
t
es un elemento de Lpk+1 (X × C) que toma sus valores en el álgebra de Lie de U (1), osea iR.
Para simplificar la notación escribiremos, A, G en lugar de A22 y de G32 , respectivamente. Estos
espacios son de Hilbert. Los ı́ndices p, k serán especificados cuando sea necesario.
80
Lema 4.1.11. Supongamos que la varieadad X es conexa. Consideremos la acción de grupo de G
sobre A, definida en la Ecuación 4.9. El estabilizador en G de un elemento (A, ψ) ∈ A es trivial a
menos que ψ = 0, en tal caso el estabilizador es el grupo de las funciones constantes de X en S 1 ,
estas funciones forman un grupo que naturalmente es identificado con S 1 .
Demostración. Una consecuencia inmediata del Lema 4.1.1.
Sea B = A/G, este espacio cociente tiene singularidades en los elementos reducibles (dA , 0).
Algunas veces podemos evitar trabajar con elementos reducibles, trabajando con el espacio de
configuraciones
A∗ = {(A, ψ) ∈ A : ψ 6= 0},
(4.12)
Lema 4.1.12. Supongamos que (dA − ian , ψn ) y (dA − bn , µn ) son sucesiones en A que convergen
a (dA − ia, ψ) y (dA − ib, µ) respectivamente. Supongamos que para cada n, tenemos gn ∈ G con
gn ∗ (dA − ian , ψn ) = (dA − ibn , µn ), entonces, hay una subsucesión de gn , la cual converge a un
elemento g ∈ G. Además, tenemos que g ∗ (dA − ia, ψ) = (dA − ib, µ)
Demostración. Recordemos que A ≡ A22 y G ≡ G32 . Desde que gn son funciones que toman sus
valores en S 1 , es claro que existe k > 0 tal que kgn kL6 < k, para todo n. Como gn ∗(dA −ian , ψn ) =
(dA − ibn , µn ), entonces,
ign (bn − an )
dgn =
y gn ψn = µn .
2
Como {an } y {bn } convergen a a y b respectivamente (a, b ∈ L22 (T ∗ X)), claramente kan kL22 y
kbn kL22 , son sucesiones acotadas. Por el Teorema de Multiplicación de Sobolev, L6 ⊗ L22 → L5 ,
ign (bn − an )
kL5 = kdgn kL5 , es una sucesión acotada. Luego kgn kL51 es también una
vemos que k
2
sucesión acotada. Como hay inclusiones acotadas L42 ,→ L51 y L33 ,→ L51 , tenemos cotas para kgn kL42
y kgn kL33 . Por el teorema de Rellich, la inclusión L33 ,→ L32 es compacta y por consiguiente por ser
gn una sucesón acotada en L33 , existe una subsucesión de gn la cual converge a un elemento g en
ig(b − a)
L32 . Claramente dg =
, luego por el Teorema de Multiplicación de Sobolev, L32 ⊗ L22 → L22 ,
2
dg ∈ L22 y dgn converge a dg en L22 . Por consiguiente, g ∈ L23 y gn converge a g en L23 , i.e., hemos
encontrado una subsucesión de gn que converge a un elemento g ∈ G32 ≡ G. Además claramente
g ∗ (dA − ia, ψ) = (dA − ib, µ).
Para demostrar que A/G es un espacio de Hausdorff, haremos uso del siguiente Lema que es
bien conocido.
Lema 4.1.13. Sean X y Y dos espacios topológicos arbitrarios, sea f : X → Y una función
continua sobreyectiva, entonces, Y es Hausdorff sı́ y solo sı́ el conjunto {(x1 , x2 ) ∈ X × X :
f (x1 ) = f (x2 )} es cerrrado en X × X.
Corolario 4.1.14. El espacio cociente B = A/G es un espacio de Hausdorff.
81
Demostración. Supongamos que A/G no es un espacio Haussdorff, entonces, el conjunto R =
{(x1 , x2 ) ∈ A × A : ∃g ∈ G, x1 = g ∗ x2 } no es cerrado. Como R no es cerrado, existe una sucesión
(an , ψn ) ∈ A y una sucesión gn ∈ G tal que (an , ψn ) converge a (a, ψ) y gn ∗ (an , ψn ) converge
a (b, µ), pero (a, ψ) y (b, µ) no están en la misma órbita o clase de equivalencia. Esto último
contradice el Lema 4.1.12, por lo tanto A/G debe ser Hausdorff.
Definición 4.1.15 (Espacio Moduli Seiberg-Witten). El espacio Moduli Seiberg-Witten
es
M = {[A, ψ] ∈ B : (A, ψ) ∈ A, (A, ψ) es solución de las ecuaciones Seiberg-Witten},
(4.13)
este espacio depende de la escogencia de la estructura spinc y de la métrica escogida para X .
4.1.3.
Aspectos variacionales de las ecuaciones Seiberg-Witten
Como en el caso del funcional de Yang-Mills y de las ecuaciones anti-duales trabajadas en la
teorı́a gauge de Donaldson, las soluciones de las Ecuación Seiberg-Witten se puede transformar en
un problema de tipo variacional. Serán introducidas algunas propiedades del Funcional SeibergWitten, las cuales son la principal herramienta para probar la compacidad del Espacio Moduli
Seiberg-Witten, la compacidad del Espacio Moduli Seiberg-Witten es propiedad principal que lo
diferencia del Espacio Moduli de Donaldson. En lo que sigue se expondrán estas ideas para el
caso en que X es una variedad conexa siguiendo a Morgan en [19] pero cuando los desarrollos
presentaban dificultades preferimos seguir la exposición de Moore en [18], donde el autor considera
el caso en que la variedad es simplemente conexa.
Definición 4.1.16. El funcional Seiberg-Witten actuando sobre (A, ψ) ∈ A se define como
Z
1
(4.14)
S(A, ψ) =
(|DA ψ|2 + |FA+ − σ(ψ)|2 )dV,
2
X
Claramente una solución de las ecuaciones Seiberg-Witten, son un mı́nimo absoluto del funcional de Seiberg-Witten.
Proposición 4.1.17. El funcional de Seiberg-Witten S, puede ser reescrito como
Z
|F + |2
s
|σ(ψ)|2
S(A, ψ) =
(|∇A ψ|2 + |ψ|2 + A +
)dV.
4
2
2
X
(4.15)
Demostración: Como el operador de Dirac es autoadjunto, por la fórmula de Weitzenböck (Teorema
3.3.10) tenemos que
|DA ψ|2L2
=
=
2
(DA ψ, DA ψ)L2 = (DA
ψ, ψ)L2
X
s
i
((∇∗A ∇A + −
F + (ei , ej )ei ej )ψ, ψ)L2
4 2 i<j A
s
i
= |∇A ψ|2L2 + |ψ|2L2 − ( FA+ · ψ, ψ)L2 .
4
2
82
Por otro lado
|FA+ − σ(ψ)|2
|F + |2 + |σ(ψ)|2
= A
− hFA+ , σ(ψ)i
2
2
y por la Proposición 1.4.7,
hFA+ , σ(ψ)i =
i +
i
(F ψ, ψ) = −( FA+ · ψ, ψ),
2 A
2
luego
Z
X
(|DA ψ|2 + |FA+ − σ(ψ)|2 )dV =
|F + |2 + |σ(ψ)|2
s
(|∇A ψ|2 + |ψ|2 + A
)dV,
4
2
X
Z
donde
= DA ◦ DA ; además hemos hecho uso de que Ω2+ (X) actúa trivialmente sobre W − , vı́a
la multiplicación de Clifford.
2
DA
Corolario 4.1.18. Sı́ la curvatura escalar s es estrictamente positiva, entonces, las soluciones de
las ecuaciones Seiberg-Witten son las parejas (A, ψ) ∈ A tal que FA+ = 0 y ψ = 0, i.e. las únicas
soluciones son reducibles.
Corolario 4.1.19. Sı́ (A, ψ) ∈ A es una solución de las ecuaciones Seiberg-Witten, entonces,
Z
s 2 1 4
A 2
|∇ ψ|L2 +
|ψ| + |ψ|L4 = 0.
(4.16)
4
4
X
kψk4
, y como (A, ψ) es
Demostración: Recordemos que kσ(ψ)k2 =
4
Seiberg-Witten, entonces,
Z
Z
|F + |2 + |σ(ψ)|2
s
(|∇A ψ|2 + |ψ|2 + A
)dV = k∇A ψk2L2 +
4
2
X
ZX
A
2
= k∇ ψkL2 +
X
solución de las Ecuaciones
s 2
|ψ| +
4
s 2
|ψ| +
4
Z
1
kψk4 dV
4 X
1
kψk4L4
4
Corolario 4.1.20. Sı́ (A, ψ) ∈ A es una solución de las ecuaciones Seiberg-Witten, entonces,
Z
s2
kFA+ k2L2 ≤
(4.17)
X 4
Demostración: Sı́ (A, ψ) ∈ A, es una solución de las ecuaciones Seiberg-Witten, entonces,
|F + |2 + |σ(ψ)|2
s
(|∇A ψ|2 + |ψ|2 + A
)dV = 0;
4
2
X
Z
S(A, ψ) =
y como
s2
|ψ|4
s|ψ|2
(s + |ψ|2 )2
+
+
=
≥ 0,
8
8
4
8
entonces,
kFA+ k2L2
≤
2
Z
s
1
(− |ψ|2 − |ψ|4 )dV ≤
4
8
X
83
Z
X
s2
.
8
Corolario 4.1.21. Sı́ (A, ψ) ∈ A, es una solución de las ecuaciones Seiberg-Witten, entonces,
2
4
s−
X kψkL2 ≥ kψkL4 ,
donde s−
X
(4.18)
= máx 0, máxx∈X {−s(x)}
El siguiente lema nos permite trabajar una solución de las Ecuaciones Seiberg-Witten como
objetos C ∞ , en lugar de L22 :
Lema 4.1.22. Cada solución de las ecuaciones Seiberg-Witten es gauge equivalente a una solución
C ∞.
Demostración: El conjunto de pares C ∞ , (A, ψ), del espacio de configuraciones A es denso en A22 ,
por lo tanto cada pareja (A0 , ψ 0 ) es gauge equivalente a una pareja C ∞ .
Lema 4.1.23. Sea X una cuatro-variedad riemanniana, orientada y compacta. Supongamos que
(A, ψ) es una solución de las ecuaciones Seiberg-Witten en el espacio de configuraciones A. Entonces para cada x ∈ X, tenemos que |ψ(x)|2 ≤ s−
X.
Demostración. Sea x0 ∈ X un punto el cual es el máximo de |ψ(x)|2 . Se mostrará que ψ(x0 ) ≤
máx{0, −s(x0 )}, lo cual prueba el resultado deseado.
Por la fórmula de Weitzenböck y por ser (A, ψ) solución de las Ecuaciones Seiberg-Witten, para
cualquier x ∈ X, tenemos que
∇∗A ∇A (ψ(x)) +
s(x)
i
ψ(x) − FA+ · ψ(x)
4
2
s(x)
ψ(x) −
4
s(x)
= ∇∗A ∇A (ψ(x)) +
ψ(x) +
4
= ∇∗A ∇A (ψ(x)) +
i
σ(ψ) · ψ(x)
2
|ψ(x)|2
ψ(x) = 0.
4
s(x)
|ψ(x)|4
Por consiguiente h∇∗A ∇A (ψ(x), ψ(x)i+
|ψ(x)|2 +
= 0. En particular h∇∗A ∇A (ψ(x)), ψ(x)i
4
4
es real. Usando la regla de Leibnitz, en términos de una base ortonormal tangente {e1 , e2 , e3 , e4 }
alrededor de x tenemos que
−
X
X ∂2
hψ(x),
ψ(x)i
=
−
(h∇ei ◦ ∇ei (ψ(x)), ψ(x)i
∂e2i
i
i
+
Esto implica que
X
4|ψ(x)| + 2
|∇ei (ψ(x))|2
2h∇ei (ψ(x)), ∇ei (ψ(x)) + hψ(x), ∇ei ◦ ∇ei (ψ(x))i).
= h∇∗A ◦ ∇A (ψ(x)), ψ(x)i + hψ(x), ∇∗A ◦ ∇A (ψ(x))i
i
=
2Re(h∇∗A ◦ ∇A (ψ(x)), ψ(x)i).
Aquı́ 4 representa el Laplaciano sobre funciones. Sı́ x0 es un máximo local de |ψ(x)|2 , entonces
4|ψ(x0 )|2 ≥ 0. Por lo tanto
2Reh(∇∗A ◦ ∇A (ψ(x0 )), ψ(x0 )i = 2h(∇∗A ◦ ∇A (ψ(x0 )), ψ(x0 )i ≥ 0.
84
|ψ(x0 )|4
s(x0 )
Por lo tanto en x0 , tenemos que
|ψ(x0 )|2 +
≤ 0.
4
4
Sı́ |ψ(x0 )| = 0 entonces ψ ≡ 0, el resultado se tiene, en caso contrario tenemos que |ψ(x0 )| ≤
máx{0, −s(x0 )}.
Corolario 4.1.24. Sea (A, ψ) una solución de las ecuaciones Seiberg-Witten. Entonces para cada
punto x ∈ X, tenemos que |FA+ (x)| ≤ s−
X /2.
Demostración. Recordemos que |FA+ (x)| = |σ(ψ(x))| = |ψ(x)|2 /2, por el Lema anterior tenemos
que |FA+ | ≤ s−
X /2.
Corolario 4.1.25. Para todo p, existen K(s, p) > 0 y C(s, p) > 0, dependiente de la curvatura
escalar s, tal que, para cualquier solución (A, ψ) de las ecuaciones Seiberg-Witten:
4.1.4.
kψkLp
≤ K(s, p),
kFA+ kLp
≤ C(s, p).
Compacidad del Espacio Moduli Seiberg-Witten
En la siguiente sección se supondrá que la variedad X es conexa.
Lema 4.1.26. Para cualquier 1-forma h0 , cuyos perı́odos yacen en 2πZ hay una función armónica
ψ : X → S 1 , con dψ = h0
Demostración: Vea [18, Pag 82].
Lema 4.1.27 (Lema de Uhlenbeck). Sea L un haz lineal complejo sobre X con estructura
hermitiana. Sea A0 una conexión C ∞ de L. Entonces para cualquier p, k ≥ 0 existen constantes
K, C > 0, que dependen de X, A0 , p, k tal que: Para cualquier conexión A unitaria C ∞ sobre L,
i.e, un elemento de {A0 − ia : a ∈ Ω1 (X)}; existe g ∈ G tal que g ∗ A = A0 + iα , donde α ∈ Ω1 (X)
satisface δ(α) = 0 (δ definido como en teorı́a Hodge) y
kαk2Lp ≤ CkFA+ k2Lp
k
+ K.
(4.19)
k−1
Demostración. Sea A = A0 + iα0 , para α0 ∈ Ω1 (X). El elemento δ(α0 ) ∈ Ω0 (X) es L2 ortogonal a
las funciones constantes, H0 (X), ya que h1, δ(α0 )i = hd(1), α0 i = 0. Por el Teorema de descomposición de Hodge, existe s0 ∈ Ω0 (X), tal que 4(s0 ) = δ(ds0 ) = δ(α0 ), donde 4 denota el Laplaciano
de Hodge. Sea g0 = exp(is0 ), claramente g0 ∈ G. Sea α1 = α0 − ds0 ∈ Ω1 (X), por lo tanto tenemos
que
g0 ∗ A = A0 + iα0 − ids0 = A0 + iα1 .
Por otro lado tenemos que
δ(α1 ) = δ(α0 ) − δ(ds0 ) = δ(α0 ) − δ(α0 ) = 0.
85
Por lo tanto hemos probado que existe g0 y α1 , tal que g0 ∗ A = A0 + iα1 , con δ(α1 ) = 0.
El operador lineal
D = d+ ⊕ δ : Ω1 (X) → Ω0 (X) ⊕ Ω2+ (X),
(4.20)
es un operador elı́ptico cuyo kernel es H1 (X), el conjunto de 1-formas armónicas, [vea prueba de
la Proposición 5.1.23] y se extiende a un operador elı́ptico
D = d+ ⊕ δ : Lpk (T ∗ X) → Lpk−1 (R ⊕ (∧2+ T ∗ X)).
cuyo kernel es H1 (X), ya que el Kernel de cualquier extensión Fredholm de un operador elı́ptico
permanece intacto, [ver Spin Geometry, pag 193]. Como α1 ∈ Ω1 (X), existen h, β, tal que α1 =
h + β, donde h es una 1-forma armónica y β es L2 ortogonal a las 1-formas armónicas. Por ser
el operador δ ⊕ d+ elı́ptico, para cualquier 1-forma b ortogonal al kernel de δ ⊕ d+ , las 1-formas
armónicas, existe C > 0, dependiente de X, p y k, tal que,
kbk2Lp ≤ CkD(b)k2Lp
k
k−1
= Ckδ(b), d+ (b)k2Lp .
(4.21)
k−1
Como g0 ∗ A = A0 + iα1 , entonces, como la curvatura es invariante bajo transformaciones gauge,
FA = FA0 + idα1 , por consiguiente FA+ = FA+0 + id+ α1 = FA+0 + id+ β y además δ(α1 ) = δ(β) = 0.
Combinando lo anterior junto con la Ecuación 4.21, tenemos que:
= CkFA+ − FA+0 k2L2
≤ CkFA+ k2Lp
+ CkFA+0 k2Lp .
k−1
(4.22)
Como h ∈ H1 (X) = H 1 (X; R), y el espacio cociente H 1 (X; R)/H 1 (X; Z) es un toro compacto,
existe una constante K 0 , dependiente de k y p, tal que, existen h1 y h2 tal que, h = h1 + h2 ,
donde h2 tiene perı́odos en 2πZ y kh1 kLpk ≤ K 0 . Por el Lema 4.1.26, existe una función armónica
s1 : X → S 1 , tal que ds1 = h2 . Sea g1 = exp(is1 ), luego
kβk2Lp ≤ CkD(β)k2Lp
k
k−1
= Ckd+ (β)k2Lp
k−1
k−1
k−1
g1 ∗ (A0 + iα1 ) = A0 + iα1 − ids1 = A0 + i(β − h1 ).
(4.23)
Sea α = β − h1 , entonces, (g1 · g0 ) ∗ (A) = g1 ∗ g0 ∗ (A) = g1 ∗ (A0 + iα1 ) = A0 + iα. Como β y h1
son armónicas, entonces, δ(α) = 0 y
kαk2Lp ≤ kh1 k2Lp + kβk2Lp ≤ CkFA+ k2Lp
k
k
Tomando K = CkFA+0 k2L2
k
k−1
+ CkFA+0 k2Lp
+ K 0.
(4.24)
k−1
+ K 0 , el Lema queda demostrado.
l−1
Corolario 4.1.28. Para todo p > 0, existe C > 0, dependiente de p, X y la curvatura escalar s de
X, tal que para una solución C ∞ , (A, ψ), de las Ecuaciones Seiberg-Witten, existe g ∈ G, tal que
g ∗ A = A0 + α para una conexión A0 y
kαkLp1 ≤ C.
Demostración: Es una consecuencia inmediata del Lema anterior y del Corolario 4.1.25.
86
(4.25)
Teorema 4.1.29 (Compacidad del Espacio Moduli Seiberg-Witten). Sı́ X es una variedad
riemanniana, cuatrodimensional, conexa, orientada y riemanniana, entonces, para una estructura
Spinc , el espacio de soluciones de las Ecuaciones Seiberg-Witten modulo trasnformaciones gauge
(Espacio Moduli Seiberg-Witten), M, es compacto.
Demostración. Dada una sucesión [(An , ψn )] ∈ M, se probará que existe una subsucesión convergente o que existe una sucesión gn ∈ G, tal que la sucesión gn ∗ (An , ψn ) es de objectos C ∞ y posee
una subsucesión convergente, en la topologı́a C ∞ .
Sea A0 una conexión unitaria C ∞ base del haz determiante hermitiano L. Sea (An , ψn ) una
sucesión de soluciones de las Ecuaciones Seiberg-Witten, luego existe gn ∈ G, tal que gn ∗(An , ψn ) =
(A0 + iαn , ψn0 ) es una solución C ∞ de las ecuaciones Seiberg-Witten y para todo p existe Kp > 0,
tal que
kαn kLp ≤ kαn kLp1 ≤ Kp .
(4.26)
1
Como DA0 +iαn (ψ 0 ) = 0, entonces, DA0 (ψ 0 ) = − αn · ψ 0 ; por el Corolario 4.1.25, kψn0 kLp posee una
2
cota para todo n y por la Ecuación 4.26 kαn kLp es una sucesión acotada; luego por el Teorema de
1
multiplicación de Sobolev Lp ⊗ Lp ,→ Lp , tenemos que DA0 = − αn · ψn0 es una sucesión acotada
2
en Lp para todo p.
El operador de Dirac DA0 es un operador elı́ptico de orden 1, luego para todo n existe C > 0,
tal que para todo n:
1
kψn0 kLp1 ≤ C(kDA0 (ψn0 )kLp + kψn0 kLp ) = C( kαn · ψn0 kLp + kψn0 kLp ),
2
luego ψn0 , αn es una sucesión acotada en Lp1 , para todo p.
Supongamos que tenemos ψn0 , αn son sucesiones acotadas en Lpk , entonces, la sucesión DA0 (ψn0 ) =
1
− αn · ψn0 , es una sucesión acotada, por el Teorema de Multiplicación de Sobolev Lpk ⊗ Lpk ,→ Lpk ,
2
como el operador de Dirac es elı́ptico tenemos que
1
kψn0 kLpk+1 ≤ C(kDA0 (ψ 0 )kLpk + kψ 0 kLpk ) = C( kαn · ψn0 kLpk + kψn0 kLpk ),
2
luego ψn0 es una sucesión acotada en Lpk+1 . Como FA+n = σ(ψn0 ), entonces, FA+n es una sucesión
acotada en Lpk , luego por el Lema de Uhlenbeck, αn es una sucesión acotada en Lpk+1 .
En conclusión αn , ψn0 es una sucesión acotada en Lpk+1 para todo p, k. Por el Teorema de Rellich,
existe una subsucesión convergente en Lpk de αn y ψn0 y la sucesión debe converger en C l para todo
l, por el Teorema de Encajamiento de Sobolev. Esto prueba compacidad.
4.2.
Transversalidad
A priori, no se sabe sı́ el espacio de soluciones de la Ecuaciones Seiberg-Witten forman una
variedad diferenciable finito-dimensional, lo mejor que se puede esperar es que genéricamente esto
suceda. Para efectos de este tipo, introducimos una perturbación de las Ecuaciones Seiberg-Witten.
87
Definición 4.2.1. Una pareja (A, ψ) ∈ A es una solución de las Ecuaciones Seiberg-Witten
perturbadas, para una 1-forma h auto-dual, sı́:
DA (ψ) =
FA+
0
= σ(ψ) + h.
Al igual que antes, el conjunto solución de las Ecuaciones Seiberg-Witten perturbadas modulo
Transformaciones gauge definen un Espacio Moduli denotado por Mh . El Espacio Moduli Mh ,
goza en general de las propiedades del Espacio Moduli Mh , por ejemplo el Espacio Moduli Mh es
compacto. Es claro, despues de trabajar con el Espacio Moduli M, la compacidad queda establecida, sı́ obtenemos un Lema, como el Lema 4.1.23, para las Ecuaciones Seiberg-Witten perturbadas.
Lema 4.2.2. Sea X una cuatro-variedad riemanniana, orientada y compacta. Supongamos que
(A, ψ) ∈ A es una solución de las ecuaciones Seiberg-Witten perturbadas 4.27. Existe una constante
C > 0, dependiente de la curvatura escalar de la variedad riemanniana X y de la 1-forma auto-dual
h, tal que para cada x ∈ X, tenemos que |ψ(x)|2 ≤ C.
Demostración. Sı́ (A, ψ) es una solución de las Ecuaciones Seiberg-Witten perturbadas, como en
el Lema 4.1.23, para cada x ∈ X tenemos que:
∇A ∗ ∇A (ψ(x)) +
s(x)
kψ(x)k2
ψ(x) +
ψ(x) + ih(x) · ψ(x) = 0.
4
4
(4.27)
Sea x0 ∈ X el punto en el cual kψ(x0 )k alcanza su máximo, utilizando el mismo argumento del
Lema 4.1.23, tenemos que
s(x0 )
ψ(x0 )4
kψ(x0 )k2 +
+ Re(hih(x0 ) · ψ(x0 ), ψ(x0 )i) ≤ 0.
4
4
(4.28)
Es claro que la última, en valor absoluto, es al menos de kh(x0 )kkψ(x0 )k2 . Por lo tanto, concluimos
que sı́ ψ(x0 ) = 0, entonces, ψ ≡ 0, en caso contrario
s(x0 ) kψ(x0 )k2
+
≤ kh(x0 )k,
4
4
entonces, para todo x ∈ X, tenemos que
kψ(x)k2 ≤ 4kh(x0 )k − s(x0 ),
esto significa, que para cualquier solución de las Ecuaciones Seiberg-Witten perturbadas, tenemos
que
kψ(x)k2 ≤ máx(máx(4kh(y)k − s(y)), 0),
y∈X
lo cual prueba el Lema.
Corolario 4.2.3. Sı́ X es una variedad riemanniana, cuatrodimensional, conexa, orientada, compacta y riemanniana, entonces, para una estructura Spinc , el espacio de soluciones de las Ecuaciones Seiberg-Witten perturbadas modulo trasnformaciones gauge (Espacio Moduli Seiberg-Witten
perturbado), Mh , es compacto, para cualquier 1-forma armónica h.
88
El objetivo primordial de esta sección es la prueba de que el Espacio Moduli Seiberg-Witten
perturbado, Mh , es una variedad diferenciable finito-dimensional para una escogencia genérica de
la 1-forma autodual h. Para aquello se emplearán argumentos clásicos de Transversalidad, como
la versión infinitodimensional del Teorema de Sard. Para este propósito, necesitaremos resultados
de la teorı́a de Operadores Elı́pticos como el Teorema de Continuación Única, que aplicado
+
para el operador de Dirac aserta que sı́ ψ ∈ Γ(W + ) es una solución de la Ecuación DA
(ψ) = 0
sobre una variedad conexa, entonces, ψ no puede ser identicamente cero en una vecindad abierta
de cero, a menos que ψ sea idénticamente cero.
Lema 4.2.4. Sea A una conexión del haz determinante. Consideremos el operador de Dirac
+
DA
: Γ(W + ) → Γ(W − ),
entonces, la diferencial de la función
F : A∗ → Γ(W − ),
dada por
+
F (A, ψ) = DA
(ψ),
(4.29)
es sobreyectiva para (A, ψ), tal que F (A, ψ) = 0, donde A∗ = {(A, ψ) ∈ A : ψ 6= 0}.
Demostración. Como
+
+
+
+
+
F (A + a, ψ + ψ 0 ) − F (A, ψ) = DA+a
(ψ + ψ 0 ) − DA
(ψ) = DA+a
(ψ) + DA+a
(ψ 0 ) − DA
(ψ)
1
1
+
+
+
= DA
(ψ) + a · ψ + DA
(ψ 0 ) + a · ψ 0 − DA
(ψ)
2
2
1
1
+
=
a · ψ + DA
(ψ 0 ) + a · ψ 0 ,
2
2
la diferencial de F en un punto (A, ψ) calculada en (a, ψ 0 ), donde a es una 1-forma, es
1
+ 0
dF (A, ψ)(a, ψ 0 ) = DA
ψ + a · ψ.
2
Probaremos que sı́ (A, ψ) ∈ A∗ , con F (A, ψ) = 0, dF (A, ψ) es sobreyectiva.
Note primero que sı́ ψ(x) 6= 0, para x ∈ X, entonces, la aplicación lineal a(x) → a(x) · ψ(x), de
Tx∗ (X) → Wx− , es inyectiva porque a(x) · a(x) · ψ(x) = −ka(x)k2 ψ(x) y como la dimensión real de
Tx∗ (X) y Wx− es la misma, entonces, es un isomorfismo entre espacios vectoriales. Como ψ(x) 6= 0,
existe una vecindad abierta U de x, tal que ψ no es idénticamente cero en U , por lo tanto la función
a → a · ψ es un isomorfismo para secciones de Γ(W + ) soportadas en U .
Por otro lado, supongamos ahora que σ ∈ W − , es L2 - ortogonal a la imagen de dF (A, ψ),
+
entonces, en particular hdF (A, ψ)(0, ψ 0 ), σiL2 = hDA
(ψ 0 ), σiL2 = 0, para todo ψ 0 ∈ Γ(W + ). Co−
mo el Operador de Dirac es autoadjunto, entonces, hψ 0 , DA
(σ)iL2 = 0, para todo ψ 0 ∈ Γ(W + ),
−
−
entonces, DA (σ) = 0, i.e, σ ∈ Ker(DA ). De lo anterior tenemos que hdF (A, ψ)(a, ψ 0 ), σiL2 =
1
1
1
+
+
hDA
(ψ 0 ) + a · ψ, σiL2 = h a · ψ, σiL2 + hψ 0 , DA
(σ)iL2 = ha · ψ, σiL2 = 0. Por lo tanto, para toda
2
2
2
sección λ ∈ Γ(W − ) soporta en U , tenemos que hλ, σiL2 = 0, por lo tanto σ = 0 en U , y desde
−
que DA
(σ) = 0, entonces, por el Teorema de Continuación Única, σ ≡ 0 y de aquı́ dF (A, ψ) es
sobreyectiva.
89
Teorema 4.2.5.
Demostración. Definimos
F : A∗ × Ω2+ (X) → Γ(W − ) × Ω2+ (X)
F (A, ψ, φ) =
+
(DA
, FA+
por
− σ(ψ) − φ).
hη, φi
, entonces, σ(ψ + ψ 0 ) − σ(ψ) = iη(ψ +
Como σ(ψ) = iη(ψ, ψ̄), donde η(φ, η̄) = φ ⊗ η̄ −
2
ψ 0 , ψ +¯ ψ 0 ) − iη(ψ, ψ̄) = iη(ψ 0 , ψ̄) + iη(ψ, ψ̄ 0 ) + σ(ψ 0 ). La diferencial de σ en ψ calculada en ψ 0 es
iη(ψ 0 , ψ̄) + iη(ψ, ψ̄ 0 ) = i(ψ 0 ⊗ ψ̄ −
hψ, ψ 0 i
hψ 0 , ψi
+ ψ ⊗ ψ̄ 0 −
).
2
2
De lo anterior concluimos que la diferencial de F en (A, ψ, φ) es
1
+
dF (A, ψ, φ)(a, ψ 0 , φ0 ) = (DA
+ a · ψ, (da)+ − i(η(ψ 0 , ψ̄) + η(ψ, ψ̄ 0 )) − φ0 ),
2
para (a, ψ 0 , φ0 ) ∈ Ω1 (X) × Γ(W + ) × Ω2+ (X). Se probará que sı́ (A, ψ, φ) ∈ A∗ × Ω2+ (X) es una
solución de la ecuación F (A, ψ, φ) = 0, entonces, dF (A, ψ, φ0 ) es sobreyectiva.
1
+ 0
Sea (x, y) ∈ Γ(W − ) × Ω2+ (X), entonces, por el Lema anterior, existen a, ψ 0 , tal que DA
ψ + a·
2
ψ = x, por lo tanto, dF (A, ψ, φ)(a, ψ 0 , −(da)+ + 2i(η(ψ 0 , ψ̄) + η(ψ, ψ̄ 0 ) − y) = (x, y), por lo tanto,
dF (A, ψ, φ) es sobreyectiva.
Como cero es un valor regular de F , por el Teorema de la Función implı́cita,
N = {(A, ψ, φ) ∈ A∗ × Ω2+ (X) : F (A, ψ, φ) = 0},
es una subvariedad de A∗ × Ω2+ (X), cuyo espacio tangente en el punto (A, ψ, φ) es
T(A,ψ,φ) N = Ker(dF (A, ψ, φ)) = {(a, ψ 0 , φ0 ) : L(a, ψ 0 ) = (0, φ0 )},
donde, L : Γ(W + ) × Ω1 (X) → Γ(W − ) × Ω2+ (X), es un operador elı́ptico dado por L(a, ψ 0 ) =
1
+ 0
(DA
ψ + a · ψ, (da)+ − i(η(ψ 0 , ψ̄) + η(ψ, ψ̄ 0 )).
2
La función
π : N → Ω2+ (X),
dada por π(A, ψ, φ) = φ,
(A, ψ, φ) ∈ N ,
(4.30)
es Fredholm. El kernel de dπ es el mismo kernel de L y es finitodimensional por ser el operador L
elı́ptico; mientras que
Imagen(dπ) = {ψ 0 ∈ Ω2+ (X) : L(a, ψ 0 ) = (0, φ0 )
para algún a, ψ 0 } = Imagen(L)∩(0⊕0⊕Ω2+ (X)),
es un subespacio cerrado de codimensión finita. Por lo tanto, π es una función Fredholm y para
un valor regular φ de π, π −1 (φ) = {(A, ψ) : F (A, ψ, φ) = 0}, es una variedad diferenciable de
dimensión finita.
Computación de la dimensión
90
Se ha probado hasta ahora que para una escogencia genérica de elementos φ ∈ Ω2+ (X), el
espacio M∗φ = {(A, ψ) ∈ A∗ : F (A, ψ, φ) = 0} es una variedad finito dimensional. Por consiguiente
el espacio M∗φ = Mφ∗ /G, G el grupo de transformaciones gauge, es una variedad finito-dimensional.
Para calcular la dimensión de M∗φ , calculamos la dimensión del espacio tangente en algún punto
de M∗φ .
Sea Fφ ≡ F ( , , φ) : A∗ → Γ(W − ) × Ω2+ (X); por ser φ un valor regular de la aplicación
π : N → Ω2+ (X), la diferencial de la aplicación Fφ en un punto (A, ψ) ∈ A∗ es sobreyectiva.
Consideremos la aplicación G : G → A∗ , dada por G(g) = g ∗ (A, ψ). La diferencial dG calculada
en e, dGe : Ω0 (X; R) → Ω1 (X) ⊕ Γ(W + ), está dada por (2d, ()ψ), tenemos por consiguiente la
siguiente sucesión:
dFφ (A,ψ)
dG
e
0 → Ω0 (X) −−→
Ω1 (X) ⊕ Γ(W + ) −−−−−−→ Ω2+ (X) ⊕ Γ(W − ) → 0,
(4.31)
para cualquier solución irreducible (A, ψ) de las Ecuaciones Seiberg-Witten la Sucesión 4.31 es una
cadena compleja y el espacio tangente de [A, ψ] en M∗φ está dado por el primer grupo de cohomologı́a del complejo el cual es Ker(dFφ (A, ψ))/Im(dGe ). La caracterı́stica de Euler del Complejo
4.31 es menos la dimensión del primer grupo de cohomologı́a, ya que el grupo de cohomologı́a de
orden cero es trivial por ser dGe inyectiva (aquı́ se tiene en cuenta que (A, ψ) ∈ A∗ ), y el segundo
grupo de cohomologı́a es trivial por ser dFφ (A, ψ) sobreyectiva. Para calcular la caracterı́stica de
Euler de este complejo, empleamos el Teorema de ı́ndice de Atiyah-Singer. El complejo dimensional
puede ser deformado como la suma directa de dos más elementales:
D
A
0 → 0 → Γ(W + ) −−→
Γ(W − ) → 0,
d+
d
0 → Ω0 (X) −
→ Ω1 (X) −−→ Ω2+ (X) → 0.
Aplicando el Teorema del ı́ndice de Atiyah-Singer, la caracterı́stica de Euler del primer complejo
Sign(X) − c1 (L)2
, mientras
es menos dos veces el ı́ndice del operador de Dirac de DA el cual es
8
ℵ(X)
+
Sign(X)
que la del segundo es el ı́ndice del operador (δ + d+ ) el cual es
, luego el ı́ndice
2
del complejo es
ℵ(X) + Sign(X) Sign(X) − c1 (L)2
+
,
2
4
luego la caracterı́stica de Euler del complejo 4.31, y la dimensión de M∗φ es
c1 (L)2 − Sign(X) ℵ(X) + Sign(X)
c1 (L)2 − 2ℵ(X) − 3Sign(X)
−
=
.
4
2
4
(4.32)
Supongamos ahora que b+ ≥ 1, entonces, una solución reducible del sistema de Ecuaciones
Seiberg-Witten perturbadas es lo mismo que una solución de la Ecuación
FA+ = φ,
91
(4.33)
por el Lema 5.12, el conjunto de 2-formas φ ∈ Ω2+ (X), que son una solución de la Ecuación
4.33, para alguna conexión A, es un subespacio afı́n de Ω2+ (X) de codimensión b+ . El conjunto
de valores regulares de π, π como en la Ecuación 4.30, es un conjunto residual de Ω2+ (X), sı́ a
este conjunto residual le quitamos los elementos φ ∈ Ω2+ (X) que satisfacen la Ecuación 4.33, para
alguna conexión A, entonces, como b+ ≥ 1, tenemos que este conjunto sigue siendo residual en
Ω2+ (X) y por consiguiente para una escogencia genérica de φ ∈ Ω2+ (X), el sistema de Ecuaciones
Seiberg-Witten perturbadas,
FA+ = φ
DA (ψ) = 0,
no posee soluciones reducibles y por consiguiente M∗φ = Mφ es una variedad diferenciable finito
dimensional de dimensión
c1 (L)2 − 2ℵ(X) − 3Sign(X)
.
4
Teorema 4.2.6. Sea X una variedad diferenciable compacta, suave, orientada y riemanniana
de dimensión cuatro con b+ (X) ≥ 1, entonces, para una escogencia genérica de φ, φ ∈ Ω2+ (X),
el espacio Moduli Mφ , es una variedad diferenciable finito dimensional compacta de dimensión
c1 (L)2 −2ℵ(X)−3Sign(X)
.
4
Orientabilidad del Espacio Moduli
Lo único que hace falta para poder definir el invariante Seiberg-Witten, es que el Espacio Moduli
Seiberg-Witten sea orientable, lo cual requiere algunos resultados de la Teorı́a de Operadores
Fredholm; el tratamiento que se empleará a continuación fue el que empleó Donaldson.
Sea φ ∈ Ω2+ (X) de modo que Mφ sea una variedad diferenciable finito-dimensional; para
[A, ψ] ∈ Mφ , consideremos el complejo dado por la Ecuación 4.31,
dFφ (A,ψ)
dG
e
0 → Ω0 (X) −−→
Ω1 (X) ⊕ Γ(W + ) −−−−−−→ Ω2+ (X) ⊕ Γ(W − ) → 0,
(4.34)
este complejo se puede deformar a al siguiente complejo:
dFφ (A,ψ)⊕(dGe )∗
0 → Ω1 (X) ⊕ Γ(W + ) −−−−−−−−−−−−→ Ω2+ (X) ⊕ Γ(W − ) ⊕ R → 0,
(4.35)
cuyo Kernel se identifica de manera natural con el espacio tangente de Mφ en [A, ψ]. Recordemos
que
1
+
dFφ (A, ψ)(a, ψ 0 ) = (DA
+ a · ψ, (da)+ − i(η(ψ 0 , ψ̄) + η(ψ, ψ̄ 0 ))),
2
dGe (α) = (2dα, α · ψ), α ∈ Ω0 (X), a ∈ Ω1 (X), ψ 0 ∈ S + .
Es conveniente deformar el operador dado por la Ecuación 4.36 por homotopı́a del siguiente
modo:
+
D(A,ψ) (a, ψ 0 )(t) = (DA
+
ta · ψ
, (da)+ − it(η(ψ 0 , ψ̄) + η(ψ, ψ̄ 0 ))) ⊕ (dGe (t))∗ (a, ψ 0 ),
2
92
(4.36)
donde dGe (t) = (2d, t() · ψ).
Cuando t = 1, tenemos una familia de operadores para [A, ψ] ∈ Mφ , dada por D(A,ψ) (1) =
dFφ (A, ψ) ⊕ dGe ; para [A, ψ] ∈ Mφ tenemos que
det(D(A,ψ) (1)) = ∧max (Ker(DA,ψ (1))) = ∧max (T[A,ψ] Mφ ),
por consiguiente el haz determinante de la familia de operadores {D(A,ψ) (1)}[A,ψ]∈Mφ es, claramente, ∧max (Mφ ). Por otro lado cuando t = 0, la familia de operadores está dada por DA ⊕d+ ⊕2δ,
para [A, ψ] ∈ Mφ . Ası́ que ∧máx (Mφ ) posee una sección diferente de cero, es decir Mφ es orientable,
si y solo sı́ existe una sección diferente de cero del haz determinante de la familia de operadores
Fredholm dada por (DA ⊕ d+ ⊕ δ). Note que DA ⊕ d+ ⊕ δ se divide como la suma directa de una
familia de operadores DA y un operador constante d+ ⊕ δ. Como
det(DA ⊕ d+ ⊕ δ) = det(DA ) × det(d+ ⊕ δ),
y el haz determinante det(DA ) posee una sección diferente de cero la cual viene de la orientación
del kernel y cokernel de DA definida por multiplicación compleja. Por otro lado
det(d+ ⊕ δ) = ∧máx Ker(d+ ⊕ δ) ⊗ ∧máx (Coker(d+ ⊕ δ)∗ )
= ∧máx Ker(d+ ⊕ δ) ⊗ ∧máx (Coker(d+ )∗ ⊗ ∧máx (Coker(δ)∗ ).
Del Lema 5.1.23 sabemos que Ker(d+ ⊕ δ) = H1 (X) = H 1 (X), Coker(δ) = Ker(d) = H 1 (X),
2
(X); por lo tanto una orientación de Mφ es determinada por una sección diferente
Coker(d+ ) = H+
de cero de
2
∧máx H 1 (X) ⊗ ∧máx H 0 (X)∗ ⊗ ∧máx H+
(X)∗ .
Todo lo realizado hasta ahora se resume en el siguiente Teorema:
Teorema 4.2.7. Supongamos que b+ > 0, entonces, para una escogencia genérica de φ ∈ Ω2+ (X),
el espacio Moduli perturbado Seiberg-Witten, Mφ , es una variedad diferenciable compacta, finitodimensional y orientable, de dimensión
c1 (L)2 − 2ℵ(X) − 3Sign(X)
.
4
2
La orientación de los espacios de cohomologı́a H 0 (X), H 1 (X) y H+
(X) determina una orientación
del Espacio moduli Mφ .
4.3.
Definición del Invariante Seiberg-Witten
Supongamos que para X, tenemos que b+ > 1, y que para una escogencia genérica de φ ∈
el Espacio Moduli Seiberg-Witten Mφ es como en el Teorema 4.2.7. Se ha visto hasta
Ω2+ (X),
93
ahora que el Espacio Moduli Seiberg-Witten depende de la escogencia de la métrica para X, por
ser el operador de Dirac definido apartir de la conexión Levi-Cevitá la cual depende de la métrica,
de la escogencia genérica de φ ∈ Ω2+ (X) y de la estructura spinc de la variedad X. Es deseable
definir un invariante que no dependa de la métrica, nı́ de la escogencia genérica de elementos de
Ω2+ (X); la suposición de que b2+ > 1, permite que el siguiente Invariante, dependa únicamente de
la estructura spinc de X.
Definición 4.3.1. Sea s una estructura spinc de X, y Ls el haz lineal asociado a ella. Sı́ la
dimensión
c1 (Ls ) − 2ℵ(X) − 3Sign(X)
< 0,
4
el Espacio Moduli Seiberg-Witten es vacı́o, en tal caso definimos el Invariante Seiberg-Witten de
X, SW (s), como cero.
Sı́
c1 (Ls ) − 2ℵ(X) − 3Sign(X)
< 0,
4
entonces, como Mφ es compacto, consiste de un número fı́nito de puntos, y por ser Mφ orientable
podemos asociar a Mφ un número, el cual es obtenido sumando los signos en cada punto dados
por la orientación, i.e.,
X
SW (s) =
signo(p),
p∈Mφ
con signo(p) = ±1 de acuerdo a la orientación de Mφ en el punto p.
El caso en que
c1 (Ls ) − 2ℵ(X) − 3Sign(X)
> 0,
4
requiere un poco más de trabajo. Hay muchos posibles caminos para conseguir un número, que
evaluando sobre alguna clase de un grupo de cohomologı́a sobre el ciclo Mφ , generalice la idea de
contar los signos de la definición anterior. La Definición que se usará a continuación a probado ser
un buen candidato para las diversas aplicaciones en Geometrı́a simplética y quantum cohomology.
Sea G0 = {g ∈ G : g(x0 ) = 1, x0 ∈ X}, el conjunto de transformaciones gauge que valuadas en
x0 ∈ X, x0 fijo, es 1. Para φ consideremos el conjunto de Soluciones de las Ecuaciones SeibergWitten φ-perturbadas, el cual no posee soluciones reducibles, Mφ ⊂ A, para este espacio cociente
tenemos que Mφ /G0 = M0φ , de manera análoga a Mφ /G = Mφ , es una variedad diferenciable finitodimensional, compacta y orientable de dimensión dim(Mφ ) + 1. Este espacio define un natural
U (1)-haz principal M0φ → Mφ , sea L el haz lineal asociado a este haz, entonces, el invariante
Seiberg-Witten se define para
c1 (Ls ) − 2ℵ(X) − 3Sign(X)
> 0,
4
como:
94
Definición 4.3.2. Sea s una estructura spinc de X, y Ls el haz lineal asociado a ella. Sı́ la
dimensión
c1 (Ls ) − 2ℵ(X) − 3Sign(X)
> 0,
d(s) =
4
es impar el invariante Seiberg-Witten SW (s) se define como cero, sı́ es par SW (s) se define como:
Z
SW (s) =
c1 (L)d(s)/2 ,
Mφ
donde c1 (L) es la primera clase de Chern de L.
Nota: Como d(s) = 2IndiceC (DA ) + Indice(d+ ⊕ δ) = 2IndiceC (DA ) + b0 (X) − b1 (X) +
b+ (X) = 2IndiceC (DA ) + 1 − b1 (X) + b+ (X), entonces, d(s) = 1 − b1 (X) + b+ (X) mod (2),
ası́ que la dimensión de Mφ es par sı́ y solo sı́ b1 (X) − b+ (X) es impar.
Lema 4.3.3. Supongamos que b+ (X) > 1, sea s una estructura spinc de X, entonces, la definición
del invariante Seiberg-Witten, SW (s), es independiente de la escogencia de la perturbación φ y de
la escogencia de la métrica riemanniana g de X.
Demostración: Supongamos que tenemos dos métricas g0 , g1 de X y dos perturbaciones genéricas
φ0 , φ1 , entonces, hay un sendero η conectando a h0 y h1 , tenemos una parametrizado Espacio
Moduli Mη ; este Espacio Moduli parametrizado es un variedad diferenciable compacta, orientada
con frontera (la condición b+ > 1 asegura que la familia de Espacios Modulis Mη no posee
soluciones reducibles y que es una variedad diferenciable). La frontera de Mη es la unión disyunta
de Mg1 ,h1 y Mg2 ,h2 , o, ∂Mη = Mg1 ,h1 − Mg2 ,h2 . Esto implica que
Z
Z
d(s)/2
c1 (L)
=
c1 (L)d(s)/2
Mh1 ,g1
Mh2 ,g2
y por lo tanto el invariante Seiberg-Witten está bien definido.
95
C A P Í T U L O
5
Apéndice
Este apéndice será de utilidad para el lector. La parte de Teorı́a Hodge fue sacada de [18] y
[27]. La de espacios de Sobolev y operadores elı́pticos del apéndice de [5], [11] y [19].
5.1.
Teorı́a Hodge y grupos de cohomologı́a
Recordemos que el operador ? de Hodge se definió para un espacio vectorial V cuatro-dimensional.
Sea x un punto es una variedad riemanniana cuatro dimensional X y sea V = Tx X el espacio
tangente. Podemos usar la métrica riemannian para identificar a Tx X con el espacio cotangente
Tx∗ X. Sı́ (e1 , e2 , e3 , e4 ) es una base ortonormal para Tx X, definimos el operador de Hodge en
V = Tx X,
? : ∧p V → ∧(4−p) V ;
este operador se puede definir de manera consistente sobre p-formas en cualquier variedad riemanniana orientable. La orientación en este caso es importante porque la definición del operador de
Hodge depende de la escogencia de bases ortonormales orientadas.
Sobre
Ωp (X) = {p-formas diferenciables sobre X},
el operador de Hodge
? : Ωp (X) → Ω(4−p) (X),
es tal que satisface la identidad ?? = (−1)p(4−p) = (−1)p .
Sı́ X es compacta, podemos usar el operador de Hodge para definir una forma bilineal
Z
p
p
h , i : Ω (X) × Ω (X) → R, por hω, θi =
ω ∧ ?(θ)
(5.1)
X
Esta forma bilineal es simétrica y definida positiva y aquı́ un producto interno para Ωp (X). Podemos
extender el producto interno (5.1) a un producto interno de Ω(X) = {formas diferenciables de X},
simplemente requiriendo que los Ωp (X) sean ortogonales.
Definimos un operador
δ = − ? d? : Ωp (X) → Ωp−1 (X),
donde d es la derivada exterior usual.
96
Proposición 5.1.1. δ es el adjunto de d conforme al producto interior (5.1), i.e,
hdα, βi = hα, δβi,
donde α, β ∈ Ω(X)
Demostración: Claramente es suficiente probarlo para el caso en que α ∈ Ωp−1 (X) y β ∈ Ωp (X).
En este caso
d(α ∧ ?(β)) = dα ∧ ?β + (−1)p−1 α ∧ d ? β = dα ∧ ?β − α ∧ ?δβ.
Integrando sobre X y aplicando el teorema de Stokes, obtenemos
Z
0=
(dα ∧ ?β − α ∧ ?δβ) = hdα, βi − hα, δβi.
X
Por lo tanto
hdα, βi = hα, δβi.
Definición 5.1.2. El operador de Laplace se define como
4 = dδ + δd : Ωp (X) → Ωp (X).
Cuando X = R4 y p = 0, el operador de Laplace es simplemente el operador −
(5.2)
P
∂2
.
∂x2i
Proposición 5.1.3. El operador de Laplace, satisface las siguientes propiedades:
1.?4 = 4?.
2. 4 conmuta con d y con δ
3. 4 es autoadjunto, i.e, h4α, βi = hα, 4βi, α, β ∈ Ωp (X).
4. 4α = 0 sı́ y solo sı́ dα = 0 y δα = 0.
Demostración: El cálculo
?4 = ?(dδ+δd) = ?(−d?d?−?d?d) = (−1)p+1 d?d−?d?d? = −d?d??−?d?d? = (dδ+δd)? = 4?.
implica la primera propiedad.
Por otro lado 4δ = (dδ + δd)δ = δdδ = δ(dδ + δd) = δ4, ya que δδ = 0. del mismo modo se
prueba que 4 conmuta con d. La propiedad-3 de la proposición, es una consecuencia inmediata de
la proposición 5.1.1. Por otro lado claramente 4(α) = 0 sı́ dα = 0 y δα = 0. Ahora
hα, αi = hdδα + δdα, αi = hδα, δαi + hdα, dαi;
por lo tanto sı́ 4α = 0 entonces dα = 0 y δα = 0.
Definición 5.1.4. Una p-forma diferenciable w sobre una variedad riemanniana orientada X es
armónica sı́ 4w = 0. Por Hp (X) denotamos el espacio de p-formas sobre X
97
A continuación enunciamos el teorema fundamental de la teorı́a Hodge, cuya prueba puede ser
encontrada en [Warner, capı́tulo 6]:
Teorema 5.1.5 (El Teorema de Descomposición de Hodge). Para cada entero p con 0 ≤
p ≤ n, Hp X es finito-dimensional, y tenemos la siguiente descomposición ortogonal de los espacios
Ωp (X)
ΩP (X) = 4(Ωp (X)) ⊕ Hp (M ) = dδ(ΩP (X)) ⊕ δd(ΩP (X)) ⊕ Hp (X)
(5.3)
= d(Ωp−1 (X)) ⊕ δ(Ωp+1 (X)) ⊕ Hp (X).
Corolario 5.1.6. La ecuación 4ω = α, tiene una solución ω ∈ Ωp (X) sı́ y solo sı́ α es ortogonal
al espacio de funciones p-armónicas Hp (X).
El teorema de descomposición de Hodge posee algunas interesantes consecuencias. Por ejemplo
el teorema de Hodge implica la existencia de soluciones de la ecuación de Poisson 4f = g: Sı́ X es
conexo, entonces el espacio H0 (X) es precisamente el espacio de funciones constantes; por lo tanto
el teorema de Hodge implica que sı́ g : X → R es ortogonal a las funciones constantes con respecto
al producto 5.1, entonces g = 4f para alguna función suave f .
Una segunda aplicación del teorema de Hodge es en topologı́a:
Recordemos que hay una derivada exterior
d : Ωp (X) → Ωp+1 (X);
esta derivada exterior induce una sucesión compleja
d
d
d
d
d
Ω0 (X) −
→ Ω1 (X) −
→ ... −
→ Ωp (X) −
→ ... −
→ Ωn (X),
i.e., la imagen de d : Ωp−1 (X) → Ωp (X) está contenida en el kernel de d : Ωp (X) → Ωp+1 (X),
porque d ◦ d = 0; este hecho nos permite la siguiente definición:
Definición 5.1.7. El p-ésimo grupo de cohomologı́a de Rham se define como
H p (X; R) =
Kernel de d : Ωp (X) → Ωp+1 (X)
.
Imagen de d : Ωp−1 (X) → Ωp (X)
(5.4)
Definición 5.1.8. El operador de Green G : Ωp (X) → (Hp (X))⊥ es definido enviando G(α) igual
a la única solución de la ecuación 4ω = α − H(α) en (Hp (X))⊥ , donde H(α) es la proyección de
α en Hp (X).
Proposición 5.1.9. G conmuta con cualquier operador que conmute con el operador laplaciano
4. En particular G conmuta con d, δ, 4
Demostarción: Supongamos que T 4 = 4T con T : Ωp (X) → Ωq (X). Sea πp la proyección de
Ωp (X) sobre (Hp )⊥ . Por definición G = (4|(Hp )⊥ )−1 ◦ πp . El hecho de que T 4 = 4T implica que
T (Hp (X)) ⊂ Hq (X) y desde que Hp (X) = 4(Ωp (X)), implica que T ((Hp (X))⊥ ) ⊂ (Hp (X))⊥ . De
aquı́ tenemos que
98
T ◦ πp = πq ◦ T
y sobre (Hp (X))⊥ ,
T ◦ (4|(Hp (X))⊥ ) = (4|(Hq (X))⊥ ) ◦ T,
y aquı́ sobre (Hp (X))⊥ ,
T ◦ (4|Hp (X))−1 = (4|Hq (X))−1 ◦ T.
De estas expresiones tenemos que G conmuta con T .
Proposición 5.1.10. Cada clase de cohomologı́a de Rham sobre una variedad riemanniana compacta y orientada X tiene un único representante ármonico.
Demostración: Sea α ∈ Ωp (X). Del teorema de descomposición de Hodge y de la definición del
operador de Green, tenemos que
α = dδGα + δdGα + Hα,
por la proposición anterior tenemos que G conmuta con d y δ y por ende
α = dδGα + δGdα + Hα.
Por lo tanto sı́ α es cerrada entonces α = dδGα+Hα, lo cual prueba la existencia del representante
armónico, por ser Hα un forma ármonica.
Sı́ dos formas armónicas α1 , α2 difieren por una forma exacta dβ, entonces tenemos que 0 =
dβ + (α1 − α2 ) Pero dβ y α1 − α2 son ortogonales desde que
hdβ, α1 − α2 i = hβ, δα1 − δα2 = hβ, 0i = 0
, por lo tanto dβ = 0 y aquı́ α1 = α2 . Por lo tanto hay un único representante para cada clase de
cohomologı́a Rham.
Corolario 5.1.11. Hay una biyección
H p (X; R) ≈ Hp (X)
Además los grupos de cohomologı́a de Rham para una variedad compacta y orientable son todos
finito dimensionales
Demostración: Cualquier variedad diferenciable puede ser dotada con una estructura riemanniana.
Las consecuencias siguen de la proposición anterior y del teorema de descomposición de Hodge.
Definición 5.1.12. El p-esimo número de betti se define como
bp = dim H p (X; R).
(5.5)
La caracterı́stica de Euler de la variedad diferenciable X, se define como
χ(X) = b0 − b1 + b2 − ... + (−1)n bn =
n
X
k=0
99
(−1)k bk .
(5.6)
Definición 5.1.13. Sea X una variedad compacta, orientada de dimensión n. Definimos una
aplicación bilineal
Z
Qp,n−p : H p (X; R) × H n−p (X; R) → R, dada por Q([], [ε]) =
∧ ε,
(5.7)
X
p
la forma 5.7 es llamada la forma de Poincaré, donde [] ∈ H (X; R), [ε] ∈ H n−p (X; R).
En el caso en que n = 2k, para algún k > 0, la forma
QX ≡ Qx,x : H k (X; R) × H k (X; R) → R).
(5.8)
es llamada la forma de intersección de la variedad X.
Proposición 5.1.14. la forma bilineal, Qp,n−p , de la expresión 5.7 está bien definida y cuando
n = 2k la forma cuadrática 5.8 satisface QX ([], [ε]) = (−1)k QX ([ε], []), para [ε], [] ∈ H k (X; R);
ası́ que cuando n ≡ 0 mod 4, la forma cuadrática es simétrica.
Demostración: Sean [] ∈ H p (X; R), [ε] ∈ H n−p (X; R). Sea 1 tal que 1 = + dξ, para alguna
forma ξ, entonces por el teorema de Stokes
Z
Z
Z
Z
Z
Z
1 ∧ ε =
∧ε+
dξ ∧ ε =
∧ε+
d( ∧ ε) =
∧ ε.
X
X
X
X
X
X
Esto prueba que la forma 5.7 está bien definida. El resto de propiedades son consecuencia natural
de las propiedades del producto exterior.
Los grupos de cohomologı́a, los números de Betti, la caracterı́stica de Euler y la forma de
Poincaré son conocidos invariantes topológicos de la variedad diferenciable, orientada y compacta
X.
Teorema 5.1.15 (Dualidad de Poincaré). La función bilineal 5.7 es no-singular y determina
isomorfismos entre H n−p (X; R) y el espacio dual de H p (X; R):
H n−p (X; R) ≈ (H p (X; R))∗
(5.9)
Demostración: Sea [] ∈ H p (X; R) una clase de cohomologı́a diferente de cero. Debemos encontrar una clase de cohomologı́a ε ∈ H n−p (X; R) para la cual Qp,n−p ([], [ε]) 6= 0. Escogamos una
estructura riemannian para la variedad X. Sabemos por una de las consecuencias del teorema de
descomposición de Hodge, que podemos suponer que es una forma armónica. Como la clases de
cohomologı́a [] 6= 0, entonces 6= 0. Como ?4 = 4?, implica que ? es una forma armónica y por
lo tanto cerrada, por la proposición-(5.1.3), y por lo tanto ? representa una clase de cohomologı́a
[?] ∈ H n−p (X; R). Ahora
Qp,n−p (, ?) = kk2 6= 0
Por lo tanto la forma 5.7 es no singular. Como la forma5.7 es no singular, induce una aplicación:
H n−p (X; R) → (H p (X; R))∗
dada por
la cual es un isomorfismo.
100
ε → Qp,n−p ( , ε),
Corolario 5.1.16. Con las mismas hipótesis del teorema anterior, tenemos que
H n−p (X; R) ≈ (H p (X; R))∗ ≈ H p (X; R);
por ende bn = bn−p .
Corolario 5.1.17. Sı́ X es una variedad diferenciable compacta, conexa y orientable de dimensión
n, entonces H n (X; R) ≈ R.
Corolario 5.1.18. En el caso en que dim X = 4k, para algún entero k > 0, entonces la forma de
intersecci’on QX , de 5.8, es bilineal, simétrica y unimodular:
1. Simétrica, i.e, QX (α, β) = QX (β, α), para α, β ∈ H 2k (X; R).
2. Unimodular, i.e, para toda transformación lineal υ : H 2k (X; R) → R, existe α ∈ H 2 (X; R) tal
que υ = QX ( , α).
En el caso en que X sea una variedad cuatro-dimensional, orientable, conexa y compacta, los
números de Betti son determinados por: b0 = b4 (el cual es 1 sı́ X es conexa), b1 = b3 (el cual
es 0 sı́ X es simplemente conexa) y b2 . Por ende el segundo grupo de cohomologı́a H 2 (X; R) con
dimensión b2 , posee toda la información cohomológica de la variedad en el caso en que la variedad
sea además simplemente conexa.
El número de Betti b2 tiene una descomposición adicional: Como el operador estrella de Hodge,
? : Ω2 (X) → Ω2 (X),
satisface ?2 = 1 sobre 2-formas de una variedad diferenciable cuatro dimensional, implica que
podemos dividir Ω2 (X) en una suma directa
Ω2 (X) = Ω2+ (X) ⊕ Ω2− (X),
donde,
Ω2± (X) = {w ∈ Ω2 (X) : ?w = ±w}.
(5.10)
Definición 5.1.19. Sea w ∈ Ω2 (X); la parte dual y la parte anti-dual de w se definen como
w+ =
1
(w + ?w)
2
w− =
1
(w − ?w);
2
respectivamente, estas componentes son ortogonales, i.e, hw+ , w− i = 0 y w± ∈ Ω2± (X).
Proposición 5.1.20. Sea X una variedad diferenciable, orientable, compacta y cuatro- dimensional. Sı́ w ∈ Ω2 (X) es una forma armónica entonces w+ , w− son formas armónicas. Consecuentemente el espacio H2 (X) se puede descomponer como una suma directa
2
2
H2 (X) = H+
(X) ⊕ H−
(X),
donde los sumandos corresponden a las 2-formas armónicas duales y anti-duales, respectivamente.
Demostración: Es una consecuencia directa del hecho de que ?4 = 4 ? .
2
2
Sea b+ = dim H+
(X) y b− = dim H−
(X). El número de Betti b2 = b+ + b− .
101
Definición 5.1.21. La signatura de una variedad X cuatro dimensional, diferenciable, compacta
y orientable, se define como
τ (X) = b+ − b−
(5.11)
Proposición 5.1.22. La forma de intersección QX de una variedad diferenciable X cuatro dimensional, compacta y orientable es definida positiva sı́ b− (X) = 0.
R
Demostración. Sea w ∈ H2 (X), como b− (X) = 0 entonces ?w = w. Luego QX ([w]) = X w ∧ w =
R
w ∧ ?w = kwk2 > 0; luego QX es definida positiva.
X
Sea X una variedad compacta, orientada, riemanniana, diferenciable y cuatrodimensional, definimos el operador d+ : Ω1 (X) → Ω2+ (X), para ω ∈ Ω1 (X) por (dω)+ , este operador induce la
siguiente sucesión exacta:
d+
d
0 → Ω0 (X) −
→ Ω1 (X) −−→ Ω2+ (X) → 0.
(5.12)
Lema 5.1.23. Sea X una variedad cuatrodimensional, compacta, orientada, riemanniana. La
sucesión exacta 5.12 posee los siguientes grupos de cohomologı́a:
Kernel de d+ : Ω1 (X) → Ω2+ (X)
≈ H1 (X),
Imagen de d : Ω0 (X) → Ω1 (X)
Ω2+ (X)
2
≈ H+
(X),
Imagen de d+ : Ω1 (X) → Ω2+ (X)
Demostración: Sı́ ω ∈ Ω2+ (X) es ortogonal a la imagen de d+ , entonces hω, (dδω)+ i = 0 =
hω, ?dδω + dδωi = hω, − ? d ? d ? ω + dδωi, como ?ω = ω, entonces, hω, δdω + dδωi = hω, 4ωi = 0,
luego ω es armónica. Por otro lado, sı́ ω ∈ Ω1 (X), y está en el Kernel de d+ y es perpendicular a
la imagen de d, entonces, δω = 0 y d ? ω = 0, por lo tanto
(d + δ)(ω + ?ω) = dω + δ ? ω = dω + ?dω = 2d+ ω = 0, por lo tanto ω ∈ H1 (X). La proposición
sigue de esto
La anterior proposición implica los siguientes Lemas:
Lema 5.1.24. Sea L un haz lineal unitario sobre una variedad riemanniana, compacta y orientada
de dimensión cuatro X. Un elemento φ ∈ Ω2+ (X) es la parte dual de la curvatura de alguna conexión
unitaria sobre L entonces φ está en un subespacio afı́n Π de Ω2+ (X) de codimensión b+
Demostración: Sea A una conexión unitaria sobre L y FA su curvatura. Por el Corolario 2.4.29 el
espacio afı́n
Λ = FA + Imagen(d) ⊂ Ω2 (X),
es el conjunto de todas las dos formas ω ∈ Ω2 (X) tal que son la curvatura de alguna conexión
unitaria de L. Sea Π = Λ+ , por la Proposición anterior, Π es un subespacio afı́n de Ω2+ (X) de
codimensión b+ .
Lema 5.1.25. La caracterı́stica de Euler del complejo 5.12 es b0 + b+ − b1 =
102
ℵ(X) + Sig(X)
2
Demostración: Por definición de caracterı́stica, tenemos que su caracterı́stica es igual
2
dim H0 (X) − dim H1 (X) + dim H+
(X) = b0 − b1 + b+
b0 + b4 − b1 − b3 + b2 + Sig(X)
=
2
ℵ(X) + Sig(X)
=
.
2
5.2.
Operadores diferenciables
Sea X una variedad diferenciable compacta.
Notación: Usaremos la notación de multı́ndices en esta sección α = (α1 , ..., αn ) ∈ Zn .
P
Por |α|, entendemos |α| ≡ i αi y para cada x ∈ R, xα ≡ xα1 · ... · xαn . En coordenadas locales
(x1 , ..., xn ) sobre X, definimos el operador diferencial
Dα ≡
∂ |α|
∂ |α|
1
≡
.
α
α
1
n
∂xα
i|α| ∂x1 ∂x2 2 · · · ∂n xα
n
Definición 5.2.1. Un operador diferencial de orden m sobre X es una función lineal P :
Γ(E) → Γ(F ), donde E y F son K-haces vectoriales sobre X, con la siguiente propiedad: para
cada x ∈ X existe una vecindad U con coordenadas locales (x1 , ..., xn ) y una trivialización local
E|U → U × Kp y F |U → U × Kq , en la cual P puede ser escrito en la forma
X
P =
Aα (x)Dα ,
α≤m
donde cada Aα (x) es una q × p-matriz de funciones suaves de valor K y donde Aα 6= 0 para algún
α con α = m.
Definición 5.2.2. El sı́mbolo principal de un operador diferenciable P , se define como la sección σ(P ) ∈ Γ(T ∗ (X) ⊗ Hom(E, F )), donde E, F son haces vectoriales complejos; tal que para
P
∗
coordenadas locales y trivialización como en la Definición 5.2.1 y ξ =
k ξk dxk ∈ Tx (X), la
función
X
σξ (P ) : Ex → Fx , es de la forma, σξ (P ) = im
Aα (x)ξ α .
(5.13)
α=m
Se puede probar que el sı́mbolo de un operador diferenciable está bien definido, i.e, que no
depende del cambio de trivializaciones locales.
Definición 5.2.3. Sea P un operador diferenciable de orden m sobre X. P es elı́ptico sı́ para
x ∈ X y ξ ∈ Tx∗ X, la función σξ (P ) : Ex → Fx es invertible.
103
Proposición 5.2.4. Sean P : Γ(E) → Γ(F ), P 0 : Γ(E) → Γ(F ) y Q : Γ(F ) → Γ(L) son operadores
diferenciables sobre X, P y P 0 del mismo orden. Entonces para cada ξ ∈ T ∗ X, t, t0 ∈ R, tenemos
que
σξ (tP + t0 P 0 ) = tσξ (P ) + t0 σξ (P 0 )
y
σξ (Q ◦ P ) = σξ (Q) ◦ σξ (P ).
Demostración. Una consecuencia inmediata de la definición de sı́mbolo principal.
Dado P : Γ(E) → Γ(F ), sea π : T ∗ X → X, la proyección del haz cotangente, sean π ∗ (E) y
π (F ) los respectivos haces pullback. Entonces el sı́mbolo de P , puede ser considerado como una
aplicación natural
σ(P ) : π ∗ (E) → π ∗ (F );
(5.14)
∗
Sı́ P es elı́ptico la función 5.14 es invertible.
Ejemplos de Operadores Elı́pticos
1. El operador d + δ : Ω(X) → Ω(X) es elı́ptico.
2. El laplaciano de Hodge, 4 : Ωp (X) → Ωp (X), es un operador elı́ptico.
3. En el caso en que la variedad X sea cuatrodimensional, el operador d+ ⊕ δ : Ω1 (X) →
2
Ω+ (X) ⊕ Ω0( X) es elı́ptico.
4. Sea X una variedad riemanniana, orientada y compacta con estructura spin entonces el
operador de Dirac es elı́ptico. Análogamente sı́ la variedad posee estructura spinc , el operador
de Dirac DA es un operador elı́ptico de orden 1: Para x ∈ X y una base ortonormal {e1 , ..., en }
de Tx X. Escojamos un sistema de coordenadas locales (x1 , ..., xn ) sobre X en x para el cual x
∂
|0 para cada j. Bajo la identificación Tx X ≈ Tx∗ X, tenemos
corresponde a 0 y ej corresponde a ∂x
j
que ej también corresponde a (dxj )|0 para cada j. Para cualquier trivialización de W cerca a x
P
P
tenemos que para ε = i εi (dxi )|0 , σε = i i εi · () = iε · (), donde “·´´es la multiplicación de
Clifford. Por lo tanto el operador de Dirac es simplemente la multiplicación de Clifford sobre el haz
W y desde que ε·ε· = −kεk2 Id para ε 6= 0 el sı́mbolo es invertible, por lo tanto el operador de Dirac
D es elı́ptico. Del mismo modo se prueba que DA es elı́ptico, para una variedad con estructura
spinc .
Teorema 5.2.5 (Teorema de continuación única). Sea P : Γ(E) → Γ(F ), un operador elı́ptico,
+
entonces, sı́ α ∈ Γ(E), es una solución de la Ecuación DA
(α) = 0 sobre una variedad conexa. Sı́ U
es un conjunto abierto de X y α(p) = 0 para algún p ∈ X, entonces, α ≡ 0 en U .
5.3.
Espacios Sobolev
Sea E un haz vectorial ortogonal (ó hermitiano) con una conexión ω ortogonal (ó hermitina)
sobre una variedad diferenciable, compacta y orientada X. Recordemos que la conexión ω puede
104
ser vista como una función
dω : Ωk (X; E) → Ωk+1 (X; E),
para k > 0; sı́ σ ∈ Γ(E) = Ω0 (X; E), entonces, definimos,
dkω σ = (dω ◦ · · · ◦ dω )(σ) ∈ Ωk (X; E).
|
{z
}
k veces
P
Recordemos que hdω (σ1 ), dω (σ2 )i =
j h∇ej σ1 , ∇ej σ2 i, con la generalización de este producto
interno definimos la siguiente norma para Γ(E): para p > 1 y σ ∈ Γ(E),
Z
1/p
kσkLpk =
(|σ|p + |dω σ|p + · · · + |dkω σ|
.
(5.15)
X
La equivalencia de esta norma es independiente de la escogencia de la métrica y la conexión para
E, esta norma es llamada la Lp
k -norma de Sobolev y la completación de Γ(E) en esta norma es
p
llamado el Lk -espacio de Sobolev y es denotado como Lpk (E), el cual es un espacio de Banach
y de Hilbert cuando p = 2.
5.3.1.
Teoremas de Sobolev
A continuación resumiremos algunos hechos de vital importancia en el estudio de los espacios
de Sobolev, supondremos que X es una variedad diferenciable, riemanniana, compacta, orientada
y conexa; dim(X) = n:
Teorema 5.3.1. Un operador diferenciable, P : Γ(E) → Γ(F ), de orden m se extiende a una
función acotada P : Lpk (E) → Lpk−m (F ) para todo k ≥ m.
Teorema 5.3.2 (Teorema de Rellich). Sea E un haz ortogonal (ó hermitiano) sobre X. Sı́ k > 1
n
n
y k − ≥ l − , hay una inclusión acotada
p
q
Lpk (E) ,→ Lql (E).
n
q
> l − , la inclusión es compacta, i.e., una sucesión que es acotada en
p
n
Lpk (E) posee una subsucesión la cual converge en Lql (E).
n
Teorema 5.3.3 (Teorema de Encajamiento de Sobolev). Supongamos que k − > l, enp
tonces, hay una inclusión acotada,
Lpk (E) ,→ C l (E),
En el caso en que k −
donde C l (E) es el espacio de secciones C l de E.
Teorema 5.3.4 (Teorema de Multiplicación de Sobolev). Sea q ≥ 1, pi ≥ 1, l, ki , enteros,
para i = 1, · · · , N ; entonces, para haces Ei → X, la multiplicación tensorial proporciona una
función continua
N
N
M
O
Lpkii (Ei ) ,→ Lql (
Ei );
i=1
i=1
n
n
siempre y cuando ki ≥ l, ki −
≥ l − ki − > 0, para todo i.
pi
q
105
5.3.2.
Operadores Elı́pticos y normas de Sobolev
En el caso en que un operador P sea elı́ptico los siguientes hechos son de vital importancia para
el desarrollo de este trabajo:
Proposición 5.3.5. Sı́ P : Γ(E) → Γ(F ) es un operador elı́ptico ,entonces, el adjunto de P , P ∗ ,
es elı́ptico y los Kernels de D y D∗ son finito dimensionales. Una sección α ∈ Γ(F ) está en la
imagen de P sı́ y solo sı́ α⊥Ker(P ∗ ).
Teorema 5.3.6 (Desigualdad Fundamental de los Operadores Elı́pticos). Sı́ P es un
operador elı́ptico de orden s, existe, C > 0, tal que, para todo α ∈ Γ(E)
kαkLpk+s ≤ C(kP (α)kLpk + kαkLp ),
(5.16)
sı́ α es L2 ortogonal al Kernel de P , entonces,
kαkLpk+s ≤ CkP (α)kLpk .
(5.17)
Corolario 5.3.7. Existe C > 0 tal que para toda función g ∈ Γ(X × K)
kgkLpk+1 ≤ C(kdgkLpk + kgkLp ).
En particular, para toda función g → G, g : X → S 1 , existe K > 0, tal que
kgkLpk+1 ≤ CkdgkLpk + K.
Demostración: Es una consecuencia inmediata del hecho de que el operador d + δ es elı́ptico y de
que por Definición δg = 0.
5.4.
Teoremas de Transversalidad
Sea F : X → Y una función suave entre dos variedades diferenciables X y Y ; sı́ y es un
punto regular de Y , entonces, por el Teorema de la Función Implı́cita, F −1 (y) es una subvariedad
diferenciable de X y su dimensión es dim X − dim Y , además para x ∈ F −1 (y), y un punto regular
de F , entonces, Tx F −1 (y) = KerdFx .
Teorema 5.4.1 (Teorema de Sard). El conjunto de valores regulares de una función suave
F : X → Y es denso en Y .
Estos conceptos se pueden extender al caso infinitodimensional.
Definición 5.4.2. Supongamos que E1 y E2 son dos espacios reflexivos de Banach. Una función
lineal continua T : E1 → E2 es Fredholm sı́:
1. El Kernel de T es finitodimensional.
2. El rango de T es cerrado, y
3. El rango de T tiene codimensión finita en E2 .
El ı́ndice de un Operador Fredhom T es dim(Ker(T ))−dim(E2 /T (E1 )) = dim(Ker(T ))−dim(Ker(T ∗ )),
donde, T ∗ : E1∗ → E2∗ es el adjunto de E2 .
106
Proposición 5.4.3. Un Operador elı́ptico P : Γ(E) → Γ(F ) de orden s se extiende a un operador
Fredhlom P : Lpk+s (E) → Lpk (E), cuyo ı́ndice es independiente de la extensión.
El Teorema del ı́ndice de Atiyah-Singer, nos proporciona el ı́ndice del Operador de Dirac:
Teorema 5.4.4. Sea X una variedad cuatrodimensional con estructura spinc , sı́ L es el haz lineal
asociado a la estructura spinc , y A una conexión de L, entonces, el operador de Dirac
+
DA
: Γ(W + ) → Γ(W − );
tiene ı́ndice,
c1 (L)2 − Signatura(X)
,
(5.18)
8
R
donde c1 (L)2 ≡ X kc1 (L)k2 =, (abusando de notación); c1 (L) la primera clase de Chern del haz
lineal L.
Definición 5.4.5. Supongamos que F : X → Y , es una función suave entre dos variedades de
Banach X y Y , F es Fredholm de ı́ndice k sı́
dF (x) : Tx X → TF (x) Y
es una función Fredholm de ı́ndice k para cada x ∈ X.
Un punto y ∈ Y , se dice regular, sı́ dFx es sobreyectiva para todo x ∈ F −1 (y); de otra manera
es llamado un valor crı́tico. Esto sigue del Teorema de la Función implı́cita para espacios de Banach
(vea [5, Apéndice]) que sı́ y es un valor regular de Y , entonces, F −1 (y) es una subvariedad suave de
X, justo como en el caso finito-dimensional; además sı́ F −1 (q) es finitodimensional, su dimensión
es el ı́ndice de Fredholm de F .
Un elemento genérico de Y es un elemento de algún subconjunto residual de Y ; un conjunto
residual es aquel que se puede expresar como la intersección contable de conjuntos abiertos densos.
El Teorema de Categorı́a de Baire dice que un subconjunto residual en un espacio métrico completo
es denso.
Teorema 5.4.6 (Teorema de Sard-Smale). Sı́ F : X → Y es una función C k de Fredholm
entre dos variedades separables de Banach y k > máx{0, indiceF }, entonces, el conjunto de valores
regulares de F es residual en Y .
5.4.1.
Teorema de ı́ndice
Sea d la diferenciación exterior usual, d : Ωk (X) → Ωk+1 (X), este operador induce el siguiente
complejo:
d
d
d
d
d
Ω0 (X) −
→ Ω1 (X) −
→ ... −
→ Ωp (X) −
→ ... −
→ Ωn (X),
a partir de este complejo, podemos construir un operador elı́ptico, del siguiente modo: Sea Ω+ (X) =
L
L
k
−
k
k par Ω (X) y Ω (X) =
k impar Ω (X), entonces, sı́ δ es el adjunto de d, tenemos que, el
operador d + δ es elı́ptico, d + δ : Ω(X) → Ω(X), y se descompone en dos operadores elı́pticos,
(d + δ)+ : Ω+ (X) → Ω− (X)
107
y
(d + δ)− : Ω− (X) → Ω+ (X).
Como el adjunto de (d + δ)+ es (d + δ)− , el ı́ndice de (d + δ)+ es
Indice de (d + δ)+ = dim(Ker(d + δ)+ ) − dim(Ker(d + δ)− );
(5.19)
pero como 4 = dδ + δd = (d + δ)2 , entonces, para una forma ω se tiene que (d + δ)(ω) = 0 sı́ y
solo sı́ 4(ω) = 0 sı́ y solo sı́ ω es armónica; por consiguiente,
M
M
Ker(d + δ)+ =
Hk (X) Ker(d + δ)− =
Hk (X),
k par
k impar
luego
Indice de (d + δ)+ =
X
−1k dim Hk (X) =
k
X
(−1)k bk = ℵ(X).
(5.20)
k
El Teorema del ı́ndice busca generalizar esta idea.
Definición 5.4.7. Sean Ei , i = 1, · · · , k, un conjunto de haces vectoriales, y supongamos que
tenemos operadores diferenciables di : Γ(Ei ) → Γ(Ei+1 ), tal que la siguiente sucesión, denotada
como E, es compleja:
d
dk−1
d
1
2
0 → Γ(E1 ) −→
Γ(E2 ) −→
· · · −−−→ Γ(Ek ) → 0;
(5.21)
la cararacterı́stica de Euler del complejo E, ℵ(E), es
ℵ(E) =
X
(−1)k dim
k
Ker(di )
.
Im(di−1 )
La sucesión E se dice elı́ptica sı́ la sucesión de sı́mbolos asociada,
σ(d1 )
σ(d2 )
σ(dk−1 )
0 → π ∗ (E1 ) −−−→ π ∗ (E2 ) −−−→ · · · −−−−−→ π ∗ (Ek ) → 0;
(5.22)
es exacta.
Dada una sucesión elı́ptica como la sucesión 5.21, podemos construir el siguiente operador
L
L
elı́ptico: Sea E + = k par Ek y E − = k impar Ek , entonces,
d=
X
(d2i−1 + d∗2i +),
(5.23)
i
d : E + → E − , es un operador elı́ptico.
Teorema 5.4.8 (Teorema del ı́ndice). Consideremos una sucesión elı́ptica E, como la sucesión
5.21, y el operador elı́ptico asocuiado a esta sucesión, 5.23. Sı́ X es una variedad de dimensión
par, compacta, orientable y sin frontera, entonces,
Indice de d =
X
(−1)k dim
k
108
Ker(di )
= ℵ(E).
Im(di−1 )
(5.24)
En nuestro caso, el estudio de las Ecuaciones Seiberg-Witten, la sucesión elı́ptica que más nos
interesa para una variedad de dimensión cuatro es la sucesión, 5.12,
d+
d
0 → Ω0 (X) −
→ Ω1 (X) −−→ Ω2+ (X) → 0.
5.5.
(5.25)
Orientación de Operadores Fredholm
Definición 5.5.1. Sı́ T : E1 → E2 es un operador Fredholm. El haz determinante de T es
det(T ) = ∧máx (Kernel(F )) ⊗ (∧max Cokernel(F ))∗ .
(5.26)
Sean H1 y H2 dos espacios de Banach complejos y D = {Dt : H1 → H2 }t∈T una familia continua
de Operadores Fredholm indexada por una espacio topológico T . Sea t0 ∈ T . El operador Dt0 :
H1 → H2 tiene kernel y cokernel finitodimensional. Sea ψ : CN → H2 una función sobreyectiva
modulo la imagen de Dt0 , entonces, hay una vecindad abierta U ⊂ T de t0 tal que para todo t ∈ U
la función ψ : CN → H2 es sobreyectiva modulo la imagen de Dt . La familia
{Dt + ψ : H1 ⊕ CN → H2 }t∈U ,
es una familia continua de operadores Fredholm sobreyectivos. Los Kernels de esos operadores
forman un haz vectorial K → U . El haz determinante de D restringido en U es el haz ∧max K →
U.
Lema 5.5.2. La costrucción de arriba es independiente de ψ y del conjunto abierto U y por lo
tanto el haz determinante dela familia de operadores Fredholm D está definida globalmente, y es
denotado como det(D).
Lema 5.5.3. Sea D = {Fs }s∈S una familia de operadores de Fredholm parametrizados por s ∈
S. Supongamos que D0 = {Fs0 }s∈S es una familia homotópica, entonces, la homotopı́a entre las
familias determina isomorfismos entre los haces determinantes, det(D) → S y det(D0 ) → S 0 , de
esas familias.
109
Índice alfabético
+
DA
, 106
−
DA
, 106
L, 84
PSpin(n) (T X), 81
PSpinc (n) T X, 84
Spin(n), 12
Conexión hermitiana, 64
Conexión laplaciana, 100
Conexión Levi-Civitá, 75
Conexión ortogonal, 64
Conexión sobre haces principales, 58
Conexiones
pullback de, 59
Cuadrática
función, 30
Cuaterniones, 9
Curvatura, 69, 71
Curvatura de Ricci, 78
Curvatura escalar, 79
Acción
a derecha, 38
a izquierda, 38
efectiva, 39
libre, 39
transitiva, 39
Adjunta
Representación, 43
Anti-auto-duales
formas, 29
Auto-duales
formas, 29
Derivada covariante, 61
Derivada direccional, 61
Espacio de configuraciones, 106
Espacio horizontal, 58
Espacio vertical, 56
Estabilizador, 39
Estructura spin, 81
Estructura spinc , 83
haz lineal, 84
Exponencial de matrices, 41
Campo vectorial, 38
Campo vectorial fundamental, 56
Campos vectoriales, 51
Christoffel
sı́mbolos de, 73
Clase de Chern, 72
Clifford
álgebra de, 13
módulo, 12
multiplicación de, 12, 28
propiedad universal, 14
Cocı́clica
condición, 45
Conexión spin, 92
Conexión de haces vectoriales, 60, 63
Fórmula de Weitzenböck, 103
Fibra, 44
Formas diferenciables, 51
Función cubridora, 11
Gauge
grupo, 107
Transformaciones, 107
Transformaciones fijas, 107
110
Grupo topológico, 38
Orbita, 39
Ortogonal
grupo, 10
Ortogonal especial
grupo, 10
Haces equivalentes, 45
Haces vectoriales
Endomorfismos, 52
Homomorfismo lineal de, 52
Suma directa de, 52
Producto tensorial de , 52
Haz
función, 45
Haz asociado, 55
Haz de bases, 55
Haz de Clifford, 87
Haz Fibrado, 44
Haz Frame, 48
Haz Principal, 46
Haz Tangente, 48, 50
Haz Trivial, 48
Haz vectorial, 49
Haz vectorial hermitiano, 52
Haz vectorial ortogonal, 52
Hiperplano, 16
Hodge
operador estrella de, 28
Pauli
matrices de, 27
Pin
grupo, 16
Quilaridad
operador de, 20
operador de, 88
Reflexión, 16
Regla de Leibnitz, 61, 69
Representante local de conexiones, 63
Representantes locales de secciones, 50
Rotación, 10
Sección, 45
Seiberg-Witten
Ecuaciones, 106
Soluciones irreducibles, 107
Soluciones reducibles, 107
Spin
función, 12
grupo, 12
Spin complejo
grupo, 24
Spin, grupo, 17
Spin, representación, 24
Spinor
modulo, 22
negativo, 23
positivo, 23
Isometrı́as directas, 10
Isometrı́as indirectas, 10
Isotrópico, 22
Lie
álgebra de, 41
álgebra de Lie, 37
corchete de Lie, 37
grupo de, 39
subgrupo de, 39
Métrica riemanniana, 72
Moduli
Espacio, 108, 111
Multiplicación de Clifford, 89
Teorema de Reconstrucción, 45
Torsión
tensor, 73
Transición
Operador de Dirac, 97, 98
111
Funciones de, 45
Transporte Paralelo, 60
Trivialización, 44
Trivialización local, 44
Variedad spin, 82
Variedad riemanniana, 73
Vectores verticales, 56
112
BIBLIOGRAFIA
[1] S. Akbulut. Lectures on seiberg-witten invariants. Scientific and Technical Research Council
of Turkey, pages 95–118, 1995.
[2] Andrew Baker. Matrix Groups, An introduction to Lie Group Theory. Springer, 2002.
[3] William Boothby. An Introduction to Differentible Manifolds and Riemannian Geometry.
Academic Press, San Diego, 1986.
[4] S.K. Donaldson. An application of gauge theory to four dimensional topology. J. Differ.
Geom., 18:279–315, 1983.
[5] S.K. Donaldson and P.B. Kronheimer. Geometry of Four-Manifolds. Clarendon, Oxford, 1990.
[6] Michael Freedman. The topology of four-dimensional manifolds. J. Differ. Geom., 17:357–454,
1982.
[7] Michael H. Freedman and Feng Luo. Selected Applications of Geometry to Low-Dimensional
Topology. American Mathematical Society, Providence,Rhode Island, 1987.
[8] Michael H. Freedman and Frank Quinn. Topology of 4-Manifolds. Princeton University Press,
Princeton , New Jersey, 1990.
[9] Robert Friedman and Jhon W. Morgan. Smooth Four-Manifolds and Complex Surfaces.
Springer-Verlag, 1994.
[10] Robert Friedman and Jhon W. Morgan. Gauge theory and the Topology of Four-Manifolds.
American Mathematical Society, Institute for Advanced Study, Providence, Rhode Island,
1998.
[11] Jr. H. Blaine Lawson. The theory of gauge fields in four dimensions. Conference Board of the
Mathematical Sciences, American Mathematical Society Providence, Rhode Island, 1983.
[12] F. Hirzebruch and H. Hopf. Felder von flachenelementen in 4-dimensionalen manigfaltigkeiten.
Math. Annalen 136, pages 156–, 1958.
[13] D. Kotschick. Gauge theory is dead!-long live gauge theory! Notices of the AMS, pages
335–338, Marzo 1995.
113
[14] H. Blaine Lawson and Marie-Louise Michelsohn. Spin Geometry. Princeton University Press,
1989.
[15] L.J. Mason and N.M.J Woodhouse. Integrability Self-Duality, and Twistor Theory. Clarendon,
Oxford, 1996.
[16] William S. Massey. Introducción a la topologı́a algebraı́ca. Editorial Reverté, 1972.
[17] John W. Milnor. Topology From the Differentiable Viewpoint. The University Press of Virginia,
Charlottesville, 1965.
[18] John D. Moore. Lectures on Seiberg-Witten Invariants. Springer, Lecture Notes in Mathematics, 1996.
[19] John W. Morgan. The Seiberg-Witten Equations and Applications to the Topology of Smooth
Four-Manifolds. Princeton University Press, Princeton, New Jersey, 1996.
[20] Munkres. Topology. ?, ?
[21] Gregory L. Naber. Topology, Geometry, and Gauge Fields; Foundations. Springer-Verlag,
1991.
[22] Gregory L. Naber. Topology, Geometry, and Gauge Fields; Interactions. Springer-Verlag,
2000.
[23] Mikio Nakahara. Geometry, Topology and Physics. The Institute of Physics Publishing,
London, 1973.
[24] Nirmala Prakash. Differential Geometry. Tata McGraw-Hill Publishing Company Limited,
1981.
[25] Michael Spivak. Cálculo en variedades. Editorial Reverté, 1988.
[26] W. P. Thurston. Three dimensional manifolds, kleinian groups and hyperbolic geometry. Bull.
AMS, 6:357–381, 1982.
[27] F. W. Warner. Foundations of diferentiable manifolds. Scott-Foresman, Illinois, 1971.
[28] C. Von Westenholz. Differential Forms in Mathematical Physics. North-Holland Publishing
Company, ?
[29] E. Witten. Monopoles and four-manifolds. Math. Research Letters, 1:769–796, 1994.
[30] Jan Vacter Yang. Theory of spinors. arXiv:dg-ga/508005 v3 15 Aug 95, 1995.
114
Descargar