problemas de ´algebra lineal

Anuncio
PROBLEMAS DE
ÁLGEBRA LINEAL
Fernando Revilla
2
c
All rights reserved, Safe Creative, cód. 1401309967886.
Prólogo
Este libro consta de una colección de algunos de los problemas de Álgebra
Lineal explicados por mı́ en distintos cursos de preparación de asignaturas
de Ingenierı́as y Facultades en academias de enseñanza universitaria. Cada
problema lleva un tı́tulo lo más descriptivo posible y aquellos que han sido
propuestos en examen llevan una cita de su procedencia. Espero que sean
de interés para estudiantes de ciencias e ingenierı́a.
Madrid, a 30 de Agosto de 2012.
El autor.
3
4
Índice general
1. Estructuras algebraicas
1.1. Relación y operaciones en el plano
1.2. Un grupo conmutativo . . . . . . .
1.3. Grupo de funciones matriciales . .
1.4. Grupo construido por biyección . .
1.5. Subgrupo normal y centro . . . . .
1.6. Tres igualdades en un grupo . . . .
1.7. Conmutador y subgrupo derivado .
1.8. Centro de un grupo de matrices . .
1.9. Homomorfismo de grupos. Factoriz.
1.10. Grupo no cı́clico . . . . . . . . . .
1.11. Conjunto, grupo y aplicación . . .
1.12. Grupo de aplicaciones afines . . . .
1.13. Anillo según parámetro . . . . . .
1.14. Anillo y grupo de matrices . . . . .
1.15. Anillo idempotente . . . . . . . . .
1.16. Máximo común divisor en Z[i] . . .
1.17. Dominio de integridad no euclı́deo
1.18. Ideal bilátero f (I) . . . . . . . . .
1.19. Cuerpo con función sobre los reales
1.20. Cuaternios de Hamilton . . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
canónica
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
2. Espacios vectoriales, homomorfismos
2.1. Caracterización de subespacios vectoriales
2.2. Suma directa de dos subespacios . . . . .
2.3. Suma directa de varios subespacios . . . .
2.4. Subespacio Ax = 0 . . . . . . . . . . . . .
2.5. Subespacios transversales . . . . . . . . .
2.6. Intersección de subespacios de (Z7 )4 . . .
2.7. Cambio de base en orbitales atómicos . .
2.8. Matrices de homomorfismos . . . . . . . .
5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9
9
11
12
14
17
19
20
21
22
23
24
26
27
28
29
31
33
35
36
37
.
.
.
.
.
.
.
.
39
39
41
43
45
47
48
50
51
6
ÍNDICE GENERAL
2.9. Endomorfismo nilpotente . . . . . . . .
2.10. Base del espacio vectorial cociente . . .
2.11. Núcleo e imagen del operador derivación
2.12. Clasificación de endomorfismos . . . . .
2.13. Hiperplanos . . . . . . . . . . . . . . . .
2.14. Suma S4 = 14 + 24 + 34 + . . . + n4 . . .
2.15. Sucesiones exactas . . . . . . . . . . . .
2.16. Endomorfismo en C(R) . . . . . . . . . .
2.17. Aplicación lineal: factorización canónica
2.18. Endomorfismo en un subespacio de C(R)
2.19. Operador traspuesto en el espacio dual .
2.20. Espacio dual. Interpolación . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
53
55
57
59
61
62
64
65
67
69
72
74
3. Formas canónicas
3.1. Diagonalización según parámetros . . .
3.2. Cálculo de una base de Jordan . . . . .
3.3. Potencia enésima por forma de Jordan .
3.4. Logaritmo de una matriz . . . . . . . . .
3.5. Determinante con diagonalización . . . .
3.6. Diagonalización en Cn [z] . . . . . . . . .
3.7. Potencia enésima por diagonalización . .
3.8. Potencia enésima por Cayley-Hamilton .
3.9. Lı́mite de una sucesión matricial . . . .
3.10. Formas de Jordan de AB y BA . . . . .
3.11. Modelo de poblaciones . . . . . . . . . .
3.12. Endomorfismo con modelo de autopista
3.13. Lı́mite de una sucesión de puntos . . . .
3.14. Forma canónica del operador derivación
3.15. Coseno de una matriz . . . . . . . . . .
3.16. Endomorfismo idempotente . . . . . . .
3.17. Involuciones . . . . . . . . . . . . . . . .
3.18. Valor propio y ası́ntota horizontal . . . .
3.19. Matriz exponencial: definición . . . . . .
3.20. Formas de Jordan de rango 1 . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
79
79
80
84
87
89
91
93
95
96
97
99
101
104
106
108
109
110
112
113
117
4. Formas bilineales, producto escalar
4.1. Método de Gauss . . . . . . . . . . . . .
4.2. Ángulo en R2 [x] . . . . . . . . . . . . . .
4.3. Signatura de una forma cuadrática . . .
4.4. Forma cuadrática mediante una integral
4.5. Cociente de Rayleigh . . . . . . . . . . .
4.6. Mı́nimo de una función cuadrática en Rn
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
123
123
125
126
127
128
131
ÍNDICE GENERAL
4.7. Funciones convexas y formas cuadráticas . . . .
4.8. Núcleo de una forma cuadrática . . . . . . . . .
4.9. Diagonalización simultánea: sistema diferencial
4.10. Forma cuadrática multiplicativa . . . . . . . . .
4.11. Descomposición en valores singulares . . . . . .
4.12. Diagonalización ortogonal . . . . . . . . . . . .
4.13. Semejanza, congruencia y equivalencia . . . . .
4.14. Gram-Schmidt con integral impropia . . . . . .
4.15. Proyección ortogonal en R2 [x] . . . . . . . . . .
4.16. Endomorfismo simétrico . . . . . . . . . . . . .
4.17. Endomorfismo antisimétrico . . . . . . . . . . .
4.18. Automorfismo en un espacio euclı́deo . . . . . .
4.19. Endomorfismo, forma cuadrática y cono . . . .
4.20. Matriz normal . . . . . . . . . . . . . . . . . .
7
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5. Miscelanea algebraica
5.1. Finura de las relaciones de orden . . . . . . . . . .
5.2. Tres relaciones en N . . . . . . . . . . . . . . . . .
5.3. Matrices mágicas . . . . . . . . . . . . . . . . . . .
5.4. Matriz de Markov . . . . . . . . . . . . . . . . . .
5.5. Inversa generalizada o g-inversa . . . . . . . . . . .
5.6. Determinate por inducción y sistema lineal . . . .
5.7. Determinante con números combinatorios . . . . .
5.8. Determinante e inversa de orden n . . . . . . . . .
5.9. Raı́z cuádruple según parámetros . . . . . . . . . .
5.10. Familia de polinomios P
p(x2 ) = p(x)p(x + 1) . . . .
5.11. Expresión p(x) = c0 + nk=1 ck (x − x1 ) . . . (x − xk )
5.12. Seno de 72o . . . . . . . . . . . . . . . . . . . . . .
5.13. Forma bilineal y sistema diferencial . . . . . . . . .
5.14. Método del simplex: máximo de una integral . . .
5.15. Método del simplex: aplicación . . . . . . . . . . .
5.16. Familia uniparamétrica de cónicas . . . . . . . . .
5.17. Cuádrica como lugar geométrico . . . . . . . . . .
5.18. Circunferencia, cónica y forma cuadrática . . . . .
5.19. Curva plana . . . . . . . . . . . . . . . . . . . . . .
5.20. Superficie de revolución y cónica . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
132
134
136
138
139
143
144
146
148
149
152
155
157
160
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
163
. 163
. 164
. 166
. 170
. 171
. 174
. 176
. 177
. 179
. 179
. 181
. 183
. 184
. 187
. 189
. 191
. 192
. 193
. 194
. 195
8
ÍNDICE GENERAL
Capı́tulo 1
Estructuras algebraicas
1.1.
Relación y operaciones en el plano
En el conjunto de los puntos del plano π referidos a un par de ejes rectangulares XOY se consideran: a) La ley de composición A ∗ B = M siendo M
el punto de corte de la paralela por A a OX con la paralela por B a OY . b)
La relación binaria P ∼ Q ⇔ las coordenadas de P y Q suman lo mismo.
Se establece la aplicación f : π → R2 de forma que al punto P (x, y) le
corresponde el par (x3 , y 3 ) de R2 . Se define en R2 la ley de composición
(a, b) ◦ (c, d) = (a, d). Se pide:
1. ¿Es ∗ asociativa?
2. ¿Hay neutro en π para ∗?
3. ¿Es ∼ una relación de equivalencia? Si lo es, ¿cuáles son las clases de
equivalencia?
4. ¿Es ∼ compatible con ∗? Si lo es, ¿cuál es la ley inducida en el conjunto
cociente?
5. ¿Es f un isomorfismo entre las estructuras (π, ∗) y (R2 , ◦)? [3]
Resolución. 1. Sean A = (a1 , a2 ) y B(b1 , b2 ), por una simple consideración
geométrica deducimos que (a1 , a2 ) ∗ (b1 , b2 ) = (b1 , a2 ).
Y
B(b1 , b2 )
A(a1 , a2 )
M (b1 , a2 )
X
La operación ∗ es asociativa pues
9
10
CAPÍTULO 1. ESTRUCTURAS ALGEBRAICAS
[(a1 , a2 ) ∗ (b1 , b2 )] ∗ (c1 , c2 ) = (b1 , a2 ) ∗ (c1 , c2 ) = (c1 , a2 )
(a1 , a2 ) ∗ [(b1 , b2 ) ∗ (c1 , c2 )] = (a1 , a2 ) ∗ (c1 , b2 ) = (c1 , a2 )
2. Sea (e1 , e2 ) un elemento fijo de π. Si es elemento neutro para la operación
∗ se ha de verificar
(a1 , a2 ) ∗ (e1 , e2 ) = (a1 , a2 ) ∀(a1 , a2 ) ∈ π
(e1 , e2 ) ∗ (a1 , a2 ) = (a1 , a2 ) ∀(a1 , a2 ) ∈ π
Equivalentemente (e1 , a2 ) = (a1 , e2 ) = (a1 , a2 ) ∀(a1 , a2 ) ∈ π. Por tanto se
ha de verificar e1 = a1 y e2 = a2 . No existe pues elemento neutro para la
operación ∗ pues (e1 , e2 ) ha de ser elemento fijo.
3. Veamos que ∼ es una relación de equivalencia. (a) Para todo P (x, y)
de π se verifica x + y = x + y lo cual implica que ∼ es reflexiva. (b)
P (x, y) ∼ Q(z, t) ⇒ x + y = z + t ⇒ z + t = x + y ⇒ Q(z, t) ∼ P (x, y) lo
cual implica que ∼ es simétrica.
x+y =z+t
P (x, y) ∼ Q(z, t)
⇒x+y =u+v ⇒
⇒
(c)
z+t=u+v
Q(z, t) ∼ R(u, v)
P (x, y) ∼ R(u, v)
lo cual implica que ∼ es transitiva.
Hallemos las clases de equivalencia. Sea A(a1 , a2 ) ∈ π, la clase de equivalencia a la que pertenece A es [A] = {(x, y) ∈ π : x + y = a1 + a2 }. Es decir, [A]
está formada por los puntos de la recta que pasa por A y tiene pendiente
−1. Los elementos del conjunto cociente π/ ∼ son exactamente las rectas
del plano de pendiente −1.
Y
A
B
π/ ∼
[A]
X
[B]
4. La relación ∼ no es compatible con la operación ∗. En efecto tenemos por
ejemplo (0, 0) ∼ (−1, 1) y (0, 1) ∼ (1, 0) sin embargo
(0, 0) = (0, 0) ∗ (0, 1) 6∼ (−1, 1) ∗ (1, 0) = (1, 1)
1.2. UN GRUPO CONMUTATIVO
11
5. Veamos si f es isomorfismo entre las estructuras (π, ∗) y (R2 , ◦). Tenemos
f [(a, b) ∗ (c, d)] = f [(c, b)] = (c3 , b3 )
f [(a, b)] ◦ f [(c, d)] = (a3 , b3 ) ◦ (c3 , d3 ) = (a3 , d3 )
No es homomorfismo, en consecuencia tampoco es isomorfismo.
1.2.
Un grupo conmutativo
En el conjunto de los números reales R se define la operación ∗ mediante
p
x ∗ y = 3 x3 + y 3
Demostrar que (R, ∗) es un grupo abeliano.
Resolución. (a) Interna. Para todo par de números reales x, y la suma
x3 + y 3 es un número real. Además, la raı́z cúbica de un número real es un
número real único. Por tanto, la operación ∗ es interna.
(b) Asociativa. Para todo x, y, z números reales se verifica
q p
p
p
3
3
3
(x ∗ y) ∗ z = ( x + y ) ∗ z = 3 ( 3 x3 + y 3 )3 + z 3 = 3 x3 + y 3 + z 3
q
p
p
p
x ∗ (y ∗ z) = x ∗ ( 3 y 3 + z 3 ) = 3 x3 + ( 3 y 3 + z 3 )3 = 3 x3 + y 3 + z 3
Es decir, la operación ∗ es asociativa.
(c) Elemento neutro. Para todo x ∈ R se verifica
√
√
√
√
3
3
x ∗ 0 = 3 x3 + 03 = x3 = x , 0 ∗ x = 3 03 + x3 = x3 = x
Por tanto, 0 es el elemento neutro de la operación ∗.
(d ) Elemento simétrico. Para todo x ∈ R se verifica
p
√
√
x ∗ (−x) =p3 x3 + (−x)3 =√3 x3 − x3 = 3√0 = 0
(−x) ∗ x = 3 (−x)3 + x3 = 3 −x3 + x3 = 3 0 = 0
Todo x ∈ R tiene elemento simétrico, siendo éste −x.
(e) Conmutativa. Para todo par de números reales x, y :
p
p
x ∗ y = 3 x3 + y 3 = 3 y 3 + x3 = y ∗ x
La operación es conmutativa. Concluimos que (R, ∗) es un grupo abeliano.
12
CAPÍTULO 1. ESTRUCTURAS ALGEBRAICAS
1.3.
Grupo de funciones matriciales
Sea M el conjunto de las matrices reales 2 × 3. Sea F el conjunto de las
aplicaciones fAB : M → M definidas por fAB (X) = AX + B donde A es
una matriz invertible 2 × 2 y B una matriz 2 × 3.
1. Calcular (fA2 B2 ◦ fA1 B1 )(X), y concluir probando que la composición de
aplicaciones es una ley de composición interna en F.
2. Comprobar que la aplicación identidad i : M → M se puede considerar
perteneciente a F ¿para qué matrices concretas A y B es fAB = I? Demostrar que i es el elemento unidad de F.
3. Enunciar y demostrar la propiedad asociativa. Dar un contraejemplo para
demostrar que no se cumple la propiedad conmutativa. Es decir, encontrar
cuatro matrices para las cuales fA2 B2 ◦ fA1 B1 6= fA1 B1 ◦ fA2 B2 .
4. Demostrar que cada elemento de F tiene inverso en F. Si fCD es el inverso de fAB , calcular C y D en términos de A y B. Aplicación al cálculo del
inverso de fAB cuando
1
0 2
2 1
, B=
A=
0 −1 1
1 1
5. Sea la aplicación h : F → R∗ (grupo multiplicativo de R − {0}) definido
por h(fAB ) = det A. ¿Es h un homomorfismo de grupos? Se considera el
subconjunto F1 de F formado por las fAB tales que det A = 1 ¿Es F1
subgrupo de F ? En caso afirmativo, ¿es F1 subgrupo normal? [1]
Resolución. 1. Usando la definición de composición de aplicaciones:
(fA2 B2 ◦ fA1 B1 )(X) = fA2 B2 [fA1 B1 (X)] = fA2 B2 (A1 X + B1 ) =
A2 (A1 X + B1 ) + B2 = (A2 A1 )X + (A2 B1 + B2 ) = fA2 A1 ,A2 B1 +B2 (X)
Dado que A2 A1 es matriz real 2 × 2 invertible (producto de invertibles)
y A2 B1 + B2 es matriz real 2 × 3, se concluye que fA2 B2 ◦ fA1 B1 ∈ M es
decir, la composición de aplicaciones es una ley de composición interna en F.
2. Eligiendo I la matriz identidad real de orden 2 × 2 (que es invertible) y 0
la matriz nula real de orden 2 × 3 obtenemos fI,0 (X) = IX + 0 = X = i(X)
para toda matriz X ∈ M es decir, i = fI,0 ∈ F. La función i es el elemento
unidad de f pues para toda fAB de F tenemos:
(fAB ◦ i)(X) = fAB [i(X)] = fAB (X) ⇒ fAB ◦ i = fAB
(i ◦ fAB )(X) = i[fAB (X)] = fAB (X) ⇒ i ◦ fAB = fAB
3. La propiedad asociativa en F se enuncia de la siguiente manera:
1.3. GRUPO DE FUNCIONES MATRICIALES
13
(f ◦ g) ◦ h = f ◦ (g ◦ h) ∀f, g, h ∈ F
Veamos que es cierta. En efecto, para todo X ∈ M se verifica
((f ◦ g) ◦ h)(X) = (f ◦ g)(h(X)) = f (g(h(X))) =
f ((g ◦ h)(X)) = (f ◦ (g ◦ h))(X)
Veamos que no es cierta la propiedad conmutativa. De lo demostrado en el
primer apartado deducimos que
fA2 B2 ◦ fA1 B1 = fA2 A1 ,A2 B1 +B2 , fA1 B1 ◦ fA2 B2 = fA1 A2 ,A1 B2 +B1
Elijamos por ejemplo
1
0
0 1
0 0 0
A1 =
, A2 =
, B1 = B2 = 0 , X =
0 −1
1 0
1 0 0
Entonces
0 −1
0 1
, A 1 A2 =
, A2 B1 + B2 = A1 B2 + B1 = 0
1
0
−1 0
−1 0 0
0 −1 0 0 0
(fA2 B2 ◦ fA1 B1 )(X) =
=
0 0 0
1
0 1 0 0
1 0 0
0 1 0 0 0
=
(fA1 B1 ◦ fA2 B2 )(X) =
0 0 0
−1 0 1 0 0
A2 A1 =
Se concluye que no se cumple la propiedad conmutativa.
4. Sea fAB ∈ F. Entonces fCD es inverso de fAB si y sólo si se verifica
fAB ◦ fCD = fCD ◦ fAB = fI,0 . Por lo demostrado en el primer apartado,
esto equivale a fAC,AD+B = fCA,CB+D = fI,0 , y para que esto se cumpla
basta que se verfique
AC = CA = I
(1)
AD + B = CB + D = 0
Como A es invertible, eligiendo C = A−1 se verifica AC = CA = I. De la
igualdad AD + B = 0 deducimos que D = −A−1 B. Pero para esta D, se
verifica CB + D = A−1 B − A−1 B = 0. Es decir, el sistema (1) tiene solución
y por tanto el inverso (fAB )−1 de fAB es
(fAB )−1 = fA−1 ,−A−1 B
Para el elemento concreto dado, fácilmente obtenemos
14
CAPÍTULO 1. ESTRUCTURAS ALGEBRAICAS
C = A−1 =
1 −1
−1 −1 −1
, D = −A−1 B =
−1
2
1
2
0
5. Veamos que h es homomorfismo de grupos. En efecto para cualquier par
de elementos fA2 B2 y fA1 B1 de F se verifica
h(fA2 B2 ◦ fA1 B1 ) = h(fA2 A1 ,A2 B1 +B2 ) = det(A2 A1 ) =
(det A2 )(det A1 ) = h(fA2 B2 )h(fA1 B1 )
Veamos que F1 es subgrupo de F. Como det I = 1 se verifica que fI,0 ∈ F1
es decir, F1 6= ∅. Sean ahora dos elementos fA2 B2 y fA1 B1 de F1 . De los
apartados primero y cuarto deducimos
fA2 B2 ◦ (fA1 B1 )−1 = fA2 B2 ◦ f−A−1 , −A−1 B1 = fA2 A−1 , −A2 A−1 B1 +B2
1
1
1
1
−1
−1 = 1 · 1 = 1. Es
Pero det(A2 A−1
1 ) = (det A2 )(det A1 ) = (det A2 )(det A1 )
decir, se verifica fA2 B2 ◦ (fA1 B1 )−1 ∈ F1 y por tanto podemos concluir que
F1 es subgrupo de F.
Por una conocida caracterización, para demostrar que F1 es subgrupo normal
de F basta demostrar que para todo fAB ∈ F y para todo fM N ∈ F1 se
verifica fAB ◦ fM N ◦ (fAB )−1 ∈ F1 . De los apartados anteriores:
fAB ◦fM N ◦(fAB )−1 = fAM, AN +B ◦fA−1 , −A−1 B = fAM A−1 , −AM A−1 B+AN +B
Por hipótesis det A 6= 0 y det M = 1, por tanto
det(AM A−1 ) = (det A)(det M )(det A−1 ) = (det A)(det A)−1 = 1
Es decir, fAB ◦fM N ◦(fAB )−1 ∈ F1 de lo que se comcluye que F1 es subgrupo
normal de F.
1.4.
Grupo construido por biyección
Sea R+ el conjunto de los números reales estrictamente positivos y conx
sidérese la aplicación f : R+ → R definida por f (x) =
.
x+1
Se pide:
1. Hallar C = f (R+ ) y razónese si f : R+ → C es biyección o no.
2. Si f n = f ◦ f ◦ . . . ◦ f (n veces), determinar f n (R+ ) y
T
n∈N f
n (R+ ).
1.4. GRUPO CONSTRUIDO POR BIYECCIÓN
15
3. Obtener una operación ⊗ en C tal que considerando a R+ con su estructura de grupo multiplicativo, f sea un homomorfismo de grupos (obtener lo
más simplificado posible el valor de y1 ⊗ y2 para y1 , y2 ∈ C). ¿Quién es el
neutro para ⊗? [3]
Resolución. 1. Se verifica f (x) > 0 y f (x) = x/(x + 1) < 1 para todo
x ∈ R+ , es decir C ⊂ (0, 1). Veamos que también (0, 1) ⊂ C. Efectivamente,
para y ∈ (0, 1) tenemos
x
⇔ yx + y = x
x+1
y
⇔ x(y − 1) = −y ⇔ x =
1−y
y = f (x) ⇔ y =
Como y/(1−y) ∈ R+ , todo y ∈ (0, 1) es de la forma y = f (x) con x ∈ R+ , es
decir (0, 1) ⊂ C. Concluimos que C = (0, 1), lo cual implica que f : R+ → C
es sobreyectiva. Veamos que también es inyectiva. Efectivamente:
f (x1 ) = f (x2 ) ⇒
x1
x2
=
⇒ x1 x2 + x1 = x1 x2 + x2 ⇒ x1 = x2
x1 + 1
x2 + 1
Por tanto, f : R+ → C = (0, 1) es biyección.
2. Tenemos
f 2 (x)
= (f ◦ f )(x) = f (f (x)) = f
f 3 (x)
= (f ◦
f 2 )(x)
=
f (f 2 (x))
x
x+1
=f
=
x
2x + 1
x
x+1
x
x+1 +
=
1
=
x
x+1
2x+1
x+1
x
2x+1
x
2x+1 +
1
=
=
x
2x + 1
x
3x + 1
El cálculo de las anteriores composiciones sugiere que f n (x) = x/(nx +
1). Veamos que se verifica aplicando el método de inducción. En efecto, la
fórmula es cierta para n = 1. Supongamos que es cierta para un n natural.
Entonces
x
n+1
n
n
f
(x) = (f ◦ f )(x) = f (f (x)) = f
nx + 1
x
x
= xnx+1 =
(n
+
1)x
+1
+
1
nx+1
lo cual implica que también es cierta para n + 1. Cuando x → 0+ se verifica
f n (x) → 0 y cuando x → +∞, f n (x) → 1/n. Por otra parte, (f n )0 (x) =
1/(nx + 1)2 > 0 para todo x ∈ R+ , lo cual sugiere que f n (R+ ) = (0, 1/n).
Veamos que esto es cierto aplicando métodos exclusivamente algebraicos.
Por una parte
16
CAPÍTULO 1. ESTRUCTURAS ALGEBRAICAS

x
0 <
0 < f n (x)
0<x
0<x
nx
+1 ⇔
⇔
⇔
1
1
nx
<
nx
+
1
0<1
 x
f n (x) <
<
n
nx + 1
n
(
y las dos últimas desigualdades se verifican trivialmente cuando x ∈ R+ . Hemos demostrado que f n (R+ ) ⊂ (0, 1/n). Por otra parte (0, 1/n) ⊂ f n (R+ ).
En efecto, para y ∈ (0, 1/n) tenemos
x
nx + 1
⇔ nyx + y = x
y = f n (x) ⇔ y =
⇔ x(ny − 1) = −y
y
⇔x=
1 − ny
Como 0 < y < 1/n se verifica que y/(1−ny) ∈ R+ , es decir todo y ∈ (0, 1/n)
es de la forma y = f n (x) con x ∈ R+ y por tanto (0, 1/n) ⊂ f n (R+ ).
T
T
Veamos ahora que n∈N f n (R+ ) = ∅. En efecto, si existiera z ∈ n∈N (0, 1/n)
tendrı́a que ser necesariamente z > 0. Dado que 1/n → 0 cuando n → +∞,
existe n0 natural tal que 1/n0 < z, es decir z no pertenecerı́a al intervalo
(0, 1/n0 ) lo cual es absurdo.
3. Hemos visto que la aplicación f : R+ → (0, 1) definida por f (x) = x/(x +
1) es una biyección. Para que f sea homomorfismo entre los grupos (R+ , ·)
y ((0, 1), ⊗) es necesario y suficiente que se verifique
f (x1 x2 ) = f (x1 ) ⊗ f (x2 )
∀x1 ∀x2 ∈ R+
(1)
Denotando y1 = f (x1 ), y2 = f (x2 ) tenemos y1 = x1 /(x1 + 1) e y2 =
x2 /(x2 + 1) o bien x1 = y1 /(1 − y1 ) y x2 = y2 /(1 − y2 ). Podemos escribir la
relación (1) en la forma
y1 ⊗ y2 = f (x1 x2 )
x1 x2
=
x1 x2 + 1
=
y1 y2
(1−y1 )(1−y2 )
y1 y2
(1−y1 )(1−y2 ) +
=
y1 y2
2y1 y2 − y1 − y2 + 1
1
Dado que f es homomorfismo de grupos, transforma el elemento neutro
del grupo (R+ , ·) que es 1 en el neutro e del grupo ((0, 1), ⊗). Por tanto
e = f (1) = 1/2.
1.5. SUBGRUPO NORMAL Y CENTRO
1.5.
17
Subgrupo normal y centro
En G = Z × Z se define la ley de composición interna ∗ mediante
(x1 , y1 ) ∗ (x2 , y2 ) = (x1 + (−1)y1 x2 , y1 + y2 )
Se pide
(a) Probar que ley ∗ confiere a G estructura de grupo no abeliano.
(b) Demostrar que el subconjunto H = {(x, y) ∈ G : y = 0} es un subgrupo
normal de G.
(c) Hallar el centro de G.
Resolución. (a) Claramente ∗ es una ley de composición interna. Veamos
que cumple la propiedad asociativa. Por un parte
[(x1 , y1 ) ∗ (x2 , y2 )] ∗ (x3 , y3 ) = (x1 + (−1)y1 x2 , y1 + y2 ) ∗ (x3 , y3 ) =
(x1 + (−1)y1 x2 + (−1)y1 +y2 x3 , y1 + y2 + y3 )
Por otra
(x1 , y1 ) ∗ [(x2 , y2 ) ∗ (x3 , y3 )] = (x1 , y1 ) ∗ (x2 + (−1)y2 x3 , y2 + y3 ) =
(x1 + (−1)y1 (x2 + (−1)y2 x3 ) , y1 + y2 + y3 )
Dado que x1 +(−1)y1 (x2 +(−1)y2 x3 ) = x1 +(−1)y1 x2 +(−1)y1 +y2 x3 concluimos que la operación ∗ es asociativa. Veamos que existe elemento neutro.
En efecto, (e1 , e2 ) ∈ G es elemento neutro si y sólo si para todo (x, y) ∈ G
se verifica
(x, y) ∗ (e1 , e2 ) = (e1 , e2 ) ∗ (x, y) = (x, y)
o equivalentemente
(x + (−1)y e1 , y + e2 ) = (e1 + (−1)e2 x , e2 + y) = (x, y)
esta igualdad se verifica para (e1 , e2 ) = (0, 0), que es por tanto el elemento
neutro de la ley de composición interna ∗. Veamos ahora que todo elemento
(x, y) ∈ G tiene elemento simétrico. En efecto, (x0 , y 0 ) es simétrico de (x, y)
si y sólo si
(x, y) ∗ (x0 , y 0 ) = (x0 , y 0 ) ∗ (x, y) = (0, 0)
o equivalentemente
18
CAPÍTULO 1. ESTRUCTURAS ALGEBRAICAS
0
(x + (−1)y x0 , y + y 0 ) = (x0 + (−1)y x , y 0 + y) = (0, 0)
(1)
De y + y 0 = 0 deducimos y 0 = −y y de x + (−1)y x0 = 0 que x0 = −(−1)−y x o
bien x0 = (−1)1−y x. Para estos valores de x0 e y 0 se verifican las igualdades
(1). Concluimos que todo elemento (x, y) ∈ G tiene simétrico, siendo este
(x, y)−1 = (x0 , y 0 ) = ((−1)1−y x , −y)
Hemos demostrado que (G, ∗) es grupo. No es abeliano pues por ejemplo
(1, 0) ∗ (0, 1) = (1 + (−1)0 · 0 , 0 + 1) = (1, 1)
(0, 1) ∗ (1, 0) = (0 + (−1)1 · 1 , 1 + 0) = (−1, 1)
(b) Veamos que H es un subgrupo de G. En efecto, (0, 0) ∈ H lo cual implica
que H 6= ∅. Sean (x1 , 0) y (x2 , 0) elementos de H, entonces
(x1 , 0) ∗ (x2 , 0)−1 = (x1 , 0) ∗ ((−1)1−0 x2 , −0) = (x1 , 0) ∗ (−x2 , 0) =
(x1 + (−1)0 · (−x2 ) , 0 + 0) = (x1 − x2 , 0) ∈ H
Concluimos que H es subgrupo de G. Veamos que es normal, sean (g1 , g2 ) ∈
G y (h, 0) ∈ H entonces
(g1 , g2 ) ∗ (h, 0) ∗ (g1 , g2 )−1 = (g1 + (−1)g2 h , g2 ) ∗ ((−1)1−g2 g1 , −g2 )
Al operar obtenemos un elemento de la forma (m, 0) con m ∈ Z, el cual
pertenece a H. Concluimos que H es subgrupo normal de G.
(c) El centro CG de un grupo G está formado por los elementos del grupo
que conmutan con todos los del grupo. En nuestro caso:
CG = {(a, b) ∈ G : (a, b) ∗ (x, y) = (x, y) ∗ (a, b) ∀(x, y) ∈ G}
Tenemos que hallar por tanto los elementos (a, b) ∈ G que cumplen
a + (−1)b x = x + (−1)y a
b+y =y+b
para todo x y para todo y enteros. La segunda igualdad se cumple para todo
b y para todo y enteros. La segunda la podemos expresar en la forma
[1 − (−1)y ]a = [1 − (−1)b ]x
(2)
1.6. TRES IGUALDADES EN UN GRUPO
19
Si a 6= 0, haciendo x = a queda (−1)y = (−1)b . Esta última igualdad no se
cumple para y = b + 1, lo cual implica que necesariamente ha de ser a = 0.
Para a = 0 la igualdad (2) se transforma en [1 − (−1)b ]x = 0, igualdad que
se verifica para todo x entero si y sólo si 1 = (−1)b es decir, si b es par.
Hemos demostrado que si (a, b) es un elemento del centro de G, necesariamente es de la forma (0, 2k) con k entero. Es también suficiente que tenga
esa forma. En efecto, para todo (x, y) ∈ G :
(0, 2k) ∗ (x, y) = (0 + (−1)2k x , 2k + y) = (x, 2k + y)
(x, y) ∗ (0, 2k) = (x + (−1)y · 0 , 2k + y) = (x, y + 2k)
Concluimos que (0, 2k) ∈ CG y por tanto CG = {0} × (2Z).
1.6.
Tres igualdades en un grupo
Sea (G, ·) un grupo. Se sabe que existe un entero k tal que para cualesquiera
que sean a y b pertenecientes a G se verifica (ab)k−1 = ak−1 bk−1 , (ab)k =
ak bk y (ab)k+1 = ak+1 bk+1 . Demostrar que (G, ·) es abeliano. [3]
Resolución. Usando las relaciones (ab)k−1 = ak−1 bk−1 y (ab)k = ak bk :
(ab)k−1 = ak−1 bk−1
= a−1 ak bk b−1
= a−1 (ab)k b−1
= a−1 (ab)(ab) . . . (ab)b−1
= (ba)(ba) . . . (ba)
= (ba)k−1
Usando las relaciones (ab)k = ak bk y (ab)k+1 = ak+1 bk+1 :
(ab)k = ak bk
= a−1 ak+1 bk+1 b−1
= a−1 (ab)k+1 b−1
= a−1 (ab)(ab) . . . (ab)b−1
= (ba)(ba) . . . (ba)
= (ba)k
Por la igualdad (ab)k−1 = (ba)k−1 :
20
CAPÍTULO 1. ESTRUCTURAS ALGEBRAICAS
(ba)k
(ab)k = (ab)k−1 (ab)
= (ba)k−1 (ba) = (ab)k−1 (ba)
Y por la igualdad (ab)k = (ba)k :
(ab)k−1 (ab) = (ab)k−1 (ba)
Por la propiedad cancelativa de los grupos concluimos que ab = ba para
cualesquiera que sean a y b pertenecientes a G, es decir (G, ·) es abeliano.
1.7.
Conmutador y subgrupo derivado
Dados dos elementos x, y pertenecientes a un grupo G, se llama conmutador
de los elementos dados y se representa por [x, y] al elemento de G definido
por [x, y] = x−1 y −1 xy. Demostrar que:
1. El inverso de un conmutador es un conmutador.
2. El conjugado de un conmutador es un conmutador.
3. El subgrupo de G engendrado por los conmutadores de todos los pares
de elementos de G es normal (se denomina subgrupo derivado de G y se
representa por D(G)).
4. Una condición necesaria y suficiente para que G sea abeliano es que el
subgrupo derivado se reduzca al elemento neutro, es decir D(G) = {e}. [4]
Resolución. 1. Sea [x, y] un conmutador. Usando (ab)−1 = b−1 a−1 y
(a−1 )−1 = a tenemos:
[x, y]−1 = (x−1 y −1 xy)−1 = y −1 x−1 yx = [y, x]
Es decir, [x, y]−1 es un conmutador.
2. Sea [x, y] un conmutador. Veamos que g[x, y]g −1 es un conmutador para
todo g ∈ G. En efecto:
g[x, y]g −1 = g(x−1 y −1 xy)g −1 = gx−1 g −1 gy −1 g −1 gxg −1 gyg −1 =
(gxg −1 )−1 (gyg −1 )−1 (gxg −1 )(gyg −1 ) = [gxg −1 , gyg −1 ]
3. Sean g ∈ G, h ∈ D(G), tenemos que demostrar que ghg −1 ∈ D(G).
Todo elemento h de G es producto de conmutadores y de sus inversos. Por
el apartado 1, el inverso de un conmutador es un conmutador, lo que implica
que h = c1 · c2 . . . · cp , siendo c1 , c2 , . . . , cp conmutadores. Tenemos:
ghg −1 = g(c1 · c2 · . . . · cp )g −1 = (gc1 g −1 )(gc2 g −1 ) . . . (gcp g −1 )
1.8. CENTRO DE UN GRUPO DE MATRICES
21
Ahora bien, por el apartado 2, los elementos c0i = gci g −1 son conmutadores
es decir, ghg −1 es producto de conmutadores y por tanto pertenece a D(G).
4. Sea G abeliano, entonces para todo par de elementos x, y ∈ G se verifica:
[x, y] = x−1 y −1 xy = (x−1 x)(y −1 y) = ee = e
lo cual implica que D(G) = {e}.
Sea D(G) = {e} y sean x, y ∈ G. Entonces [x, y] ∈ D(G) es decir, x−1 y −1 xy =
e. Equivalentemente y −1 xy = x o bien yx = xy es decir, G es abeliano.
1.8.
Centro de un grupo de matrices
Demostrar que el conjunto H de matrices de la forma


1 x z
X = 0 1 y  ∀x, y, z ∈ K
0 0 1
forma un grupo con la operación producto de matrices. Calcular su centro. (Nota: se llama centro de un grupo al conjunto de sus elementos que
conmutan con todos los del grupo). [4]
Resolución. Veamos que H es un subgrupo del grupo multiplicativo G formado por las matrices invertibles 3 × 3. Toda matriz X de H tiene determinante no nulo, en consecuencia, H ⊂ G. Claramente H 6= ∅, por tanto basta
demostrar que para todo par de matrices X, Y de H se verifica XY −1 ∈ H.
Denotemos




1 x z
1 x0 z 0
X = 0 1 y  Y = 0 1 y 0 
0 0 1
0 0 1
Entonces

1
XY −1 = 0
0

1 x − x0
0
1
0
0


x z
1 −x0 x0 y 0 − z 0
1 y  0
1
−y 0 =
0 1
0
0
1

y 0 (x0 − x) + z − z 0
∈H
y − y0
1
Si A ∈ Z(H) (centro de H) será de la forma:
22
CAPÍTULO 1. ESTRUCTURAS ALGEBRAICAS


1 a c
A = 0 1 b 
0 0 1
(a, b, c ∈ R)
Entonces:


1 a + x c + bx + z
1
b+y =
A ∈ Z(H) ⇔ XA = AX ∀X ∈ H ⇔ 0
0
0
1


1 x + a z + ay + c
0
1
y + b  ⇔ bx = ay ∀x, y ∈ R ⇔ a = b = 0
0
0
1
El centro de H es por tanto


1 0 c
Z(H) = { A = 0 1 0 : c ∈ R }
0 0 1
1.9.
Homomorfismo de grupos. Factoriz. canónica
Sea (R∗ , ·) el grupo multiplicativo de los números reales no nulos y f : R∗ →
R∗ la aplicación f (x) = x2 . Se pide:
1.
2.
3.
4.
Demostrar que f es un homomorfismo de grupos.
Hallar ker f e Im f .
Determinar el conjunto cociente R∗ / ker f .
Efectuar la descomposición canónica de f .
Resolución. 1. Se verifica f (xy) = (xy)2 = x2 y 2 = f (x)f (y) para todo par
de números reales no nulos x e y lo cual implica que f es homomorfismo de
grupos.
2. Aplicando las definiciones de núcleo e imagen:
ker f = {x ∈ R∗ : f (x) = 1} = {x ∈ R∗ : x2 = 1} = {−1, 1}
Im f = {y ∈ R∗ : ∃x ∈ R∗ con y = x2 } = (0, +∞)
3. Sea a ∈ R∗ . La clase [a] a la que pertenece a está formada por los elementos
x ∈ R∗ tales que xa−1 ∈ ker f es decir, los que cumplen f (ax−1 ) = x2 a−2 = 1
o de forma equivalente, los que cumplen x2 = a2 . Por tanto, [a] = {−a, a}.
En consecuencia:
R∗ / ker f = {[a] : a ∈ R∗ } = {{−a, a} : a ∈ R∗ }
1.10. GRUPO NO CÍCLICO
23
4. Sabemos que el epimorfismo natural n : R∗ → R∗ / ker f está definido
mediante n(a) = [a], el isomorfismo canónico g : R∗ / ker f → Im f por
g([a]) = f (a) y el monomorfismo canónico i : Im f → R∗ por i(y). La
factorización canónica de f es por tanto:

f (a) = a2
f

∗
∗


R −−−−→ R
n(a) = {−a, a}
n↓
↑i
g({−a,
a}) = a2

g


R∗ / ker f −−→ Im f
i(y) = y
siendo el diagrama anterior es conmutativo (f = i ◦ g ◦ n) como sabemos por
un conocido teorema. Efectivamente, para todo a ∈ R∗ :
(i ◦ g ◦ n)(a) = (i ◦ g)({−a, a}) = i(a2 ) = a2 = f (a)
lo cual implica f = i ◦ g ◦ n.
1.10.
Grupo no cı́clico
(a) Sea G = {f1 , f2 , f3 , f4 } el conjunto de las aplicaciones de R − {0} en
R − {0} definidas mediante:
f1 (x) = x , f2 (x) =
1
1
, f3 (x) = −x , f4 (x) = −
x
x
Demostrar que G es un grupo con la operación composición de aplicaciones.
Verificar que no es grupo cı́clico.
(b) Demostrar que las cuatro sustituciones
1 2 3 4
1 2 3 4
r=
i=
2 1 4 3
1 2 3 4
1 2 3 4
1 2 3 4
s=
t=
4 3 2 1
3 4 1 2
forman un grupo isomorfo al grupo del apartado anterior. [10]
Resolución. (a) Usando la definición de composición de aplicaciones (g ◦
f )(x) = g(f (x)) obtenemos fácilmente la tabla de Cayley de la operación
◦
f1
f2
f3
f4
f1
f1
f2
f3
f4
f2
f2
f1
f4
f3
f3
f3
f4
f1
f2
f4
f4
f3
f2
f1
24
CAPÍTULO 1. ESTRUCTURAS ALGEBRAICAS
La operación ◦ es interna en G. Sabemos que es asociativa en general, luego lo
es en nuestro caso. Claramente f1 es elemento neutro. Para todo i = 1, 2, 3, 4
se verifica fi ◦ fi = f1 lo cual implica que todo fi tiene elemento simétrico
fi−1 siendo fi−1 = fi . Concluimos que (G, ◦) es grupo. Es además conmutativo debido a la simetrı́a de la tabla. El elemento neutro f1 tiene orden 1 y
los restantes elementos, orden 2. Es decir, no hay ningún elemento de orden
4 y por tanto, (G, ◦) no es cı́lico.
(b) Usando la definición de producto de sustituciones obtenemos fácilmente
la tabla de Cayley de la operación
·
i
r
s
t
i
i
r
s
t
r
r
i
t
s
s
s
t
i
r
t
t
s
r
i
Llamando S = {i, r, s, t}, definimos la aplicación φ : G → S mediante
φ(f1 ) = i , φ(f2 ) = r , φ(f3 ) = s , φ(f4 ) = t
La aplicación φ es biyectiva, y un simple observación de las anteriores tablas
de Cayley muestra que se verifica φ(fi ◦ fj ) = φ(fi ) · φ(fj ) para todo i, j =
1, 2, 3, 4. Se concluye que (S, ·) es grupo y que φ es isomorfismo entre (G, ◦)
y (S, ·).
1.11.
Conjunto, grupo y aplicación
Se consideran los objetos matemáticos siguientes:
a) Un conjunto E. b) Un grupo multiplicativo G con elemento unidad e. c)
Una aplicación ϕ : G × E → E que satisface
(i ) ∀a, b ∈ G ∀x ∈ E ϕ(ab, x) = ϕ(a, ϕ(b, x)). (ii ) ∀x ∈ E ϕ(e, x) = x.
Se pide:
1. Demostrar que si F ⊂ E entonces GF = {a ∈ G : ϕ(a, x) = x
constituye un subgrupo de G.
2. Demostrar que GF1 ∪F2 = GF1 ∩ GF2 .
3. Comprobar que la relación binaria en E
xRy ⇔ ∃a ∈ G : ϕ(a, x) = y
∀x ∈ F }
1.11. CONJUNTO, GRUPO Y APLICACIÓN
25
es de equivalencia. [10]
Resolución. 1. Usamos la conocida caracterización de subgrupos. Por la
condición (ii ), ϕ(e, x) = x para todo x ∈ F ⊂ E, es decir e ∈ GF y por tanto
GF 6= ∅. Sean ahora a, b ∈ GF y veamos que ab−1 ∈ GF . Como b ∈ GF , se
verifica ϕ(b, x) = x para todo x ∈ F , en consecuencia y usando (i ):
x = ϕ(e, x) = ϕ(b−1 b, x) = ϕ(b−1 , ϕ(b, x)) = ϕ(b−1 , x)
∀x ∈ F
Por tanto y teniendo en cuenta que a ∈ F se verifica para todo x ∈ F :
ϕ(ab−1 , x) = ϕ(a, ϕ(b−1 , x)) = ϕ(a, x) = x
∀x ∈ F
lo cual implica que ab−1 ∈ GF . Concluimos que GF es subgrupo de G.
2. Tenemos
a ∈ GF1 ∪ GF2 ⇔ ϕ(a, x) = x ∀x ∈ F1 ∪ F2
⇔ (ϕ(a, x) = x ∀x ∈ F1 ) ∧ (ϕ(a, x) = x ∀x ∈ F2 )
⇔ (a ∈ GF1 ) ∧ (a ∈ GF2 ) ⇔ a ∈ GF1 ∩ GF2
Es decir, GF1 ∪GF2 = GF1 ∩ GF2 .
3. Para todo x ∈ E se verifica ϕ(e, x) = x es decir, xRx. La relación es
reflexiva. Supongamos que xRy, entonces existe a ∈ G tal que ϕ(a, x) = y.
Se verifica
x = ϕ(e, x) = ϕ(a−1 a, x) = ϕ(a−1 , ϕ(a, x)) = ϕ(a−1 , y)
lo cual implica yRx, es decir la relación es simétrica. Por otra parte
xRy
⇒
yRz
∃a ∈ G : ϕ(a, x) = y
∃b ∈ G : ϕ(b, y) = z
⇒ z = ϕ(b, ϕ(a, x)) = ϕ(ba, x)
⇒ xRz
Lo cual implica que la relación es transitiva. Concluimos que R es relación
de equivalencia.
26
1.12.
CAPÍTULO 1. ESTRUCTURAS ALGEBRAICAS
Grupo de aplicaciones afines
Sea C el conjunto de las aplicaciones fab : R → R definidas fab (x) = ax +
b. Determinar una condición necesaria y suficiente que han de satisfacer
los coeficientes a y b para que C sea grupo respecto de la composición de
aplicaciones. Comprobar que en este caso en efecto C es grupo. ¿Es abeliano?
[1]
Resolución. Para todo par de elementos fab y fcd de C se verifica
(fab ◦ fcd )(x) = fab [fcd (x)]
= fab (cx + d)
= a(cx + d) + b
= acx + ad + b
= fac,ad+b (x)
Es decir, la operación composición es interna en C. También es asociativa por
una conocida propiedad. La aplicación f10 (x) = x es la aplicación identidad
en C y por tanto elemento neutro para la composición. Es decir, (C, ◦) es
un semigrupo con elemento neutro sin ninguna restricción para a, b reales.
Un elemento fab tiene elemento simétrico fa0 b0 en (C, ◦) si y sólo si
fab ◦ fa0 b0 = fa0 b0 ◦ fab = f10
o de forma equivalente, si y sólo si
0
aa=1
aa0 = 1
∧
0
0
a b + b0 = 0
ab + b = 0
Para que exista a0 ha de ser necesariamente a 6= 0 y en este caso a0 = 1/a.
La relación ab0 + b = 0 se cumple para b0 = −b/a. Además, en este caso se
verifica la relacióna0 b + b0 = (1/a)b − b/a = 0. Hemos demostrado que una
condición necesaria para que (C, ◦) sea grupo es que a 6= 0. Esta condición
es también suficiente, pues la operación ◦ en
C1 = {fab : R → R : a ∈ R − {0}, b ∈ R}
es claramente interna, asociativa, tiene elemento neutro f10 ∈ C1 y todo
fab ∈ C1 tiene elemento simétrico f1/a,−b/a ∈ C1 . Este grupo no es conmutativo pues eligiendo (por ejemplo) los elementos f12 , f20 de C1 :
f12 ◦ f20 = f2,2
⇒ f12 ◦ f20 6= f20 ◦ f12
f20 ◦ f12 = f2,4
1.13. ANILLO SEGÚN PARÁMETRO
1.13.
27
Anillo según parámetro
En el conjunto de los números reales se definen las operaciones
x∗y =x+y+4
,
x ◦ y = xy + λx + λy + 12
con λ ∈ R. Hallar λ para que (R, ∗, ◦) sea anillo. [10]
Resolución. Veamos que (R, ∗) es grupo abeliano. La operación ∗ es claramente interna. Para x, y, z números reales cualesquiera se verifica
(x ∗ y) ∗ z = (x + y + 4) ∗ z = x + y + 4 + z + 4 = x + y + z + 8
x ∗ (y ∗ z) = x ∗ (y + z + 4) = x + y + z + 4 + 4 = x + y + z + 8
Es decir, la operación es asociativa. Para x, y números reales cualesquiera
se verifica
x∗y =x+y+4=y+x+4=y∗x
por tanto la operación es conmutativa. En consecuencia, el número real e
es neutro para la operación ∗ si y sólo si e ∗ x = x para todo x ∈ R. Esto
equivale a e+x+4 = x, es decir e = −4 es elemento neutro para la operación
∗. Debido a la conmutatividad, un x ∈ R tiene elemento simétrico x0 ∈ R si
y sólo si x ∗ x0 = e o bien si x + x0 + 4 = −4. Existe por tanto x0 para cada
x siendo éste x0 = −8 − x.
La operación ◦ claramente es interna. Veamos si es asociativa.
(x ◦ y) ◦ z = (xy + λx + λy + 12) ◦ z
= xyz + λxz + λyz + 12z + λxy + λ2 x + λ2 y + 12λ + λz + 12
x ◦ (y ◦ z) = x ◦ (yz + λy + λz + 12)
= xyz + λxy + λxz + 12x + λx + λyz + λ2 y + λ2 z + 12λ + 12
Las dos funciones polinómicas anteriores solamente difieren en los coeficiente de x y de z. Igualando estos obtenemos λ2 = 12 + λ y 12 + λ = λ2 . Es
decir, la operación ◦ es asociativa si y sólo si λ2 − λ − 12 = 0 relación que
se verifica para λ = 4 o λ = −3.
La operación ◦ es claramente conmutativa. Esto implica que esta operación
es distributiva respecto de ∗ si y sólo si se verifica x ◦ (y ∗ z) = (x ◦ y) ∗ (x ◦ z).
Tenemos
28
CAPÍTULO 1. ESTRUCTURAS ALGEBRAICAS
x ◦ (y ∗ z) = x ◦ (y + z + 4)
= xy + xz + 4x + λx + λy + λz + 4λ + 12
(x ◦ y) ∗ (x ◦ z) = (xy + λx + λy + 12) ∗ (xz + λx + λz + 12)
= xy + λx + λy + 12 + xz + λx + λz + 12 + 4
Las dos funciones polinómicas anteriores solamente difieren en el coeficiente
de x y en el término constante. Igualando estos obtenemos 4 + λ = 2λ y
4λ + 12 = 28. Es decir, la operación ◦ es asociativa si y sólo si λ = 4.
Concluimos que (R, ∗, ◦) es anillo si y sólo si λ = 4.
1.14.
Anillo y grupo de matrices
Dada una matriz M ∈ Mn (R) se consideran los siguientes conjuntos:
M = {A ∈ Mn (R) : AM = M A}
N = {A ∈ Mn (R) : AM = M A y A regular}
Se pide:
1. Analizar si (M, +, ·) es un anillo.
2. Analizar si (N , ·) es un grupo.
4 1
, hallar M y N . [3]
3. Si es n = 2 y M =
−1 2
Resolución. 1. Sabemos que (Mn (R), +, ·) es un anillo y además M ⊂
Mn (R). Veamos si M es subanillo de Mn (R) con lo cual estará demostrado
que es anillo. Usaremos la conocida caracterización de subanillos.
(a) Como 0M = M 0, se verifica 0 ∈ M es decir, M =
6 ∅.
(b) Sean A, B ∈ M, entonces:
(A − B)M = AM − BM = M A − M B = M (A − B) ⇒ AB ∈ M
(c) Sean A, B ∈ M, entonces:
(AB)M = A(BM ) = A(M B) = (AM )B = (M A)B = M (AB) ⇒ AB ∈ M
En consecuencia, (M, +, ·) es un anillo.
2. Sabemos que el conjunto de GLn (R) de las matrices cuadradas de orden
n y con determinante no nulo es grupo con la operación producto usual
1.15. ANILLO IDEMPOTENTE
29
(grupo lineal). Como N ⊂ GLn (R), para demostrar que N es grupo bastará demostrar que es un subgrupo del grupo lineal. Usaremos la conocida
caracterización de subgrupos.
(a) Como IM = M I = M siendo I regular, se verifica I ∈ N es decir,
N 6= ∅. (b) Sean A, B ∈ N . Entonces B es invertible y BM = M B, por
tanto
BM = M B ⇒ M = B −1 M B ⇒ M B −1 = B −1 M
Como A ∈ N , A es invertible y AM = M A. Entonces
(AB −1 )M = A(B −1 M ) = A(M B −1 ) =
(AM )B −1 = (M A)B −1 = M (AB −1 )
Dado que A y B −1 son invertibles, también lo es el producto AB −1 . Hemos
demostrado que AB −1 ∈ N . Por tanto N es subgrupo de GLn (R) y como
consecuencia es grupo.
x y
e imponiendo AM = M A:
3. Si A =
z t
4 1
−1 2




y+z =0
4 1
x y
x − 2z − t = 0
x y
⇔ ... ⇔
=
z t −1 2
x − 2y − t = 0
z t



y+z =0
Resolviendo obtenemos las soluciones x = λ, y = 0, z = 0, t = λ (λ ∈ R)
es decir M = {λI : λ ∈ R} (matrices escalares). Las matrices de N son las
de M que además son invertibles, es decir M = {λI : λ ∈ R − {0}}.
1.15.
Anillo idempotente
Sea (A, +, ·) un anillo idempotente, es decir un anillo que satisface x2 = x
para todo x ∈ A.
1.
2.
3.
4.
Demostrar que el anillo es conmutativo.
Estudiar la ley interna sobre A definida por x ∗ y = x + y + xy.
Demostrar que x ≤ y ⇔ xy = x es una relación de orden sobre A.
¿Existe elemento mı́nimo en (A, ≤)?
Resolución. 1. Como el anillo es idempotente, se verifica (x + y)2 = x + y
∀x∀y ∈ A. Entonces:
30
CAPÍTULO 1. ESTRUCTURAS ALGEBRAICAS
(x + y)2 = (x + y)(x + y)
= x2 + xy + yx + y 2
= x + xy + yx + y
⇒ x + y = x + xy + yx + y
⇒ xy + yx = 0
⇒ xy = −yx
Para todo u ∈ A y haciendo x = y = u, la última igualdad se transforma en
u2 = −u2 o de forma equivalente, u = −u, lo cual implica que xy = yx para
todo x, y elementos de A. Concluimos que el anillo es conmutativo.
2. Para todo x, y, z elementos de A :
(x ∗ y) ∗ z = (x + y + xy) ∗ z
= x + y + xy + z + xz + yz + xyz
x ∗ (y ∗ z) = x ∗ (y + z + yz)
= x + y + z + yz + xy + xz + xyz
Es decir, la operación ∗ es asociativa. Para todo x, y elementos de A y
teniendo en cuenta que el anillo es conmutativo:
x ∗ y = x + y + xy = y + x + yx = y ∗ x
lo cual implica que la operación ∗ es conmutativa. Para todo x ∈ A :
x ∗ 0 = 0 ∗ x = x + 0 + 0x = x
Es decir, 0 es elemento neutro de ∗. Sea ahora x ∈ A y supongamos que
tiene elemento simétrico x0 con respecto de la operación ∗. Esto implica que
x∗x0 = x0 ∗x = 0 o equivalentemente x∗x0 = 0 por la propiedad conmutativa.
Entonces, usando que u = −u :
x ∗ x0 = 0 ⇒ x + x0 + xx0 = 0
⇒ x(x + x0 + xx0 ) = x0
⇒ x2 + xx0 + x2 x0 = 0
⇒ x + xx0 + xx0 = 0
⇒x=0
1.16. MÁXIMO COMÚN DIVISOR EN Z[I]
31
Es decir, el único elemento que tiene simétrico, respecto de la operación ∗ es
su neutro. Concluimos que (A, ∗) es un semigrupo conmutativo con elemento
neutro.
3. Para todo x ∈ A se verifica xx = x2 = x, y por tanto x ≤ x, es decir se
cumple la propiedad reflexiva. Usando que el anillo es conmutativo:
x≤y
⇒
y≤x
xy = x
⇒x=y
yx = y
Se cumple por tanto la propiedad antisimétrica. Por otra parte
x≤y
⇒
y≤z
xy = x
⇒ xyz = x ⇒ xz = z ⇒ x ≤ z
yz = y
es decir, se cumple la propiedad transitiva. Concluimos que ≤ es relación de
orden sobre A.
4. Para todo x ∈ A se verifica 0x = 0 o de forma equivalente 0 ≤ x para
todo x ∈ A. Por tanto 0 es elemento mı́nimo en (A, ≤).
1.16.
Máximo común divisor en Z[i]
Sea Z[i] = {a + bi : a ∈ Z, b ∈ Z} con las operaciones usuales de suma y
producto de complejos. Se pide:
1. Demostrar que Z[i] es anillo conmutativo y unitario. (Se llama anillo de
los enteros de Gauss).
2. Hallar todos los elementos invertibles de Z[i].
3. Se define para z ∈ Z[i] la aplicación ϕ(z) = |z|2 . Probar que (Z[i], ϕ) es
un anillo euclı́deo.
4. Hallar el máximo común divisor de 16 + 7i y 10 − 5i (Utilizar el algoritmo
de Euclides). [9]
Resolución. 1. Como Z[i] ⊂ C y (C, +, ·) es anillo con las operaciones
usuales + y ·, bastará demostrar que Z[i] es subanillo de C. Usamos el conocido teorema de caracterización de subanillos:
(i ) Z[i] 6= ∅. Esto es evidente, pues por ejemplo 0 + 0i ∈ Z[i]. (ii ) Para cada
par de elementos a + bi y c + di de Z[i] :
(a + bi) − (c + di) = (a − c) + (b − d)i
32
CAPÍTULO 1. ESTRUCTURAS ALGEBRAICAS
Dado que a, b, c, d son enteros, también lo son a − c y b − d lo cual implica
que la diferencia anterior pertenece a Z[i]. (iii ) Para cada par de elementos
a + bi y c + di de Z[i] :
(a + bi)(c + di) = (ac − bd) + (ad + bc)i
Como a, b, c, d son enteros, también lo son ac − bd y ad + bc lo cual implica
que el producto anterior pertenece a Z[i]. Hemos demostrado pues que Z[i]
es anillo con las operaciones usuales suma y producto de complejos. Dado
que C es conmutativo, también lo es Z[i]. Por otra parte 1 = 1 + 0i ∈ Z[i].
Concluimos que Z[i] es anillo conmutativo y unitario.
2. Un elemento a + bi ∈ Z[i] no nulo es invertible si y sólo si existe un
a0 + b0 i ∈ Z[i] no nulo tal que (a + bi)(a0 + b0 i) = 1. Tomando módulos al cuadrado, obtenemos (a2 + b2 )(a02 + b02 ) = 1. Como los dos factores anteriores
son enteros positivos, ha de ser necesariamente a2 + b2 = 1 o equivalentemente a = ±1 ∧ b = 0 o a = 0 ∧ b = ±1. Es decir, los únicos posibles
elementos invertibles de Z[i] son 1, −1, i, −i. Pero estos elementos son efectivamente invertibles al cumplirse 1 · 1 = 1, (−1) · (−1) = 1, i · (−i) = 1 y
(−i) · i = 1.
3. El anillo (C, +, ·) es dominio de integridad, en consecuencia también lo es
Z[i]. Veamos que la aplicación ϕ : Z[i] − {0} → N, ϕ(z) = |z|2 cumple las
condiciones para que (Z[i], ϕ) sea anillo euclı́deo.
(i ) Sean z, w ∈ Z[i] − {0} tales que z|w, entonces, existe z1 ∈ Z[i] − {0} tal
que w = zz1 . Por tanto
ϕ(z) = |z|2 ≤ |z|2 |z1 |2 = |w|2 = ϕ(w) ⇒ ϕ(z) ≤ ϕ(w)
(ii ) Sean x, y ∈ Z[i] con y 6= 0, entonces x/y = u + iv con u, v ∈ Q. Si u y v
son enteros, y|x y estamos en el caso (i). Supongamos pues que u, v no son
ambos enteros. Elijamos m, n ∈ Z tales que |m − u| ≤ 1/2 y |n − v| ≤ 1/2 y
llamemos c = m + ni y r = x − cy. Entonces:
r = y(u + iv) − y(m + ni)
= y[(u − m) + (v − n)i]
⇒ ϕ(r) = |y|2 [(u − m)2 + (v − n)2 ]
≤ |y|2 (1/4 + 1/4)
= |y|2 /2 < |y|2 = ϕ(y)
Es decir, dados x, y ∈ Z[i] con y 6= 0 existen c, r ∈ Z[i] tales que x = cy + r
con ϕ(r) < ϕ(y). Concluimos que (Z[i], ϕ) es un anillo euclı́deo.
1.17. DOMINIO DE INTEGRIDAD NO EUCLÍDEO
33
4. Efectuemos la división euclı́dea de 16 + 7i entre 10 − 5i :
16 + 7i
(16 + 7i)(10 + 5i)
125 + 150i
6
=
=
=1+ i
10 − 5i
(10 − 5i)(10 + 5i)
125
5
Entonces, c = m + ni = 1 + i y r = 16 + 7i − (1 + i)(10 − 5i) = 1 + 2i. Por
tanto
mcd {16 + 7i, 10 − 5i} = mcd {10 − 5i, 1 + 2i}
Efectuemos la división euclı́dea de 10 − 5i entre 1 + 2i :
10 − 5i
(10 − 5i)(1 − 2i)
20 − 25i
=
=
= 4 − 5i
1 + 2i
(1 + 2i)(1 − 2i)
5
El resto es r = 0 y por tanto:
mcd {10 − 5i, 1 + 2i} = mcd {1 + 2i, 0} = 1 + 2i
Es decir, mcd {16 + 7i, 10 − 5i} = 1 + 2i. En forma de algoritmo de Euclides
serı́a:
16 + 7i
1 + 2i
1.17.
1+i
10 − 5i
0
4 − 5i
1 + 2i
0
Dominio de integridad no euclı́deo
√
√
Sea Z[ 5i] = {a + b 5i : a, b ∈ Z}.
1. Probar√
que con las operaciones usuales suma y producto de números complejos, Z[ 5i] es un dominio de integridad.
2. Hallar sus unidades.
3. Demostrar que 6 puede descomponerse en dos
√ formas esencialmente distin√
tas en producto de factores irreducibles de Z[ 5i]. Esto probará que Z[ 5i]
es un dominio de integridad no euclı́deo. [9]
√
Resolución. 1. Como Z[ 5i] ⊂ C y (C,√+, ·) es anillo con las operaciones
usuales + y ·, bastará demostrar que Z[ 5i] es subanillo de C. Usamos el
conocido teorema de caracterización de subanillos:
√
√
(i ) Z[ 5i] 6= ∅. Esto es evidente,
pues
por
ejemplo
0
+
0
5i ∈ Z[i]. (ii ) Para
√
√
√
cada par de elementos a + b 5i y c + d 5i de Z[ 5i] :
34
CAPÍTULO 1. ESTRUCTURAS ALGEBRAICAS
√
√
√
(a + b 5i) − (c + d 5i) = (a − c) + (b − d) 5i
Dado que a, b, c, d son enteros, también
√ lo son a−c y b−d lo cual implica que
la diferencia
anterior
a Z[ 5i]. (iii ) Para cada par de elementos
√
√ pertenece
√
a + b 5i y c + d 5i de Z[ 5i] :
√
√
√
(a + b 5i)(c + d 5i) = (ac − 5bd) + (ad + bc) 5i
Como a, b, c, d son enteros, también lo son ac − 5bd y ad + bc lo cual implica que
√ el producto anterior pertenece a Z[i]. Hemos demostrado pues
que Z[ 5i] es anillo con las operaciones usuales suma√y producto de complejos. Dado que√C es conmutativo, también
√ lo es Z[ 5i]. Por otra parte
1 = 1 + 0i ∈ Z[ 5i]. Concluimos que Z[ 5i] es anillo conmutativo
√ y unitario. Como (C, +, ·) es dominio de integridad, también lo es Z[ 5i] y por
tanto es dominio de integridad.
√
√
2. Un √
elemento √
a + b 5i ∈ Z[ 5i] no nulo√es unidad si√y sólo si existe un
a0 + b0 5i ∈ Z[ 5i] no nulo tal que (a + b 5i)(a0 + b0 5i) = 1. Tomando
módulos al cuadrado, obtenemos (a2 +5b2 )(a02 +5b02 ) = 1. Como los dos factores anteriores son enteros positivos, ha de ser necesariamente a2 + 5b2 = 1
o equivalentemente
a = ±1 ∧ b = 0. Es decir, las únicas posibles unida√
des de Z[ 5i] son 1, −1. Pero estos elementos son efectivamente unidades al
cumplirse 1 · 1 = 1, (−1) · (−1) = 1.
√
√
3. Expresemos 6 = (a + b 5i)(c + d 5i) como producto de dos factores no
nulos. Esto equivale a
ac − 5bd = 6
bc + ad = 0
Resolviendo en las incógnitas c, d obtenemos
a 6
6 −5b
b 0
0
a
6a
−6b
= 2
= 2
c= , d= 2
a −5b
a −5b
a
+
5b
a
+ 5b2
b
b
a
a
Dando los valores a = 1, b = 1 obtenemos c = 1, d = −1 y por tanto
√
√
6 = (1 + 5i)(1 − 5i) (1)
Por otra parte tenemos la factorización
√
√
6 = 2 · 3 = (2 + 0 5i)(3 + 0 5i)
(2)
1.18. IDEAL BILÁTERO F (I)
35
√
√
Veamos√que los elementos
1 + 5i,√1 − 5i, 2, 3 son√irreducibles.
√
√ En efecto,
si x + y 5i ∈ Z[ 5i] divide a 1 + 5i, existe u + v 5i ∈ Z[ 5i] tal que
√
√
√
1 + 5i = (x + y 5i)(u + v 5i)
Tomando módulos al cuadrado queda 6 = (x2 + 5y 2 )(u + 5v 2 ) lo cual implica
que x2 + 5y 2 ha de dividir a 6. Esto ocurre en los casos
√ x = ±1, y = 0 o
x = ±1, y = ±1 es decir, los posibles divisores de 1 + 5i son
√
√
±1, ±(1 + 5i), ±(1 − 5i)
√
√
Los elementos ±1 y ±(1+ 5i) claramente dividen a 1+ 5i pero los primeros
√
son unidades y
los
segundos
sus
asociados.
Por
otra
parte,
±(1
−
5i) no
√
dividen a 1 + 5i pues
√
√ !
√
√
√
(1 + 5i)(1 + 5i)
2
1 + 5i
5
√
√
√
/ Z[ 5i]
=±
=± − +
i ∈
3
3
±(1 − 5i)
(1 − 5i)(1 + 5i)
√
Hemos demostrado que
√ 1 + 5i es irreducible. De manera análoga podemos
demostrar que 1 − 5i, 2, 3 √
también lo son. Debido a las factorizaciones
(1) y (2), concluimos que Z[ 5i] no es dominio de factorización única, en
consecuencia no es dominio euclı́deo.
1.18.
Ideal bilátero f (I)
Siendo f : A → A0 un homomorfismo de anillos e I un ideal bilátero de A,
demostrar que f (I) es un ideal bilátero de f (A) (subanillo de A0 ). [6]
Resolución. Sean y1 , y2 elementos de f (I). Entonces existen x1 , x2 elementos de I tales que y1 = f (x1 ), y2 = f (x2 ). Teniendo en cuenta que f es
homomorfismo:
y1 − y2 = f (x1 ) − f (x2 ) = f (x1 − x2 )
Al ser I ideal de A se verifica x1 − x2 ∈ I, en consecuencia y1 − y2 ∈ f (I).
Sean ahora b ∈ f (A) e y ∈ f (I). Entonces, existen elementos a ∈ A, x ∈ I
tales que b = f (a) e y = f (x). Teniendo en cuenta que f es homomorfismo:
by = f (a)f (x) = f (ax) , yb = f (x)f (a) = f (xa)
Por hipótesis, I es un ideal bilátero de A lo cual implica que tanto ax como
xa pertenecen a I. Se deduce pues que by e yb pertenecen a f (I). Concluimos
que f (I) es ideal bilátero de f (A).
36
CAPÍTULO 1. ESTRUCTURAS ALGEBRAICAS
1.19.
Cuerpo con función sobre los reales
Sea K un cuerpo conmutativo y f una aplicación de K en R+ (números
reales no negativos) tal que ∀x, y ∈ K se verifica
(a) f (x + y) ≤ sup{f (x), f (y)}.
(b) f (xy) = f (x)f (y).
(c) f (x) = 0 ⇔ x = 0.
1. Sea u el elemento unidad de K respecto del producto. Demostrar que
f (u) = 1.
2. Sea A = f −1 ([0, 1]), demostrar que si x, y ∈ A entonces x + y ∈ A.
3. Sea x ∈ A , demostrar que −x ∈ A (−x es el elemento simétrico de x en
K respecto de la suma).
4. Estudiar la estructura algebraica más completa de (A, +, ·). [2]
Resolución. 1. Elijamos x = y = u. Entonces, aplicando (b):
f (uu) = f (u)f (u) ⇔ f (u) = f 2 (u) ⇔
f (u)(1 − f (u)) = 0 ⇔ f (u) = 0 ∨ f (u) = 1
Ahora bien, como u 6= 0, usando (c) deducimos que f (u) = 1.
2. Si x, y ∈ A entonces f (x) ∈ [0, 1] y f (y) ∈ [0, 1]. Por la propia definición de
f se verifica f (x+y) ≥ 0 y de (a) deducimos f (x+y) ≤ sup{f (x), f (y)} ≤ 1
es decir 0 ≤ f (x + y) ≤ 1. En consecuencia x + y ∈ f −1 ([0, 1]) = A.
3. Tenemos 1 = f (u) = f [(−u)(−u)] = [f (−u)]2 ⇒ f (−u) = 1. Supongamos
que x ∈ A, es decir f (x) ∈ [0, 1]. Entonces
f (−x) = f [(−u)x] = f (−u)f (x) = 1f (x) = f (x) ∈ [0, 1] ⇒ −x ∈ A
4. Veamos que A es subanillo de K. (i ) De f (0) = 0 ∈ [0, 1] se deduce que
0 ∈ A, es decir A 6= ∅. (ii ) Sean x, y ∈ A. Usando los apartados 2. y 3. deducimos de forma inmediata que x − y ∈ A. (iii ) Sean x, y ∈ A, entonces f (x)
y f (y) pertenecen al intervalo [0, 1], por tanto f (xy) = f (x)f (y) ∈ [0, 1], en
consecuencia xy ∈ A.
Dado que el producto es conmutativo en K también lo es en A. Como f (u) =
1 ∈ [0, 1] tenemos u ∈ A y por tanto A es anillo conmutativo y unitario.
Dado que en K no hay divisores de cero, tampoco los hay en A. Concluimos
que A es un dominio de integridad. Sin embargo, no es cuerpo. En efecto, si
0 6= x ∈ A entonces f (x) ∈ (0, 1] y
1.20. CUATERNIOS DE HAMILTON
1 = f (u) = f (xx−1 ) = f (x)f (x−1 ) ⇒ f (x−1 ) =
1.20.
37
1
> 1 ⇒ x−1 6∈ A
f (x)
Cuaternios de Hamilton
Sea H = R × R3 = A = (a, α
~ ) : a ∈ R, α
~ ∈ R3 . A cada elemento A de H
se le llama cuaternio (o cuaternión). En el conjunto H se define la igualdad
~ mediante:
de dos elementos A = (a, α
~ ) y B = (b, β)
~
A=B⇔a=byα
~ =β
Definimos la suma A + B y el producto AB mediante:
~ ,
A + B = (a + b, α
~ + β)
~ aβ~ + b~
~
AB = (ab − α
~ · β,
α+α
~ ∧ β)
en donde · representa el producto escalar usual de R3 y ∧ el producto vectorial.
1. Demostrar que (H, +) es un grupo abeliano. Precisar el elemento neutro
E y el opuesto de A.
2. Demostrar que la multiplicación es distributiva respecto de la suma.
3. Demostrar que H − {E} es un grupo con la operación producto de cuaternios. Precisar el elemento unidad U . Demostrar que el inverso A−1 de
A = (a, α
~ ) es:
a
−~
α
−1
A =
,
a2 + α
~ 2 a2 + α
~2
4. A la vista de los resultados anteriores, ¿qué estructura tiene H?
Resolución. 1. (a) Interna. Es claro que si A, B ∈ H entonces A + B ∈ H.
(b) Asociativa. Se deduce de manera sencilla a partir de la asociatividad de la
suma en R y en R3 . (c) Elemento neutro. Claramente el cuaternio E = (0, ~0)
cumple A + E = E + A = A para todo A ∈ H. (d ) Elemento opuesto. Dado
A = (a, α
~ ) ∈ H, −A = (−a, −~
α) ∈ H cumple A+(−A) = (−A)+A = E. (e)
Conmutativa. Se deduce de manera sencilla a partir de la conmutatividad
de la suma R y en R3 .
~ A = (c, ~γ ) .
2. Consideremos los elementos de H : A = (a, α
~ ), B = (b, β),
Usando conocidas propiedades del producto escalar y vectorial:
A(B + C) = (a, α
~ )(b + c, β~ + ~γ ) =
(ab + ac − α
~ · β~ − α
~ · ~γ , aβ~ + a~γ + b~
α + c~
α+α
~ ∧ β~ + α
~ ∧ ~γ ) =
~
~
~
(ab − α
~ · β, aβ + b~
α+α
~ ∧ β) + (ac − α
~ · ~γ , a~γ + c~
α+α
~ ∧ ~γ ) =
AB + AC
38
CAPÍTULO 1. ESTRUCTURAS ALGEBRAICAS
De manera análoga se demuestra (X + Y )Z = XZ + Y Z para toda terna
de cuaterniones X, Y, Z.
3. (a) Interna. Es claro que si A, B ∈ H entonces AB ∈ H. (b) Asociativa.
Basta desarrollar por separado (AB)C, A(BC) y usar ~u ∧(~v ∧ w)
~ = (~u · w)~
~ v−
(~u · ~v )w.
~ (c) Elemento unidad. Para que U = (x, ~δ) sea elemento unidad, es
necesario y suficiente para todo A ∈ H − {E} se verifique AU = U A = A.
Es decir:
(ax − α
~ · ~δ, a~δ + xᾱ + α
~ ∧ ~δ) = (xa − ~δ · α
~ , x~
α + aδ̄ + ~δ ∧ α
~)
Es claro que la igualdad se cumple para U = (1, ~0).
(d ) Elemento inverso. Sea A = (a, α
~ ) ∈ H − {E}, veamos que efectivamente
−1
2
2
el cuaternio A = a/(a + α
~ ), −~
α/(a2 + α
~ 2 ) pertenece a H − {E} y
−1
−1
cumple además AA = A A = U .
Como (a, α
~ ) 6= (0, 0) , a2 + α
~ 2 6= 0 es decir A−1 está bien definido. Por
otra parte, si a = 0 entonces α
~ 6= ~0 y −~
α/(a2 + α
~ 2 ) 6= ~0 . Esto prueba que
A−1 ∈ H − {E}.
a
−~
α
−1
AA = (a, α
~)
,
=
2
a2 + α
~ 2 a2 + α
~
a2
α
~2
−a~
α
a~
α
−~
α
+
,
+
+
α
~
∧
= (1, 0)
a2 + α
~ 2 a2 + α
~ 2 a2 + α
~ 2 a2 + α
~2
a2 + α
~2
De manera análoga se demuestra que A−1 A = U .
4. De los resultados anteriores concluimos que H es un cuerpo. Este cuerpo
~ = (0, α
~ (0, β)(0,
~
no es conmutativo pues por ejemplo, (0, α
~ )(0, β)
~ ∧ β),
α
~) =
~
~
~
(0, β ∧ α
~) y β ∧ α
~ = −~
α ∧ β.
Capı́tulo 2
Espacios vectoriales,
homomorfismos
2.1.
Caracterización de subespacios vectoriales
1. Sea E espacio vectorial sobre el cuerpo K y sea F ⊂ E. Demostrar que
F es subespacio vectorial de E si y sólo si se cumplen las tres siguientes
condiciones:
(i ) 0 ∈ F.
(ii ) Para todo x ∈ F y para todo y ∈ F se verifica x + y ∈ F.
(iii ) Para todo λ ∈ K y para todo x ∈ F se verifica λx ∈ F.
2. Se considera el espacio vectorial real usual Rn (n ≥ 2) . Analizar si los
siguientes subconjuntos de Rn son o no subespacios.
1)
2)
3)
4)
F1
F2
F3
F4
= {(x1 , . . . , xn ) ∈ Rn
= {(x1 , . . . , xn ) ∈ Rn
= {(x1 , . . . , xn ) ∈ Rn
= {(x1 , . . . , xn ) ∈ Rn
:
:
:
:
x1 x2 = 0}
x1 + . . . + xn = 1}
x1 + . . . + xn = 0}
x1 ∈ Z}
3. Sea E = Kn×n el espacio vectorial usual de las matrices cuadradas de
ordenes n× n y con elementos en
el cuerpo K. Sea el subconjunto de E dado
por F = A ∈ Kn×n : At = A , es decir el subconjunto de E formado por
las matrices simétricas. Demostrar que F es subespacio de E.
4. Sea E = F(R, R) el espacio vectorial real usual de las funciones f de R
en R. Se considera el subconjunto de E : F = {f ∈ E : f (−x) = f (x) ∀x ∈
R} es decir, el subconjunto de las funciones pares. Demostrar que F es
39
40
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS
subespacio de E.
Resolución. 1. Supongamos que F ⊂ E es subespacio vectorial de E, entonces (por definición de subespacio) F es espacio vectorial sobre el cuerpo
K. Como consecuencia inmediata de los axiomas de espacio vectorial, se verifican las condiciones (i ), (ii ) y (iii ) del teorema.
Recı́procamente, supongamos que se verifican las condiciones (i ), (ii ) y
(iii ) del teorema. De (i ) deducimos que F 6= ∅. Por otra parte para todo y ∈ F tenemos por (iii ) que −y = (−1)y ∈ F . De (ii ) deducimos
x + (−y) = x − y ∈ F . Es decir, (F, +) es grupo abeliano. También de (ii )
deducimos que la ley externa está bien definida sobre F y se cumplen sus
correspondientes cuatro axiomas de igualdad. Todo esto implica que F es
un espacio vectorial sobre K y por tanto, subespacio de E.
2. 1) (i ) El vector cero de Rn esto es (0, . . . , 0) pertenece a F1 pues x1 x2 =
0 · 0 = 0. (ii ) Elijamos x = (1, 0, . . . , 0), y = (0, 1, . . . , 0). Evidentemente x
e y pertenecen a F1 , sin embargo x + y = (1, 1, . . . , 0) 6∈ F1 . Es decir, F1 no
es subespacio de Rn .
2) (i ) (0, . . . , 0) 6∈ F2 pues x1 + . . . + xn = 0 + . . . + 0 = 0 6= 1. Es decir, F2
no es subespacio de Rn .
3) (i ) (0, . . . , 0) ∈ F3 pues x1 + . . . + xn = 0 + . . . + 0 = 0. (ii ) Consideremos
los vectores x = (x1 , . . . , xn ) ∈ F3 , y = (y1 , . . . , yn ) ∈ F3 , entonces por la
definición de F3 se verifica x1 + . . . + xn = 0 e y1 + . . . + yn = 0. Tenemos
x + y = (x1 + y1 , . . . , xn + yn ) y además
(x1 + y1 ) + . . . + (xn + yn ) = (x1 + . . . + xn ) + (y1 + . . . + yn ) = 0 + 0 = 0
es decir, x + y ∈ F3
(iii ) Sea λ ∈ R y x = (x1 , . . . , xn ) ∈ F3 , entonces x1 + . . . + xn = 0 y además
λx = (λx1 , . . . , λxn ). Por tanto λx1 + . . . + λxn = λ(x1 + . . . + xn ) = λ0 = 0
es decir, λx ∈ F3 . Concluimos que F3 es subespacio de Rn .
4) (i ) (0, . . . , 0) ∈ F4 pues x1 = 0 ∈ Z. (ii ) Sean x = (x1 , . . . , xn ) ∈ F4
e y = (y1 , . . . , yn ) ∈ F4 , entonces x1 ∈ Z, y1 ∈ Z. Tenemos x + y =
(x1 + y1 , . . . , xn + yn ) y además x1 + y1 ∈ Z, es decir x + y ∈ F4 . (iii )
Elijamos λ = 1/2 ∈ R y x = (1, 0, . . . , 0). Evidentemente x ∈ F4 , sin embargo λx = (1/2, 0, . . . , 0) 6∈ F4 .. Concluimos que F4 no es subespacio de Rn .
3. (i ) La matriz nula 0 pertenece a F pues 0t = 0. (ii ) Sean A, B matrices
de F , entonces At = A y B t = B. Como la traspuesta de la suma es la
suma de las traspuestas, tenemos (A + B)t = At + B t = A + B es decir,
2.2. SUMA DIRECTA DE DOS SUBESPACIOS
41
A + B ∈ F. (iii ) Sea λ ∈ K y A ∈ F , entonces At = A. Como la traspuesta
de un escalar por una matriz es el escalar por la traspuesta de la matriz,
tenemos (λA)t = λAt = λA es decir, λA ∈ F. Concluimos pues que F es
subespacio de Kn×n .
Nota: De manera totalmente análoga se demostrarı́a que el subconjunto de
E = Kn×n formado por las matrices antisimétricas es también subsespacio
de E.
4. (i ) El vector cero de E es la función 0 : R → R definida mediante
0(t) = 0 ∀t ∈ R, por tanto 0(−x) = 0(x) = 0 ∀x ∈ R. Es decir, 0 ∈ F .
(ii ) Sean f, g ∈ F . Usando la definición de suma de funciones tenemos para
todo x ∈ R
(f + g)(−x) = f (−x) + g(−x) = f (x) + g(x) = (f + g)(x)
Es decir, f + g ∈ F.
(iii ) Sean λ ∈ R, f ∈ F. Usando la definición de producto de un escalar por
una función tenemos para todo x ∈ R
(λf )(−x) = λf (−x) = λf (x) = (λf )(x)
Es decir, λf ∈ F . Concluimos pues que F es subespacio de E.
Nota: De manera análoga se demostrarı́a que el subconjunto de E = F(R, R)
formado por las funciones impares es también subespacio de E.
2.2.
Suma directa de dos subespacios
1. Sea Rn×n el espacio vectorial real usual de las matrices cuadradas de
orden n. Sean S y A los subespacios de Rn×n formados por las matrices
simétricas y antisimétricas respectivamente. Demostrar que Rn×n = S ⊕ A.
2. Sea E = F(R, R) el espacio vectorial real usual de las funciones f de R
en R y sean los subespacios de E : P = {f ∈ E : f (−x) = f (x) ∀x ∈ R}
formado por las funciones pares e I = {f ∈ E : f (−x) = −f (x) ∀x ∈ R}
formado por las funciones impares. Demostrar que E = P ⊕ I.
3. [2] Sea E el espacio vectorial de las funciones reales y continuas en el
intervalo cerrado [a, b]. Se consideran los subconjuntos de E dados por F =
Rb
{f ∈ E : a f (t) dt = 0}, G = {f ∈ E : f es constante}.
(a) Demostrar que F y G son subespacios de E.
(b) Demostrar que F y G son suplementarios en E.
42
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS
Resolución. 1. Sea A ∈ S ∩ A, entonces A ∈ S y A ∈ A lo cual implica At = A y At = −A. Restando estas dos últimas igualdades obtenemos
2A = 0 o equivalentemente A = 0. Es decir S ∩ A = {0}.
Sea A ∈ Rn×n y supongamos que A se puede expresar en la forma A = A1 +
A2 con A1 simétrica y A2 antisimétrica. Trasponiendo la igualdad anterior
tendrı́amos At = A1 −A2 . Sumando y restando las dos igualdades obtenemos
que caso de existir la descomposición, A1 y A2 han de ser necesariamente
A1 =
1
1
A + At , A 2 =
A − At
2
2
Por otra parte
t 1 t
1
1
t
=
A+A
= (A + (At )t ) = (At + A) = A1
2
2
2
t
1
1
1
At2 =
A − At
= (At − (At )t ) = (At − A) = −A2
2
2
2
At1
y claramente A = A1 +A2 . Hemos pues demostrado que toda matriz de Rn×n
es suma de una simétrica y otra antisimétrica, por tanto Rn×n = S + A.
Concluimos que Rn×n = S ⊕ A.
2. Sea f ∈ P ∩I, entonces f ∈ P y f ∈ I lo cual implica f (−x) = f (x) ∀x ∈
R y f (−x) = −f (x) ∀x ∈ R. Restando las dos igualdades anteriores obtenemos 2f (x) = 0 ∀x ∈ R o bien f (x) = 0 ∀x ∈ R, es decir f es la función
cero: P ∩ I = {0}.
Sea f ∈ E y supongamos que f se puede expresar en la forma f = f1 + f2
con f1 par y f2 impar, entonces f (x) = f1 (x) + f2 (x) ∀x ∈ R. Sustituyendo
x por −x obtenemos f (−x) = f1 (x) − f2 (x) ∀x ∈ R. Sumando y restando
las dos igualdades obtenemos que caso de existir la descomposición, f1 y f2
han de ser necesariamente
f1 (x) =
1
1
(f (x) + f (−x)) , f2 (x) = (f (x) − f (−x))
2
2
Por otra parte
f1 (−x) =
1
1
(f (−x) + f (x)) = f1 (x) , f2 (−x) = (f (−x) − f (x)) = −f2 (x)
2
2
y claramente f = f1 + f2 . Hemos pues demostrado que toda funcion f ∈ E
es suma de una par y otra impar, por tanto E = P + I . Concluimos que
2.3. SUMA DIRECTA DE VARIOS SUBESPACIOS
43
F(R, R) = P ⊕ I.
3. (a) El vector cero de E es la función 0 : [a, b] → R definida mediante
Rb
0(t) = t para todo t ∈ R y sabemos que es continua. Además a 0 dt = 0,
es decir, 0 ∈ F. Por otra parte, para λ, µ ∈ R y para f, g ∈ F sabemos que
λf + µg es continua. Además
Z b
Z b
Z b
(λf (t) + µg(t)) dt = λ
f (t) dt + µ
g(t) dt = λ0 + µ0 = 0
a
a
a
es decir, λf +µg ∈ F. Concluimos que F es subespacio de E. La función cero
es constante, las funciones constantes son continuas y cualquier combinación
lineal de funciones constante es constante. En consecuencia G es subespacio
de E.
(b) Veamos que F ∩ G = {0}. Efectivamente, si f ∈ F ∩ G entonces f ∈ F
Rb
y f ∈ G lo cual implica a f (t) dt = 0 y f (t) = k (constante). Pero
Rb
a k dt = k(b − a) = 0. Como b − a 6= 0 se concluye que f (t) = k = 0.
Veamos ahora que E = F + G. Sea f ∈ E y escribamos f = (f − k) + k con
k constante. Las funciones f − k y k son continuas y k ∈ G. Basta imponer
que f − k ∈ F
Z b
f −k ∈F ⇔
(f (t) − k)dt = 0 ⇔
a
Z b
Z b
1
f (t)dt = k(b − a) ⇔ k =
f (t)dt
b−a a
a
Eligiendo este k, se verifica f = (f − k) + k con f − k ∈ F y k ∈ G .
Hemos demostrado que F ∩ G = {0} y E = F + G , es decir que F y G son
suplementarios en E.
2.3.
Suma directa de varios subespacios
Sea E un espacio vectorial sobre K y sean F1 , F2 , . . . , Fm subespacios de E.
Se dice que E es suma directa de los subespacios F1 , F2 , . . . , Fm si y sólo si
se verifica
(i ) E = F1 + F2 + . . . Fm .
T P
(ii ) Para todo i = 1, 2, . . . , m se verifica Fi
F
= {0} o dicho de
j
j6=i
otra forma, la intersección de cada subespacio con la suma de los demás ha
de ser el vector nulo.
44
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS
Notas 1) Para m = 2 esta definición coincide con la conocida de suma directa de dos subespacios. 2) Si se cumplen las condiciones (i ) y (ii ) anteriores
se escribe E = F1 ⊕ F2 ⊕ . . . ⊕ +Fm .
Se pide:
1. Demostrar que las tres siguientes afirmaciones son equivalentes
(a) E = F1 ⊕ F2 ⊕ . . . ⊕ Fm .
(b) E = F1 + F2 + . . . + Fm y la descomposición de todo vector x ∈ E en la
forma x = v1 + v2 + . . . + vm con vi ∈ Fi para todo i = 1, . . . , m es única.
(c) E = F1 + F2 + . . . + Fm y la igualdad v1 + v2 + . . . + vm = 0 con vi ∈ Fi
para todo i = 1, . . . , m implica vi = 0 para todo i = 1, . . . , m.
2. Demostrar que R4 = F1 ⊕ F2 ⊕ F3 , siendo F1 , F2 , F3 los subespacios de
R4
F1 = {(α, β, 0, 0) : α, β ∈ R}
F2 = {(0, 0, γ, 0) : γ ∈ R}
F3 = {(0, 0, 0, λ) : λ ∈ R}
3. Sea E el espacio vectorial real de las funciones reales definidas sobre [0, 1].
Sean por otra parte los subespacios de E
F1 = { f ∈ E : f es nula fuera de [0, 1/3] }
F2 = { f ∈ E : f es nula fuera de (1/3, 2/3) }
F3 = { f ∈ E : f es nula fuera de [2/3, 1] }
Demostrar que E = F1 ⊕ F2 ⊕ F3 .
Resolución. 1. (a) ⇒ (b). Sea v ∈ E. Como E = F1 + F2 + . . . + Fm ,
podemos expresar v = v1 + . . . vm con v1 ∈ F1 , . . . , vm ∈ Fm . Supongamos
0 con v 0 ∈ F , ..., v 0 ∈ F . Entonces v − v 0 =
que v = v10 + . . . + vm
1
m
1
m
1
1
0
0
(v2 − v2 ) + . . . + (vm − vm ). Ahora bien
0 − v ) ∈ F + ... + F
v1 − v10 ∈ F1 y (v20 − v2 ) + . . . + (vm
m
2
m
Como F1 ∩ (F2 + . . . + Fm ) = {0} se deduce v1 − v10 = 0, o sea v1 = v10 . Cam0 .
biando los ı́ndices. concluimos de forma análoga que v2 = v20 , . . . , vm = vm
Queda demostrado (b).
(b) ⇒ (c). Por hipótesis se verifica E = F1 +F2 +. . .+Fm . Sean ahora v1 ∈ F1 ,
... ,vm ∈ Fm tales que v1 +. . .+vm = 0. La igualdad v1 +. . .+vm = 0+. . .+0
y la hipótesis de unicidad en (b) implican que v1 = 0 , ... , vm = 0. Queda
2.4. SUBESPACIO AX = 0
45
probado (c).
(c) ⇒ (a). Sea w ∈ F1 ∩ (F2 + . . . + Fm ). Como w ∈ F2 + . . . + Fm podemos expresar w = v2 + . . . + vm con v2 ∈ F2 , . . . , vm ∈ Fm . Entonces
(−w) + v2 + . . . + vm = 0 con −w ∈ F1 , v2 ∈ F2 , . . . vm ∈ Fm . La hipótesis
hecha en (c) implica −w = 0 lo cual demuestra que F1 ∩(F2 +. . .+F
m ) = {0}.
T P
Cambiando los ı́ndices se demuestra de forma análoga que Fi
F
j6=i j =
{0} para todo i.
2. Usemos la caracterización (c) del apartado anterior. Dado un vector
genérico x = (x1 , x2 , x3 , x4 ) de R4 podemos expresarlo en la forma
(x1 , x2 , x3 , x4 ) = (x1 , x2 , 0, 0) + (0, 0, x3 , 0) + (0, 0, 0, x4 )
en donde el primer, el segundo y tercer vector del segundo miembro pertenecen a F1 , F2 y F3 respectivamente. Es decir, R4 = F1 + F2 + F3 . Por otra
parte, de la igualdad
(α, β, 0, 0) + (0, 0, γ, 0) + (0, 0, 0, λ) = (0, 0, 0, 0)
se deduce que α = β = γ = λ = 0, por tanto los tres sumandos del primer
miembro son iguales al vector cero. Concluimos que R4 = F1 ⊕ F2 ⊕ F3 .
3. Usamos de nuevo la caracterización (c). Sea f ∈ E y consideremos las
funciones fi : [0, 1] → R
f (x) si x ∈ [0, 1/3]
f1 (x) =
0
si x 6∈ [0, 1/3]
f (x) si x ∈ (1/3, 2/3)
f2 (x) =
0
si x 6∈ (1/3, 2/3)
f (x) si x ∈ [2/3, 1]
f3 (x) =
0
si x 6∈ [2/3, 1)
Claramente fi ∈ Fi para todo i = 1, 2, 3 y f = f1 + f2 + f3 es decir,
E = F1 + F2 + F3 . Por otra parte, de la igualdad f1 + f2 + f3 = 0 con fi ∈ Fi
con i = 1, 2, 3 fácilmente deducimos que f1 = f2 = f3 = 0. Concluimos pues
que E = F1 ⊕ F2 ⊕ F3 .
2.4.
Subespacio Ax = 0
Hallar la dimensión y una base del subespacio vectorial F de R4 determinado
por el sistema:
46
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS


x1 + x2 + x3 − x4 = 0
x1 − x2 + 2x3 + 5x4 = 0

−x1 + 5x2 − 4x3 − 17x4 = 0
Resolución. Recordamos el siguiente resultado:
Sea A una matriz de orden m × n con elementos en un cuerpo K. Sea el
subconjunto F de Kn definido por Ax = 0 con x = (x1 , . . . , xn )t ∈ Kn . Entonces: F es un subespacio vectorial de Kn de dimensión igual a n − rg(A).
En otras palabras: el conjunto de las soluciones de un sistema lineal homogéneo es un subespacio vectorial de dimensión igual al número de incógnitas menos el rango de la matriz del sistema.
Hallemos el rango de la matriz del sistema:

1
1
 1 −1
−1
5

1
1
0
−2
0
0
 
1
2
−1
0
2
5
0 ∼  0
−4 −17
0
0

1 −1
0
1
6
0
0
0
0
1
−2
6
1 −1
1
6
3 −18

0
0 ∼
0
Por tanto dim F = 4 − rg(A) = 4 − 2 = 2.Para hallar una base de F
consideramos el sistema escalonado:
F ≡
x1 + x2 + x3 − x4 = 0
−2x2 + x3 + 6x4 = 0
Dando a las incógnitas libres (en este caso x3 y x4 ) valores de la matriz
identidad esto es x3 = 1, x4 = 0 y luego x3 = 0, x4 = 1 nos asegura una base
de F (tendrı́amos dos vectores linealmente independientes en F que es de
dimensión 2).
Para x3 = 1, x4 = 0 obtenemos x1 = −3/2 y x2 = 1/2. Para x3 = 0, x4 = 1
obtenemos x1 = −2 y x2 = 3. Una base de F será por tanto
B = {(−3/2, 1/2, 1, 0), (−2, 3, 0, 1)}
Multiplicando por 2 el primer vector obtenemos otra base:
B 0 = {(−3, 1, 2, 0), (−2, 3, 0, 1)}
2.5. SUBESPACIOS TRANSVERSALES
2.5.
47
Subespacios transversales
Sea E un espacio vectorial real. Se dice que dos subespacios vectoriales U y
V son transversales cuando U + V = E. Se pide:
a) Determinar cuales de las nueve parejas ordenadas posibles (formadas por
dos de estos tres subespacios) son transversales. Justificar la respuesta.
U = {x, x, x) : x ∈ R} , V = {x, x, y) : x, y ∈ R} , W = {x, y, 0) : x, y ∈ R}
b) Sea f : E → F una aplicación lineal. Demostrar que si f transforma
subespacios transversales de E en subespacios transversales de F , entonces
f es sobreyectiva.
c) Enunciar la proposición recı́proca de la anterior y estudiar su validez (en
caso de ser verdadera dar una demostración, y en caso contrario construir
un contraejemplo). [1]
Resolución. a) Los subespacios dados se pueden escribir en la forma
U =< (1, 1, 1) > , V =< (1, 1, 0), (0, 0, 1) > , W =< (1, 0, 0), (0, 1, 0) >
Sabemos que se obtiene un sistema generador de la suma de dos subespacios
mediante la unión de un sistema generador de un subespacio con un sistema
generador del otro. Es decir
U + U =< (1, 1, 1) >
V + V =< (1, 1, 0), (0, 01) >
W + W =< (1, 0, 0), (0, 1, 0) >
U + V = V + U =< (1, 1, 1), (1, 1, 0), (0, 0, 1) >
U + W = W + U =< (1, 1, 1), (1, 0, 0), (0, 1, 0) >
V + W = W + V =< (1, 1, 0), (0, 0, 1), (1, 0, 0), (0, 1, 0) >
Para que alguna de las parejas anteriores determinen subespacios transversales, el rango del sistema generador correspondiente ha de ser 3. Claramente
las tres primeras parejas no determinan subespacios transversales. Los rangos de los otros sistemas generadores son





1
1 1 1
1 1 1
0
rg 1 1 0 = 2 , rg 1 0 0 = 3 , rg 
1
0 0 1
0 1 0
0
1
0
0
1

0
1
=3
0
0
48
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS
Se concluye pues que de las nueve parejas, las que determinan subespacios
transversales son (U, W ), (W, U ), (V, W ) y (W, V ).
b) Los subespacios {0} y E son transversales en E pues {0} + E = E.
Por hipótesis los subespacios f ({0}) y f (E) son transversales en F es decir,
f ({0}) + f (E) = F. Como f es lineal, f ({0}) = {0} y por tanto, f (E) = F.
En consecuencia, f es sobreyectiva.
c) La proposición recı́proca es: Si f es sobreyectiva, entonces f transforma
subespacios transversales de E en subespacios transversales de F. Veamos
que es cierta. En efecto, sean U y V subespacios transversales en E es decir,
U + V = E. Tenemos que demostrar que f (U ) y f (V ) lo son en F. Evidentemente f (U ) + f (V ) ⊂ F. Demostremos la otra inclusión.
Como f es sobreyectiva para todo y ∈ F existe x ∈ E tal que y = f (x). Por
otra parte, al ser U + V = E, x se puede expresar en la forma x = u + v con
u ∈ U y v ∈ V. Dado que f es lineal:
y = f (x) = f (u + v) = f (u) + f (v) ∈ f (U ) + f (V )
Es decir, F ⊂ f (U ) + f (V ), lo cual concluye la demostración.
2.6.
Intersección de subespacios de (Z7 )4
En el espacio (Z7 )4 determinar la intersección de las variedades dadas por
L1 =< (2, 3, 0, 4), (3, 5, 0, 6), (0, 4, 2, 0) > ,
L2 ≡
2x1 + 2x3 − x4 = 0
3x1 + 5x2 − 3x3 = 0
[8]
Resolución. Las tablas de la suma y producto en Z7 = {0, 1, 2, 3, 4, 5, 6}
son
+
0
1
2
3
4
5
6
0
0
1
2
3
4
5
6
1
1
2
3
4
5
6
0
2
2
3
4
5
6
0
1
3
3
4
5
6
0
1
2
4
4
5
6
0
1
2
3
5
5
6
0
1
2
3
4
6
6
0
1
2
3
4
5
·
0
1
2
3
4
5
6
0
0
0
0
0
0
0
0
1
0
1
2
3
4
5
6
2
0
2
4
6
1
3
5
3
0
3
6
2
5
1
4
4
0
4
1
5
2
6
3
5
0
5
3
1
6
4
2
6
0
6
5
4
3
2
1
2.6. INTERSECCIÓN DE SUBESPACIOS DE (Z7 )4
49
Por tanto, los elementos opuesto −a e inverso a−1 de cada a ∈ Z7 son
a
−a
a−1
0
0
6∃
1
6
1
2
5
4
3
4
5
4
3
2
5
2
3
6
1
6
Usando la información anterior, hallemos unas ecuaciones cartesianas de L1 .
Todo vector de esta variedad se puede expresar en la forma
(x1 , x2 , x3 , x4 ) = λ1 (2, 3, 0, 4) + λ2 (3, 5, 0, 6) + λ3 (0, 4, 2, 0)
(λi ∈ Z7 )
De forma equivalente:

x1 = 2λ1 + 3λ2



x2 = 3λ1 + 5λ2 + 4λ3
L1 ≡
x3 = 2λ3



x4 = 4λ1 + 6λ2
(λi ∈ Z7 )
Eliminemos los parámetros:

2
 3

 0
4
3
5
0
6
0
4
2
0


x1

x2 
 ∼ (2F2 − 3F1 , F4 − 2F1 ) 


x3
x4
2
0
0
0
3
1
0
0

x1
0
1 2x2 − 3x1 


2
x3
0 x4 − 2x1
Es decir, L1 está determinado por la ecuación cartesiana x4 − 2x1 = 0. Unas
ecuaciones cartesianas de L1 ∩ L2 son por tanto

 −2x1 + x4 = 0
L1 ∩ L2 ≡ 2x1 + 2x3 − x4 = 0

3x1 + 5x2 − 3x3 = 0
Escalonando el sistema:



−2 0
0
1 0
−2
 2 0
2 −1 0  ∼ (F2 + F1 , 2F3 + 3F1 )  0
3 5 −3
0 0
0

−2 0
∼ (3−1 F3 , F2 ↔ F3 )  0 1
0 0
0
0
0
2
3 −6

1 0
0 0 
3 0

0 1 0
−2 1 0 
2 0 0
El rango de la matriz A del sitema escalonado es 3, por tanto:
dim(L1 ∩ L2 ) = dim(Z7 )4 − rg A = 4 − 3 = 1
50
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS
Para hallar una base de L1 ∩ L2 basta asignar a la incógnita libre x4 el valor
1. La tercera ecuación es 2x3 = 0 con lo cual x3 = 0. Sustituyendo en la
segunda queda x2 = −1 o bien x2 = 6. Sustituyendo en la primera queda
−2x1 = −1 o bien 2x1 = 1 o bien x1 = 4. Concluimos que una base de
L1 ∩ L2 es
B = {(4, 6, 0, 1)}
2.7.
Cambio de base en orbitales atómicos
En la interpretación del enlace quı́mico mediante la teorı́a de orbitales moleculares desempeñan un papel importante los orbitales hı́bridos. Cuando el
estudio se lleva a cabo solamente con los orbitales s y p aparecen tres clases
de hı́bridos a saber: sp1 , sp2 y sp3 . En los tres casos sólo se trata de un cambio de base en un cierto espacio funcional. Las funciones de la base inicial
son los orbitales atómicos s, px, py, pz (que se denotarán en forma abreviada
por s, x, y, z) y las funciones de la base hı́brida se definen como:
En sp3 :
1
h1 = (s + x + y + z)
2
1
h2 = (s + x − y − z)
2
1
h3 = (s − x − y + z)
2
1
h4 = (s − x + y − z)
2
En sp2 :
√
1
t1 = √ (s + 2x)
3
√
1
1
t2 = √ [s − √ (x − 3y)]
3
2
√
1
1
t3 = √ [s − √ (x + 3y)]
3
2
t4 = z
(a) Hallar la matriz T de cambio de base de la atómica a la hı́brida sp3 y
la matriz R de cambio de la atómica a la hı́brida sp2 .
(b) Hallar en función de T y R la matriz de cambio de la hibridación sp3 a
la sp2 .
Resolución. (a) Tenemos las relaciones matriciales:
 

 
h1
1
1
1
1
s
h2  1 1
 x
1
−1
−1
 = 
 
h3  2 1 −1 −1
1  y 
h4
1 −1
1 −1
z
√

 
 
1
2
0
0
t1
s
√
3
1

 
√
√
t2 
1
−
0
1
x
 
2
 = √ 
√2

 
t3 
 y
3 1 − √1 − √3
0
2
2 √
t4
z
0
0
0
3
2.8. MATRICES DE HOMOMORFISMOS
51
Denotando
√



2
1
1
1
1
1
1

√


1 1 − 2
1 1
1 −1 −1
, Q= √ 
P = 
1
2 1 −1 −1
3 1 − √1
2
1 −1
1 −1
0
0
0
√
√3
√2
− √32
0

0
0


0
√
3
obtenemos las relaciones
 
   
 
s
h1
s
t1
x






  = P −1 h2  , x = Q−1 t2 
y 
h3  y 
t3 
z
h4
z
t4
de lo cual deducimos que T = P −1 y R = Q−1 .
(b) Tenemos
 
s
x
 =T
y 
z
 
 
 
 
 
h1
s
t1
h1
t1
h2 
x
t2 
h2 


  ∧   = R   ⇒   = T −1 R t2 
h3 
y 
t3 
h3 
t3 
h4
z
t4
h4
t4
La matriz pedida es por tanto T −1 R.
2.8.
Matrices de homomorfismos
Sean los espacios vectoriales sobre K de dimensión finita E(K), F (K), G(K)
y sean las bases respectivas BE = {u1 , u2 , u3 }, BF = {v1 , v2 , v3 } y BG =
{w1 , w2 , w3 }. Sean los homomorfismos f ∈ L(E, F ), g ∈ L(F, G) definidos
por


f (u1 ) = 2v1 − v3
g(v1 + v3 ) = 2w1 + 4w2 + 6w3
f (u2 ) = v2 + 2v3
g(v2 ) = w2


f (u3 ) = v1 + 2v3
g(v1 − v3 ) = 2w1 + 2w2 + 6w3
Se pide
1.
2.
3.
4.
5.
Matriz M (f ) asociada a f respecto a BE y BF .
Matriz M (g) asociada a g respecto a BF y BG .
Matriz M (g ◦ f ) asociada a g ◦ f respecto a BE y BG .
Rango de M (g ◦ f ).
Dimensión de la imagen homomorfa de E(K) según g ◦ f .
52
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS
6. Dimensión de ker f y de Im f .
7. ¿Es inyectiva f ? ¿y g ◦ f ?
8. ¿Pertenece u1 + u2 + u3 a ker f ?
9. Encontrar una nueva base de F , BF0 = {v10 , v20 , v30 } tal que la matriz
asociada a f respecto a BE y BF0 sea I (matriz identidad). [6]
Resolución. 1. Trasponiendo coeficientes, obtenemos la matriz pedida:


2 0 1
M (f ) =  0 1 0
−1 2 2
2. Teniendo en cuenta que g es lineal:
g(v1 ) + g(v3 ) = 2w1 + 4w2 + 6w3
g(v1 ) − g(v3 ) = 2w1 + 2w2 + 6w3
Resolviendo el sistema obtenemos g(v1 ) = 2w1 + 3w2 + 6w3 y g(v3 ) = w2
con lo cual

g(v1 ) = 2w1 + 3w2 + 6w3
g(v2 ) = w2

g(v3 ) = w2


2 0 0
La matriz M (g) es por tanto M (g) = 3 1 1
6 0 0
3. Usando un conocido teorema

 


4 0 2
2 0 1
2 0 0
M (g ◦ f ) = M (g)M (f ) = 3 1 1  0 1 0 =  5 3 5
12 0 6
6 0 0 −1 2 2
4. El determinante de M (g ◦ f ) es nulo y al menos hay un menor de orden
no nulo de orden 2, en consecuencia rg M (g ◦ f ) = 2.
5. dim(g ◦ f )(E) = rg M (g ◦ f ) = 2.
6. La dimensión de la imagen de f es


2 0 1
dim Im f = rg M (f ) = rg  0 1 0 = 3
−1 2 2
Por el teorema de las dimensiones para aplicaciones lineales
2.9. ENDOMORFISMO NILPOTENTE
53
dim ker f = 3 − dim Im f = 3 − 3 = 0
7. Dado que dim ker f = 0, concluimos que f es inyectiva. Sin embargo y
usando de nuevo el teorema de las dimensiones
dim(g ◦ f )(E) = 3 − rg M (g ◦ f ) = 1 6= 0
es decir g ◦ f no es inyectiva.
8. El vector u1 + u2 + u3 no pertenece a ker f pues no es el vector nulo, y al
ser f es inyectiva se verifica ker f = {0}.
9. La base pedida BF0 = {v10 , v20 , v30 } ha de verificar

f (u1 ) = v10
f (u2 ) = v20

f (u3 ) = v30
Basta elegir por tanto
v10 = 2v1 − v3 , v20 = v2 + 2v3 , v30 = v1 + 2v3
Los tres vectores anteriores forma efectivamente base en F (K) pues el rango
de la matriz M (f ) es 3.
2.9.
Endomorfismo nilpotente
Sea f : R3 → R3 la aplicación lineal que tiene respecto a la base canónica
{e1 , e2 , e3 } asociada la matriz


0
1
− sin θ
0
cos θ
A =  −1
− sin θ cos θ
0
(θ constante )
Se pide:
(a) Probar que la aplicación f 3 = f ◦ f ◦ f es la aplicación nula.
(b) Si para k ∈ R se define la aplicación lineal ϕk : R3 → R3 mediante
ϕk = i + kf + (k 2 /2)f 2 (i aplicación idéntica)
54
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS
probar que el conjunto G = {ϕk : k ∈ R} es un grupo respecto de la composición de aplicaciones.
(c) Si e01 = (cos θ, sin θ, 0), e02 = (0, −1, − sin θ), e03 = (1, 0, cos θ), comprobar que {e01 , e02 , e03 } es una base de R3 .
(d ) Hallar la matriz de f asociada a la base {e01 , e02 , e03 }.
Resolución. (a) La matriz de f 3 en la base canónica es A3 , por tanto bastará demostrar que A3 = 0. Usando el teorema de Pitágoras trigonométrico:



0
1
− sin θ
0
1
− sin θ
0
cos θ  −1
0
cos θ =
A2 =  −1
− sin θ cos θ
0
− sin θ cos θ
0


− cos2 θ
− sin θ cos θ cos θ
− sin θ cos θ
− sin2 θ
sin θ 
− cos θ
− sin θ
1



0
1
− sin θ
− cos2 θ
− sin θ cos θ cos θ
0
cos θ = 0
− sin2 θ
sin θ   −1
A3 = − sin θ cos θ
− sin θ cos θ
0
− cos θ
− sin θ
1
(b) Usando conocidas propiedades de la composición de aplicaciones y que
f3 = f4 = 0 :
2
2
ϕk ◦ ϕs = i + kf + k2 f 2 ◦ i + sf + s2 f 2 =
s2 2
2f
2
2
2
2 2
+ kf + ksf 2 +ks2 f 3 + k2 f 2 + k2s f 3 + k 2s f 4 =
2
2
2
i + (s + k)f + s2 + ks + k2 f 2 = i + (s + k)f + (k+s)
f 2 = ϕk+s
2
i + sf +
La relación anterior implica que la composición es interna en G. La composición es asociativa en general, luego lo es en G. El elemento neutro i de la
composición pertenece a G pues i = ϕ0 . Dado ϕk ∈ G :
i = ϕ0 = ϕk+(−k) = ϕk ◦ ϕ−k ⇒ ϕ−1
k = ϕ−k ∈ G
Concluimos que (G.◦) es grupo. Es además abeliano pues
ϕk ◦ ϕs = ϕk+s = ϕs+k = ϕs ◦ ϕk
(c) Dado que dim R3 = 3, para demostrar que {e01 , e02 , e03 } es una base de R3
basta demostrar que son linealmente independientes o bien que el rango de
la matriz correspondiente es 3.
cos θ sin θ
0
0
−1 − sin θ = − cos2 θ − sin2 θ = −1 6= 0
1
0
cos θ
2.10. BASE DEL ESPACIO VECTORIAL COCIENTE
55
Concluimos que {e01 , e02 , e03 } es efectivamente base de R3 .
(d ) La matriz de cambio de la base canónica a la {e01 , e02 , e03 } es


cos θ
0
1
−1
0 
P =  sin θ
0
− sin θ cos θ
Por un conocido teorema, la matriz de f en la nueva base {e01 , e02 , e03 } es
P −1 AP. Operando obtenemos


0
0
0
sin2 θ 
P −1 AP = cos θ sin θ cos θ
sin θ − cos2 θ − sin θ cos θ
2.10.
Base del espacio vectorial cociente
1. Sea E un espacio vectorial sobre el cuerpo K de dimensión n y sea
F ⊂ E un subespacio vectorial. Supongamos que BF = {u1 , . . . , ur } es
base de F y que BE = {u1 , . . . , ur , ur+1 , . . . , un } es base de E. Demostrar
que una base de E/F es BE/F = {ur+1 + F, . . . , un + F }. Deducir que
dim E/F = dim E − dim F , igualdad válida también para los casos r = 0 o
r = n.
2. Se considera el subespacio de R4 de ecuaciones
x1 + x2 − x3 + 2x4 = 0
x1 − x2 + 3x3 + 6x4 = 0
(i ) Hallar una base de F .
(ii ) Hallar una base de R4 /F .
(iii ) Hallar las coordenadas del vector (1, −3, 2, 6) + F en la base hallada en
el apartado anterior.
Resolución. 1. Veamos que efectivamente BE/F = {ur+1 + F, . . . , un + F }
es base de E/F . (a) BE/F es sistema libre:
λr+1 (ur+1 + F ) + . . . + λn (un + F ) = 0 + F ⇒
(λr+1 ur+1 + . . . + λn un ) + F = 0 + F ⇒
λr+1 ur+1 + . . . + λn un ∈ F ⇒
∃λ1 , . . . , λr ∈ K : λr+1 ur+1 + . . . + λn un = λ1 u1 + . . . + λr ur ⇒
−λ1 u1 + . . . − λr ur + λr+1 ur+1 + . . . + λn un = 0
56
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS
Al ser BE = {u1 , . . . , ur , ur+1 , . . . , un } sistema libre se concluye que todos
los λi son nulos y en particular λr+1 = . . . = λn = 0.
(b) BE/F es sistema generador de E/F . Sea x + F ∈ E/F . Como x ∈ E
y BE genera a E, existen escalares x1 , . . . , xn tales x = x1 u1 + . . . + xn .
Tenemos:
x + F = (x1 u1 + . . . + xn un ) + F =
[(x1 u1 + . . . + xr ur ) + F ] + [(xr+1 ur+1 + . . . + xn un ) + F ] =
( pues x1 u1 + . . . + xr ur ∈ F )
[0 + F ] + [(xr+1 ur+1 + . . . + xn un ) + F ] =
(xr+1 ur+1 + . . . + xn un ) + F =
xr+1 (ur+1 + F ) + . . . + xn (un + F )
Es decir, BE/F es sistema generador de E/F . Para el caso r = 0 tenemos
F = {0} y E/F = E. Para el caso r = n tenemos F = E y E/F = {0}. Es
decir, en cualquier caso dim E/F = dim E − dim F.
2. (i ) Usando el conocido método para el cálculo de una base de un subespacio dado por sus ecuaciones cartesianas, obtenemos fácilmente una base
de F : BF = {(−1, 2, 1, 0), (−4, 2, 0, 1)}.
(ii ) Se verifica

−1
−4
rg 
 0
0
2
2
0
0
1
0
1
0

0
1
=4
0
1
Usando el teorema anterior concluimos que una base de R4 /F es
BR4 /F = {(0, 0, 1, 0) + F, (0, 0, 0, 1) + F }
(iii ) Expresemos el vector dado como combinación lineal de la base hallada
en el apartado anterior. Tenemos
(1, −3, 2, 6) + F = λ1 [(0, 0, 1, 0) + F ] + λ2 [(0, 0, 0, 1) + F ] ⇔
1, −3, 2, 6) + F = (0, 0, λ1 , λ2 ) + F ⇔
(1, −3, 2 − λ1 , 6 − λ2 ) ∈ F ⇔
(1, −3, 2 − λ1 , 6 − λ2 ) ∈ L[(−1, 2, 1, 0), (−4, 2, 0, 1)]
2.11. NÚCLEO E IMAGEN DEL OPERADOR DERIVACIÓN
57
La última condición equivale a que


−1
2
1
0
2
0
1 =2
rg −4
1 −3 2 − λ1 6 − λ2
Triangulando, obtenemos


−1
2
1
0
=2
−4
1
rg  0 −6
0
0 6λ1 − 22 6λ2 − 35
Las coordenadas pedidas son por tanto
11 35
,
(λ1 , λ2 ) =
3 6
2.11.
Núcleo e imagen del operador derivación
Se considera la aplicación f : Rn [x] → Rn [x] tal que f [p(x)] = p0 (x). Se pide:
a) Demostrar que es lineal.
b) Hallar la matriz de f respecto de la base canónica B = {1, x, x2 , . . . , xn }.
c) Ecuaciones y una base de ker f.
d ) Ecuaciones y una base de Imf. [6]
Resolución. a) Para cada par de polinomios p(x), q(x) ∈ Rn [x], para cada
par de números reales λ, µ, y usando conocidas propiedades de la derivada:
f [λp(x) + µq(x)] = (λp(x) + µq(x))0
= λp0 (x) + µq 0 (x)
= λf [p(x)] + µf [q(x)]
Es decir, f es lineal.
b) Hallemos los transformados por f de los elementos de la base B :


 f (1) = 0


 f (x) = 1
f (x2 ) = 2x


...



f (xn ) = nxn−1
Transponiendo coeficientes obtenemos la matriz cuadrada de orden n + 1
pedida
58
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS

0
0

0

A = .
 ..

0
0
1 0
0 2
0 0
...
...
...
0 0
0 0
...
...

0
0

0

.. 
.

n
0
c) Denotemos por (x0 , x1 , x2 , . . . , xn−1 , xn )t a las coordenadas de un vector
genérico de Rn [x] respecto de la base B. Entonces

0
0

0

p(x) ∈ ker f ⇔  .
 ..

0
0
1 0
0 2
0 0
...
...
...
0 0
0 0
...
...

  
0
x0
0
 x1  0
0

  
 x2  0
0

  
..   ..  =  .. 


 
. . 
 .



0
n
xn−1
0
xn
0
Unas ecuaciones cartesianas de ker f son por tanto:

x1 = 0



2x2 = 0
...



nxn = 0
La dimensión de ker f es dim(ker f ) = n + 1 − rg A = n + 1 − n = 1. Para
hallar una base de ker f bastará dar a la incógnita libre x0 el valor 1 con
lo cual obtenemos el vector (1, 0, 0, . . . , 0, 0). En consecuencia, una base de
ker f es Bker f = {1}.
d ) Un vector Y = (y0 , y1 , x2 , . . . , yn )t pertenece a la imagen de f si y sólo si
existe un vector X = (x0 , x1 , x2 , . . . , xn )t tal que Y = AX. Es decir,


0

 0
 

 0


 
 =  ..

 .


 
yn−1  0
yn
0
y0
y1
y2
..
.

1 0
0 2
0 0
...
...
...
0 0
0 0
...
...

 

x0
x1
0

 

0
  x1   2x2 




0   x2   3x3 

..   ..  =  .. 


 
.
 .   . 




nxn 
n xn−1
0
xn
0
Unas ecuaciones cartesianas de Im f son por tanto:
(xi ∈ R)
2.12. CLASIFICACIÓN DE ENDOMORFISMOS

y1 = x 1




y

1 = 2x2


y2 = 3x3
...





y
=
nxn

 n−1
yn = 0
59
(xi ∈ R)
Por otra parte, todo vector de la imagen se puede expresar en la forma
 
 

 

0
0
1
y0
0
2
0
 y1 
 
 

 

0
0
0
 y2 
 
 

 

 ..  = x1  ..  + x2  ..  + . . . + xn  ..  (xi ∈ R)
.
.
.
 . 
 
 

 

n
0
0
yn−1 
0
0
0
yn
Las n columnas anteriores son linealmente independientes y generan Im f ,
es decir una base de la imagen es {1, 2x, 3x2 , . . . , nxn−1 }. Multiplicando
convenientemente por escalares no nulos obtenemos otra base de la imagen:
BIm f = {1, x, x2 , . . . , xn−1 }.
2.12.
Clasificación de endomorfismos
Se consideran los homomorfismos fλ de un espacio V3 (R) definidos por las
ecuaciones

 fλ (e1 ) = e1 + e2 + λe3
f (e2 ) = e1 + λe2 + e3
 λ
fλ (e1 ) = e1 + e2 + λ2 e3
donde λ ∈ R y B = {e1 , e2 , e3 } es una base de V3 (R).
1. Clasificar en función de λ los distintos endomorfismos fλ indicando su
naturaleza. Para aquellos fλ que no sean automorfismos, definir la imagen
y el núcleo. Para los que sean automorfismos, definir su inverso.
2. Dado el vector b = e1 + 2e2 + e3 disentir la existencia o no de solución de
la ecuación fλ (x) = b. [4]
Resolución. 1. Trasponiendo coeficientes obtenemos la matriz Aλ del endomorfismo fλ respecto de la base B y la expresión matricial correspondiente.

  
 
x1
1 1 1
y1
A =  1 λ 1  , y2  = Aλ x2 
λ 1 λ2
y3
x3
60
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS
Hallemos dim(Imfλ ), es decir rg(Aλ ). Efectuando las transformaciones por
filas F2 − F1 , F3 − λF1 y luego F3 + F2 obtenemos la forma escalonada de la
matriz Aλ :

 
 

1 1 1
1
1
1
1
1
1
0  ∼ 0 λ − 1
0 
Aλ =  1 λ 1  ∼ 0 λ − 1
2
2
2
λ 1 λ
0 1−λ λ −λ
0
0
λ −λ
Primer caso: λ2 −λ = 0. Equivale a decir λ = 0 o λ = 1. Para λ = 0 tenemos
dim(Imf0 ) = rg(A0 ) = 2 y por el teorema de las dimensiones para aplicaciones lineales, dim(ker f0 ) = 1. Para λ = 1 tenemos dim(Imf1 ) = rg(A1 ) = 1 y
por el teorema de las dimensiones para aplicaciones lineales, dim(ker f ) = 2.
Segundo caso: λ2 − λ 6= 0. Equivale a decir λ 6= 0 y λ 6= 1. En este caso
tenemos dim(Imfλ ) = rg(Aλ ) = 3 y de nuevo, por el teorema de las dimensiones para aplicaciones lineales, dim(ker fλ ) = 0. Es decir, en este segundo
caso cada aplicación fλ es inyectiva y sobre, por tanto isomorfismo. Al ser
endomorfismo, es automorfismo.
Podemos pues concluir para la familia de endomorfismos dada, tenemos
automorfismos exactamente para λ 6= 0 y λ 6= 1. Definamos ahora el núcleo
y la imagen en los casos que no son automorfismos. Usando la expresión
matricial de fλ obtenemos de forma inmediata unas ecuaciones cartesianas
del núcleo y unas ecuaciones paramétricas de la imagen:


x1 + x2 + x3 = 0
y1 = x1 + x2 + x3
x1 + x3 = 0
y2 = x1 + x3
ker(f0 ) ≡
Im(f0 ) ≡
(xi ∈ R)


x2 = 0
y3 = x 2

y1 = x1 + x2 + x3
ker(f1 ) ≡ x1 + x2 + x3 = 0 Im(f1 ) ≡ y2 = x1 + x2 + x3 (xi ∈ R)

y3 = x1 + x2 + x3
Ahora encontramos fácilmente unas bases de estos subespacios en coordenadas con respecto de la base B :
Bker(f0 ) = {(−1, 0, 1)} , BIm(f0 ) = {(1, 1, 0), (1, 0, 1)}
Bker(f1 ) = {(−1, 1, 0), (−1, 0, 1)} , BIm(f1 ) = {(1, 1, 1)}
Es decir:
Bker(f0 ) = {−e1 + e3 } , BIm(f0 ) = {e1 + e2 , e1 + e3 }
Bker(f1 ) = {−e1 + e2 , −e1 + e3 } , BIm(f1 ) = {e1 + e2 + e3 }
2.13. HIPERPLANOS
61
Por un conocido teorema, para cada automorfismo, es decir para cada λ 6= 0
y λ 6= 1 la matriz de su automorfismo inverso es (Aλ )−1 .
2. La existencia de soluciones de la ecuación fλ (x) = b equivale a la existencia
de soluciones del sistema:

   
1 1 1
x1
1
 1 λ 1  x2  = 1
λ 1 λ2
x3
1
Efectuando las transformaciones por filas F2 − F1 , F3 − λF1 y luego F3 + F2
obtenemos la forma escalonada del sistema:
 


1
1
1
1
1 1 1 1
 1 λ 1 1 ∼ 0 λ−1
0
0 
2
2
λ 1 λ 1
0 1−λ λ −λ 1−λ


1
1
1
1
0
0 
∼ 0 λ−1
2
0
0
λ −λ 1−λ
Para λ 6= 0 y λ 6= 1, el sistema es compatible y determinado y por tanto
la ecuación tiene solución única. Para λ = 0, el sistema es incompatible y
la ecuación no tiene solución. Para λ = 1, el sistema es indeterminado y la
ecuación tiene infinitas soluciones.
2.13.
Hiperplanos
Sea V un espacio vectorial real de dimensión n > 1. Se dice que H es un
hiperplano de V cuando H es un subespacio vectorial de dimensión n − 1.
Se pide:
(a) Determinar cuales de los subconjuntos H1 , H2 , H3 , H4 del espacio vectorial R3 son subespacios, y cuales hiperplanos. Justificar las respuestas.
H1 = {(x, x, x) : x ∈ R}, H2 = {(x, x, y) : x ∈ R, y ∈ R}
H3 = {(x, x, 0) : x ∈ R}, H4 = {(x, x, 1) : x ∈ R}
(b) Sea f : V → R una forma lineal no idénticamente nula. Demostrar que
entonces el núcleo de f es un hiperplano de V.
(c) Enunciar la proposición recı́proca de la anterior, y estudiar su validez
(en caso afirmativo da una demostración, y en caso contrario construir un
contraejemplo. [1]
62
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS
Resolución. (a) Un vector pertenece a H1 si y sólo si es de la forma
x(1, 1, 1) con x ∈ R. Es decir, H1 = L[(1, 1, 1)], y sabemos que todo subconjunto de un espacio vectorial de la forma L[S] es subespacio. Además, (1, 1, 1)
es linealmente independiente y genera a H1 lo cual implica que {(1, 1, 1)} es
base de H1 y por tanto dim H1 = 1. Concluimos que H1 es hiperplano de R3 .
De manera análoga, H2 = L[(1, 1, 0), (0, 0, 1)], es decir H2 es subespacio de
R3 . Los vectores anteriores son linealmente independientes y generan H2 .
Entonces, dim H2 = 2 lo cual implica que H2 no es un hiperplano de R3 .
Podemos expresar H3 = L[(1, 1, 0). Como se hizo para H1 , concluimos que
H3 es hiperplano de R3 . Por último, el vector nulo no pertenece a H4 , con
lo cual no es subespacio de R3 .
(b) Sea f : V → R una forma lineal no idénticamente nula, entonces existe
v ∈ V tal que f (v) = a 6= 0. Es decir, a ∈ Imf. Dado que {0} =
6 Imf ⊂ R,
que Imf es subespacio de R y que dim R = 1 se deduce que dim Imf = 1.
Por el teorema de las dimensiones para aplicaciones lineales:
dim(ker f ) = dim V − dim(Imf ) = n − 1 ⇒ ker f es hiperplano de R3
(c) La proposición recı́proca de la anterior es: Sea f : V → R una forma
lineal. Si ker f es un hiperplano de V , entonces f no es idénticamente nula.
Esta proposición es cierta. En efecto, aplicando de nuevo el teorema de las
dimensiones para aplicaciones lineales tenemos que n = n − 1 + dim(Imf ),
lo cual implica que dim(Imf ) = 1 y por tanto f no es idénticamente nula.
2.14.
Suma S4 = 14 + 24 + 34 + . . . + n4
1. Sea R5 [x] el espacio vectorial real de los polinomios de grado menor que
6 con coeficientes en R. Se considera la aplicación T : R5 [x] → R5 [x] definida por ∀p(x) ∈ R5 [x], T (p(x)) = p(x+1)−p(x). Demostrar que T es lineal.
2. Estudiar si es cierto el siguiente enunciado: p ∈ ker T ⇔ p es constante.
3. Hallar las imágenes por T de la base canónica de R5 [x] y calcular T −1 (x4 ).
4. Utilizar el resultado anterior para deducir una expresión de la suma
S4 = 14 + 24 + 34 + . . . + n4
[2]
2.14. SUMA S4 = 14 + 24 + 34 + . . . + N 4
63
Resolución. 1. El polinomio T (p(x)) = p(x + 1) − p(x) es de grado menor
o igual que 5, en consecuencia pertenece a R5 [x]. Por otra parte, ∀λ∀µ ∈
R, ∀p(x)∀q(x) ∈ R5 [x] tenemos:
T [(λp(x) + µq(x))] = λp(x + 1) + µq(x + 1) − (λp(x) + µq(x)) =
λ(p(x + 1) − p(x)) + µ(q(x + 1) − q(x)) = λT (p(x) + µT (q(x))
2. Sea p = k ∈ R5 [x] constante. Entonces, T (p(x)) = k − k = 0 y en
consecuencia p(x) ∈ ker T . Reciprocamente, si p ∈ ker T entonces p(x+ 1)−
p(x) = 0 o de forma equivalente p(x + 1) = p(x). Supongamos que p no fuera
constante. Entonces serı́a de grado ≥ 1 y por el teorema fundamental del
Álgebra tendrı́a una raı́z compleja a. Si p perteneciera a ker T se verificarı́a
p(x + 1) = p(x) para todo x ∈ R y por tanto:
p(a + 1) = p(a) = 0, p(a + 2) = p(a + 1) = 0, p(a + 3) = p(a + 2) = 0, . . .
Es decir, p tendrı́a infinitas raı́ces: a, a + 1, a + 2, . . ., lo cual es absurdo.
Podemos pues concluir que ker T = {p ∈ R5 [x] : p constante}.
3. Los transformados de la base canónica B de R5 [x] son:
T (1) = 1 − 1 = 0
T (x) = (x + 1) − x = 1
T (x2 ) = (x + 1)2 − x2 = 1 + 2x
T (x3 ) = (x + 1)3 − x3 = . . . = 1 + 3x + 3x2
T (x4 ) = (x + 1)4 − x4 = . . . = 1 + 4x + 6x2 + 4x3
T (x5 ) = (x + 1)5 − x5 = . . . = 1 + 5x + 10x2 + 10x3 + 5x4
Transponiendo coeficientes, obtenemos la
  
y1
0 1 1 1
y2  0 0 2 3
  
y3  0 0 0 3
 =
y4  0 0 0 0
  
y5  0 0 0 0
y6
expresión matricial de T en B:
 
x1
1 1


4 5  x2 

 
6 10
 x3 
 
4 10
 x4 

0 5 x5 
0 0 0 0 0
0
x6
Las coordenadas de x4 en la base canónica B son (0, 0, 0, 0, 1, 0)t . Por tanto,
T −1 (x4 ) está determinado por los (x1 , . . . , x6 )t tales que:
 
  
x1
0
0 1 1 1 1 1
0 0 0 2 3 4 5  x2 
 
  
0 0 0 0 3 6 10 x3 
 
 =
0 0 0 0 0 4 10 x4 
 
  
1 0 0 0 0 0 5  x5 
x6
0 0 0 0 0 0
0
64
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS
t
Resolviendo obtenemos (x1 , x2 , x3, x4 , x5 , x6 )t = (α, −1/30, 0, 1/3, −1/2, 1/5)
−1
4
3
4
5
con α ∈ R. Por tanto T (x ) = α − x/30 + x /3 − x /2 + x /5 : α ∈ R .
4. Consideremos cualquier polinomio h(x) ∈ T −1 (x4 ) (por ejemplo el correspondiente a α = 0). Tal polinomio cumple T (h(x)) = x4 es decir h(x + 1) −
h(x) = x4 (∗). Dando a x los valores 1, 2, . . . , n en (∗) obtenemos:
h(2) − h(1) = 14
h(3) − h(2) = 24
h(4) − h(3) = 34
...
h(n + 1) − h(n) = n4
Sumando y cancelando obtenemos h(n + 1) − h(n) = 14 + 24 + . . . + n4 = S4 .
Es decir:
S4 = h(n + 1) − h(1) =
1
1 1 1
n + 1 (n + 1)3 (n + 1)4 (n + 1)5
+
−
+
+
− + −
−
30
3
2
5
30 3 2 5
Operando y simplificando obtenemos:
S4 = 14 + 24 + 34 + . . . + n4 =
2.15.
n(2n + 1)(n + 1)(3n2 + 3n − 1)
30
Sucesiones exactas
Sean E, F, G, H espacios vectoriales, y sean f : E → F , g : F → G,
f
g
h : G → H aplicaciones lineales. Se dice que la sucesión E → F → G es
exacta en F cuando Imf = ker g.
(a) Supongamos que dim E = 0. Enunciar y demostrar una condición necef
g
saria y suficiente que ha de cumplir g para que la sucesión E → F → G sea
exacta en F .
(b) Supongamos que dim H = 0. Enunciar y demostrar una condición neg
h
cesaria y suficiente que ha de cumplir g para que la sucesión F → G → H
sea exacta en G.
f
g
h
(c) Supongamos que la sucesión E → F → G → H es exacta en F y exacta
en G. Estudiar la validez de la proposición f es sobreyectiva si y sólo si h es
inyectiva. Dar una demostración o construir un contraejemplo. [1]
2.16. ENDOMORFISMO EN C(R)
65
Resolución. (a) Por hipótesis dim E = 0, esto equivale a E = {0}. Tef
g
nemos por tanto la sucesión {0} → F → G lo cual implica que f es necesariamente la aplicación cero al ser f lineal. Se deduce que Imf = {0}.
Entonces
f
g
{0} → F → G es exacta en F ⇔ Imf = ker g ⇔
{0} = ker g ⇔ g es inyectiva
Es decir, la sucesión dada es exacta en F si y sólo si g es inyectiva.
(b) Por hipótesis dim H = 0. Esto equivale a H = {0}. Tenemos por tanto
g
h
la sucesión F → G → {0} lo cual implica que ker h = G. Entonces
g
h
F → G → {0} es exacta en G ⇔ Img = ker h ⇔
Img = G ⇔ g es sobreyeciva
Es decir, la sucesión dada es exacta en G si y sólo si g es sobreyectiva.
(c) Por hipótesis Imf = ker g e Img = ker h. Tenemos
f es sobreyectiva ⇒ Imf = F = ker g ⇒
Img = {0} = ker h ⇒ h es inyectiva
h es inyectiva ⇒ ker h = {0} = Img ⇒
ker g = F = Imf ⇒ f es sobreyectiva
La proposición es por tanto válida.
2.16.
Endomorfismo en C(R)
Sea C el espacio vectorial de los números complejos respecto del cuerpo R
de los números reales. Se considera la aplicación f : C → C definida para
todo z ∈ C por f (z) = uz, en donde u = 1 + i siendo i la unidad imaginaria.
1. Demostrar que f es una aplicación lineal.
2. Determinar la matriz asociada a f respecto de la base canónica {1, i}.
3. Determinar el núcleo y la imagen de f.
4. Determinar según el valor de n entero y positivo, la matriz de f n respecto
de la base canónica.
5. Determinar la dimensión del espacio vectorial sobre R formado por todas
las aplicaciones linealesPque son combinación lineal de las f n , es decir del
espacio vectorial F = { n∈N an f n : an ∈ R}. [2]
66
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS
Resolución. 1. Para cualquier par de escalares λ, µ ∈ R y para cada par
de vectores z, w ∈ C se verifica:
f (λz + µw) = u(λz + µw)
= λuz + µuw
= λf (z) + µf (w)
Es decir, f es lineal.
2. Hallando los transformados por f de la base canónica obtenemos la matriz
A pedida:
f (1) = (1 + i)1 = 1 + i
1 −1
⇒A=
f (i) = (1 + i)i = −1 + i
1
1
3. Denotemos por (x1 , x2 )t ∈ R2 a las coordenadas de un vector z ∈ C y por
(y1 , y2 )t ∈ R2 a las coordenadas de su transformado f (z). Entonces
y1
1 −1 x1
x1 − x2 = 0
⇒ x1 = x2 = 0
=
⇒ ker f ≡
y2
1
1 x2
x1 + x2 = 0
Es decir, ker f = {0}. Usando el teorema de las dimensiones para aplicaciones lineales, tenemos dim C = dim ker f + dim Imf o equivalentemente
dim Imf = 2 lo cual implica Imf = C.
4. La matriz de f n respecto de la base canónica es An . Las primeras potencias
son:
−4
0
−2 −2
0 −2
4
3
1
2
= −4I
, A =
, A =
A = A, A =
0 −4
2 −2
2
0
De lo cual deducimos
 5
A = −4A


 6
A = −4A2
A7 = −4A3


 8
A = (−4)2 I
 9
A = (−4)2 A


 10
A = (−4)2 A2
...
A11 = (−4)2 A3


 12
A = (−4)3 I
 4k+1
A
= (−4)k A


 4k+2
A
= (−4)k A2
A4k+3 = (−4)k A3



A4k = (−4)k I
para todo entero k ≥ 0.
5. Fijada una base B en un espacio vectorial E de dimensión n sobre el cuerpo K, sabemos que la aplicación entre el álgebra End E de los endomorfismos sobre E y el álgebra de matrices Kn×n que asocia a cada endomorfismo
f ∈ End E su matriz con respecto a B, es un isomorfismo de álgebras. En
2.17. APLICACIÓN LINEAL: FACTORIZACIÓN CANÓNICA
67
2×2
consecuencia bastará
P hallarn la dimensión del subespacio vectorial de R
dado por F1 = { n∈N an A : an ∈ R}.
De los resultados del apartado 4. deducimos que este espacio está generado
por el sistema de vectores {I, A, A3 , A3 }, es decir por los vectores
1 0
1 −1
0 −2
−2 −2
2
3
I=
, A=
, A =
, A =
0 1
1
1
2
0
2 −2
Expresando estos vectores en coordenadas respecto de la base canónica de
R2×2 tenemos


1
0 0
1
 1 −1 1
1
=2
dim F = dim F1 = rg 
 0 −2 2
0
−2 −2 2 −2
2.17.
Aplicación lineal: factorización canónica
Se considera la aplicación lineal f : R4
base canónica B de R4 y la canónica B 0

2 −1
A =  1 −1
−1 −1
→ R3 cuya matriz respecto de la
de R3 es

1
0
2 −1
4 −3
(a) Hallar unas bases C y D de E/ ker f e Imf respectivamente.
(b) Hallar la matriz N de n respecto de las bases B y C.
(c) Hallar la matriz Ā de f¯ respecto de las bases C y D.
(d ) Hallar la matriz I1 de i respecto de las bases D y B 0 .
(e) Comprobar que A = I1 ĀN . ¿Por qué ha de cumplirse necesariamente
esta igualdad?
Resolución. (a) El núcleo de f es

2x1 − x2 + x3 = 0

x1 − x2 + 2x3 − x4 = 0
ker f ≡

−x1 − x2 + 4x3 − 3x4 = 0
Escalonando el sistema obtenemos la base {(1, 3, 1, 0), (1, 2, 0, −1}. Completando esta con los vectores {(0, 0, 1, 0), (0, 0, 0, 1)} obtenemos una base de R4
con lo cual una base de E/ ker f es C = {(0, 0, 1, 0)+ker f, (0, 0, 0, 1)+ker f }.
Por otra parte el rango de A es 2 y las dos primeras columnas son linealmente independientes de lo cual obtenemos inmediatamente una base de la
68
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS
imagen de f : D = {(2, 1, −1), (1, 1, 1)}.
(b) Para calcular N hallemos los transformados de la base B en función de
la base C. Expresemos
n(1, 0, 0, 0) = (1, 0, 0, 0) + ker f = α[(0, 0, 1, 0) + ker f ] + β[(0, 0, 0, 1) + ker f ]
De la definición de las operaciones y de igualdad de vectores en el espacio vectorial cociente, para que se verifique la igualdad anterior el vector
(1, 0, −α, −β) ha de pertenecer a ker f o equivalentemente


1 3
1
0
0 −1  = 2 ⇔ . . . ⇔ α = 2, β = 3
rg 1 2
1 0 −α −β
Es decir, n(1, 0, 0, 0) = 2[(0, 0, 1, 0) + ker f ] + 3[(0, 0, 0, 1) + ker f ]. Repitiendo
el proceso obtenemos:

n(1, 0, 0, 0) = 2[(0, 0, 1, 0) + ker f ] + 3[(0, 0, 0, 1) + ker f ]



n(0, 1, 0, 0) = −[(0, 0, 1, 0) + ker f ] − [(0, 0, 0, 1) + ker f ]
n(0, 0, 1, 0) = [(0, 0, 1, 0) + ker f ] + 0[(0, 0, 0, 1) + ker f ]



n(0, 0, 0, 1) = 0[(0, 0, 1, 0) + ker f ] + [(0, 0, 0, 1) + ker f ]
2 −1 1 0
Transponiendo coeficientes: N =
3 −1 0 1
(c) Hallemos los transformados de los elementos de C en función de los de
D
f¯[(0, 0, 1, 0)t + ker f ] = f [(0, 0, 1, 0)t ] = A(0, 0, 1, 0)t =
(1, 2, 4)t = γ(2, 1, −1)t + δ(1, 1, 1)t
Resolviendo obtenemos δ = 3, γ = −1. Procedemos de manera análoga para
el otro vector de C y obtenemos
f¯[(0, 0, 1, 0)t + ker f ] = −(2, 1, −1)t + 3(1, 1, 1)t
f¯[(0, 0, 0, 1)t + ker f ] = 1(2, 1, −1)t − 2(1, 1, 1)t
−1
1
Transponiendo coeficientes: Ā =
3 −2
(d ) Hallemos los transformados de los elementos de D en función de los de
B0
2.18. ENDOMORFISMO EN UN SUBESPACIO DE C(R)
69
i(2, 1, −1) = (2, 1, −1) = 2(1, 0, 0) + 1(0, 1, 0) − (0, 0, 1)
i(1, 1, 1) = (1, 1, 1) = 1(1, 0, 0) + 1(0, 1, 0) + 1(0, 0, 1)


2 1
Transponiendo coeficientes: I1 =  1 1
−1 1
(e) Comprobemos que I1 ĀN

2
I1 ĀN =  1
−1
= A. En efecto:

1 −1
1
2
−1
1
0
1
=
3 −2 3 −1 0 1
1




1
0 2 −1 1
0
2 −1 2 −1 1 0 =  1 −1 2 −1 = A
3 −1 0 1
4 −3
−1 −1 4 −3
Era de esperar esta igualdad como consecuencia de la conocida fórmula que
relaciona la matriz de la composición de aplicaciones lineales con el producto
B3
B2
3
de las respectivas matrices: [h ◦ g]B
B1 = [h]B2 · [g]B1 .
2.18.
Endomorfismo en un subespacio de C(R)
En el espacio vectorial C(R) de las funciones continuas de R en R se consideran φ1 , φ2 , φ3 definidas ∀x ∈ R por:
φ1 (x) = 1, φ2 (x) = x, φ3 (x) = x log |x| si x 6= 0, φ3 (0) = 0
1. Probar que B = (φ1 , φ2 , φ3 ) es una familia libre en C(R). Si E es el subespacio vectorial de C(R) generado por B, demostrar que la funcion φ : R → R
definida por: φ(x) = 1 + x − x log |x| si x 6= 0, φ(0) = 0 pertenece a E y
hallar sus coordenadas en la base B.
2. Sea f el endomorfismo en E cuya matriz

2 −2
M =  2 −3
−1
2
respecto de B es:

1
2
0
Estudiar si f es automorfismo y determinar en su caso f −1 . Resolver la
ecuación f (ϕ) = φ, donde φ es la función definida en el apartado anterior.
3. Calcular (M − I)(M + 3I). Expresar M 2 y M −1 en función de M y de I.
Probar que ∀n ∈ Z, ∃un , vn ∈ R tales que M n = un I + vn M y que un + vn
70
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS
es constante.
4. Expresar un , vn y M n en función de n para n ≥ 0. [2]
Resolución. 1. Es sencillo comprobar que las funciones φ1 , φ2 , φ3 son efectivamente continuas en R. En cualquier caso y de la redacción de este apartado parece darse por supuesto que lo son. Veamos que forman un sistema
libre. Consideremos una combinación lineal de estas funciones igualada a la
función cero, es decir λ1 φ1 + λ2 φ2 + λ3 φ3 = 0. Dando a x los valores 0, 1, e
obtenemos:

λ1 = 0

λ1 + λ2 = 0

λ1 + eλ2 + eλ3 = 0
de lo que se deduce que λ1 = λ2 = λ3 = 0 y por tanto B es una familia
libre. Por otra parte de la definición de φ se deduce inmediatamente que
φ = φ1 + φ2 − φ3 . Esto prueba que φ ∈ E y además que las coordenadas de
φ en B son (1, 1, −1).
2. La ecuación matricial de f en la base B es:
  
 
y1
x1
2 −2 1
y2  =  2 −3 2 x2 
−1 2 0
y3
x3
(1)
Como det(M ) = −3 6= 0 tenemos que dim(ker f ) = 3 − rg(M ) = 0, lo cual
implica que ker f = {0} y f es inyectiva. Por el teorema de las dimensiones
para aplicaciones lineales, dim(Imf ) = 3 y f es sobreyectiva. En consecuencia, f es automorfismo.
Si (x1 , x2 , x3 )t son las coordenadas de ϕ en B entonces, usando (1) y que
las coordenadas de φ en B son (1, 1, −1)t se ha de verificar:

 
 
1
2 −2 1
x1
 1  =  2 −3 2 x2 
−1
−1 2 0
x3
Resolviendo obtenemos (x1 , x2 , x3 )t = (1/3, 1/3, 1/3) o de manera equivalente ϕ = (1/3)(φ1 + φ2 + φ3 ). Queda por tanto:
ϕ(x) =
1 − x − x log |x|
1
si x 6= 0, ϕ(0) =
3
3
2.18. ENDOMORFISMO EN UN SUBESPACIO DE C(R)
71
3. Operando obtenemos (M − I)(M + 3I) = 0 o bien M 2 + 2M − 3I = 0,
por tanto M 2 = 3I − 2M . Por otra parte:
1
2
M + 2M − 3I = 0 ⇔ M (M + 2I) = 3I ⇔ M
(M + 2I) = I
3
Se deduce pues que M −1 = (1/3)(M + 2I). Veamos por inducción que si
n ≥ 0 existen un , vn ∈ R tales que M n = un I + vn M . Tenemos:
M 0 = I = 1I + 0M, M 1 = 0I + 1M, M 2 = 3I − 2M
En consecuencia es cierto para n = 0, 1, 2 verificandose además para estos
valores de n que un + vn = 1. Supongamos que es cierto para n, entonces:
M n+1 = (un I + vn M )M = un M + vn M 2 =
un M + vn (3I − 2M ) = 3vn I + (un − 2vn )M
Existen pues un+1 = 3vn , vn+1 = un −2vn tales que M n+1 = un+1 I +vn+1 M
cumpliendose además un+1 + vn+1 = 3vn + (un − 2vn ) = un + vn = 1.
Procedemos de análoga manera para M −k con k > 0: M −1 = (2/3)I +
(1/3)M es decir, M −1 = u−1 I + v−1 M con u−1 + v−1 = 1. Si M −k =
u−k + v−k M con u−k + v−k = 1 entonces:
2
1
−k−1
−k
−1
M
= M M = (u−k + v−k M )
I+ M =
3
3
2u−k + 3v−k
u−k
... =
I+
M = u−k−1 I + v−k−1 M
3
3
En donde hemos usado M 2 = 3I−2M . Como u−k−1 +v−k−1 = u−k +v−k = 1,
podemos concluir que para todo n ∈ Z existen números reales un y vn cuya
suma es constante e igual a 1 tales que M n = un I + vn M .
4. Efectuando la división euclı́dea de xn entre x2 + 2x − 3 obtenemos:
xn = (x2 + 2x − 3)q(x) + αx + β
(α, β ∈ R)
(2)
Sustituyendo x por M en (2), obtenemos M n = αM + βI. Para determinar
α, β sustituimos x por las raı́ces de x2 + 2x − 3, es decir por 1 y por −3,
obteniendo un sistema de dos ecuaciones con dos incógnitas que resuelto,
proporciona los valores:
1 − (−3)n
3 + (−3)n
, β=
4
4
Obtenemos M n en función de n:
1 − (−3)n
3 + (−3)n
Mn =
M+
I (n ≥ 0)
4
4
con lo cual quedan determinados un y vn en función de n.
α=
72
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS
2.19.
Operador traspuesto en el espacio dual
Sea E = {p ∈ R[x] : gr p < 5}, F = {p ∈ E : p(0) = p(1) = 0}, f el
endomorfismo en E definido por:
a0 + a1 x + a2 x2 + a3 x3 + a4 x4 → a0 + a1 x + (a2 − a4 )x2 − (a1 + a2 − a4 )x3
y g la restricción de f a F. Se pide:
1. Demostrar que F es un espacio vectorial y hallar una base B de F.
2. Demostrar que f (F ) ⊂ F y hallar la matriz de g respecto de B.
3. Determinar unas bases de ker g e Im g.
4. Obtener la matriz g t , operador traspuesto de g, respecto de la base dual
de B, y hallar la imagen de x3 − x por la forma lineal g t (φ) siendo φ el
elemento de F ∗ definido por φ(p) = 2. [2]
Resolución. 1. Dado que E es espacio vectorial y F ⊂ E, bastará demostrar que F es subespacio de E. Usamos una conocida caracterización de
subespacios. (i ) El polinomio nulo claramente pertenece a F. (ii ) Para todo
λ, µ ∈ R y p, q ∈ F, se verifica
(λp + µq)(0) = λp(0) + µq(0) = λ · 0 + µ · 0 = 0
(λp + µq)(1) = λp(1) + µq(1) = λ · 0 + µ · 0 = 0
Es decir, λp + µq ∈ F. Concluimos que F es subespacio de E. Hallemos una
base de F. Los polinomios p(x) = a0 + a1 x + a2 x2 + a3 x3 + a4 x4 de F son
los que cumplen p(0) = p(1) = 0. Es decir:
p∈F ⇔
a0 = 0
a0 + a1 + a2 + a3 + a4 = 0
(1)
Tenemos ası́ unas ecuaciones cartesianas de F respecto de la base canónica
Bc de E. Su dimensión es
1 0 0 0 0
dim F = dim E − rg
=5−2=3
1 1 1 1 1
Dando a las incógnitas libres a2 , a3 , a4 los valores de las filas de la matriz
identidad de orden 3, obtenemos una base de F expresada en coordenadas
en Bc :
{(0, −1, 1, 0, 0), (0, −1, 0, 1, 0), (0, −1, 0, 0, 1)}
2.19. OPERADOR TRASPUESTO EN EL ESPACIO DUAL
73
Por tanto, una base de F es B = {−x + x2 , −x + x, −x + x4 }.
2. Si un polinomio p(x) = a0 + a1 x + a2 x2 + a3 x3 + a4 x4 pertenece a F,
entonces satisface las condiciones (1). El transformado de p(x) por f es el
polinomio
q(x) = a0 + a1 x + (a2 − a4 )x2 − (a1 + a2 − a4 )x3
Se verifica q(0) = a0 = 0, q(1) = 0 lo cual implica que f [p(x)] ∈ F. Hemos
demostrado que f (F ) ⊂ F, en consecuencia está bien definida la restricción
g : F → F. De acuerdo con la definición de g :

g(−x + x2 ) = −x + x2

g(−x + x3 ) = −x + x3

g(−x + x4 ) = −x − x2 + 2x3 = −(−x + x2 ) + 2(−x + x3 )
Transponiendo coeficientes obtenemos la matriz A pedida:


1 0 −1
2
A = 0 1
0 0
0
3. La expresión matricial de g en la
  
y1
1
y2  = 0
y3
0
base B es
 
0 −1 x1
1
2  x2 
0
0
x3
Entonces,

   
1 0 −1 x1
0
x1 − x2 = 0






2
x2 = 0 ⇔
ker g ≡ 0 1
x2 + 2x3 = 0
0 0
0
x3
0
La dimensión del núcleo es dim(ker g) = dim F − rgA = 3 − 2 = 1. Dando
a x3 el valor 1 obtenemos una base de ker g en coordenadas con respecto de
B : {(−2, −2, 1)}. Corresponde al vector de F :
−2(x − x2 ) − 2(−x + x3 ) + 1(−x + x4 ) = −x + 2x2 − 2x3 + x4
Es decir, una base de ker g es Bker g = {−x + 2x2 − 2x3 + x4 }. El rango de A
es 2, y sus dos primeras columnas son linealmente independientes, por tanto
determinan una base de Im g en coordenadas en B. En consecuencia, una
base de la imagen de g es BIm g = {−x + x2 , −x + x3 }.
4. Por un conocido teorema, si M es la matriz de una aplicación lineal
h : V → W en unas bases BV y BW , entonces la aplicación lineal traspuesta
las bases ht : W ∗ → V ∗ es M t . En nuestro caso la matriz pedida es:
74
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS


1 0 0
At =  0 1 0
−1 2 0
Por definición de aplicación lineal traspuesta, g t (φ) = φ ◦ g en consecuencia (g t (φ))(x3 − x) = (φ ◦ g)(x3 − x). Usando la expresión matricial de g
deducimos inmediatamente que g(x3 − x) = x3 − x. Entonces,
(g t (φ))(x3 − x) = φ(x3 − x) = 23 − 2 = 6
2.20.
Espacio dual. Interpolación
Sea V el espacio vectorial de los polinomios con coeficientes reales y de grado
menor o igual que 2. Se consideran las formas lineales f0 , f1 , f2 : V → R
definidas por
< f0 , p(x) >= p(0), < f1 , p(x) >= p0 (0), < f2 , p(x) >= p00 (0)
Estas formas lineales son una base del espacio dual V ∗ .
1. Encontrar una base de V cuya dual sea la base {f0 , f1 , f2 }. Encontrar un
polinomio q(x) (de V ) tal que q(0) = 0!, q 0 (1) = 1!, q 00 (0) = 2!.
2. Encontrar un polinomio r(x) (de V ) tal que r(0) = 0!, r0 (0) + r00 (0) =
1! + 2!, r(0) + r0 (0) + r00 (0) = 0! + 1! + 2!. ¿Queda r(x) determinado unı́vocamente por las condiciones anteriores? En V , se consideran las formas lineales
g0 , g1 , g2 : V → R definidas por
< g0 , p(x) >= p(0)
< g1 , p(x) >= p0 (0) + p00 (0)
< g2 , p(x) >= p(0) + p0 (0) + p00 (0)
¿Son una base de V ∗ ?
Sea ahora E un espacio vectorial real de dimensión n + 1 y h0 , h1 , h2 , . . . , hn ,
n+1 formas lineales en E, hi : E → R y sean z0 , z1 , z2 , . . . , zn , n+1 números
reales. Se denomina problema de interpolación al siguiente:
Encontrar un elemento v de E tal que
< h0 , v >= z0 , < h1 , v >= z1 , < h2 , v >= z2 , . . . < hn , v >= zn
2.20. ESPACIO DUAL. INTERPOLACIÓN
75
Ası́ pues, los los problemas de los apartados 1. y 2. son problemas de interpolación.
3. Demostrar que una condición suficiente para que un problema de interpolación tenga solución y sea única, para cada conjunto de números
z0 , z1 , z2 , . . . , zn es que las formas lineales h0 , h1 , h2 , . . . , hn sean una base
de E ∗ . Indicación: Expresar la posible solución en la base de E cuya dual
es h0 , h1 , h2 , . . . , hn . 4. ¿Esta condición es también necesaria? Dar una demostración o un contraejemplo.
En el espacio V de los apartados 1. y 2. se considera la base s0 (x) = 1,
s1 (x) = 1 + x, s2 (x) = 1 + x + x2 .
5. Calcular los determinantes
< f0 , s0 > < f1 , s0 > < f2 , s0 >
< f0 , s1 > < f1 , s1 > < f2 , s1 >
< f0 , s2 > < f1 , s2 > < f2 , s2 >
< g0 , s0 > < g1 , s0 > < g2 , s0 >
< g0 , s1 > < g1 , s1 > < g2 , s1 >
< g0 , s2 > < g1 , s2 > < g2 , s2 >
En el espacio E del apartado 3. se considera una base {e0 , e1 , e2 , . . . , en }.
Enunciar y demostrar una condición necesaria y suficiente sobre el valor del
determinante
< h0 , e0 > . . . < hn , e0 > ..
..
∆=
.
.
< h0 , en > . . . < hn , en >
para que el problema de interpolación tenga solución única para cada conjunto de números z0 , z1 , . . . , zn . [1]
Resolución. 1. Sea {p0 (x), p1 (x), p2 (x)} la base de V cuya dual es {f0 , f1 , f2 }.
Por definición de base dual se ha de verificar < fi , pj (x) >= δij (deltas de
Kronecker). Llamando p0 (x) = a + bx + cx2 tenemos


< f0 , p0 (x) >= 1
a = 1
< f1 , p0 (x) >= 0 ⇔ b = 0


< f2 , p0 (x) >= 0
2c = 0
Obtenemos pues p0 (x) = 1. Razonando de manera análoga para p1 (x) y
p2 (x), obtenemos p1 (x) = x y p2 (x) = x2 /2. Sea ahora q(x) = α + βx + γx2 ,
imponiendo las condiciones dadas obtenemos α = β = γ = 1, es decir
q(x) = 1 + x + x2 .
2. Sea r(x) = A + Bx + Cx2 . Entonces
76
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS

A=1
r(0) = 0!

B + 2C = 3
r0 (0) + r00 (0) = 1! + 2!
⇔


A + B + 2C = 4
r(0) + r0 (0) + r00 (0) = 0! + 1! + 2!


Las soluciones del sistema son A = 1, B = 3 − 2λ, C = λ con λ ∈ R. El
sistema es indeterminado, por tanto r(x) no está unı́vocamente determinado
por las condiciones dadas. Para λ = 0 (por ejemplo) obtenemos uno de ellos:
r(x) = 1 + 3x. Es claro que g2 = g0 + g1 lo cual implica que {g0 , g1 , g2 } no
es sistema libre y por tanto no es base de V.
3. Supongamos que B ∗ = {h0 , . . . , hn } es base de E ∗ y consideremos la
base B = {u0 , . . . , un } de E cuya dual B ∗ . Consideremos el vector v =
z0 u0 + . . . + zn un . Entonces, por definición de base dual

 < h0 , v >=< h0 , z0 u0 + . . . + zn un >= z0
...

< hn , v >=< hn , z0 u0 + . . . + zn un >= zn
Esto implica que el problema de interpolación tiene solución para cada conjunto de números z0 , . . . , zn . Además, es única pues si otro vector u =
λo u0 + . . . + λun fuera solución, aplicando las condiciones < hi , u >= zi
obtenemos inmediatamente λi = zi para todo i = 0, . . . , n, es decir u = v.
4. Veamos que la condición también es necesaria. Supongamos que para todo
conjunto de números z0 , . . . , zn , el problema de interpolación tiene solución.
Dado que dim E ∗ = dim E = n + 1, para demostrar que {h0 , . . . , hn } es base
de E ∗ basta demostrar que son linealmente independientes. Supongamos que
λ0 h0 + . . . + λn hn = 0
Para todo i = 0, . . . , n, elijamos (z0 , . . . , zn ) = Zi en donde Zi representa el
i-ésimo vector de la base canónica de Rn+1 . Por hipótesis existe un vector
vi ∈ E tal que
< h0 , vi >= 0, < h1 , vi >= 0, . . . , < hi , vi >= 1, . . . , < hn , vi >= 0
Entonces, < λ0 h0 + . . . + λn hn , vi >= λi = 0 para todo i = 0, . . . , n, lo cual
demuestra que {h0 , . . . , hn } es base de E.
5. Tenemos
< f0 , s0 > < f1 , s0 > < f2 , s0 > 1 0 0
< f0 , s1 > < f1 , s1 > < f2 , s1 > = 1 1 0 = 2
< f0 , s2 > < f1 , s2 > < f2 , s2 > 1 1 2
2.20. ESPACIO DUAL. INTERPOLACIÓN
77
< g0 , s0 > < g1 , s0 > < g2 , s0 > 1 0 1
< g0 , s1 > < g1 , s1 > < g2 , s1 > = 1 1 2 = 0
< g0 , s2 > < g1 , s2 > < g2 , s2 > 1 3 4
Veamos que una condición necesaria y suficiente para que el problema de interpolación tenga solución única para cada conjunto de números z0 , z1 , . . . , zn
es que ∆ 6= 0. Como consecuencia de los apartados 3. y 4., basta demostrar
que:
∆ 6= 0 ⇔ h0 , . . . , hn son linealmente independientes
⇒) Sea λo h0 + . . . + λn hn = 0. Entonces

 < λ0 h0 + . . . + λn hn , e0 >= 0
...
⇔

< λ0 h0 + . . . + λn hn , en >= 0

 λ0 < h0 , e0 > + . . . + λn < hn , e0 >= 0
...

λ0 < h0 , en > + . . . + λn < hn , en >= 0
El determinante de la matriz del sistema homogéneo anterior es ∆ 6= 0, por
tanto la única solución es λ0 = . . . = λn = 0.
⇐) Por reducción al absurdo. Si ∆ 6= 0, existe una columna combinación
lineal de las demás. Podemos suponer sin pérdida de generalidad que es la
última. Dado que las aplicaciones lineales están determinadas conociendo
los transformados de una base del espacio inicial, tenemos que hn es de la
forma hn = µ0 h0 + . . . + µn−1 hn−1 y {h0 , . . . , hn } no es base de E ∗ .
78
CAPÍTULO 2. ESPACIOS VECTORIALES, HOMOMORFISMOS
Capı́tulo 3
Formas canónicas
3.1.
Diagonalización según parámetros
Determinar los valores de α ∈ R para los cuales es diagonalizable en R la
matriz


2α + 4 1 − α −2α − α2

4−α
0
A= 0
2
0
0
4−α
[7]
Resolución. El polinomio caracterı́stico de A es
2α + 4 − λ
1−α
−2α − α2 0
4−α−λ
0
|A − λI| = 2
0
0
4 − α − λ
= (2α + 4 − λ)(4 − α − λ)(4 − α2 − λ)
Los valores propios de A son por tanto λ1 = 2α+4, λ2 = 4−α y λ3 = 4−α2 .
Dado que los tres valores propios son reales, la matriz A será diagonalizable
si y sólo si la dimensión da cada subespacio propio coincide con la multiplicidad del mismo. Determinemos que multiplicidades pueden aparecer.
Primer caso: λ1 = λ2 . Entonces, 2α + 4 = 4 − α es decir α = 0. En este caso
el único valor propio es λ1 = 4 (triple). La dimensión del subespacio propio
V4 asociado al valor propio 4 es:


0 1 0
dim V4 = 3 − rg(A − 4I) = 3 − rg 0 0 0 = 3 − 1 = 2
0 0 0
79
80
CAPÍTULO 3. FORMAS CANÓNICAS
La dimensión no coincide con la multiplicidad, por tanto A no es diagonalizable.
Segundo caso: λ1 = λ3 . Entonces, 2α + 4 = 4 − α2 es decir α2 + 2α = 0.
Las soluciones de esta ecuación son α = 0 y α = −2. El caso α = 0 ya
está estudiado. Para α = −2 tenemos los valores propios λ1 = 0 (doble)
y λ2 = 6 (simple). Por ser 6 valor propio simple, dim V6 = 1. Hallemos la
dimensión de V0 :


0 3 0
dim V0 = 3 − rg(A − 0I) = 3 − rg 0 6 0 = 3 − 1 = 2
0 0 0
La matriz es por tanto diagonalizable.
Tercer caso: λ2 = λ3 . Entonces, 4 − α = 4 − α2 es decir α2 − α = 0.
Las soluciones de esta ecuación son α = 0 y α = 1. El caso α = 0 ya
está estudiado. Para α = 1 tenemos los valores propios λ1 = 6 (simple)
y λ2 = 3 (doble). Por ser 6 valor propio simple, dim V6 = 1. Hallemos la
dimensión de V3 :


3 0 −3
0 = 3 − 1 = 2
dim V3 = 3 − rg(A − 3I) = 3 − rg 0 0
0 0
0
La matriz es diagonalizable.
Cuarto caso: λ1 6= λ2 6= λ3 6= λ1 . Es decir, los valores propios son distintos
dos a dos. Esto ocurre para α 6= 0 ∧ α 6= −2 ∧ α 6= 1. Los tres valores
propios son simples, y en consecuencia A es diagonalizable.
De todos los casos analizados concluimos que A es diiagonalizable si y sólo
si α 6= 0.
3.2.
Cálculo de una base de Jordan
Hallar la forma canónica de Jordan J de la matriz


0 −2
2 −1
2
3 −1
1
 ∈ R4×4
A=
2
1
1
1
4
3 −3
4
3.2. CÁLCULO DE UNA BASE DE JORDAN
81
y una matriz invertible P tal que P −1 AP = J
Resolución. Exponemos previamente el método general:
1. Hallamos los valores propios de A.
2. Para cada valor propio λ tenemos que obtener tantos vectores como indica su multiplicidad.
(i ) Si la dimensión del subespacio propio asociado a λ coincide con la multiplicidad de λ elegimos sencillamente una base de dicho subespacio propio.
(ii ) Si la dimensión del subespacio propio asociado a λ es menor que la multiplicidad de λ elegimos vectores e1 , e2 , e3 , . . . satisfaciendo las condiciones:

(A − λI)e1 = 0




(A − λI)e2 = e1
(A − λI)e3 = e2


(A
− λI)e4 = e3



...
El hallar estos vectores equivale a resolver varios sistemas. Si llegado a un
sistema, este resulta ser incompatible, contamos el número de vectores obtenido. Si es igual a la multiplicidad de λ hemos terminado con este valor
propio. Si no es ası́ empezamos a construir una nueva cadena de vectores
e01 , e02 , e03 , . . . satisfaciendo las condiciones:

(A − λI)e01 = 0



(A − λI)e02 = e01
(A − λI)e03 = e02


...
El proceso se termina cuando el número de vectores obtenido coincide con
la multiplicidad de λ. Hay que tener la precaución de elegir el conjunto
cuyos vectores son el primero de cada cadena de tal manera que formen
sistema libre. Se demuestra que repitiendo el proceso anterior para cada
valor propio, la unión de todos los vectores elegidos es una base de Kn . Esta
base BJ = {e1 , e2 , e3 , . . .} es además de Jordan pues:

(A − λI)e1 = 0 ⇔ Ae1 = λe1



(A − λI)e2 = e1 ⇔ Ae2 = e1 + λe2
(A − λI)e3 = e2 ⇔ Ae3 = e2 + λe3


...
En consecuencia la matriz del endomorfismo dado por A en la base canónica
de Kn serı́a en la base BJ :
82
CAPÍTULO 3. FORMAS CANÓNICAS

λ 1 0 ...
0 λ 1 . . .


J = 0 0 λ . . .
 ..
..
.
.
0 0 0 ...

0
0

0



µ
Ahora, para la matriz dada seguimos el método anteriormente expuesto:
1. Hallamos los valores propios de A:
−λ
−λ
0
2
−1
−2
2
−1
2
2−λ
−1
1 3−λ
−1
1 2
=
=
2
2−λ 1−λ
1 1
1−λ
1 2
4
0
−3
4 − λ
3
−3
4 − λ 4
−λ
0
2
−1 −λ
2
−1 2
2−λ
−1
1 0 =
= (2 − λ) 0 2 − λ
0
0
2
−
λ
0 4
−3 4 − λ
4
0
−3
4 − λ
−λ −1 2
= (λ − 2)2 (λ2 − 4λ + 4) = (λ − 2)4 = 0
(2 − λ) 4 4 − λ
El único valor propio es λ = 2 (cuádruple).
2. Tenemos que hallar cuatro vectores asociados al valor propio 2. La dimensión del subespacio propio asociado V2 es:


−2 −2
2 −1
 2
1 −1
1
 = ... = 4 − 2 = 2
dim V2 = 4 − rg(A − 2I) = 4 − rg 
 2
1 −1
1
4
3 −3
2
Buscamos pues vectores e1 , e2 , e3 , . . . cunpliendo

(A − λI)e1 = 0



(A − λI)e2 = e1
(A − λI)e3 = e2



...
Como los sistemas a resolver son todos del mismo tipo, en vez de resolverlos
uno a uno, resolvemos el sistema general:

   
−2 −2
2 −1 x1
h1
 2




1 −1
1  x2  h2 
 (1)
(A − 2I)x = h ⇔ 
=
 2
1 −1
1  x3  h3 
h4
4
3 −3
2
x4
3.2. CÁLCULO DE UNA BASE DE JORDAN
83
Aplicando el método de Gauss obtenemos que el sistema (1) es compatible
si y sólo si se verifica h2 − h3 = 0 y h1 − h2 + h4 = 0 (condiciones de
compatibilidad) y la solución general es
x1 = − 21 β + 12 h1 + h2 , x2 = α − h1 − h2 , x3 = α, x4 = β
con α, β ∈ R arbitrarios. Procedamos a hallar los vectores e1 , e2 , e3 , . . .
Vector e1 . En este caso, h1 = h2 = h3 = h4 = 0 y la solución general de (1)
es e1 = (−β/2, α, α, β). Este vector x estará de h en el siguiente sistema,
ası́ que le imponemos las condiciones de compatibilidad, es decir α − α = 0
y −β/2 − α + β = 0. En consecuencia podemos elegir α = 1, β = 2 y obtenemos el vector e1 = (−1, 1, 1, 2)t .
Vector e2 . En este caso, h1 = −1, h2 = h3 = 1, h4 = 2 y la solución general
de (1) es e2 = (−β/2 + 1/2, α, α, β). Este vector x estará de h en el siguiente
sistema, ası́ que le imponemos las condiciones de compatibilidad, es decir
α − α = 0 y −β/2 + 1/2 − α + β = 0. En consecuencia podemos elegir
α = 0, β = −1 y obtenemos el vector e2 = (1, 0, 0, −1)t .
Vector e3 . En este caso, h1 = 1, h2 = h3 = 0, h4 = −1 y la solución general
de (1) es e3 = (−β/2 + 1/2, α − 1, α, β). Este vector x estará de h en el
siguiente sistema, ası́ que le imponemos las condiciones de compatibilidad.
Pero la primera condición es α − 1 − α = 0 que no se cumple para ningún
valor de α y β. Por tanto el siguiente sistema no es compatible. Elegimos
por ejemplo α = 0, β = −1 y obtenemos el vector e3 = (0, −1, 0, 1)t .
Hemos encontrado tres vectores asociados al valor propio 2 y necesitamos
cuatro. Construimos una nueva cadena de vectores e01 , e02 , e03 , . . . satisfaciendo
las condiciones:

 (A − λI)e01 = 0
(A − λI)e02 = e01

...
(en realidad sólo necesitamos uno: e01 )
Vector e01 . En este caso, h1 = h2 = h3 = h4 = 0 y la solución general de (1)
es e1 = (−β/2, α, α, β). No imponemos condiciones de compatibilidad pues
no hay ningún vector más que hallar. Elegimos por ejemplo α = 1, β = 0 y
obtenemos el vector e01 = (−0, 1, 1, 0)t que es linealmente independiente con
e1 . Una base de Jordan BJ es por tanto
84
CAPÍTULO 3. FORMAS CANÓNICAS
e1 = (−1, 1, 1, 2)t , e2 = (1, 0, 0, −1)t ,e3 = (0, −1, 0, 1)t , e01 = (0, 1, 1, 0)t
Se verifican las relaciones

(A − 2I)e1 = 0 ⇔ Ae1 = 2e1



(A − 2I)e2 = e1 ⇔ Ae2 = e1 + 2e2
(A − 2I)e3 = e2 ⇔ Ae3 = e2 + 2e3



(A − 2I)e01 = 0 ⇔ Ae01 = 2e01
La forma canónica de Jordan de A es por tanto


2 1 0 0
0 2 1 0

J =
0 0 2 0
0 0 0 2
La matriz de cambio P sabemos que es aquella cuyas columnas son los
vectores de la nueva base BJ , es decir


−1
1
0 0
 1
0 −1 1

P =
 1
0
0 1
2 −1
1 0
3.3.
Potencia enésima por forma de Jordan


2 6 −15
Se considera la matriz A = 1 1 −5  .
1 2 −6
(a) Determinar la forma canónica de Jordan J de A y una matriz P invertible
tal que P −1 AP = J.
(b) Como aplicación del apartado anterior, hallar An (n ∈ N).
Resolución. (a) Hallemos los valores propios de A. Para ello efectuamos
la transformación F3 − F2 y a continuación C2 + C3 :
2 − λ
6
−15 6
−15 2 − λ
1+λ
−5 1−λ
−5 = 1
|A − λI| = 1
1
0
1 + λ −1 − λ
2
−6 − λ
2 − λ
−9
−15 2 − λ
−9 −4 + λ
−5 = (−1 − λ) = 1
1
−4 − λ
0
0
−1 − λ
= (−1 − λ)(λ2 + 2λ + 1) = −(λ + 1)(λ + 1)2 = (λ + 1)3
3.3. POTENCIA ENÉSIMA POR FORMA DE JORDAN
85
El único valor propio de A es por tanto λ = −1 (triple). La dimensión del
subespacio propio V−1 asociado es:


3 6 −15
dim(V−1 ) = 3 − rg(A + I) = 3 − rg 1 2 −5  = 3 − 1 = 2
1 2 −5
La dimensión no coincide con la multiplicidad, y por tanto A no es diagonalizable. Los posibles polinomios mı́nimos son µ1 (λ) = λ + 1, µ2 (λ) = (λ + 1)2
o µ3 (λ) = (λ + 1)3 . Se verifica µ1 (A) = A + I 6= 0 y µ2 (A) = (A + I)2 = 0,
es decir el polinomio mı́nimo de A es µ2 (λ) = (λ + 1)2 . Como consecuencia
la forma canónica de Jordan de A es:


−1
1
0
0
J =  0 −1
0
0 −1
Una base de Jordan BJ = {e1 , e2 , e3 } en R3 para la matriz A será pues una
base satisfaciendo las condiciones:


 Ae1 = −e1
 (A + I)e1 = 0
Ae2 = e1 − e2 o bien (A + I)e2 = e1


Ae3 = −e3
(A + I)e3 = 0
Tenemos que resolver sistemas del tipo (A + I)x = h con x = (x1 , x2 , x3 )t y
h = (h1 , h2 , h3 ), es decir sistemas del tipo

   
3 6 −15
x1
h1
(A + I)x = h ⇔ 1 2 −5  x2  = h2 
1 2 −5
x3
h3
(1)
Aplicando el método de Gauss obtenemos que el sistema (1) es compatible
si y sólo si se verifica h1 = 3h2 y h2 = h3 (condiciones de compatibilidad) y
la solución general es

x1 = h2 − 2α + 5β
x2 = α

x3 = β
(α, β ∈ R)
Vector e1 . En este caso, h1 = h2 = h3 = 0 y la solución general de (1)
es e1 = (−2α + 5β, α, β). Este vector ”x.estará de h en el siguiente sistema, ası́ que le imponemos las condiciones de compatibilidad, es decir
−2α + 5β = 3α y α = β. En consecuencia podemos elegir α = β = 1 y
86
CAPÍTULO 3. FORMAS CANÓNICAS
obtenemos el vector e1 = (3, 1, 1)t .
Vector e2 . En este caso, h1 = 3, h2 = h3 = 1 y la solución general de
(1) es e2 = (1 − 2α + 5β, α, β). Eligiendo α = β = 0 obtenemos el vector
e2 = (1, 0, 0)t .
Vector e3 . Como en el caso de e1 la solución general de (1) es e1 = (−2α +
5β, α, β). Elegimos α y β de tal manera que e1 y e3 sean linealmente independientes, por ejemplo α = 1, β = 0 con lo cual obtenemos el vector
e3 = (−2, 1, 0)t .
En consecuencia, una matriz P que satisface

3
P = e1 e2 e3 = 1
1
P −1 AP = J es

1 −2
0
1
0
0
(b) Despejando A de la relación P −1 AP = J obtenemos A = P JP −1 y por
tanto
An = (P JP −1 )(P JP −1 ) . . . (P JP −1 ) = P J n P −1
La matriz J es diagonal por cajas:
n
J1 0
J1 0
−1
1
n
∧ J2 = [−1] ⇒ J =
⇒J =
J1 =
0 J2
0 J2n
0 −1
Tenemos J2n = [(−1)n ], y para hallar J1n expresamos:
0 1
1 0
, N=
J1 = −I + N con I =
0 0
0 1
Dado que −I conmuta con N y que N 2 = 0, obtenemos aplicando la fórmula
del binomio de Newton:
1 −n
n
n
n
n−1
n
J1 = (−I + N ) = (−I) + n(−I)
N = (−1)
0
1
Usando que An = P J n P −1 obtenemos




−1
3 1 −2
1 −n 0 3 1 −2
1  (−1)n 0
1 0 1 0
1
An = 1 0
1 0
0
0
0 1
1 0
0


1 − 3n −6n
15n
n
−n
1 − 2n
5n 
= (−1)
−n
−2n 1 + 5n
3.4. LOGARITMO DE UNA MATRIZ
3.4.
87
Logaritmo de una matriz
Sean:


0 −2 −2
3
1  ∈ R3×3
(i ) A = 1
0
0
2
(ii ) S el conjunto formado por todas las matrices de R3×3 tales que son
diagonalizables y tienen todos los valores propios mayores que cero.
(iii ) La función log : S → R3×3 que cumple las propiedades:
a) Si D = diag(a, b, c) entonces log D = diag(log a, log b, log c).
b) Si M, N ∈ S, P ∈ R3×3 con P invertible y M = P −1 N P entonces
log M = P −1 (log N )P .
Se pide:
1.
2.
3.
4.
Estudiar si S es un subespacio vectorial de R3×3 .
Comprobar que A ∈ S.
Calcular log A.
Estudiar si se verifica la igualdad log(M N ) = log M + log N . [2]
Resolución. Observación previa: Aunque no se pide explı́citamente, demostremos que la función log dada está bien definida. En efecto, para D =
diag(a, b, c) con a, b, c positivos, existen log a, log b, log c y pertenecen a R.
Por tanto existe log D ∈ R3×3 .
Sea ahora una matriz A ∈ S cualquiera. Entonces, existe una matriz P ∈
R3×3 invertible tal que P −1 AP = D y por la hipótesis b) será log D =
P −1 (log A)P o bien log A = P (log D)P −1 . Tenemos que demostrar que log A
no depende de la elección de P . En efecto, supongamos que A = QDQ−1 ,
tenemos:
A = QDQ−1 ⇒ P DQ−1 = QDQ−1 ⇒ D = P −1 AP = P −1 QDQ−1 P =
(Q−1 P )−1 D(Q−1 P ) ⇒ (por b) log D = (Q−1 P )−1 (log D)(Q−1 P ) =
P −1 Q(log D)Q−1 P ⇒ P (log D)P −1 = Q(log D)Q−1
1. La matriz 0 de R3×3 es diagonalizable (ella misma es diagonal) con valor
propio λ = 0 (triple). En consecuencia, 0 6∈ S y por tanto S no es subespacio
de R3×3 .
2. Polinomio caracterı́stico de A :
88
CAPÍTULO 3. FORMAS CANÓNICAS
−λ
χ(λ) = 1
0
−2
3−λ
0
−2 1 = (2 − λ)(λ2 − 3λ + 2) = −(λ − 2)2 (λ − 1)
2 − λ
Los valores propios de A son λ1 = 2 (doble) y λ2 = 1 (simple). La dimensión
de ker(A − λ2 I) es 1 por ser λ1 simple. La dimensión de ker(A − λ1 I) es:


−2 −2 −2
1
1 = 3 − 1 = 2
dim(ker(A − 2I)) = 3 − rg  1
0
0
0
La matriz A es por tanto diagonalizable con matriz diagonal D = diag(2, 2, 1)
y como consecuencia, A ∈ S.
3. Hallemos bases de los subespacios propios:

   
−2 −2 −2 x1
0
1
1  x2  = 0
ker(A − 2I) ≡  1
0
0
0
x3
0

   
−1 −2 −2 x1
0
2
1  x2  = 0
ker(A − I) ≡  1
0
0
1
x3
0
Unas bases respectivas son B2 = {(−1, 1, 0), (−1, 0, 1)} , B1 = {(2, −1, 0)}.
Por tanto, una matriz P tal que P −1 AP = D es:


−1 −1
2
0 −1
P = 1
0
1
0
y la matriz log A = P (log D)P −1 es:




log 2
0
0
− log 2 −2 log 2 −2 log 2
log 2
0  P −1 = . . . =  log 2
2 log 2
log 2 
log A = P  0
0
0
log 1
0
0
log 2
4. Dadas M, N ∈ S para que se verifique la igualdad log(M N ) = log M +
log N es necesario que M N ∈ S . Veamos que esto no siempre ocurre. En
efecto, consideremos por ejemplo las matrices:




2 0 0
0 −2 −2
3
1
M = 0 2 0 , N = 1
0 0 1
0
0
2
3.5. DETERMINANTE CON DIAGONALIZACIÓN
89
La matriz M pertenece a S y la matriz N la hemos elegido de tal manera que
tenga el mismo polinomio caráctrı́stico que M , es decir χ(λ) = (λ−2)2 (λ−1).
Es fácil comprobar que N ∈ S, sin embargo la matriz


0 −4 −4
6
2
M N = 2
0
0
2
no es diagonalizable como facilmente se comprueba. Es decir, M N 6∈ S y
por tanto no es cierto en general que log(M N ) = log M + log N .
3.5.
Determinante con diagonalización
Sea n ∈ N∗ , An ∈ Rn×n y Dn = |An |. En todo lo que sigue supondremos la
existencia de p, q ∈ R tales que si n > 2, Dn = pDn−1 + qDn−2 . Se pide:
1. Si q = 0, hallar Dn en función de p, n, D2 .
2. Si q 6= 0 y r, s son las raı́ces que suponemos distintas de la ecuación
x2 − px − q = 0, hallar Dn en función de D1 , D2 , r, s, n.
1 1
3. Si A2 =
hallar |A−1
5 | cuando p = 2, q = 0.
1 5
4. Calcular el determinante de la matriz:

2
7 5 0 ... 0
2 7 5 . . . 0


0 2 7 . . . 0

 ∈ Rn×n
 ..
.. 
.
.
0 0 0 ... 7
[2]
Resolución. 1. Para q = 0 tenemos:
D3 = pD2
D4 = pD3 = p(pD2 ) = p2 D2
D5 = pD4 = p(p2 D2 ) = p3 D2
...
Se deduce inmediatamente por inducción que Dn = pn−2 D2 si n > 2.
2. La relación Dn = pDn−1 + qDn−2 se puede escribir en la forma:
90
CAPÍTULO 3. FORMAS CANÓNICAS
Dn
p q Dn−1
Dn−1
=
=M
Dn−1
1 0 Dn−2
Dn−2
t
Llamando Xk = Dk Dk−1 obtenemos:
Xn = M Xn−1 = M 2 Xn−2 = M 3 Xn−3 = . . . = M n−2 X2 = M n−2 X2
Es decir, obtenemos la relación:
Dn
D2
n−2
=M
Dn−1
D1
Hallemos M n−2 por diagonalización. Valores propios de M :
p−x q
det(M − xI) = det
= x2 − px − q
1
−x
cuyas raı́ces son por hipótesis r, s con r 6= s lo cual asegura que M es
diagonalizable. Los subespacios propios son:
p−r q
x1
0
ker(M − rI) ≡
=
1
−r x2
0
x1
p−s q
0
ker(M − sI) ≡
=
1
−s x2
0
Unas bases son Br = {(r, 1)} , Bs = {(s, 1)} respectivamente. Se verifica
pues:
r s
r 0
−1
yP =
M = P DP con D =
1 1
0 s
Entonces:
Dn
D2
D2
n−2
n−2
−1
=M
= PD
P
=
Dn−1
D1
D1
n−2
1
r
0
1 −s D2
·
=
0
sn−2 r − s −1
r D1
n−1
1
(r
− sn−1 )D2 + rs(sn−2 − rn−2 D1 )
r − s (rn−2 − sn−2 )D2 + rs(sn−3 − rn−3 D1 )
r s
1 1
Queda por tanto:
Dn =
(rn−1 − sn−1 )D2 + rs(sn−2 − rn−2 )D1
r−s
(1)
3.6. DIAGONALIZACIÓN EN CN [Z]
91
3. Por el apartado 1 tenemos D5 = p3 D2 , en consecuencia:
−1 A =
5
1
1
1
1
1
= 3
=
=
=
|A5 |
D5
p D2
8·4
32
4. El determinante pedido es el cuadrado
7 5 0
2 7 5
Dn = 0 2 7
..
.
0 0 0
del determinante Dn :
. . . 0
. . . 0
. . . 0
.. .
. . . 7
Desarrollando por la primera colummna obtenemos Dn = 7Dn−1 − 10Dn−2 .
Es decir, estamos en el caso del apartado 2 con p = 7, q = 10. Las raı́ces de
x2 − 7x + 10 = 0 son r = 5, s = 2. Teniendo en cuenta que D2 = 39, D1 = 7
y sustituyendo en (1):
Dn =
1
39(5n−1 − 2n−1 ) + 70(2n−2 − 5n−2 )
3
y la solución es Dn2 .
3.6.
Diagonalización en Cn [z]
Sea n ∈ N∗ . En el espacio vectorial Cn [z] sobre C de los polinomios complejos
de grado menor o igual que n se considera la aplicación:
1−z
n
fn : Cn [z] → Cn [z], fn [p(z)] = (1 + z) p
1+z
1. Estudiar la linealidad de fn .
2. Obtener fn (pk ) siendo pk (z) = (1+z)k con 0 ≤ k ≤ n. Determinar fn ◦fn .
3. Calcular los polinomios caracterı́stico y mı́nimo ası́ como los valores propios de f3 .
4. Determinar los subespacios propios de f3 . ¿Es diagonalizable f3 ? [2]
P
Resolución. 1. Veamos que fn está bien definida. Sea p(z) = dk=0 ak z k ∈
Cn [z] de grado d ≤ n, entonces:
fn [p(z)] = (1 +
z)n p
d
X
k=0
1−z
1+z
= (1 +
z)n
d
X
ak
k=0
ak (1 − z)k (1 + z)n−k ∈ Cn [z]
1−z
1+z
k
=
92
CAPÍTULO 3. FORMAS CANÓNICAS
Veamos que fn es lineal. En efecto, para todo λ, µ ∈ C y para todo p(z), q(z) ∈
Cn [z] tenemos:
1−z
fn [λp(z) + µq(z)] = (1 +
+ µq)
=
1+z
1−z
1−z
+ µq
=
(1 + z)n λp
1
+
z
1+
z
1−z
1−z
λ(1 + z)n p
+ µ(1 + z)n q
=
1+z
1+z
λfn [p(z)] + µfn [q(z)]
z)n (λp
2. Tenemos:
z)n p
fn [pk (z)] = (1 +
(1 + z)n ·
k
1−z
1+z
= (1 +
z)n
1−z k
1+
=
1+z
2k
= 2k (1 + z)n−k = 2k pn−k (z)
(1 + z)k
Determinemos fn ◦ fn :
1−z
n
=
(fn ◦ fn )[p(z)] = fn [fn (p(z))] = fn (1 + z) p
1 +z
n 1−z
1 − ((1 − z)/(1 + z))
(1 + z)n 1 +
p
=
1+z
1 + ((1 − z)/(1 + z))
n
2
(1 + z)n ·
· p(z) = 2n p(z) = 2n I[p(z)] ⇒ fn ◦ fn = 2n I
(1 + z)n
3. Una base de C3 [z] es:
B = p0 (z) = 1, p1 (z) = 1 + z, p2 (z) = (1 + z)2 , p3 (z) = (1 + z)3
Según el apartado 2:
f3 (p0 ) = p3 , f3 (p1 ) = 2p2 , f3 (p2 ) = 22 p1 , f3 (p3 ) = 23 p0
La matriz de f3 en B es por tanto:

0
0
A=
0
1
Su polinomio caracterı́stico es:
0
0
2
0
0
4
0
0

8
0

0
0
3.7. POTENCIA ENÉSIMA POR DIAGONALIZACIÓN
93
−λ
0
0
8 −λ
0 −λ
4
0 4 0 −λ
4
0
0 − 8 0
2 −λ =
= (−λ) 2 −λ
χ(λ) = 0
2
−λ
0 0
0 −λ
1
0
0
1
0
0 −λ
√
√
λ2 (λ2 − 8) − 8(λ2 − 8) = (λ2 − 8)2 = (λ + 2 2)2 (λ − 2 2)2
√
√
Los valores propios de f3 son λ1 = 2 2, λ2 = −2 2 (dobles). El polinomio
mı́mimo µ(λ) de f3 tiene que dividir a χ(λ) y tener los mismos
√ factores
√ irreducibles. El de menor grado que cumple esto es p(λ) = (λ−2 2)(λ+2 2) =
λ2 −8. Ahora bien, por el apartado 2, tenemos f3 ◦f3 = 23 I o bien f32 −8I = 0.
Esto implica √
que p(f3 ) √= 0 y por tanto el polinomio mı́mimo de f3 es
µ(λ) = (λ − 2 2)(λ + 2 2).
4. Dado que (f3 − λ1 I)(f3 − λ2 I) = 0 siendo λ1 , λ2 los diferentes valores
propios de f3 , se concluye que este endomorfismo es diagonalizable por
aplicación de un conocido teorema. Hallemos los subespacios propios:
 √
   
0
8
− 8
x1
0
√0

 0 − 8



0  x2  0

√4
V1 = ker(f3 − λ1 I) ≡ 
 x3  = 0
 0
2 − 8
√0
0
1
0
0 − 8 x4
   
√
8 √0
0
8 x1
0
 x2  0
 0
8
4
0
  =  
√
V2 = ker(f3 − λ2 I) ≡ 
 0 2
8 √0 x3  0
0
1 0
0
8 x4
Resolviendo obtenemos sendas bases de V1 y V2 :
√
√
√
√
B1 = (2 2, 0, 0, 1), (0, 2, 1, 0) , B2 = (−2 2, 0, 0, 1), (0, − 2, 1, 0)
bases que están expresadas en coordenadas en B = {p0 (z), p1 (z), p2 (z), p3 (z)},
en consecuencia unas bases de los subespacios propios son:
√
√
B1 = 2 2 + p3 (z), 2p1 (z) + p2 (z)
√
√
B2 = −2 2 + p3 (z), − 2p1 (z) + p2 (z)
3.7.
Potencia enésima por diagonalización
1. Sea A una matriz cuadrada de orden n con elementos en un cuerpo K
y diagonalizable. Deducir una fórmula para An en función de la correspondiente matriz diagonal y la matriz de paso.
2. Calcular la potencia enésima de la matriz
94
CAPÍTULO 3. FORMAS CANÓNICAS


1 −3 3
A = 3 −5 3
6 −6 4
Resolución. 1. Si A es diagonalizable, sabemos que existe una matriz
invertible P ∈ Kn×n tal que P −1 AP = D siendo D = diag(λ1 , . . . , λn )
con λi los correspondientes valores propios de A. Despejando A obtenemos
A = P DP −1 y elevando a n:
An = (P DP −1 )(P DP −1 ) . . . (P DP −1 ) = P Dn P −1
2. Valores propios de A:
1 − λ
−3
3 −2 − λ
−3
3 3
−5 − λ
3 = −2 − λ −5 − λ
3 =
6
−6
4−λ
0
−6
4 − λ
−2 − λ
−3
3 0
−2 − λ
0 = (−2 − λ)2 (4 − λ) = 0 ⇔
0
−6
4 − λ
λ1 = 4 (simple) o λ2 = −2 (doble)
(hemos sumado a la primera columna la segunda y posteriormente hemos
restado a la segunda fila la primera). La matriz A tiene tres valores reales
en R (repetidos o no). Por otra parte la dimensión del subespacio propio
asociado a λ1 = 4 es 1 por ser λ1 simple. La dimemsión del subespacio
propio asociado a λ1 = −2 es


3 −3 3
dim Vλ2 = 3 − rg(A + 2I) = 3 − rg 3 −3 3 = 3 − 1 = 2
6 −6 6
Por tanto, A tiene tres valores propios reales y la dimensión de cada subespacio propio coincide con la multiplicidad del correspondiente valor propio:
A es diagonalizable en R. Las ecuaciones de los subespacios propios son


−3x1 − 3x2 + 3x3 = 0
3x1 − 3x2 + 3x3 = 0
3x1 − 9x2 + 3x3 = 0
Vλ2 ≡ 3x1 − 3x2 + 3x3 = 0
V λ1 ≡


6x1 − 6x2 = 0
6x1 − 6x2 + 6x3 = 0
y unas bases respectivas Bλ1 = {(1, 1, 2)} y Bλ2 = {(1, 1, 0), (−1, 0, 1)}.
Trasponiendo obtenemos la correspondiente matriz P :


1 1 −1
0
P = 1 1
2 0
1
3.8. POTENCIA ENÉSIMA POR CAYLEY-HAMILTON
95
en consecuencia



−1
1 1 −1 4n
0
0
1 1 −1
0   0 (−2)n
0  1 1
0 =
An = P Dn P −1 = 1 1
n
2 0
1
0
0
(−2)
2 0
1
 n

n
n
n
n
n
4 + (−2)
−4 + (−2)
4 − (−2)
1
−4n + 3(−2)n
4n − (−2)n 
. . . =  4n − (−2)n
2
n
n
n
n
2 · 4 − 2(−2) −2 · 4 + 2(−2)
2 · 4n
3.8.
Potencia enésima por Cayley-Hamilton
Dada la matriz real A =
1 n
−14 25
A . [1]
, calcular lı́m
n→+∞ n
−9 16
Resolución. Polinomio caracterı́stico de A:
χ(λ) = det(A − λI) = λ2 − tr(A)λ + det A = λ2 − 2λ + 1 = (λ − 1)2
El único valor propio de la matriz es por tanto λ = 1 (doble). Fácilmente
se comprueba que A no es diagonalizable. Usaremos el teorema de CayleyHamilton. Efectuando la división euclı́dea de λn entre χ(λ) obtenemos:
λn = q(λ)(λ − 1)2 + αλ + β
(1)
Sustituyendo λ por A en (1) y usando el teorema de Cayley-Hamilton
An = q(A)(λ − I)2 + αA + βI = q(A) · 0 + αA + βI = αA + βI
(2)
Sustituyendo el valor propio λ = 1 en (1) obtenemos 1 = α+β. Derivando la
igualdad (1): nλn−1 = q 0 (λ)(λ − 1)2 + 2(λ − 1)q(λ) + α. Sustituyendo en esta
ultima expresión de nuevo λ = 1 obtenemos n = α, con lo cual β = 1 − n.
Como consecuencia de (2):
An
−14 25
1 0
−15n + 1
25n
= nA + (1 − n)I = n
+ (1 − n)
=
−9 16
0 1
−9n
15n + 1
Por tanto
1 −15n + 1
1 n
25n
−15 25
A = lı́m
=
n→+∞ n
n→+∞ n
−9n
15n + 1
−9 15
lı́m
96
CAPÍTULO 3. FORMAS CANÓNICAS
3.9.
Lı́mite de una sucesión matricial
Sea f : R2 → R2 una aplicación lineal cuya matriz respecto de la base
canónica es A. Se sabe que f (2, −1) = (1, −1) y que f (1, −2) = (2, −4).
1. Determinar A.
2. Hallar los valores y vectores propios de f.
3. Calcular una matriz P tal que P −1 AP sea diagonal y comprobar el resultado.
1
1 2
1 n
4. Hallar lı́m I + A + 2 A + . . . + n A . [2]
n→∞
3
3
3
Resolución. 1. Denominemos por Bc = {e1 , e2 } a la base canónica de R2 .
Entonces, de los datos y teniendo en cuenta que f es lineal:
f (2e1 − e2 ) = e1 − e2
o bien
f (e1 − 2e2 ) = 2e1 − 4e2
2f (e1 ) − f (e2 ) = e1 − e2
f (e1 ) − 2f (e2 ) = 2e1 − 4e2
Resolviendo el sistema obtenemos f (e1 ) = 23 e2 , f (e2 ) = −e1 + 73 e2 y traspo
0 −1
niendo coeficientes: A = 2
7 .
3
3
2. Valores propios de A :
−λ −1 2
= λ2 − 7 λ +
7
3
−
λ
3
3
2
3
=0⇔λ=2 ∨ λ=
1
3
(simples)
Subespacios propios:
ker(A − 2I) ≡
−2x1 − x2 = 0
1
2
3 x1 + 3 x2 = 0
ker(A −
1
3 I)
≡
− 13 x1 − x2 = 0
2
3 x1 + 2x2 = 0
Como ambos valores propios son simples, la dimensión de sus subespacios propios es 1, y unas bases respectivas de éstos son B2 = {(1, −2)} y
B1/3 = {(3, −1)}.
3. La matriz de f en la base B = {(1, −2), (3, −1)} es D = diag (2, 1/3) y
la matriz de cambio de la base canónica a la B es:
1
3
P =
−2 −1
En consecuencia se verifica P −1 AP = D o de forma equivalente AP = P D.
Comprobemos el resultado:
3.10. FORMAS DE JORDAN DE AB Y BA
97
1
3
2
1
0 −1
=
7
2
−2 −1
−4 − 13
3
3
1
3 2 0
2
1
PD =
=
−2 −1 0 31
−4 − 13
AP =
4. De la relación P −1 AP = D se deduce A = P DP −1 y por tanto Ak =
P DP −1 P DP −1 . . . P DP −1 = P Dk P −1 . La expresión En bajo el lı́mite la
podemos escribir en la forma:
1
1
1
En = I + A + 2 A2 + . . . + n An
3
3
3
1
1
1
= P IP −1 + P DP −1 + 2 P D2 P −1 + . . . + n P Dn P −1
3
3
3
1
1 2
1 n
−1
= P I + D + 2D + ... + nD P
3
3
3
2
1 2 0
1 2
1 2n 0
1 0
0
=P
+
+ 2
+ ... + n
P −1
0 1
0 31n
3 0 13
3 0 312
3
2
n
1 + 32 + 23 + . . . + 23
0
=P
P −1
1
0
1 + 312 + 314 + . . . + 32n
 n+1

2
−
1
3
0
 2

 3 −1
 −1
=P
P
1


−
1
9n+1
0
1
9 −1
En donde hemos aplicado la conocida fórmula de la suma de los términos
de una progresión geométrica. Teniendo en cuenta que si |a| < 1 entonces
an → 0 cuando n → ∞ y que las matrices P y P −1 son constantes (no
dependen de n), el lı́mite pedido es:



lı́m En = P lı́m 
n→∞
n→∞ 
2 n+1
−
3
2
3 −1
0
1

0

3 0
 −1
P −1
P = P
0 98
− 1
1
9n+1
1
9 −
1
3 10 −33
1
3 3 0 1 −1 −3
=
=
1
51
−2 −1 0 98 5 2
40 10
3.10.
Formas de Jordan de AB y BA
Sean A y B dos matrices cuadradas de orden n. En general AB y BA son
matrices distintas, y sin embargo tienen atributos iguales. Por ejemplo, se
98
CAPÍTULO 3. FORMAS CANÓNICAS
verifica det(AB) = det(BA). El objetivo de este ejercicio es, además de evaluar a los alumnos, estudiar algunas otras caracterı́sticas comunes.
a) Demostrar que AB y BA tienen el mismo polinomio caracterı́stico y los
mismos valores propios.
Indicación: Efectuar los productos por cajas CD y DC, y comparar det(CD)
con det(DC).
λI A
−I
0
C=
, D=
B I
B −λI
b) A la vista del resultado anterior es natural preguntar ¿AB y BA tienen
la misma forma de Jordan?, y en particular, ¿si una de ellas es diagonalizable, lo es tambien la otra?. Las respuestas son afirmativas al menos en
el caso particular de suponer A o B invertibles. En efecto, en este caso demostrar que si J es la forma canónica de Jordan de AB con matriz de paso
P (J = P −1 (AB)P ), entonces J es también la forma normal de Jordan de
BA. Determinar una matriz invertible Q tal que J = Q−1 (BA)Q.
Indicación: Utilizar la igualdad AB = A(BA)A−1 cuando se supone A inverible y otra igualdad análoga cuando se supone B invertible.
c) Construir un contraejemplo para mostrar que las respuestas a las preguntas de b) no siempre son afirmativas. Estudiar si la condición A o B
invertible es necesaria para que AB y BA tengan la misma forma normal
de Jordan. [1]
Resolución. a) Hallemos los productos CD y DC:
−λI + AB −λA
0
λI A −I
=
CD =
0
−λI
B −λI
B I
−I
0
DC =
B −λI
λI A
−λI
−A
=
B I
0
BA − λI
Usando que det(CD) = det(DC) obtenemos:
det(AB − λI)(−λ)n = (−λ)n det(BA − λI)
Queda det(AB − λI) = det(BA − λI) es decir, AB y BA tienen el mismo
polinomio caracterı́stico y como consecuencia los mismos valores propios.
b) Por hipótesis J = P −1 (AB)P . Entonces:
3.11. MODELO DE POBLACIONES
99
J = P −1 (AB)P = P −1 [A(BA)A−1 ] = P −1 A(BA)A−1 P =
(A−1 P )−1 (BA)(A−1 P )
Es decir, para Q = A−1 P tenemos J = Q−1 (BA)Q lo cual implica que la
forma de Jordan de BA es J (la misma que la de AB). El razonamiento es
totalmente análogo si se considera B invertible.
c) Consideremos las matrices:
1 0
A=
,
0 0
0 1
B=
0 0
Entonces:
0 1
AB =
,
0 0
0 0
BA =
0 0
Las matrices AB y BA no tienen la misma forma de Jordan, lo cual implica
que la respuesta a la primera pregunta del apartado b) no siempre es afirmativa. Por otra parte, eligiendo A = 0 y B = 0 tenemos AB = BA = 0, es
decir AB y BA tienen la misma forma de Jordan sin ser necesario que A o
B sean invertibles.
3.11.
Modelo de poblaciones
Una ciudad A es de tránsito, estimándose que de los habitantes que tiene
al principio de cada año, al final del mismo han emigrado 2/3 a una cierta
región geográfica B y 1/3 a otra región C. Por otra parte y durante ese mismo
año, 1/3 de la población de B y 1/3 de la población de C se establece en A.
Calcular las poblaciones en régimen estacionario, es decir al final de n años
con n → ∞, sabiendo que en un determinado año las poblaciones de A, B y
C eran respectivamente 60, 200 y 300.
Resolución. Denotemos Xk = (xkA , xkB , xkC )t siendo xkA , xkB y xkC las
poblaciones de A, B y C respectivamente al principio del año k. De los datos
proporcionados:

xk+1,A = − 32 xk,A − 31 xk,A + 13 xk,B + 31 xk,C + xk,A
xk+1,B = 32 xk,A − 13 xk,B + xkB

xk+1,C = 13 xk,A − 13 xk,C + xkC
En forma matricial:
100
CAPÍTULO 3. FORMAS CANÓNICAS

 


xk+1,A
0 1/3 1/3
xk,A
xk+1,B  = 2/3 2/3 0  xk,B  o bien Xk+1 = AXk
xk+1,C
1/3 0 2/3
xk,C
Por tanto Xn = AXn−1 = A2 Xn−2 = A3 Xn−3 = . . . = An X0 . Llamemos


0 1 1
M = 2 2 0
1 0 2
De A = (1/3)M se deduce que An = (1/3)n M n . Para hallar los autovalores
de M restamos en |M −λI| a la tercera columna la segunda y posteriormente
sumamos a la segunda fila la tercera.
−λ
−λ
1
1
1
0
0 = 2 2 − λ −2 + λ
|M − λI| = 2 2 − λ
1
0
2 − λ 1
0
2 − λ
−λ
1
0 0 = (2 − λ)(λ2 − 2λ − 3) = 0
= 3 2−λ
1
0
2 − λ
⇔ λ = 2 ∨ λ = 3 ∨ λ = −1 (simples)
Los respectivos autoespacios y una base de cada uno de ellos son :

−2x1 + x2 + x3 = 0
2x1 = 0
V2 ≡

x1 = 0

−3x1 + x2 + x3 = 0
2x1 − x2 = 0
V3 ≡

x1 − x3 = 0
V−1

x1 + x2 + x3 = 0
2x1 + 3x2 = 0
≡

x1 + 3x3 = 0
BV2 = {(0. − 1, 1)t }
BV3 = {(1, 2, 1)t }
BV−1 = {(−3, 2, 1)t }
La matriz M es diagonalizable y una matriz P tal que P −1 M P = D =
diag (2, 3, −1) es:


0 1 −3
2
P = −1 2
1 1
1
3.12. ENDOMORFISMO CON MODELO DE AUTOPISTA
101
Aplicando la conocida fórmula de la potencia enésima de una matriz diagonalizable:
Xn = An X0 =
1
1 n
M X0 = n P Dn P −1 X0
3n
3
Teniendo en cuenta que P y P −1 son constantes (no dependen de n):
1 n
lı́m
D P −1 X0
n→∞ 3n
lı́m Xn = P
n→∞
=P
n
n
lı́m diag ((2/3) , 1, (−1/3)
n→∞
P −1 X0
= P diag (0, 1, 0) P −1 X0
Para el estado inicial X0 = (60, 200, 300) :





  
0 1 −3 0 0 0
0 −4 8
60
140
1 
2  0 1 0
3
3 3 200 = 280
lı́m Xn = −1 2
n→∞
12
1 1
1
0 0 0
−3
1 1
300
140
Es decir, cuando el tiempo aumenta la tendencia de las poblaciones de A, B
y C son respectivamente 140, 280 y 140.
3.12.
Endomorfismo con modelo de autopista
Sea f el endomorfismo en R2 cuya matriz respecto de la base canónica es
1/4 1/2
A=
3/4 1/2
y sean C1 = {x ∈ R2 : x1 ≥ 0 , x2 ≥ 0}, Rk = {x ∈ R2 : x1 + x2 = k}
con k ∈ R.
Se pide:
1. Comprobar que C1 es f -invariante. Idem para cada Rk .
2. Comprobar que R0 es un subespacio propio de f . Determinar los valores
propios y los subespacios propio de f .
3. Determinar An para cada n natural y lı́mn→∞ An .
4. La restricción de f a C1 ∩ R1 sirve de modelo para el siguiente sistema:
En una autopista de dos carriles, la probabilidad de que un coche esté en el
carril i en el instante n habiendo estado en el carril j en el instante anterior
102
CAPÍTULO 3. FORMAS CANÓNICAS
n − 1 es aij . Si xin es la probabilidad de que un coche se encuentre en el
carril i en el instante n y sn = (x1n , x2n )t representa el estado de la autopista en el instante n, se cumple para todo n ∈ N que sn+1 = f (sn ). Determinar:
(a) Si existen estados estacionarios (es decir si existen se tales que ∀n ∈
N sn = se ) y calcularlos en su caso.
(b) sn en función de n y s0 .
(c) Si existe lı́mn→∞ sn para cada s0 , y calcularlo en su caso.
(d ) El carril que tenderá a estar más ocupado al crecer n. [2]
Resolución. 1. Para todo x = (x1 , x2 )t ∈ R2 hallemos su transformado
y = (y1 , y2 )t por medio de f
x1
x1
x1 /4 + x2 /2
y
f (x) = f
=A
=
= 1
x2
x2
3x1 /4 + x2 /2
y2
Para todo x ∈ C1 tenemos y1 ≥ 0, y2 ≥ 0 y para todo x ∈ Rk , y1 + y2 =
x1 + x2 = k por tanto f (C1 ) ⊂ C1 y f (Rk ) ⊂ Rk . Es decir, C1 y Rk son
f -invariantes.
2. Los vectores x = (x1 , x2 )t de R0 son los vectores de la forma (α, −α)
con α ∈ R y para estos vectores se verifica A(α, −α)t = (−α/4, α/4) =
(−1/4)(α, −α)t . Esto implica que los vectores de R0 son propios asociados
al valor propio −1/4. Hallemos todos los valores propios
3
1
1
det(A − λI) = 0 ⇔ λ2 − λ − = 0 ⇔ λ1 = 1 ∨ λ2 = −
4
4
4
Los valores propios de f son por tanto λ1 = 1 y λ2 = −1/4 (ambos simples).
Hallemos una base de cada uno de los subespacios propios
ker(A − 1I) ≡
− 34 x1 + 12 x2 = 0
≡
1
3
4 x1 − 2 x2 = 0
1
ker(A + (1/4)I) ≡
1
2 x1 + 2 x2 = 0 ≡
3
3
4 x1 + 4 x2 = 0
−3x1 + 2x2 = 0 ≡ 3x1 − 2x2 = 0
3x1 − 2x2 = 0
x1 + x2 = 0 ≡ x1 + x2 = 0 ≡ R0
x1 + x2 = 0
Unas bases respectivas son B1 = {(2, 3)} y B1/4 = {(−1, 1)}.
3. El endomorfismo f es diagonalizable y por tanto:
P −1 AP
1
0
=D=
0 −1/4
si
2 −1
P =
3
1
3.12. ENDOMORFISMO CON MODELO DE AUTOPISTA
103
Aplicando la conocida fórmula para el cálculo de la potencia enésima de una
matriz diagonalizable
−1
2 −1 1
0
2 −1
An = P Dn P −1 =
=
3
1 0 (−1/4)n 3
1
1 2 + 3(−1/4)n 2 − 2(−1/4)n
... =
5 3 − 3(−1/4)n 3 + 2(−1/4)n
Cuando n → ∞ se verifica (−1/4)n → 0. En consecuencia
lı́m An =
n→∞
1 2 2
5 3 3
4. (a) De la hipótesis sn+1 = f (sn ) deducimos
sn+1 = Asn = A2 sn−1 = A3 sn−2 = . . . = An+1 s0
Si se es estado estado estacionario, necesariamente se ha de cumplir se+1 =
se o bien Ae+1 s0 = Ae s0 . Como A es invertible, esto implica As0 = s0 , es
decir s0 ha de ser vector propio asociado al valor propio 1 o bien s0 = α(2, 3).
Dado que s0 ∈ C1 ∩ R1 se ha de verificar 2α ≥ 0, 3α ≥ 0 y 2α + 3α = 1. Esto
se verifica solamente si α = 1/5. Concluimos pues que si existen estados
estacionarios, necesariamente ha de ser s0 = (2/5, 3/5)t .
Por otra parte, para este s0 , sn = An−1 s0 = An−2 s0 = . . . = As0 = s0 para
todo n ∈ N. Concluimos que s0 = (2/5, 3/5)t es el único estado estacionario.
(b) Tenemos que sn = An−1 s0 con s0 = (x10 , x20 )t un vector genérico cumpliendo x10 ≥ 0, x20 ≥ 0 y x10 + x20 = 1 y la matriz An−1 ya está calculada.
Basta sustituir.
(c) Teniendo en cuenta que x10 + x20 = 1:
lı́m sn = lı́m An−1 s0 =
n→∞
n→∞
1 2 2 x10
1 2
=
5 3 3 x20
5 3
(d ) Cuando n → ∞ la probabilidad de que un coche ocupe el carril 1 tiende
a 2/5 y de que ocupe el carril 2 tiende a 3/5. Esto significa que al crecer n
el carril 2 tenderá a estar más ocupado.
104
3.13.
CAPÍTULO 3. FORMAS CANÓNICAS
Lı́mite de una sucesión de puntos
Se consideran tres puntos p1 , p2 , p3 sobre la recta real y se construye una
sucesión del siguiente modo: p4 es el punto medio del segmento p1 p2 , p5 es
el punto medio de p2 p3 , p6 es el punto medio de p3 p4 y ası́ sucesivamente.
Se desea conocer el lı́mite de esta sucesión, para ello se pide:
1. Expresar pk+3 en función de pk y pk+1 . Hallar una matriz A de tal manera
que si xk = (pk , pk+1 , pk+2 )t , se cumpla xk+1 = Axk . Obtener una expresión
que determine xk como función de A, k y x1 , y demostrar que esta expresión
es cierta ∀k ∈ N∗ .
2. Calcular el polinomio caracterı́stico y los valores propios de A en C. Justificar por qué A es diagonalizable en C pero no en R, e indicar una matriz
diagonal semejante a ella.
3. Demostrar que si λ ∈ C es valor propio de una matriz M ∈ Rn×n ⊂ Cn×n
y z = (z1 , . . . , zn ) ∈ Cn×n es vector propio de M correspondiente a λ, entonces z̄ = (z̄1 , . . . , z̄n ) es un vector propio de M asociado a λ̄ . Hallar T ∈ C3×3
tal que T −1 AT sea la matriz indicada en el apartado anterior.
4. Calcular en función de p1 , p2 y p3 , lı́mn→∞ xn y lı́mn→∞ pn . [2]
Resolución. 1. Por definición de la sucesión, pk+3 es el punto medio de pk
y pk+1 , en consecuencia pk+3 = (pk + pk+1 )/2. Podemos por tanto escribir:
pk+1 = pk+1 ,
pk+2 = pk+2 ,
pk+3 = (1/2)pk + (1/2)pk+1
Estas igualdades son equivalentes a la igualdad matricial:

 


pk+1
0
1 0
pk
pk+2  =  0
0 1 pk+1 
pk+3
1/2 1/2 0
pk+2
De forma equivalente, xk+1 = Axk . Podemos escribir:
xk = Axk−1 = A2 xk−2 = A3 xk−3 = . . . = Ak−1 x1
2. Valores propios de
−λ
0
1/2
(∀k ∈ N∗ )
la matriz A:
1
0 −λ 1 = −λ3 + (1/2)λ + (1/2) = 0
1/2 −λ
3.13. LÍMITE DE UNA SUCESIÓN DE PUNTOS
105
Resolviendo la ecuación obtenemos λ1 = 1, λ2 = (−1+i)/2, λ3 = (−1−i)/2.
Existe al menos un valor propio que no es real, por tanto la matriz no es
diagonalizable en R. Al ser los tres valores propios complejos y simples se
puede asegurar que es diagonalizable en C. Una matriz diagonal semejante
a A es por tanto D = diag(λ1 , λ2 , λ3 ).
3. Si λ ∈ C es valor propio de M entonces existe un vector z ∈ Cn con
z 6= 0 tal que M z = λz. Tomando conjugados y teniendo en cuenta que
M = M , obtenemos M z̄ = λ̄z̄ lo cual implica que z̄ es vector propio de M
correspondiente a λ̄. Determinemos los subespacios propios de A :

   
−1
1
0
z1
0
−1 1  z2  = 0
ker(A − λ1 I) ≡  0
1/2 1/2 −1 z3
0
Como λ1 es simple, dim ker(A − λ1 I) = 1 y una base B1 estará formada por
un vector no nulo solución del sistema anterior, por ejemplo B1 = {(1, 1, 1)}.
   

z1
(1 − i)/2
1
0
0





0
(1 − i)/2
1
z2 = 0 
ker(A − λ2 I) ≡
1/2
1/2
(1 − i)/2
0
z3
Como λ2 es simple, dim ker(A − λ1 I) = 1 y una base B2 estará formada por un vector no nulo solución del sistema anterior, por ejemplo B2 =
{(2, −1 + i, −i)}.
Como λ3 = λ̄2 , por lo demostrado en este mismo apartado, una base de
ker(A − λ3 I) se obtendrá conjugando el vector obtenido anteriormente, es
decir B3 = {(2, −1 − i, i}. Transponiendo las coordenadas de los tres vectores hallados, obtenemos la matriz T :


1
2
2
T = 1 −1 + i −1 − i
1
−i
i
4. De la igualdad T −1 AT = D se deduce A = T DT −1 y An−1 = T Dn−1 T −1 .
Por lo demostrado en el apartado 1. tenemos xn = An−1 x1 o bien xn =
T Dn−1 T −1 x1 . Tomando lı́mites:
lı́m xn = lı́m (T Dn−1 T −1 x1 ) = T lı́m Dn−1 T −1 x1
n→∞
n→∞
√
Dado que λ1 = 1 y que |λ2 | = |λ3 | = 2/2 < 1:
n→∞
106
CAPÍTULO 3. FORMAS CANÓNICAS
lı́m Dn−1 = lı́m diag(λ1n−1 , λ2n−1 , λn−1
) = diag(1, 0, 0)
3
n→∞
n→∞
Por otra parte:

T −1

2i
4i
4i
1 
1 + 2i
2 − i −3 − 3i
= ... =
10i
−1 + 2i −2 − i
3−i
Operando obtenemos:




 
p1 + 2p2 + 2p3
1 0 0
p1
1
lı́m xn = T 0 0 0 T −1 p2  = . . . = p1 + 2p2 + 2p3 
n→∞
5
p1 + 2p2 + 2p3
0 0 0
p3
Como xn = (pn , pn+1 , pn+2 )t , concluimos que la sucesión dada (pn )∞
1 tiene
por lı́mite:
lı́m pn =
n→∞
3.14.
p1 + 2p2 + 2p3
5
Forma canónica del operador derivación
Sea V el espacio vectorial real formado por los polinomios q(x) de grado
menor o igual que n , respecto de las operaciones usuales. Se considera la
aplicación lineal
D : V → V,
q(x) → D(q(x)) = q 0 (x)
Hallar la matriz A de D respecto de la base de V : {1, x, x2 , . . . , xn } . Encontrar su forma canónica de Jordan A∗ (o en particular, su forma diagonal) y
una matriz P regular y diagonal tal que A∗ = P −1 AP . Especificar la nueva
base. [1]
Resolución. Hallemos los transformados por D de los elementos de la base
B = {1, x, x2 , . . . , xn } de V






D(1) = 0
D(x) = 1
D(x2 ) = 2x


...



n
D(x ) = nxn−1
Transponiendo coeficientes obtenemos la matriz cuadrada de orden n + 1
pedida
3.14. FORMA CANÓNICA DEL OPERADOR DERIVACIÓN

0
0

0

A = .
 ..

0
0
1 0
0 2
0 0
...
...
...
0 0
0 0
...
...
107

0
0

0

.. 
.

n
0
El polinomio caracterı́stico de D es χ(λ) = λn+1 , por tanto λ = 0 es el único
valor propio y su multiplicidad algebraica es n + 1. Obviamente det(A) = 0
y eliminando la primera columna y última fila de A obtenemos una submatriz con determinante n!, lo cual implica que rgA = n. En consecuencia la
multiplicidad geométrica de λ = 0 es (n + 1) − n = 1 (una caja ) y la forma
canónica de Jordan de D es


0 1 0
...
0
0 0 1
...
0


0 0 0

.
.
.
0


A∗ =  .
.. 
 ..
.


0 0 0
...
1
0 0 0
...
0
Una base B ∗ = {p1 (x), p2 (x), . . . , pn+1 (x)} de V tal que la matriz de D
respecto de B ∗ es A∗ ha de cumplir

D[p1 (x)] = 0




D[p

2 (x)] = p1 (x)
D[p3 (x)] = p2 (x)


...



D[pn+1 (x)] = pn (x)
Teniendo en cuenta que D es el operador derivación, una base B ∗ cumpliendo
las condiciones anteriores es
B ∗ = {1, x , x2 /2 , x3 /(2 · 3) , x4 /(2 · 3 · 4) , . . . , xn /(n!)}
La matriz P pedida es por tanto la matriz de paso de B a B ∗ :


1 0 0
...
0
0 1 0
...
0 


0 0 1/2
...
0 


P = .
.. 
.
.
. 


0 0 0
...
0 
0 0 0
...
1/n!
Es decir, P = diag (1/0! , 1/1! , 1/2! , . . . , 1/n!).
108
CAPÍTULO 3. FORMAS CANÓNICAS
3.15.
Coseno de una matriz


−1/3
2/3 −2/3
π Calcular cos
A siendo A =  2/3 −1/3 −2/3
4
−2/3 −2/3 −1/3
[2]


−1
2 −2
π
π
Resolución. Podemos expresar A = B siendo B =  2 −1 −2
4
12
−2 −2 −1
Hallemos los valores y vectores propios de B
−1 − λ
2
−2 −1 − λ
0
−2 2
−1 − λ
−2 = 2
−3 − λ
−2 det(B − λI) = −2
−2
−1 − λ
−2
−3 − λ −1 − λ
−1 − λ
0
−2 2
−3 − λ −2 = (−3 − λ)(λ2 − 9) = 0 ⇔ −(λ − 3)(λ + 3)2 = 0
−4
0
1 − λ
Los valores propios de B son λ1 = 3 simple y λ2 = −3 doble. Los subespacios
propios son


 2x1 + 2x2 − 2x3 = 0
−4x1 + 2x2 − 2x3 = 0
2x1 + 2x2 − 2x3 = 0
2x1 − 4x2 − 2x3 = 0
V λ2 ≡
V λ1 ≡


−2x1 − 2x2 + 2x3 = 0
−2x1 − 2x2 − 4x3 = 0
Hallando unas bases de estos subespacios obtenemos respectivamente
Bλ1 = {(1, 1, −1)t }, Bλ2 = {(−1, 1, 0)t , (−1, 0, 1)t }. La matriz B es por
tanto diagonalizable y además




3
0
0
1 −1 −1
0  si P =  1
1
0
P −1 BP = D = 0 −3
0
0 −3
−1
0
1
Como consecuencia
B = P DP −1 ⇒
π
π
A = P DP −1
4
12


π/4
0
0
0  P −1
= P  0 −π/4
0
0
−π/4
Es decir, la matriz (π/4)A es diagonalizable y la función f (x) = cos x toma
sus valores en el espectro de (π/4)A, por tanto


√ !
√
π/4
0
0
π 2
2
−1
−1


0 )P = P
A = P (cos 0 −π/4
I P =
I
cos
4
2
2
0
0
−π/4
3.16. ENDOMORFISMO IDEMPOTENTE
3.16.
109
Endomorfismo idempotente
Sea E un espacio vectorial sobre el cuerpo K y sea f : E → E un endomorfismo idempotente es decir, que cumple f 2 = f .
1. Demostrar que E = ker f ⊕ Imf .
2. Demostrar que si f no es inyectiva entonces ker f es subespacio propio
asociado a f y si f 6= 0, Imf es subespacio propio asociado a f .
3. Supongamos ahora que dim E = n finita. Demostrar que f es diagonalizable. Determinar una base B de E formada por vectores propios de f y
hallar la matriz diagonal D correspondiente. [1]
Resolución. (a) Si x ∈ ker f ∩ Imf entonces x ∈ ker f y x ∈ Imf . Es
decir, f (x) = 0 y ∃u ∈ E : x = f (u). Pero f (x) = f 2 (u) = f (u) por ser f
idempotente. Es decir, x = f (u) = f (x) = 0. Hemos demostrado pues que
ker f ∩ Imf = {0}.
(b) Sea x ∈ E. Por definición de imagen, tenemos f (x) ∈ Imf . Por otra
parte x = (x − f (x)) + f (x). Ahora bien f (x − f (x)) = f (x) − f 2 (x) =
f (x) − f (x) = 0 es decir, (x − f (x)) ∈ ker f , con lo cual E = ker f + Imf .
Concluimos pues que E = ker f ⊕ Imf .
2. f no es inyectiva equivale a decir que existe 0 6= v ∈ E tal que f (v) =
0 = 0v . Esto implica que λ1 = 0 es valor propio del endomorfismo f . El
subespacio propio asociado a λ1 = 0 es V0 = {x ∈ E : f (x) = 0} que es
precisamente la definición de ker f . Es decir, V0 = ker f .
La condición f 6= 0 equivale a decir que Imf 6= {0}. Existe por tanto 0 6=
w ∈ Imf tal que w es de la forma w = f (x). Como f es nilpotente
f (w) = f [f (x)] = f 2 (x) = f (x) = w = 1w
Es decir, λ2 = 1 es valor propio del endomorfismo f . Entonces el subespacio
propio asociado es V1 = {x ∈ E : f (x) = x} . Por lo ya visto, Imf ⊂ V1 y
por otra parte si x ∈ V1 se verifica x = f (x) es decir x ∈ Imf . Se concluye
que Imf = V1 .
3. Caso 1. Supongamos que f no es inyectiva y f 6= 0 entonces dim(ker f ) =
r > 0 y dim(Imf ) = n − r > 0. Sea B1 = {e1 , . . . , er } base de ker f y
B2 = {er+1 , . . . , en } base de Imf . Como E = ker f ⊕ Imf , B = B1 ∪ B2 es
base de E. Además se verifica
f (e1 ) = 0e1 , . . . , f (er ) = 0er , f (er+1 ) = 1er+1 , . . . , f (en ) = 1en
110
CAPÍTULO 3. FORMAS CANÓNICAS
Transponiendo coeficientes obtenemos la matriz de f con respecto a la base
B:
D = diag (0, . . . , 0, 1 . . . , 1)
es decir, f es diagonalizable.
Caso 2. Si f es inyectiva, por el teorema de las dimensiones para aplicaciones
lineales se concluye que también es sobreyectiva, es decir f es un isomorfismo. De la igualdad f 2 = f se deduce componiendo con f −1 que f = IE y la
matriz de f respecto de cualquier base de E es I = diag (1, 1, . . . , 1): f es
diagonalizable.
Caso 3. Si f = 0 la matriz de f respecto de cualquier base de E es la matriz
nula 0 = diag (0, 0, . . . , 0): f es diagonalizable.
3.17.
Involuciones
Sea V un espacio vectorial real de dimensión n y F : V → V una aplicación
lineal. Se dice que F es una involución cuando la aplicación compuesta F ◦F
es la aplicación identidad de V en V.
1. Sean F y G las aplicaciones lineales de R3 en R3 representadas en la base
canónica por las matrices:




−9 −40 0
−4 −20 0
9 0
5 0 , B =  2
A= 1
−4 −16 1
−2 −8 1
Estudiar si F y G son involuciones en R3 .
2. Sea F una involución en V. Se definen V+ y V− mediante
V+ = {x ∈ V : F (x) = x} , V− = {x ∈ V : F (x) = −x}
Demostrar que V+ y V− son subespacios de V.
3. Sea F una involución en V. Demostrar que V es suma directa de V+ y V− .
4. Sea F una involución en V. Demostrar que F es diagonalizable. Escribir
la matriz diagonal de F.
3.17. INVOLUCIONES
111
5. Sean F y G dos involuciones en V. Estudiar si la función compuesta F ◦G es
una involución. En caso afirmativo dar una demostración y en caso contrario
construir un contraejemplo y dar una condición necesaria y suficiente que
han de cumplir F y G para que F ◦ G sea una involución. [1]
Resolución. 1. Por un conocido teorema, las matrices de F ◦ F y G ◦ G en
la base canónica son A2 y B 2 respectivamente. Operando obtenemos A2 6= I
y B 2 = I es decir, F no es involución y G, sı́.
2. Como F es lineal, F (0) = 0 y por tanto 0 ∈ F. Sean x, y ∈ V+ , entonces
F (x + y) = F (x) + F (y) = x + y es decir, x + y ∈ F. Sean λ ∈ R y x ∈ V+ ,
entonces F (λx) = λF (x) = λx es decir, λx ∈ F. Concluimos que V+ es
subespacio de V. De manera análoga se demuestra que V− es subespacio de
V.
3. Sea x ∈ V+ ∩ V− , entonces F (x) = x y F (x) = −x. Restando estas dos
últimas igualdades obtenemos 2x = 0 lo cual implica que x = 0. Hemos
demostrado que V+ ∩ V− = {0}. sea ahora x ∈ V. Si x se puede expresar en
la forma x = u + v con u ∈ V+ y v ∈ V− entonces, aplicando F en la última
igualdad tendrı́amos las relaciones
x=u+v
F (x) = F (u) + F (v) = u − v
De las relaciones anteriores deducimos que necesariamente u = (1/2)(x +
F (x)) y v = (1/2)(x − F (x)). Se satisface evidentemente que
x=
1
1
(x + F (x)) + (x − F (x))
2
2
Además
1
1
1
1
F
(x + F (x) = (F (x) + F 2 (x)) = (F (x) + x) ⇒ (x + F (x)) ∈ V+
2
2
2
2
1
1
1
1
(x − F (x) = (F (x) − F 2 (x)) = − (x − F (x)) ⇒ (x − F (x)) ∈ V−
F
2
2
2
2
Es decir, V = V+ + V− . Concluimos que V = V+ ⊕ V− .
4. Dado que V = V+ ⊕ V− , la unión de una base de V+ con una de V− es
una base de V. Sea B+ = {u1 , . . . , ur } base de V+ y B− = {ur+1 , . . . , un }
base de V− . Entonces
112
CAPÍTULO 3. FORMAS CANÓNICAS

F (u1 ) = u1




...



F (ur ) = ur
F (ur+1 ) = ur+1





...


F (un ) = un
Por tanto, la base BV = {u1 , . . . , ur , ur+1 . . . , ur } de V diagonaliza a F
siendo su matriz diagonal en tal base D = diag (1, . . . , 1, −1, . . . , −1). Eventualmente pudiera ocurrir D = I si dim V+ = 0 o D = −I si dim V− = 0.
5. Sean F y G involuciones en V. Si ocurriera F ◦ G = G ◦ F tendrı́amos
(F ◦ G)2 = F ◦ G ◦ F ◦ G = F ◦ F ◦ G ◦ G = i ◦ i = i
Dado que la composición de aplicaciones no es conmutativa, sospechamos
que F ◦ G no será en general involución. Efectivamente, elijamos las aplicaciones lineales F y G de R2 en R2 cuyas matrices en la base canónica son
respectivamente
0 1
2 −3
, B=
A=
1 0
1 −2
Fácilmente verificamos que A2 = I, B 2 = I y (AB)2 6= I es decir, F y G
son involuciones pero no ası́ F ◦ G. Veamos en general que si F y G son
involuciones en V se verifica:
F ◦ G es involución ⇔ F ◦ G = G ◦ F
⇐) Esta implicación ya está demostrada. ⇒) Dado que F y G son involuciones se verifica F 2 = i, G2 = i. Si F ◦ G es involución entonces
F ◦ G ◦ F ◦ G = i y componiendo a la izquierda con F y a la derecha con G
obtenemos G ◦ F = F ◦ G.
3.18.
Valor propio y ası́ntota horizontal
Se considera el espacio vectorial
E = {f : R → R : f continua y lı́mx→+∞ f (x) ∈ R}
Se define la aplicación T : E → E de la forma T (f )(x) = f (x + 1).
(a) Demostrar que T es lineal.
(b) Demostrar que λ = 1 es valor propio de T.
(c) Demostrar que el subespacio propio asociado a λ = 1 está formado
exactamente por las funciones constantes.
3.19. MATRIZ EXPONENCIAL: DEFINICIÓN
113
Resolución. (a) Para todo par de escalares α, β ∈ R, para cada par de
funciones f, g ∈ E y aplicando las conocidas definiciones de operaciones
entre funciones, se verifica para todo x ∈ R :
T (αf + βg)(x) = (αf + βg)(x + 1)
= (αf )(x + 1) + (βg)(x + 1)
= αf (x + 1) + βg(x + 1)
= αT (f )(x) + βT (g)(x)
= (αT (f ) + βT (g)) (x)
De la definición de igualdad de funciones deducimos que T (αf + βg) =
αT (f ) + βT (g), es decir T es lineal.
(b) La función h(x) = 1 es continua, lı́mx→+∞ h(x) = 1 ∈ R, es decir h ∈ E
y además es no nula. Tenemos:
T (h)(x) = h(x + 1) = 1 = h(x)
(∀x ∈ R) ⇒ T (h) = h = 1h (h 6= 0)
por tanto, λ = 1 es valor propio de T.
(c) Sea f función constante, es decir f (x) = c ∈ R para todo x ∈ R.
Razonando como en el apartado anterior:
T (f )(x) = f (x + 1) = c = f (x)
(∀x ∈ R) ⇒ T (f ) = f = 1f
lo cual implica que f pertenece al subespacio propio V1 asociado a λ = 1.
Recı́procamente, sea f ∈ V1 , entonces T f = f o equivalentemente f (x+1) =
f (x) para todo x ∈ R, es decir, la función es periódica de periodo 1 y por
tanto f (x+n) = f (x) para todo n natural. Si f no fuera constante existirı́an
números reales x1 , x2 con x1 6= x2 tales que f (x1 ) 6= f (x2 ). Entonces:
lı́m f (x1 + n) = lı́m f (x1 ) = f (x1 )
x→+∞
x→+∞
lı́m f (x2 + n) = lı́m f (x2 ) = f (x2 )
x→+∞
x→+∞
Esto implicarı́a que no existe lı́mx→+∞ f (x) lo cual es absurdo. Concluimos
que V1 está formado exactamente por las funciones constantes.
3.19.
Matriz exponencial: definición
1 m
En la Enseñanza Media se define el número e como el lı́mite: lı́m
,
m→∞ 1 + m
m
1
y de manera más general resulta ser ea = lı́mm→∞ 1 + m
a , donde a es
un número real cualquiera. Se puede intentar definir formalmente la exponencial de la matriz A mediante
114
CAPÍTULO 3. FORMAS CANÓNICAS
(∗)
m
1
I+ A
m→∞
m
eA = lı́m
donde A es una matriz real n × n, I la identidad de orden n × n, (n =
1, 2, 3, . . .).Se pide:
a) Comprobar que la definición (∗) tiene sentido cuando A es una matriz
2 × 2 diagonal. Aplicar esta demostración para calcular eA cuando:
3
0
A=
0 −1
b) Comprobar que la definición (∗) tiene sentido también cuando A es una
matriz 2×2 diagonalizable. Aplicar esta demostración para calcular eA cuando:
7
4
A=
−8 −5
c) Comprobar que la definición (∗) tiene aún sentido también cuando A es
una matriz 2×2 no diagonalizable que admite forma de Jordan. Aplicar esta
demostración para calcular eA cuando:
3 1
A=
−1 1
[1]
Resolución. a) Sea A = diag(λ1 , λ2 ). Entonces
1 λ1 0
1
1 + λm1
0
1 0
+
=
I+ A=
0 1
0
1 + λm2
m
m 0 λ2


m
m
1 + λm1
0
1

⇒ I+ A
=
m
0
1 + λ2
m
Usando la definición (∗) :


λ1 m
0
 1+ m

1
m 
eA = lı́m I + A
= lı́m 


λ2
m→∞
m→∞
m
0
1+
m


λ1 m
λ
lı́m 1 +
0
m→∞

e 1 0
m


=
=
λ2 m 
0 e λ2
0
lı́m 1 +
m→∞
m
m
3.19. MATRIZ EXPONENCIAL: DEFINICIÓN
En concreto, para la matriz A dada es eA =
115
e3 0
.
0 e−1
b) Si A es diagonalizable entonces existe P invertible tal que A = P DP −1 .
Entonces:
1
1
1
−1
−1
I + A = P IP + P DP = P I + A P −1
m
m
m
Elevando a m :
m
1
1
1
1
−1
−1
I+ A
= P I + D P P I + D P . . . P I + D P −1
m
m
m
m
m
1
=P I+ D
P −1
m
Por el apartado anterior, existe eD al ser D diagonal y P es constante (no
depende de m). Tomando lı́mites:
m
m
1
1
= lı́m P I + D
P −1
I+ A
m→∞
m→∞
m
m
m 1
= P lı́m I + D
P −1
m→∞
m
lı́m
= P eD P −1
Es decir, existe eA y es igual a P eD P −1 . Calculemos ahora la exponencial
de la matriz dada. Valores propios:
7 − λ
4 2
−8 −5 − λ = λ − 2λ + 3 = 0 ⇔ λ = 3 ∨ λ = −1 (simples)
Al ser todos los valores propios simples, la matriz es diagonalizable. Subespacios propios:
4x1 + 4x2 = 0
8x1 + 4x2 = 0
V3 ≡
V−1 ≡
−8x1 − 8x2 = 0
−8x1 − 4x2 = 0
t ye =
Unas bases respectivas de estos subespacios propios son e1 = (1, −1)
2
(1, −2)t . Por tanto, una matriz que cumple A = P DP −1 es P = e1 e2 .
Entonces:
−1 1
1 e3 0
1
1
2e3 − e−1
e3 − e−1
A
e =
=
−1 −2 0 e−1 −1 −2
−2e3 + 2e−1 −e3 + 2e−1
116
CAPÍTULO 3. FORMAS CANÓNICAS
c) Si A ∈ R2×2 no es diagonalizable pero
tiene
forma canónica de Jordan J,
λ 1
ha de ser necesariamente del tipo J =
. Entonces:
0 λ
I+
λ
1
1 λ 1
1+ m
1 0
=
J=
+
0 1
0
m
m 0 λ
1
m
1+
λ
m
= 1+
λ
m
0
0
I+
1
m
0
Como los dos últimos sumandos conmutan, podemos aplicar la fórmula del
binomio de Newton. Además, el último sumando es una matriz nilpotente
de orden 2, por tanto:
m 1
λ m−1 m−1 0
λ m m
I+ J
I +m 1+
I
= 1+
0
m
m
m
m
m−1 λ
λ
0 1
= 1+
I + 1+
0 0
m
m
1
m
0
Usando la definición (∗) :
m
1
1 1
0 1
= eλ
I+ J
= eλ I + eλ
m→∞
0 1
0 0
m
eJ = lı́m
Es decir, existe eJ . Si P es una matriz cumpliendo A = P JP −1 entonces,
razonando de manera análoga a la del apartado anterior deducimos que eA =
P eJ P −1 . Apliquemos ahora esta demostración al cálculo de la exponencial
de la matriz dada. Valores propios:
3 − λ
1 2
2
−1 1 − λ = λ − 4λ + 4 = (λ − 2) = 0 ⇔ λ = 2 (doble)
La dimensión del subespacio propio asociado al valor propio 2 es:
1
1
=2−1=1
dim V2 = rg(A − 2I) = 2 − rg
−1 −1
2 1
. Fácilmente en0 2
1 1
−1
contramos que una matriz satisfaciendo A = P JP
es P =
.
−1 0
Entonces:
En consecuencia la forma de Jordan de A es J =
eA = P eJ P −1 =
−1
1 1 2 1 1
1 1
2 1
e
= e2
−1 0
−1 0
0 1 −1 0
3.20. FORMAS DE JORDAN DE RANGO 1
3.20.
117
Formas de Jordan de rango 1
Se trata de estudiar las posibles formas canónicas de Jordan (o en su caso,
forma diagonal) de las matrices cuadradas de rango 1.
1. Estudiamos en primer lugar un caso particular para matrices 3 × 3. Dada
la matriz


1 a −1
A = 1 a −1
1 a −1
determinar, según los valores del parámetro real a su forma canónica de
Jordan A∗ (o en particular su forma diagonal) y una matriz P no singular
tal que A = P A∗ P −1
2. Sea ahora A una matriz real cuadrada n × n de rango 1. Justificar que en
general dicha matriz será de la forma

λ 1 v1
 λ 1 v2

A= .
 ..
λ2 v1
λ2 v2
λ1 vn λ2 vn

. . . λn v1
. . . λn v2 

.. 
. 
. . . λn vn
con algún λi 6= 0 (i = 1, 2, . . . , n) y con v = (v1 , v2 , . . . , vn )t 6= (0, 0, . . . , 0)t .
Hallar las soluciones del sistema AX = 0 con X = (x1 , x2 , . . . , xn )t y
0 = (0, 0, . . . , 0)t .
3. Calcular AX con X = (x1 , x2 , . . . , xn )t . Calcular Av. Hallar los autovalores y los autovectores de la matriz A.
4. Enunciar y demostrar una condición necesaria y suficiente que que deben
satisfacer los coeficientes de la matriz A para que esta sea diagonalizable.
Comprobar el resultado que se obtenga, en el caso particular de la matriz
que figura en el apartado 1.
5. Las mismas cuestiones para el caso no diagonalizable (naturalmente A∗
será su forma canónica de Jordan en este caso). [1]
Resolución. 1. Efectuando las transformaciones F3 − F2 y posteriormente
C2 + C3 al determinante de A − λI, obtenemos los valores propios de A :
118
CAPÍTULO 3. FORMAS CANÓNICAS
1 − λ
a
−1 1 − λ
a−1
−1 a
−1 1 − λ
1
a − λ −1 = 1
a − 1 − λ −1 a−λ
−1 = 1
1
λ
−λ 0
0
−λ
a
−1 − λ 0
= (−λ)(λ2 − aλ) = −λ2 (λ − a) = 0
⇔ λ = 0 (al menos doble) ∨ λ = a (al menos simple)
Primer caso: a = 0 En este caso tenemos λ = 0 (triple). La dimensión del
subespacio propio V0 asociado es:


1 0 −1
dim V0 = 3 − rg(A − 0I) = 3 − rg 1 0 −1 = 3 − 1 = 2
1 0 −1
En consecuencia su forma de Jordan A∗ tiene dos cajas, con lo cual:


0 1 0
A∗ = 0 0 0
0 0 0
Una base de Jordan BJ = {e1 , e2 , e3 } en R3 para la matriz A será pues una
base satisfaciendo las condiciones Ae1 = 0, Ae2 = e1 , Ae3 = 0. Tenemos que
resolver sistemas del tipo Ax = h con x = (x1 , x2 , x3 )t y h = (h1 , h2 , h3 ), es
decir sistemas del tipo
   

1 0 −1 x1
h1





Ax = h ⇔ 1 0 −1 x2 = h2 
1 0 −1 x3
h3
(1)
Aplicando el método de Gauss obtenemos que el sistema (1) es compatible
si y sólo si se verifica h1 = h2 = h3 (condiciones de compatibilidad) y la
solución general es

x1 = h1 + β
x2 = α

x3 = β
(α, β ∈ R)
Vector e1 . En este caso, h1 = h2 = h3 = 0 y la solución general de (1) es
e1 = (β, α, β). Este vector ”x.estará de h en el siguiente sistema, ası́ que
le imponemos las condiciones de compatibilidad, es decir β = α. En consecuencia podemos elegir α = β = 1 y obtenemos el vector e1 = (1, 1, 1)t .
3.20. FORMAS DE JORDAN DE RANGO 1
119
Vector e2 . En este caso, h1 = h2 = h3 = 1 y la solución general de (1) es
e2 = (1 + β, α, β). Eligiendo α = β = 0 obtenemos el vector e2 = (1, 0, 0)t .
Vector e3 . Como en el caso de e1 la solución general de (1) es e1 = (β, α, β).
Elegimos α y β de tal manera que e1 y e3 sean linealmente independientes,
por ejemplo α = 1, β = 0 con lo cual obtenemos el vector e3 = (0, 1, 0)t .
En consecuencia, una matriz Q que satisface Q−1 AQ = A∗ es


1 1 0
Q = e1 e2 e3 = 1 0 1
1 0 0
Por tanto, una matriz P que cumple A = P A∗ P −1 es P = Q−1 .
Segundo caso: a 6= 0. En este caso los valores propios λ = 0 (doble) y λ = 0
(simple). La dimensión de Va es uno por ser a valor propio simple. Por
otra parte tenemos que dim V0 = 3 − rg(A − 0I) = 3 − 1 = 2, de lo cual
concluimos que A es diagonalizable y su forma canónica de Jordan (diagonal
en este caso) es A∗ = diag(0, 0, a). Una matriz Q cumpliendo Q−1 AQ = A∗
es una matriz cuyas columnas están formadas por los respectivos vectores
vectores propios. Fácilmente encontramos:


1 0 1
Q = 0 1 1
1 a 1
Por tanto, una matriz P que cumple A = P A∗ P −1 es P = Q−1 .
2. Si la matriz A = C1 , C2 , . . . , Cn tiene rango 1, alguna de sus columnas ha
de ser necesariamente no nula, y podemos suponer sin pérdida de generalidad que es la Cn , es decir será de la forma Cn = v = (v1 , v2 , . . . , vn )t 6=
(0, 0, . . . , 0)t . También sin pérdida de generalidad podemos suponer que
vn 6= 0. Las demás columnas Cj han de ser combinación lineal de Cn , por
tanto de la forma Cj = λj v.
Concluimos que A = λ1 v, λ2 v, . . . , λn−1 v, v , y en consecuencia es de la
forma requerida. Como el rango por columnas de una matriz es igual al
rango por filas, el sistema AX = 0 es equivalente al sistema:
λ1 vn x1 + λ2 vn x2 + . . . + λn−1 vn xn−1 + vn xn = 0
cuya solución general es:
(vn 6= 0)
120
CAPÍTULO 3. FORMAS CANÓNICAS






x1 = α1
x2 = α2
...


xn−1 = αn−1



xn = −λ1 α1 − λ2 α2 − . . . − λn−1 αn−1
(αj ∈ R)
Podemos expresarla en forma vectorial de la siguiente manera:

x1
x2
..
.


1
0
..
.


0
1
..
.


0
0
..
.

























 (αi ∈ R)
 + . . . + αn−1 

 = α1 
 + α2 








 1 
xn−1 
 0 
 0 
−λn−1
xn
−λ1
−λ2
(∗)
3. Teniendo en cuenta la forma de la matriz A :


x1


 x2 
AX = λ1 v, λ2 v, . . . , λn−1 v, v  . 
 .. 
xn
= (λ1 x1 + λ2 x2 + . . . + λn−1 xn−1 + xn )v
En el caso particular X = v obtenemos:
Av = (λ1 v1 + λ2 v2 + . . . + λn−1 vn−1 + vn )v
Llamemos a = λ1 v1 +λ2 v2 +. . .+λn−1 vn−1 +vn . El vector no nulo v satisface
Av = av y por tanto es vector propio asociado al valor propio a. Por otra
parte, las soluciones no nulas del sistema AX = 0 satisfacen AX = 0X,
luego son vectores propios asociados al valor propio 0. Los n − 1 vectores
columnas {w1 , w2 , . . . , wn−1 } que aparecen en la igualdad (∗) son no nulos y
claramente linealmente independientes, son por tanto n − 1 vectores propios
linealmente independientes asociados al valor propio 0. Los vectores propios
de A son por tanto:

1
0
..
.


0
1
..
.


0
0
..
.


v1
v2
..
.

























w1 = 

 , . . . , wn−1 = 
, v = 
 , w2 








vn−1 
 1 
 0 
 0 
vn
−λn−1
−λ1
−λ2
3.20. FORMAS DE JORDAN DE RANGO 1
121
los n − 1 primeros asociados al valor propio 0 y el último asociado al a.
4. Del apartado anterior deducimos que dim V0 = n − 1. Entonces, A es
diagonalizable si y sólo si tiene un valor propio no nulo y simple. Necesariamente este valor propio ha de ser a = λ1 v1 + λ2 v2 + . . . + λn−1 vn−1 + vn .
Obsérvese que si ocurre a 6= 0 entonces B = {w1 , w2 , . . . , wn−1 , v} es base
de Rn formada por vectores propios. Esta base satisface:

Aw1 = 0




 Aw2 = 0
...


Aw
=0


 n−1
Av = av
lo cual implica que A∗ = diag (0, 0, . . . , 0, a). La matriz del primer apartado
es A = [−v, −av, v] con v = (−1, −1, −1)t y por tanto λ1 = −1, λ2 = −a.
Según lo que acabamos de demostrar, A = [−v, −av, v] es diagonalizable si
y sólo si se verifica λ1 v1 + λ2 v2 + v3 6= 0 o equivalentemente si y sólo si a 6= 0
que fue lo que obtuvimos en 1.
5. Como hemos visto, la matriz A no es diagonalizable si y sólo si a = 0. En
este caso el único valor propio de A es 0 y al ser dim V0 = n − 1, su forma
canónica A∗ tiene n − 1 cajas, es decir es la matriz diagonal por cajas


A1 0 . . .
0
 0 A2 . . .
0 
0 1


A∗ =  .
con
A
=
, Ai = [0], (2 ≤ i ≤ n − 1)
.. 
1
0 0
 ..
. 
0
0
. . . An−1
que es la forma de Jordan que obtuvimos en el caso particular del primer
apartado.
122
CAPÍTULO 3. FORMAS CANÓNICAS
Capı́tulo 4
Formas bilineales, producto
escalar
4.1.
Método de Gauss
Usando el método de Gauss, diagonalizar las formas cuadráticas
(i ) q : R3 → R , q(x1 , x2 , x3 ) = x21 − x22 + 7x23 + 2x1 x2 + 4x1 x3 + 8x2 x3 .
(ii ) q : R4 → R , q(x, y, z, t) = xy + xz + xt + yz + yt + zt
Resolución. El problema es rutinario conociendo el método general. Consideremos una forma cuadrática q : Rn → R. Supondremos que la forma
cuadrática q es no nula (trivialmente estarı́a diagonalizada) y analizamos
dos casos:
Caso 1. La forma cuadrática contiene algún cuadrado. Supondremos sin
pérdida de generalidad que el término que contiene un cuadrado es ax21 (a 6=
0). Entonces podemos expresar q(x1 , . . . , xn ) = ax21 + ϕ1 x1 + q1 en donde q1
es una forma cuadrática que solamente contiene las n−1 variables x2 , . . . , xn
y ϕ1 es una forma lineal que solamente contiene las n−1 variables x2 , . . . , xn .
ϕ1 2 ϕ21
−
+ q1
q(x1 , . . . , xn ) = ax21 + ϕ1 x1 + q1 = a x1 +
2a
4a
Por tanto tenemos expresada q como suma del cuadrado de una forma lineal
más la forma cuadrática −ϕ21 /4a+q1 que solamente contiene n−1 variables.
Caso 2. La forma cuadrática no contiene cuadrados. Ordenando con respecto
a dos variables (por ejemplo x1 y x2 ):
q(x1 , . . . , xn ) = ax1 x2 + x1 ϕ1 + x2 ϕ2 + q1 (x3 . . . , xn ) =
123
124
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
ϕ2 ϕ1 ϕ1 ϕ2
a x1 +
x2 +
+ q1 −
a
a
a
(a 6= 0)
Podemos introducir dos cuadrados aplicando AB = (1/4)[(A + B)2 − (A −
B)2 ] al sumando a(x1 + ϕ2 /a)(x2 + ϕ1 /a) y la forma cuadrática q1 − ϕ1 ϕ2 /a
depende de las n − 2 variables x3 , . . . , xn .
Dado que para n = 1 la forma cuadrática es evidentemente diagonalizable,
los casos anteriores demuestran que podemos descomponer q en suma de
cuadrados de n formas lineales. La independencia de estas formas lineales es
fácilmente demostrable por recurrencia. Siguiendo el método anterior, procedamos a diagonalizar las formas cuadráticas dadas.
(i ) Estamos en el caso 1. Siguiendo el método general expuesto:
q(x1 , x2 , x3 ) = x21 + x1 (2x2 + 4x3 ) − x22 + 8x2 x3 + 7x23
(2x2 + 4x3 )2
− x22 + 8x2 x3 + 7x23
4
= (x1 + x2 + 2x3 )2 − 2x22 + 4x2 x3 + 3x23
= (x1 + x2 + 2x3 )2 −
Ahora descomponemos −2x22 + 4x2 x3 + 3x23 :
−2x22 + 4x2 x3 + 3x23 = −2x22 + x2 (4x3 ) + 3x23
(4x3 )2
+ 3x23
−8
= −2(x2 − x3 )2 + 5x23
= −2(x2 − x3 )2 −
La expresión de q en suma de cuadrados de formas lineales independientes
es:
q(x1 , x2 , x3 ) = (x1 + x2 + 2x3 )2 − 2(x2 − x3 )2 + 5x23
Denotando x01 = x1 + x2 + 2x3 , x02 = x2 − x3 , x03 = x3 también podemos
expresar q en la forma :

 0 
1
0
0
x1
0
0
0
0
2
0
2
0
2



0 −2 0
x02 
q(x1 , x2 , x3 ) = x1 − 2x2 + 5x3 = x1 x2 x3
0
0 5
x03
(ii ) Estamos en el caso 2. Siguiendo el método general expuesto:
q(x, y, z, t) = xy + x(z + t) + y(2z + t) + 4zt
= (x + 2z + t)(y + z + t) + 4zt − (z + t)(2z + t)
= (x + 2z + t)(y + z + t) − 2z 2 − t2 + zt
4.2. ÁNGULO EN R2 [X]
125
Usando la fórmula AB = (1/4)[(A + B)2 − (A − B)2 ] obtenemos
1
1
(x + 2z + t)(y + z + t) = (x + y + 3z + 2t)2 − (x − y + z)2
4
4
Ahora descomponemos −2z 2 − t2 + zt :
−2z 2 − t2 + zt = −t2 + t(z) − 2z 2
z 2 z 2
=− t−
−
− 2z 2 =
2
4
z 2 9 2
=− t−
− z
2
4
La expresión de q en suma de cuadrados de formas lineales independientes
es:
1
z 2 9 2
1
q(x, y, z, t) = (x + y + 3z + 2t)2 − (x − y + z)2 − t −
− z
4
4
2
4
Denotando x0 = x + y + 3z + 2t , y 0 = x − y + z , z 0 = t − z/2 , t0 = z
también podemos expresar q en la forma :
1
1
9
q(x, y, z, t) = x0 2 − y 0 2 − z 0 2 − t0 2 =
4
4
4

  0
1/4
0
0
0
x
0



0
−1/4
0
0
 y 
x0 y 0 z 0 t 0 
0
 0
0
−1
0  z 
0
0
0 −9/4
t0
4.2.
Ángulo en R2 [x]
En el espacio vectorial de los polinomios con coeficientes
reales y grado
P
menor que 3 se considera el producto escalar hp, qi = 3i=0 p(i)q(i). Calcular
el ángulo formado por los polinomios x2 + 1 y x2 − 3x + 1. [2]
Resolución. Llamemos p = x2 + 1 y q = x2 − 3x + 1. Tenemos:
hp, qi = p(0)q(0) + p(1)q(1) + p(2)q(2) = 1 · 1 + 2 · (−1) + 5 · (−1) = −6
kpk =
kqk =
p
p
√
√
hp, pi = p(0)2 + p(1)2 + p(2)2 = 12 + 22 + 52 = 30
p
p
p
√
hq, qi = q(0)2 + q(1)2 + q(2)2 = 12 + (−1)2 + (−1)2 = 3
Si α ∈ [0, π] es el ángulo que forman p y q :
126
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
√
−6
−2
10
hp, qi
−6
cos α =
= √ √ = √ = √ =−
kpk kqk
5
30 3
3 10
10
En consecuencia:
√
α = arc cos (− 10/5)
4.3.
(α ∈ [0, π])
Signatura de una forma cuadrática
Sea E un espacio vectorial real euclı́deo de dimensión n y sea u ∈ E un
vector de norma 1 (kuk = 1). Para cada número real a se define en E la
forma cuadrática
Qa : E → R ,
Qa (x) = (hx, ui)2 + a kxk2
(h , i representa el producto escalar en E). Se pide:
(a) Determinar razonadamente la signatura de Qa (ı́ndice de positividad,
ı́ndice de negatividad, ı́ndice de nulidad), según los valores de a, si −1 <
a < 0.
(b) La misma pregunta si a ≥ 0 o bien a ≤ −1. [1]
Resolución. (a) Como kuk = 1 el vector u es no nulo y en consecuencia linealmente independiente. Por el teorema de la ampliación de la base,
existen vectores u2 , . . . , un de E tales que B = {u, u2 , . . . , un } es base de
E. Aplicando el método de Gram-Schmidt a B obtenemos la base ortonormaal de E: B 0 = {u, e2 , . . . , en }. El vector de coordenadas de u en B 0 es
(1, 0, . . . , 0). Llamemos (x1 , . . . , xn ) al vector de coordenadas de x en B 0 .
Dado que B 0 es ortonormal, el producto escalar de dos vectores por medio
de sus coordenadas en B 0 se calcula como en el caso usual. Por tanto:
Qa (x) = x21 + a(x21 + x22 + . . . + x2n ) = (1 + a)x21 + ax22 + . . . + ax2n
En forma matricial

 
1 + a 0 ... 0
x1
  x2 
0
a
.
.
.
0


 
Qa (x) = x1 , x2 , . . . , xn  .
..   .. 
 ..
.  . 
0
0 ... a
xn
Si −1 < a < 0 la matriz diagonal D anterior es de la forma D = diag (+, −, . . . , −)
y la signatura de Qa es en consecuencia s = (1, n − 1, 0).
(b) Para a ≥ 0 tenemos:
4.4. FORMA CUADRÁTICA MEDIANTE UNA INTEGRAL
127
a = 0 ⇒ D = diag (1, 0, . . . , 0) ⇒ s = (1, 0, n − 1)
a > 0 ⇒ D = diag (+, +, . . . , +) ⇒ s = (n, 0, 0)
Para a ≤ −1:
a = −1 ⇒ D = diag (0, −1, . . . , −1) ⇒ s = (0, n − 1, 1)
a < −1 ⇒ D = diag (−, −, . . . , −) ⇒ s = (0, n, 0)
4.4.
Forma cuadrática mediante una integral
La siguiente función es una forma cuadrática en R3 :
Z
q(x1 , x2 , x3 ) =
π/2
(x1 cos t + x2 sin t + x3 )2 dt
0
Hallar su rango y signatura (ı́ndice de positividad, ı́ndice de negatividad e
ı́ndice de nulidad). [1]
Resolución. Aunque no se pide explı́citamente en el enunciado, es fácil
probar que la función dada es una forma cuadrática q : R3 → R. En efecto,
desarrollando el trinomio del integrando, usando la linealidad de la integral
y la existencia de la integral definida de una función continua en un intervalo cerrado, fácilmente
verificamos que q se puede expresar en la forma
P3
i j
q(x1 , x2 , x3 ) =
i,j=1 aij x x , es decir como un polinomio homogéneo de
grado dos. Concluimos que q es forma cuadrática.
Calculando los coeficientes aij por medio de las integrales inmediatas que
aparecen, podemos diagonalizar la forma cuadrática por alguno de los métodos conocidos y ya tendrı́amos su rango y su signatura. Ahora bien, en este
caso y dado que la función integrando es ≥ 0 deducimos que q(x1 , x2 , x3 ) ≥ 0
para todo vector (x1 , x2 , x3 ) de R3 . Si demostramos además que
q(x1 , x2 , x3 ) = 0 ⇔ (x1 , x2 , x3 ) = (0, 0, 0)
(1)
la forma cuadrática será definida positiva y cualquier matriz diagonal que la
representa ha de ser de la forma D = diag (+, +, +). Veamos que se cumple
(1). Por un conocido resultado de Análisis, si f es continua y positiva en
Rb
un intervalo [a, b] se verifica a f (t)dt = 0 ⇔ f = 0 en [a, b]. La función
f (t) = (x1 cos t + x2 sin t + x3 )2 es continua y además ≥ 0 en [0, π/2] por
tanto:
q(x1 , x2 , x3 ) = 0 ⇔ (x1 cos t + x2 sin t + x3 )2 = 0 ⇔
x1 cos t + x2 sin t + x3 = 0 , ∀t ∈ R
128
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
Dando a t los valores 0, π/4, π/2 obtenemos el sistema

x1 +
√
√x3 = 0
( 2/2)x1 + ( 2/2)x2 + x3 = 0

x2 + x3 = 0
Resolviendo obtenemos (x1 , x2 , x3 ) = (0, 0, 0). La forma cuadrática dada es
definida positiva, en consecuencia su rango es 3 y su signatura, s = (3, 0, 0).
4.5.
Cociente de Rayleigh
Sean q1 (x) = X t AX y q2 (x) = X t BX dos formas cuadráticas de Rn → R,
siendo A y B matrices cuadradas de orden n, reales y simétricas. Se supone
que q2 es definida positiva. Entonces se sabe (y lo admitiremos) que existe
un cambio de base de ecuación X = P Y que permite diagonalizar simultaneamente las dos formas cuadráticas, expresándolas en la forma:
q1 (x) = a1 y12 + a2 y22 + . . . + an yn2
q2 (x) = y12 + y22 + . . . + yn2
Se pide:
1. Encontrar y justificar una relación entre los coeficientes a1 , a2 , . . . , an y
las raı́ces de la ecuación det(A − λB) = 0.
2. Clasificar las formas cuadráticas q1 y q2 en el caso particular:
2 1
0 1
B=
A=
1 2
1 0
Como aplicación, diagonalizar simultaneamente en este caso las formas cuadráticas q1 y q2 (no se pide la matriz de paso P ).
3. Ordenar de menor a mayor:
máx {a1 , a2 , . . . , an } , mı́n {a1 , a2 , . . . , an } ,
X t AX
(X 6= 0)
X t BX
Como aplicación, encontrar los valores máximo y mı́nimo de F : Rn → R
dada por F (x) = X t AX, con la condición X t BX = 1.
4. Si v1 , v2 , . . . , vn son los vectores columna de la matriz P de paso, comprobar que se cumplen las condiciones:
4.5. COCIENTE DE RAYLEIGH
129
(i) Av1 = a1 Bv1 , Av2 = a2 Bv2 , . . . , Avn = an Bvn
(ii) vit Bvj = 0 si i 6= j, vit Bvi = 1, i, j = 1, 2, . . . , n
5. Las condiciones del apartado 4. permiten hallar una matriz de paso P .
Escribir detalladamente dichas condiciones para las matrices A y B del apartado 2., en particular, determinar el cambio de base X = P Y que diagonalice
de manera simultánea las formas cuadráticas q1 y q2 del apartado 2. [1]
Resolución. 1. Por hipótesis existe una matriz P real invertible y de orden
n tal que P t AP = D con D = diag(a1 , . . . , an ) y P t BP = I. Despejando las
matrices A y B obtenemos A = (P t )−1 DP −1 y B = (P t )−1 IP −1 . Entonces:
det(A − λB) = det (P t )−1 (D − λI)P −1 =
1
1
· det(D − λI) ·
=
t
det(P )
det P
1
· det(D − λI) = 0 ⇔ det(D − λI) = 0 ⇔ (a1 − λ) · . . . · (an − λ) = 0
(det P )2
Es decir, a1 , . . . , an son exactamente las raı́ces de det(A − λB) = 0.
2. La matriz A tiene determinante −1 que es igual al producto de sus valores
propios. Uno ha de ser positivo y otro negativo, por tanto q1 es indefinida.
La matriz B tiene todos sus menores principales mayores que 0, por tanto
q2 es definida positiva. Ahora:
−2λ 1 − λ
= 0 ⇔ 3λ2 + 2λ − 1 = 0
det(A − λB) = 1 − λ −2λ Las soluciones de la anterior ecuación son 1/3 y −1 . De acuerdo con el
apartado 1. existe un cambio de base de ecuación X = P Y de tal manera
que:
1
q1 (x) = y12 − y22 ,
3
q2 (x) = y12 + y22
3. Llamemos M = máx{a1 , . . . , an } . Usando el cambio X = P Y tenemos:
X t AX
(P Y )t A(P Y )
Y t P t AP Y
Y t DY
=
=
=
=
X t BX
(P Y )t B(P Y )
Y t P t AP Y
Y t IY
a1 y12 + . . . + an yn2
M y12 + . . . + M yn2
M (y12 + . . . + yn2 )
≤
=
=M
y12 + . . . + yn2
y12 + . . . + yn2
y12 + . . . + yn2
El razonamiento para m = mı́n{a1 , . . . , an } es totalmente simétrico. Podemos pues concluir que:
m = mı́n {a1 , . . . , an } ≤
X t AX
≤ M = máx {a1 , . . . , an } (∀X 6= 0)
X t BX
130
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
Nótese que al ser q2 definida positiva, si X 6= 0 entonces X t BX 6= 0 es decir,
el cociente anterior está bien definido.
Por lo demostrado anteriormente, m ≤ F ≤ M . Veamos que F alcanza los
valores m y M . Supongamos sin pérdida de generalidad que m = a1 y que
M = an . Obsérvese que la condición X t BX = 1 equivale a y12 + . . . + yn2 = 1.
Si elegimos X1 = P Y1 y Xn = P Yn con Y1 = (1, 0, . . . , 0)t , Yn = (0, 0, . . . , 1)t
tenemos X1t AX1 = a1 = m y Xnt AXn = an = M . Es decir, el máximo para
F es M y el mı́nimo m.
4. De P t AP = D se deduce AP = (P t )−1 D y de P t BP = I que BP =
(P t )−1 . Por tanto AP = BP D. Tenemos:
AP = BP
D ⇒ A v1 , . . . , vn = B a1 v1 , . . . , an vn ⇒
Av1 , . . . , Avn = a1 Bv1 , . . . , an Bvn ⇒ Avi = ai Bvi (i = 1, . . . , n)
Por otra parte:

 t
v1t
v1
vt  
 v2t 
 2

P t BP = I ⇔  .  B v1 , v2 , . . . , vn =  .  Bv1 , Bv2 , . . . , Bvn
.
.
.
.

v1t Bv1
 v t Bv1
 2
 ..
 .
vnt Bv1

vnt
vnt

v1t Bv2 . . . v1t Bvn
v2t Bv2 . . . v2t Bvn 

t
..  = I ⇔ vi Bvj = δij (i, j = 1, 2, . . . , n)

.
vnt Bv2 . . . vnt Bvn
En donde δij son las deltas de Kronecker. Quedan pues demostradas las
condiciones pedidas.
5. Llamando v1 = (x, y)t , v2 = (z, u)t obtenemos:
1 2 1 x
0 1 x
=
⇔ . . . ⇔ (x, y) = (α, α) (α ∈ R)
1 0 y
3 1 2 y
0 1 z
2 1 z
= (−1)
⇔ . . . ⇔ (z, u) = (−β, β) (β ∈ R)
1 2 u
1 0 u
Obligando a que vit Bvi = 1 (i = 1, 2):
√
2 1
α
(α, α)
= 1 ⇔ α = ± 6/6
1 2
α
√
2 1
−β
(−β, β)
= 1 ⇔ β = ± 2/2
1 2
β
4.6. MÍNIMO DE UNA FUNCIÓN CUADRÁTICA EN RN
131
Por otra parte, para todo α, β ∈ R se verifica:
2 1
−β
(α, α)
=0
1 2
β
por tanto, eligiendo α =
4.6.
√
√
6/6 y β = 2/2 obtenemos la matriz P :
√
√
6/6
−
√2/2
P = √
6/6
2/2
Mı́nimo de una función cuadrática en Rn
1. La condición de mı́nimo para la función polinómica de segundo grado
p(x) = 12 ax2 − bx es ax = b y a > 0. Demostrar el siguiente resultado análogo para matrices:
Si A es una matriz simétrica definida positiva (es decir, X t AX > 0 cuando
X 6= 0) y B es un vector columna, entonces p(X) = 21 X t AX − X t B tiene
mı́nimo para X tal que AX = B.
Sugerencia: Si X verifica AX = B e Y es un vector columna, estudiar el
signo de p(Y ) − p(X) verificando que p(Y ) − p(X) = 12 [(Y − X)t A(Y − X)].
1 2
x + x1 x2 + x22 − 3x2 . Aplicar el
2 1
resultado anterior para hallar el punto (α, β) donde tiene mı́nimo. Verificar
∂p
que en ese punto se anulan las derivadas parciales
(i = 1, 2). [1]
∂xi
2. Sea la función cuadrática p(x1 , x2 ) =
Resolución. 1. Veamos que si AX = B entonces
p(Y ) − p(X) = 21 [(Y − X)t A(Y − X)]
Por una parte tenemos
p(Y ) − p(X) = 21 Y t AY − Y t B − 12 X t AX + X t B = 21 Y t AY − Y t B + 12 X t B
La matriz X t AY es simétrica (orden 1 × 1), y la matriz A es simétrica
por hipótesis. Entonces X t AY = (X t AY )t = Y t At X = Y t AX = Y t B.
Desarrollando el segundo miembro de la sugerencia:
1
2 [(Y
− X)t A(Y − X)] = 12 [(Y t − X t )A(Y − X)] = 21 [(Y t A − X t A)(Y − X)] =
1
t
t
t
t
2 [Y AY − Y B − Y B + X B] = p(Y ) − p(X)
Para todo Y 6= X y teniendo en cuenta que A es definida positiva, se verifica:
132
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
p(Y ) − p(X) = 12 [(Y − X)t A(Y − X)] > 0
Esto implica p(Y ) > p(X) para todo Y 6= X. Como consecuencia, la función
p tiene un mı́nimo (además estricto) en X.
2. Podemos escribir
1
1
p(x1 , x2 ) = x21 + x1 x2 + x22 − 3x2 = (x21 + 2x1 x2 + 2x22 ) − 3x2 =
2
2
1 1
x1
0
1
− (x1 x2 )
= 12 X t AX − X t B
2 (x1 x2 ) 1 2
x2
3
La matriz A es simétrica y tiene sus menores principales mayores que cero,
por tanto es definida positiva. Según el apartado anterior el mı́nimo de p se
obtiene para la solución de AX = B :
1 1
x1
0
AX = B ⇔
=
⇔ (x1 , x2 ) = (−3, 3)
x2
1 2
3
∂p
∂p
= x1 +x2 y ∂x
= x1 +2x2 −3 se anulan en (α, β) = (−3, 3).
Las parciales ∂x
1
2
Esto era de esperar por un conocido resultado de Análisis.
4.7.
Funciones convexas y formas cuadráticas
Sea V un espacio vectorial de dimensión finita. Se dice que una función real
f : V → R es convexa cuando f (αx + βy) ≤ αf (x) + βf (y) ∀x, y ∈ V y
∀α, β ∈ R con α, β ≥ 0, α + β = 1.
(a) Desde luego las formas lineales o funcionales f : V → R son funciones
convexas como facilmente se puede comprobar, pero existen funciones convexas que no son lineales. Demostrar que la función f (x) = x2 de R en R es
convexa y no lineal.
(b) Sea f : V → R una forma cuadrática. Demostrar que si f es positiva (es
decir f (x) ≥ 0 para todo x de V ) entonces f es convexa.
(c) Enunciar la propiedad recı́proca de la anterior y estudiar su validez (en
caso afirmativo dar una demostración y en caso contrario construir un contraejemplo). En todo caso dar una caracterización de las formas cuadráticas
que son funciones convexas. [1]
Resolución. (a) Elijamos el escalar λ = 2 y el vector x = 1. Entonces
f (λx) = f (2) = 4 y λf (1) = 2 · 1 = 2, es decir f (λx) 6= λf (x) para algún λ
y x y por tanto la función f (x) = x2 no es lineal. Veamos que es convexa.
Claramente una función f es convexa sı́ y sólo si:
4.7. FUNCIONES CONVEXAS Y FORMAS CUADRÁTICAS
f (αx + (1 − α)y) ≤ αf (x) + (1 − α)f (y)
133
∀x, y ∈ V, ∀α ∈ [0, 1]
Para f (x) = x2 tenemos:
α 2 x2
(αx + (1 − α)y)2 ≤ αx2 + (1 − α)y 2 ⇔
+ 2α(1 − α)xy + (1 − α)2 y 2 − αx2 − (1 − α)y 2 ≤ 0 ⇔
(α2 − α)x2 + (α2 − α)y 2 + 2(α2 − α)xy ≤ 0 ⇔
(α2 − α)(x + y)2 ≤ 0
La última desigualdad se verifica pues α2 − α ≤ 0 para todo α en [0, 1].
Hemos demostrado por tanto que la función f (x) = x2 es convexa pero no
lineal.
(b) Por hipótesis dim V = n finita y f (x) ≥ 0 para todo x de V . Por un
conocido teorema, existe una base B = {u1 , . . . , un } de V respecto de la
cual la expresión de f es:
f (x) = x21 + . . . + x2r ,
(r ≤ n , x = x1 u1 + . . . + xn un )
Sean x = x1 u1 + . . . + xn un , y = y1 u1 + . . . + yn un elementos cualesquiera
de V y α, β ∈ R tales que α ≥ 0, β ≥ 0 y α + β = 1. Usando el apartado
anterior:
f (αx + βy) =
α
r
X
i=1
r
X
(αxi + βyi )2 ≤
i=1
x2i + β
r
X
r
X
(αx2i + βyi2 ) =
i=1
yi2 = αf (x) + βf (y)
i=1
Es decir, toda forma cuadrática positiva es una función convexa.
(c) La proposición recı́proca de la anterior es: ”Sea f : V → R una forma
cuadráticca. Si f es convexa, entonces es positiva”. Veamos que es cierta. En
efecto, supongamos que la forma cuadrática f no fuera positiva. Existirı́a
entonces una base en V respecto de la cual la expresión de f es f (x) =
d1 x21 + . . . + dr x2r (r ≤ n) en donde algún di < 0. Podemos suponer sin
pérdida de generalidad que d1 < 0. Elijamos los escalares α = 2/3 β = 1/3
y los vectores x, y ∈ V cuyas coordenadas en la base elegida son (1, 0, . . . , 0)
y (−1, 0, . . . , 0) respectivamente. Entonces:
f (αx + βy) = d1 /9 > d1 = αf (x) + βf (y)
siendo α ≥ 0, β ≥ 0 y α + β = 1. Es decir, f no serı́a convexa. Podemos pues
concluir que una forma cuadrática f : V → R con V de dimensión finita es
convexa sı́, y sólo si es positiva.
134
4.8.
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
Núcleo de una forma cuadrática
Sea E un espacio vectorial real, y Q : E → R una forma cuadrática. Llamaremos núcleo de Q, y lo designaremos con ker Q, al conjunto formado por
los elementos x de E tales que Q(x) = 0.
1. Sea Q : R2 → R la forma cuadrática Q(x) = x21 − x22 ( x = (x1 , x2 ) ).
Dibujar en el plano cartesiano (x1 , x2 ) el conjunto ker Q. Estudiar si ker Q
es un subespacio vectorial de R2 .
2. Sea Q : E → R una forma cuadrática positiva, es decir Q(x) ≥ 0 para
todo x de E. Demostrar que ker Q es subespacio de E. Indicación: Se puede
utilizar la identidad Q(x + y) + Q(x − y) = 2(Q(x) + Q(y)).
3. Sea A una matriz con coeficientes reales m × n, y de rango r. La matriz
At · A es simétrica y puede ser considerada como la matriz de una forma
cuadrática Q : Rs → R, Q(x) = X t (At A)X. Demostrar que Q es positiva y
expresar ker Q en términos del conjunto de soluciones del sistema de ecuaciones AX = 0. Indicación: Nótese que Q(x) = (AX)t (AX).
4. Clasificar la forma cuadrática del apartado anterior. Es decir, determinar
los ı́ndices de positividad, de negatividad, y de nulidad, en términos de m, n
y r.
5. Como aplicación del apartado anterior, enunciar y demostrar una condición necesaria y suficiente que ha de cumplir la matriz A para que At · A sea
una matriz invertible. [1]
Resolución. 1. Tenemos:
(x1 , x2 ) ∈ ker Q ⇔ x21 − x22 = 0 ⇔ (x1 + x2 )(x1 − x2 ) = 0 ⇔
(x1 + x2 = 0) ∨ (x1 − x2 = 0)
−−→
−−→
Los vectores de ker Q son por tanto los vectores de la forma OM o bien ON
siendo O el origen de coordenadas y M, N puntos de las rectas x1 − x2 = 0
y x1 + x2 = 0 respectivamente.
Elijamos los vectores (1, 1), (1, −1). Claramente pertenecen a ker Q, sin
embargo su suma (2, 0) no pertenece, en consecuencia ker Q no es subespacio
de R2 .
4.8. NÚCLEO DE UNA FORMA CUADRÁTICA
135
x2
x1 + x2 = 0
N
x1 − x2 = 0
M
x1
2. Aún no siendo obligatorio, demostremos la indicación. Si Q : E → R es
una forma cuadrática, entonces existe una forma bilineal f : E × E → R tal
que Q(x) = f (x, x) para todo x ∈ E. Entonces:
Q(x + y) + Q(x − y) = f (x + y, x + y) + f (x − y, x − y) =
f (x, x) + f (y, x) + f (x, y) + f (y, y)+
f (x, x) − f (y, x) − f (x, y) + f (y, y) =
2f (x, x) + 2f (y, y) = 2Q(x) + 2Q(y)
Veamos que ker Q es subespacio de E:
(i ) Q(0) = f (0, 0) = f (0, x − x) = f (0, x) − f (0, x) = 0 ⇒ 0 ∈ ker Q.
(ii ) Sean x, y ∈ ker Q. Entonces Q(x) = 0 y Q(y) = 0, en consecuencia
se verifica Q(x + y) + Q(x − y) = 2(Q(x) + Q(y)) = 0. Como Q es forma
cuadrática positiva, tenemos Q(x + y) ≥ 0 y Q(x − y) ≥ 0. Esto implica
Q(x + y) = 0 o de manera equivalente que x + y ∈ ker Q.
(iii ) Sean λ ∈ R y x ∈ ker Q. Entonces:
Q(λx) = f (λx, λx) = λ2 f (x, x) = λ2 Q(x) = λ2 0 = 0 ⇒ λx ∈ ker Q
Hemos demostrado pues que si Q es una forma cuadrática positiva, entonces
ker Q es un subespacio de E.
3. La matriz A tiene orden m × n por tanto At tiene orden n × m, en consecuencia At · A tiene orden n × n, es decir s = n. Por otra parte, aplicando
propiedades bien conocidas de la trasposición: (At A)t = (At )(At )t = At A.
Es decir, At A es matriz simétrica.
Veamos que la forma cuadrática Q : Rn → R, Q(x) = X t (At A)X es efectivamente positiva. LLamando Y = (y1 , . . . , ym )t = AX:
136
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
2 ≥ 0 (∀x ∈ Rn )
Q(x) = X t (At A)X = (AX)t (AX) = Y t Y = y12 + . . . + ym
Caractericemos ker Q:
2 = 0 ⇔ Y = 0 ⇔ AX = 0
x ∈ ker Q ⇔ y12 + . . . + ym
Es decir, los vectores de ker Q son las soluciones del sistema AX = 0.
4. Dado que ker Q está determinado por las soluciones del sistema lineal
homogéneo AX = 0 tenemos dim(ker Q) = n − r. Si {e1 , e2 , . . . , en−r } es
una base de ker Q, podemos ampliarla hasta obtener una base de vectores
conjugados dos a dos de Rn : B = {e1 , e2 , . . . , en−r , en−r+1 , . . . , en }. En esta
base la matriz de Q es:
D = diag (Q(e1 , . . . , Q(en−r ), Q(en−r+1 ), . . . , Q(en ))
con Q(ej ) = 0 si 0 ≤ j ≤ n − r y Q(ej ) > 0 si n − r + 1 ≤ j ≤ n. Por tanto
los ı́ndices pedidos son (r, 0, n − r).
5. La matriz At A es congruente con D y como consecuencia tienen el mismo
rango. Entonces, At A es invertible sı́ y sólo si D lo es, y esto ocurre exactamente cuando el ı́ndice de nulidad n − r es cero. Por tanto, At A es invertible
sı́ y sólo si rg(A) = n.
4.9.
Diagonalización simultánea: sistema diferencial
(i ) Hallar todas las soluciones del sistema diferencial
1 3 4 x1 (t)
1 2 x001 (t)
=
2 8 x002 (t)
2 4 16 x2 (t)
(ii ) Hallar la solución particular cumpliendo
x1 (0)√= x2 (0) = 0√
x01 (0) = − 2, x02 (0) = 2/4
Resolución. Comentamos el método general. Sea el sistema diferencial
BX 00 = AX con A, B ∈ Rn×n simétricas y B definida positiva. Sabemos
que existe una matriz C ∈ Rn×n invertible tal que
t
C AC = D
(1)
C t BC = In
4.9. DIAGONALIZACIÓN SIMULTÁNEA: SISTEMA DIFERENCIAL137
siendo D = diag(λ1 , . . . , λn ) con λi los valores propios generalizados. Efectuando el cambio X = CY obtenemos
BX 00 = AX ⇔ BCY 00 = ACY ⇔ (C t )−1 Y 00 = (C t )−1 DY ⇔ Y 00 = DY
(i ) Las matrices asociadas al sistema son:
1 3 4
1 2
A=
, B=
2 8
2 4 16
Ambas matrices son simétricas y B es definida positiva al tener todos sus
menores principales positivos. Los valores propios generalizados son
3/2 − λ 2 − 2λ
= 4λ2 − 12λ + 8 = 0 ⇔ λ = 1 ∨ λ = 2
det(A − λB) = 2 − 2λ 8 − 8λ
Hallemos los subespacios propios generalizados
(−1/2)x1 − 2x2 = 0
Vλ1 ≡ (1/2)x1 = 0 , Vλ2 ≡
−2x1 − 8x2 = 0
Unas bases estos subespacios son B1 = v1 = (0, 1)t y B2 = v2 = (4, −1)t .
Estos vectores corresponden a valores propios generalizados
p distintos,√en
consecuencia
son B-ortogonales.
Sus normas son kv1 k = v1t Bv1 = 2 2,
p
√
t
kv2 k = v2 Bv2 = 2 2. Una matriz C cumpliendo las condiciones (1) sabemos que es C = [ v1 / kv1 k , v2 / kv2 k ] es decir
√ 2 0
4
C=
4 1 −1
Resolvamos el sistema diagonal Y 00 = DY
00
t + βe−t
y1 (t) = αe
y1 (t) = y1 (t)
00
√
√
⇔
Y (t) = DY (t) ⇔
00
y2 (t) = 2y2 (t)
y2 (t) = γe 2t + λe− 2t
Por tanto
#
√
√
√ "
− 2t
2
x1 (t)
4γe 2t + 4λe
√
√
X(t) =
= CY (t) =
x2 (t)
4 αet + βe−t − γe 2t − λe− 2t
√ √
(ii ) Imponiendo las condiciones X(0) = (0, 0)t , X 0 (0) = (− 2, 2/4)t y
resolviendo el sistema obtenemos
"
√
√ #
1 −4e√ 2t + 4e√− 2t
X(t) =
8
e 2t − e− 2t
138
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
4.10.
Forma cuadrática multiplicativa
Sean E =
R(2×2) ,
1 0
0 1
I=
, J=
y
0 1
1 0
1 0
0 1
0 0
0 0
B = ( B1 =
, B2 =
, B3 =
, B4 =
)
0 0
0 0
1 0
0 1
Sea Φ una forma cuadrática sobre E no nula tal que para todo A, B ∈ E
verifica Φ(AB) = Φ(A)Φ(B) y φ la forma bilineal simétrica asociada. Se
pide:
1. Hallar Φ(I), Φ(B2 ), Φ(B3 ) y Φ(B1 )Φ(B4 ).
2. Si A es invertible, probar que Φ(A) 6= 0.
3. Si A es singular demostrar que A2 = 0 o bien existen ∃P, Q ∈ E regulares
tales que
α 0
0 0
−1
−1
A=P
P yA=Q
Q
0 0
0 α
Sugerencia: Estudiar posibles polinomios mı́nimos de A.
4. Demostrar que si A es singular, entonces Φ(A) = 0.
5. Calcular φ(I, J) y Φ(J).
6. Calcular la matriz H de φ respecto de B. [2]
Resolución. 1. Como Φ 6= 0, existe A ∈ E tal que Φ(A) 6= 0. Entonces
Φ(A) = Φ(AI) = Φ(A)Φ(I) lo cual implica Φ(I) = 1. Dado que B22 = 0, y
Φ es forma cuadrática, se verifica 0 = Φ(0) = Φ(B22 ) = (Φ(B2 ))2 de lo que
se deduce que Φ(B2 ) = 0. Razonando de manera análoga, Φ(B3 ) = 0. Por
otra parte, Φ(B1 )Φ(B4 ) = Φ(B1 B4 ) = Φ(0) = 0.
2. Si A es invertible, entonces 1 = Φ(I) = Φ(AA−1 ) = Φ(A)Φ(A−1 ). Es
decir, Φ(A) 6= 0.
3. Si A es singular, entonces 0 es valor propio de A. Si A2 6= 0 entonces ni
µ(λ) = λ ni µ(λ) = λ2 pueden ser polinomios mı́nimos de A (en ambos casos
tendrı́amos A2 = 0). Por tanto, el polinomio mı́nimo de A ha de ser de la
forma µ(λ) = λ(λ − α) con α 6= 0 real. Esto implica que A es diagonalizable
en R y semejante a la matriz diag (α, 0) y a la matriz diag (0, α) con lo cual
hemos demostrado el aserto de este apartado.
4. Si A2 = 0 entonces 0 = Φ(A2 ) = (Φ(A))2 = 0 lo cual implica que
Φ(A) = 0. Sea ahora A2 =
6 0. Si R ∈ E es invertible, entonces
4.11. DESCOMPOSICIÓN EN VALORES SINGULARES
139
1 = Φ(I) = Φ(RR−1 ) = Φ(R)Φ(R−1 ) ⇒ Φ(R−1 ) = (Φ(R))−1
Usando el apartado anterior
Φ(A) = Φ(P −1 (αB1 )P ) = Φ(P −1 )(α2 Φ(B1 ))Φ(P ) = α2 Φ(B1 )
Φ(A) = Φ(Q−1 (αB4 )Q) = Φ(Q−1 )(α2 Φ(B4 ))Φ(Q) = α2 Φ(B4 )
Multiplicando y usando el primer apartado, (Φ(A))2 = α4 Φ(B1 )Φ(B4 ) = 0.
Como α 6= 0, deducimos que Φ(A) = 0.
5. Como I + J e I − J son singulares:
0 = Φ(I +J) = φ(I +J, I +J) = Φ(I)+Φ(J)+2φ(I, J) = 1+Φ(J)+2φ(I, J)
0 = Φ(I −J) = φ(I −J, I −J) = Φ(I)+Φ(J)−2φ(I, J) = 1+Φ(J)−2φ(I, J)
Resolviendo el correspondiente sistema, obtenemos inmediatamente que Φ(J) =
−1 y Φ(I, J) = 0.
6. La matriz pedida es la matriz simétrica H = [φ(Bi , Bj )] i, j = 1, 2, 3, 4.
Usando la conocida fórmula de la forma polar y que Φ(Bi ) = 0 (i =
1, 2, 3, 4) :
1
1
φ(Bi , Bj ) = (Φ(Bi + Bj ) − Φ(Bi ) − Φ(Bj )) = Φ(Bi + Bj )
2
2
Teniendo en cuenta que Φ(I) = 1, Φ(J) = −1 y Φ(A) = 0 si A es singular,
obtenemos


0
0
0
1/2
 0
0
−1/2 0 

H=
 0 −1/2
0
0 
1/2
0
0
0
4.11.
Descomposición en valores singulares
√


4
0
2
−5
3  calcular números σ1 , σ2 y matrices U, V
Dada la matriz A =
6
−2 −6
que verifiquen:
a) σ1 ≥ 0, σ2 ≥ 0.
b) U ∈ R2×2 y V ∈ R3×3 son ortogonales.
140
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR


σ1 0
c) V t AU =  0 σ2  [2]
0 0
Resolución. El problema es rutinario conociendo el método general. Procedemos a su exposición:
Sea A ∈ Cm×n . Existen matrices unitarias Q1 ∈ Cm×m , Q2 ∈ Cn×n tales
que Q∗1 AQ2 = S ∈ Rm×n siendo


σ1 0 . . . 0 0 . . . 0
 0 σ2 . . . 0 0 . . . 0


S= .
..  si m < n
 ..
.
0 0 . . . σm 0 . . . 0

σ1 0
 0 σ2

 ..
.

S=
0 0
0 0

 ..
.
0
0

0
0

.. 
. 

. . . σn 

... 0 

.. 
. 
... 0
...
...

σ1 0 . . .
 0 σ2 . . .

S= .
 ..
0
0

0
0

.. 
. 
si m > n
si m = n
. . . σn
con σ1 , σ2 , . . . , σp todos ≥ 0 con p = mı́n{m, n}. A los números σ1 , σ2 , . . . , σp
se les llama valores singulares de A.
Efectivamente, la matriz A∗ A ∈ Cn×n cumple (A∗ A)∗ = A∗ (A∗ )∗ = A∗ A,
por tanto es hermı́tica. Como consecuencia del teorema espectral existe una
base ortonormal {e1 , . . . , en } en Cn formada por vectores propios de A∗ A.
Sea λi valor propio de A∗ A asociado al vector propio ei es decir, A∗ Aei =
λi ei . Tenemos
e∗i A∗ Aei = λi e∗i ei = λi ⇒ λi = (Aei )∗ (Aei ) = hAei , Aei i ≥ 0
Supondremos sin pérdida de generalidad que
λ1 > 0 , . . . , λr > 0 , λr+1 = 0 , . . . , λn = 0
4.11. DESCOMPOSICIÓN EN VALORES SINGULARES
141
Llamemos


σi =
√
σ = 0
i
1
Aei ∈ Cm (i = 1, . . . , r)
σi
(i = r + 1, . . . , p) con p = mı́n{m, n}
λi , v i =
La familia {v1 , . . . , vr } es ortonormal. Efectivamente
∗ 1
1
1 ∗ ∗
(i) hvi , vj i =
Aei
Aej =
e A Aej =
σi
σj
σi σj i
λj ∗
λj
ei ej =
hei , ej i = 0 (si i 6= j)
σi σj
σi σj
λi
(ii) kvi k2 = hvi , vi i = 2 hei , ei i = 1 kei k2 = 1
σi
Podemos por tanto extender a una base ortonormal {v1 , . . . , vr , . . . , vm } de
Cm . Llamando Q1 = [v1 , . . . , vm ] y Q2 = [e1 , . . . , en ] tenemos
 ∗
v
∗  .1  ∗
Q1 AQ2 = v1 , . . . , vm A e1 , . . . , en =  ..  A e1 , . . . , en =
∗
vm
 ∗
 ∗

v1
v1 Ae1 . . . v1∗ Aen
 .
 ..  .. 
 .  Ae1 , . . . , Aen =  ..
. 
∗
vm
∗ Ae
∗
vm
1 . . . vm Aen
Veamos qué matriz es Q∗1 AQ2 :
1) Si j > r, kAej k2 = hAej , Aej i = e∗j A∗ Aej = λj e∗j ej = 0. Es decir Aej = 0.
2) Para todo i, j ∈ {1, . . . , r} se verifica
vi∗ Aej =
λj
λj
1 ∗ ∗
ei A Aej = e∗i ej =
< ei , ej >= 0 si i 6= j
σi
σi
σi
λi
vi∗ Aei =
< ei , ei >= σi
σi
3) ∀i = r + 1, . . . , m y ∀j = 1, . . . , r se verifica
vi∗ Aej = vi∗ (σj vj ) = σj < vi , vj >= 0 (pues i 6= j)
En consecuencia tenemos
Q∗1 AQ2
Σ 0
=
con Σ = diag (σ1 , . . . , σr )
0 0
142
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
Apliquemos ahora este proceso general a la matriz dada.
1
45 −3
∗
t
A A = A A = ... =
45
18 −3
Hallemos los valores propios de 18A∗ A, para ello restamos a la segunda fila
la primera y luego a la primera columna le sumamos la segunda
45 − λ
45 − λ
42 − λ
−3
−3
−3
=
=
=
−3
45 − λ
−48 + λ 48 − λ
0
48 − λ
(42 − λ)(48 − λ) = 0 ⇔ λ = 42 ∨ λ = 48
Los valores propios de A∗ A son por tanto λ1 = 42/18 = 7/3 y λ2 = 48/18 =
8/3. Hallemos los subespacios propios asociados a A∗ A
3x1 − 3x2 = 0
−3x1 − 3x2 = 0
∗
∗
ker(A A − λ1 I) ≡
ker(A A − λ2 I) ≡
−3x1 + 3x2 = 0
−3x1 − 3x2 = 0
Unas bases respectivas son {(1, 1)t } y {(−1, 1)t }. Una base ortonormal formada por vectores propios de A∗ A es por tanto
√
√
{e1 = (1/ 2)(1, 1)t , e2 = (1/ 2)(−1, 1)t }
En consecuencia la matriz U es
1 1 −1
U=√
1
2 1
p
p
Los valores singulares son σ1 = 7/3, σ2 = 8/3. Los vectores v1 , v2 son

 
r √  4
0
2
1
1
1
3 2
1
−5
3 √
= √ −1
v1 =
Ae1 =
σ1
7 6
2 1
21 −4
−2 −6

 
r √  4
0
−1
1  
1
1 −1
3 2

−5
3 √
2
=√
v2 =
Ae2 =
σ2
8 6
2 1
6 −1
−2 −6
Extendemos v1 , v2 a una base ortonormal de R3 . Un vector v3 = (x1 , x2 , x3 )t
ortogonal a v1 y v2 ha de cumplir 2x1 − x2 − 4x3 = 0 y −x1 + 2x2 −
x3 =
√ 0. Elegimos por ejemplo (3, 2, 1), que normalizándolo obtenemos v3 =
(1/ 14)(3, 2, 1)t . La descomposición pedida es por tanto
√
√
√ 

p

√ √
2/ √21 −1/ √21 −4/ √21
7/3 p0
1/√2 −1/√ 2
 −1/ 6
= 0
2/√ 6
−1/√ 6  A
8/3
√
1/ 2
1/ 2
3/ 14
2/ 14
1/ 14
0
0
4.12. DIAGONALIZACIÓN ORTOGONAL
4.12.
143
Diagonalización ortogonal
Sea la matriz simétrica


2 1 1
A = 1 2 1
1 1 2
(i ) Hallar los valores propios de A. Comprobar que son reales.
(ii ) Hallar unas bases de los subespacios propios. Comprobar que A es diagonalizable en R.
(iii ) Comprobar que vectores propios de esas bases asociados a valores propios distintos son ortogonales con el producto escalar usual.
(iv ) Hallar una base de R3 ortonormal y de vectores propios.
(v ) Comprobar que la matriz P de cambio de base de la canónica a la del
apartado anterior es ortogonal.
(vi ) Clasificar la forma cuadrática q : R3 → R dada por q(x) = xt Ax.
Resolución. (i ) Restando a la segunda y tercera filas la primera y posteriormente sumando a la primera columna las demás en |A − λI| obtenemos:
2 − λ
2−λ
4 − λ
1
1
1
1
1
1
1
2−λ
1 = −1 + λ 1 − λ
0 = 0
1−λ
0 =
1
1
2 − λ −1 + λ
0
1 − λ 0
0
1 − λ
2
= (4 − λ)(1 − λ) = 0 ⇔ λ = 4 (simple), λ = 1 (doble)
Los valores propios son reales como era de esperar, pues sabemos por el teorema espectral que para una matriz simétrica y real, estos son siempre lo son.
(ii ) Subespacios propios

−2x1 + x2 + x3 = 0
x1 − 2x2 + x3 = 0
ker(A − 4I) ≡

x1 + x2 − 2x3 = 0

x1 + x2 + x3 = 0
ker(A − I) ≡ x1 + x2 + x3 = 0

x1 + x2 + x3 = 0
Entonces, dim ker(A − 4I) = 1 (λ = 4 simple) y dim ker(A − I) = 3 −
rg(A − I) = 2. Al coincidir las dimensiones con las multiplicidades, A es
diagonalizable como era de esperar según el teorema espectral. Unas bases
de los subespacios propios son:
B4 = {(1, 1, 1)} , B1 = {(−1, 1, 0), (−1, 0, 1)}
(iii ) Tenemos
144
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
h(1, 1, 1), (−1, 1, 0)i = −1 + 1 = 0, h(1, 1, 1), (−1, 0, 1)i = −1 + 1 = 0
Como era de esperar, pues de acuerdo con el teorema espectral, vectores
propios asociados a valores propios distintos son ortogonales. Por supuesto
si están asociados a un mismo valor propio no tienen por qué ser ortogonales.
Por ejemplo h(−1, 1, 0), (−1, 0, 1)i = 1 6= 0.
(iv ) Bastará elegir en cada subespacio propio de dimensión mayor que 1
una base ortogonal (luego se normalizará). Para ello basta elegir una base
cualquiera y aplicar el método de Schmidt. Ahora bien, en nuestro caso,
una base de ker(A − I) ortogonal encontrada por simple observación es
{(1, −1, 0), (1, 1, −2)}. Dividiendo entre las normas obtenemos la base pedida:
1
1
1
B = √ (1, 1, 1),√ (1, −1, 0),√ (1, 1, −2)
3
2
6
(v ) La matriz P de cambio es:


1
1
1
√ √
√
 3
2
6

 1 −1
1

√ 
P = √ √

 3
2
6
1
−2 
√
0 √
3
6
Operando obtenemos P t P = . . . = I (o equivalentemente P t = P −1 ) como
era de esperar, ya que la matriz de cambio de una base ortonormal a otra
ortonormal es ortogonal.
(vi ) Dado que P −1 AP = P t AP = D = diag(4, 1, 1), la base B no solo
diagonaliza el endomorfismo dado por la matriz simétrica A, también la
forma cuadrática dada por A. Es decir, una reducida diagonal de q es D y
en consecuencia q es definida positiva.
4.13.
Semejanza, congruencia y equivalencia
Se consideran las matrices reales


a 1 a
A = 1 0 1 ,
a 1 a


1 a 1
B = a 0 a
1 a 1
4.13. SEMEJANZA, CONGRUENCIA Y EQUIVALENCIA
145
Se pide:
1. Determinar los valores de a para los cuales A y B son matrices semejantes.
En estos casos hallar matrices invertibles P tales que B = P −1 AP.
2. Determinar los valores de a para los cuales A y B son matrices congruentes. En estos casos hallar matrices invertibles P tales que B = P t AP.
3. Determinar los valores de a para los cuales A y B son matrices equivalentes. En estos casos hallar matrices invertibles P y Q tales que B = P AQ.
[1]
Resolución. 1. Si A y B son semejantes, necesariamente trA = trB es
decir, 2a = 2 o bien a = 1. Pero en este caso A = B y en consecuencia
B = I −1 AI. Podemos concluir: A y B son semejantes sı́ y sólo si a = 1 y en
este caso basta elegir P = I.
2. Sabemos que dos matrices A y B reales y del mismo orden son congruentes si y sólo si tienen la misma signatura (ı́ndice de positividad, de
negatividad y nulidad). Al ser ambas matrices simétricas podemos aplicar
el teorema espectral para encontrar matrices diagonales congruentes con las
dadas. Valores propios de A:
a − λ 1
a
−λ
1 = . . . = (−λ)(λ2 − 2aλ − 2) = 0 ⇔
det(A − λI) = 1
a
1 a − λ
√
√
λ1 = 0, λ2 = a + a2 + 2, λ3 = a − a2 + 2
Para todo a ∈ R se verifica λ1 = 0, λ2 > 0 y λ3 > 0 es decir, sigA = (1, 1, 1).
De manera
análoga obtenemos
los valores propios de B: µ1 = 0, µ2 =
√
√
2
1 + 1 + 2a y µ3 = 1 − 1 + 2a2 . Claramente obtenemos sigB = (1, 1, 1)
si a 6= 0 y sigB = (1, 0, 2) si a 6= 0. Podemos concluir que A y B son
congruentes si y sólo si a 6= 0.
Para a 6= 0 sabemos que existe una matriz Q ∈ R3×3 invertible tal que
Qt AQ = D y una S ∈ R3×3 invertible tal que S t AS = D siendo D =
diag (1, −1, 0). Igualando:
S t BS = Qt AQ ⇒ B = (S t )−1 Qt AQS −1 ⇒
B = (QS −1 )t A(QS −1 ) ⇒ B = (QS −1 )t A(QS −1 )
Basta elegir pues P = QS −1 . Aplicando (por ejemplo) el método de las
transformaciones elementales por filas y columnas podemos fácilmente hallar
Q y S. Omitimos los cálculos por lo rutinario de los mismos. Una solución
serı́a
146
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
1
 √a
=
 0
0

P =
QS −1
0
√
a a
0

1
√ − 1
a

0 
1
3. Las matrices A y B son equivalentes si y sólo si tienen el mismo rango.
Fácilmente verificamos que rgA = 2 para todo a ∈ R, rgB = 2 para a 6= 0
real y rgB = 1 para a = 0. Por tanto A y B son equivalentes si y sólo si
a 6= 0. Del apartado anterior tenemos una igualdad B = P t AP , es decir
basta elegir como nuevas matrices P y Q la matriz del apartado anterior y
su traspuesta.
4.14.
Gram-Schmidt con integral impropia
Se considera el espacio vectorial E formado por las funciones
f : R → R,
f (x) = (a + bx)e−x (a, b ∈ R)
R +∞
Comprobar que < f (x), g(x) >= 0 f (x)g(x) dx es un producto escalar
que confiere a E estructura de espacio euclı́deo. Elegir una base de E y
ortonormalizarla por el método de Gram-Schmidt. [1]
Resolución. Veamos que la función < , >: E × E → R dada está bien
definida, es decir que la integral que la define es convergente. Para que el
problema sea más autocontenido, no usaremos criterios de convergencia, hallando directamente el valor de la integral.
R +∞
Es claro que < f (x), g(x) > es de la forma I = 0 (Ax2 + Bx + C)e−2x dx.
Calculemos pues esta integral. Usamos el conocido método de identificación
de coeficientes para este tipo de funciones. Escribimos:
Z
(Ax2 + Bx + C)e−2x dx = (αx2 + βx + γ)e−2x
Derivando ambos miembros:
(Ax2 + Bx + C)e−2x = [−2αx2 + 2(α − β)x + β − 2γ]e−2x
Identificando coeficientes y resolviendo:
A
A+B
A + B + 2C
α=− , β=−
, γ=−
2
2
4
Tenemos por tanto:
4.14. GRAM-SCHMIDT CON INTEGRAL IMPROPIA
Z
147
+∞
(Ax2 + Bx + C)e−2x dx =
0
A 2 A+B
1 +∞ A + B + 2C
A + B + 2C
−
· 2x
=
x +
x+
2
2
4
e
4
0
I(A, B, C) =
La función < , > está por tanto bien definida. Veamos que es un producto
escalar.
(i ) < , > es forma bilineal. En efecto, para todo λ1 , λ2 números reales y
para todo f1 (x), f2 (x), g(x) elementos de E:
R +∞
< λ1 f1 (x) + λ2 f2 (x), g(x) >= 0 (λ1 f1 (x) + λ2 f2 (x))g(x)dx
R +∞
R +∞
λ1 0 f1 (x)g(x)dx + λ2 0 f2 (x)g(x)dx
= λ1 < f1 (x), g(x) > +λ2 < f2 (x), g(x) >
De manera análoga:
< f (x), λ1 g1 (x) + λ2 g2 (x) >= λ1 < f (x), g1 (x) > +λ2 < f (x), g2 (x) >
(ii ) < , > es simétrica. En efecto, para todo f (x), g(x) elementos de E:
< f (x), g(x) >=
R +∞
0
f (x)g(x)dx =
R +∞
0
g(x)f (x)dx =< g(x), f (x) >
(iii ) La forma cuadrática Q asociada a < , > Res definida positiva. En
+∞
efecto, para todo f (x) ∈ E tenemos Q(f (x)) = 0 f 2 (x)dx ≥ 0 al ser
f 2 ≥ 0. Por otra parte, dado que f 2 es no negativa y continua se verifica
Q(f (x)) = 0 ⇔ f (x) = 0 por un conocido teorema de Cálculo. Hemos demostrado pues que < , > es producto escalar.
Hallemos una base de E. Todo vector de este espacio se puede expresar en
la forma f (x) = a · e−x + b · (xe−x ). Esto implica que {e−x , xe−x } es sistema generador de E. Veamos que es linealmente independiente. En efecto,
si α1 e−x + α2 xe−x = 0, para x = 0 obtenemos α1 = 0. Para x = 1 queda
α2 e−1 = 0 lo que implica α2 = 0.
Una base de E es por tanto B = {u1 (x) = e−x , u2 (x) = xe−x }. Hallemos
la base B 0 = {v1 (x), v2 (x)} obtenida de B al aplicarle el método de GramSchmidt. Usaremos el valor hallado de I(A, B, C).
Z
2
ku1 (x)k =< u1 (x), u1 (x) >=
0
Por tanto v1 (x) = u1 (x)/ ku1 (x)k =
√
+∞
e−2x dx = I(0, 0, 1) =
1
2
2e−x . Por otra parte sabemos que:
148
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
v2 (x) =
u2 (x)− < u2 (x), v1 (x) > v1 (x)
ku2 (x)− < u2 (x), v1 (x) > v1 (x)k
El valor de < u2 (x), v1 (x) > es:
+∞
Z
(xe
< u2 (x), v1 (x) >=
−x
√
√
)( 2e−x )dx = 2I(0, 1, 0) =
√
0
2
4
√
√
El numerador de v2 (x) es n(x) = xe−x − ( 2/4) 2e−x = (x − 1/2)e−x ,
entonces:
Z +∞
kn(x)k2 =< n(x), n(x) >=
n2 (x)dx =
0
Z +∞
1
2
−2x
(x − x + 1/4)e dx = I(1, −1, 1/4) = ⇒
8
0
√
√
n(x)
= 8(x − 1/2)e−x = 2(2x − 1)e−x
v2 (x) =
kn(x)k
La base ortonormalizada de B por el método de Gram-Schmidt es:
√
√
B 0 = { 2e−x , 2(2x − 1)e−x }
4.15.
Proyección ortogonal en R2 [x]
En el espacio vectorial real de los polinomios de grado menor o igual que 2
se define el producto escalar
< p, q >=
1
2
Z
1
p(x)q(x) dx
−1
1. Hallar el coseno del ángulo que forman los vectores p1 = x y p2 = x2 .
2. Ortonormalizar la base B = {1, x, x2 } por el método de Schmidt.
3. Hallar la proyección ortogonal del vector x2 sobre el subespacio M engendrado por 1 y x.
4. Determinar la distancia mı́nima de x2 al subespacio M. [2]
Resolución. 1. Dado que la integral está definida en el intervalo simétrico
[−1, 1],
R 1esta será nula para cualquier función impar. Tenemos < p1 , p2 >=
(1/2) −1 x3 dx = 0. Al ser p1 y p2 no nulos, sus normas no son nulas y en
consecuencia, el coseno del ángulo que forman estos dos vectores es
cos α =
< p1 , p2 >
=0
kp1 k kp2 k
4.16. ENDOMORFISMO SIMÉTRICO
149
2. Dada una base B = {u1 , u2 , u3 } de un espacio euclı́deo E sabemos que la
ortonormalizada por el método de Gram-Schmidt viene dada por
u1
u2 − < u2 , e1 > e1
, e2 =
ku1 k
ku2 − < u2 , e1 > e1 k
u3 − < u3 , e2 > e2 − < u3 , e1 > e1
e3 =
ku3 − < u3 , e2 > e2 − < u3 , e1 > e1 k
e1 =
Procedemos a efectuar los cálculos para u1 = 1, u2 = x, u3 = x2 .
ku1 k =
q R
1 1
2
−1 dx
= 1 ⇒ e1 = 1
R
1
u2 − < u2 , e1 > e1 = x − 12 −1 xdx · 1 = x ⇒ kxk =
q R
√
1 1
2 dx = √1 ⇒ e =
3x
x
2
2 −1
3
√
√ R
1
u3 − < u3 , e2 > e2 − < u3 , e1 > e1 = x2 − 23 −1 x3 dx · 3x−
R
q1 R 1
1 2
1 1
2 dx · 1 = x2 − 1 ⇒ x2 − 1 =
2
x
dx =
2 −1
3
3
2 −1 x − 3
√
2
√
⇒ e3 = (3 5/2)(x2 − 1/3)
3 5
La base pedida es por tanto B 0 = {1,
√
√
3x, (3 5/2)(x2 − 1/3)}.
3. Una base del subespacio M es {1, x}, y de los cálculos efectuados√en el
apartado anterior deducimos que una base ortonormal de M es {1, 3x}.
Por un conocido teorema, la proyección de ortogonal de x2 sobre M es
R
√
√
1
p =< x2 , 1 > 1+ < x2 , 3x > 3x = 12 −1 x2 dx · 1−
√ R
√
1
3 1
3 dx
x
3x =
2 −1
3
4. La mı́nima distancia de un vector a un subespacio sabemos que es la
distancia del vector a su proyección ortogonal sobre el subespacio. Es decir
d(x2 , M ) =
4.16.
d(x2 , 13 )
√
2 1 q1 R 1
2
2
5
= x − 3 = 2 −1 (x2 − 1/3)2 dx = √ =
15
3 5
Endomorfismo simétrico
Sea E = R(2,2) dotado del producto escalar < P, Q >= tr(P t Q). Dada la
matriz
150
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
A(α) =
−1 + α 1 − α
α
−1
(α ∈ R)
se considera el endomorfismo Tα de E en E definido por Tα (X) = A(α) · X.
Se pide:
1. Determinar la matriz M (α) de Tα en la base
1 0
0 1
0 0
0 0
B={
,
,
,
}
0 0
0 0
1 0
0 1
2. Estudiar para qué valores de α no es Tα un isomorfismo de E, y caracterizar en este caso los subespacios ker Tα e Im Tα .
3. Demostrar que la matriz M (α) y el endomorfismo Tα tienen los mismos
valores propios para cualquiera que sea α ∈ R.
4. Determinar el endomorfismo traspuesto de Tα e indicar para que valores
de α es Tα un endomorfismo simétrico. [2]
Resolución. 1. Denotemos B = {e1 , e2 , e3 , e4 }, entonces
−1 + α 0
= (−1 + α)e1 + αe3
T (e1 ) = A(α)e1 =
α
0
0 −1 + α
= (−1 + α)e2 + αe4
T (e2 ) = A(α)e2 =
0
α
1−α 0
= (1 − α)e1 − e3
T (e3 ) = A(α)e3 =
−1 0
0 1−α
= (−1 + α)e2 − e4
T (e4 ) = A(α)e4 =
0 −1
Trasponiendo coeficientes obtenemos la matriz M (α) de Tα en la base B :


−1 + α
0
1−α
0
 0
−1 + α
0
1 − α

M (α) = 
 α
0
−1
0 
0
α
0
−1
2. El endomorfismo Tα no es isomorfismo si y sólo si M (α) no es invertible,
o equivalentemente si y sólo si det M (α) 6= 0. Para hallar este determinante
sumamos a la primera columna la tercera:
0
0
1−α
0 0
−1 + α
0
1 − α
=
det M (α) = 0
−1
0 α − 1
0
α
0
−1 4.16. ENDOMORFISMO SIMÉTRICO
151
0
1−α
0 −1 + α 1 − α
2
=
0
1 − α = (α − 1) (α − 1) −1 + α
−1
−1
α
0
−1 (α − 1)2 (α2 − 2α + 1) = (α − 1)4 = 0 ⇔ α = 1
Para α = 1 la matriz del endomorfismo T1 es


0 0
0
0
0 0
0
0

M (1) = 
1 0 −1
0
0 1
0 −1
Unas ecuaciones de ker T1 en coordenadas en la base B y una base ker T1
son:
x1 − x3 = 0
, Bker T1 = {(1, 0, 1, 0)t , (0, 1, 0, 1)t }
x2 − x4 = 0
Una base de ker T1 la podemos expresar por tanto en la forma
0 1
1 0
}
,
Bker T1 = {
0 1
1 0
Un conjunto maximal de columnas linealmente independientes de la matriz
de una aplicación lineal sabemos que determina una base de la imagen, en
consecuencia una base de Im T1 es
0 0
0 0
}
BIm T1 = {
,
0 1
1 0
3. Desarrollando por los elementos de la primera columna obtenemos
−1 + α − λ
0
1−α
0 0
−1 + α − λ
0
1 − α |M (α) − λI| = =
α
0
−1 − λ
0 0
α
0
−1 − λ
−1 + α − λ
1 − α
(−1 + α − λ)(−1 − λ) −
α
−1 − λ
2
−1 + α − λ
1 − α −1 + α − λ
1 − α =
= |A(α) − λI|2
α(1 − α) α
−1 − λ
α
−1 − λ
Es decir, la matriz A(α) y el endomorfismo Tα tienen los mismos valores
propios para cualquiera que sea α ∈ R.
4. Denotemos
152
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
P =
x1 x2
y y
, Q= 1 2
x3 x4
y3 y4
La expresión del producto escalar es
x1 x2
y1 y2
x1 x3 y1 y2
< P, Q >=<
,
>= tr
=
x3 x4
y3 y4
x2 x4 y3 y4
x1 y1 + x2 y2 + x3 y3 + x4 y4
Dado que X = (x1 , x2 , x3 , x4 )t , Y = (y1 , y2 , y3 , y4 )t son las coordenadas de
P y Q respectivamente en la base B, la expresión del producto escalar en
esta base es < P, Q >= X t IY lo cual implica que la base B es ortonormal.
La matriz del endomorfismo traspuesto Tαt es por tanto M (α)t y el endomorfismo Tα es simétrico si y sólo si M (α) es simétrica. Esto ocurre cuando
α = 1/2.
4.17.
Endomorfismo antisimétrico
En R3 con el producto escalar usual h , i se considera el endomorfismo f
cuya matriz respecto de la base canónica es


0 −1 2
0 3
A= 1
−2 −3 0
Se pide:
1. Calcular hx, f (x)i para x = (x1 , x2 , x3 ) ∈ R3 y los valores propios de f .
2. Determinar una ecuaciones cartesianas y unas bases de ker f e Im f .
3. En Rn con un producto escalar h , i un endomorfismo g se llama antisimétrico si ∀x∀y ∈ Rn hg(x), yi = − hx, g(y)i . Demostrar que:
g es antisimétrico ⇔ ∀x ∈ Rn g(x) ⊥ x
4. Verificar que si g es antisimétrico se cumplen: i ) g no tiene valores propios
distintos de 0. ii ) Im g = (ker g)⊥ . [2]
Resolución. 1. Tenemos

hx, f (x)i = x1 x2 x3
 
0 −1 2
x1
 1
0 3 x2 
−2 −3 0
x3
4.17. ENDOMORFISMO ANTISIMÉTRICO
153
La expresión anterior es una forma cuadrática q : R3 → R3 representada por
una matriz antisimétrica, lo cual implica que q = 0. Es decir, hx, f (x)i = 0
para todo x ∈ R3 . Hallemos los valores propios de f :
−λ −1
2
3 det(A − λI) = 1 −λ
−2 −3 −λ
= −λ3 − 14λ
= (−λ)(λ2 + 14)
El único valor propio es λ = 0, pues estamos trabajando en el cuerpo de los
reales.
2. Unas ecuaciones cartesianas del núcleo son

 −x2 + 2x3 = 0
x1 + 3x3 = 0
ker f ≡

−2x1 − 3x3 = 0
Su dimensión es:


0 −1 2
0 3 = 3 − 2 = 1
dim(ker f ) = 3 − rg  1
−2 −3 0
Una base del núcleo es Bker f = {(−3, 2, 1}. Los vectores (y1 , y2 , y3 ) de la
imagen de f son los vectores de R3 que se pueden expresar de la forma
  
 
 
 
 
y1
0 −1 2
x1
0
−1
2
y2  =  1
0 3 x2  = x1  1  + x2  0 + x3 3
y3
−2 −3 0
x3
−2
−3
0
con x1 , x2 , x3 variando en R. Los tres vectores anteriores generan por tanto
a Im f , el rango de la matriz A es dos y las dos primeras columnas son
linealmente independientes. Concluimos que una base de Im f es BIm f =
{(0, 1, −2), (−1, 0, −3)}. Unas ecuaciones paramétricas de la imagen son

y1 = −λ2

y2 = λ 1
Im f ≡
(λ1 , λ2 ∈ R)

y3 = −2λ1 − 3λ2
Eliminando λ1 y λ2 obtenemos 3y1 − 2y2 − y3 = 0 (ecuación cartesiana de
la imagen).
3. ⇒) Usando la propiedad conmutativa del producto escalar:
154
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
g antisim. ⇒ hg(x), yi = − hx, g(y)i
∀x∀y ∈ Rn
⇒ hg(x), xi = − hx, g(x)i
∀x ∈ Rn
⇒ hx, g(x)i = − hx, g(x)i
∀x ∈ Rn
⇒ 2 hx, g(x)i = 0 ∀x ∈ Rn
⇒ hx, g(x)i = 0 ∀x ∈ Rn
⇒ x ⊥ g(x)
∀x ∈ Rn
⇐) Por hipótesis y para todo x, y ∈ Rn se verifica hx + y, g(x + y)i = 0.
Usando la linealidad de g :
hx + y, g(x + y)i = 0 ⇒ hx + y, g(x) + g(y)i = 0
⇒ hx, g(x)i + hy, g(x)i + hx, g(y)i + hy, g(y)i = 0
⇒ hy, g(x)i + hx, g(y)i = 0
⇒ hy, g(x)i = − hx, g(y)i
⇒ hg(x), yi = − hx, g(y)i
⇒ g antisim.
4. i ) Sea λ ∈ R valor propio de g. Entonces existe v ∈ Rn no nulo tal que
g(v) = λv. Como g es antisimétrico se verifica hv, g(v)i = 0. Usando que
kvk2 6= 0 :
hv, g(v)i = 0 ⇒ hv, λvi = 0
⇒ λ hv, vi = 0
⇒ λ kvk2 = 0
⇒λ=0
ii ) Si v ∈ Im g, existe u ∈ Rn tal que v = g(u). Para todo x ∈ ker g se
verifica:
hv, xi = hg(u), xi = − hu, g(x)i = − hu, 0i = 0
Es decir, v ∈ (ker g)⊥ con lo cual Im g ⊂ (ker g)⊥ . Por otra parte, usando el teorema de las dimensiones para aplicaciones lineales y que para F
subespacio de Rn se verifica dim F ⊥ = n − dim F , tenemos:
dim (ker g)⊥ = n − dim ker g = n − (n − dim Im g) = dim Im g
Concluimos que Im g = (ker g)⊥ .
4.18. AUTOMORFISMO EN UN ESPACIO EUCLÍDEO
4.18.
155
Automorfismo en un espacio euclı́deo
Sea E espacio vectorial euclı́deo de dimensión n y H ⊂ E subespacio.
1. Probar que existe un único automorfismo f en E cumpliendo
f (x) = x ∀x ∈ H
f (x) = −x ∀x ∈ H ⊥
Probar también que f −1 = f .
2. Calcular dicho automorfismo si E = R3 siendo H el subespacio generado
por el vector (−2, 0, 1) y calcular la imagen mediante dicho automorfismo
del subespacio
F = {(x, y, z) ∈ R3 : x − y + 2z = 0}
(Se considera el producto escalar usual).
3. Sea R3 el espacio tridimensional, H una recta pasando por el origen y la
simetrı́a g respecto de la recta H. Probar que de identificar puntos y vectores de R3 , g es el automorfismo del que se habla en el primer apartado.
4. Deducir que el simétrico de un plano respecto de una recta es a su vez un
plano y que este es único. [1]
Resolución. 1. Veamos que f es único. En efecto, como E = H ⊕ H ⊥ ,
todo x ∈ E se puede expresar de manera única en la forma x = x1 + x2 con
x1 ∈ H, x2 ∈ H ⊥ . Entonces
f (x) = f (x1 + x2 ) = f (x1 ) + f (x2 ) = x1 − x2
Concluimos que si el automorfismo f existe, entonces está unı́vocamente
determinado. Veamos ahora que la aplicación f : E → E definida mediante f (x) = x1 − x2 es efectivamente un automorfismo en E que satisface
f (x) = x para todo x ∈ H y f (x) = −x para todo x ∈ H ⊥ .
(a) f es lineal. Sean λ, µ ∈ R y sean x, y ∈ E tales que x = x1 + x2 con
x1 ∈ H, x2 ∈ H ⊥ , y = y1 + y2 con y1 ∈ H, y2 ∈ H ⊥ . Entonces
λx + µy = λ(x1 + x2 ) + µ(y1 + y2 ) = (λx1 + µy1 ) + (λx2 + µy2 )
en donde λx1 + µy1 ∈ H y λx2 + µy2 ∈ H ⊥ . Tenemos
156
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
f (λx + µy) = (λx1 + µy1 ) − (λx2 + µy2 )
= λ(x1 − x2 ) + µ(y1 − y2 )
= λf (x) + µf (y)
es decir, f es lineal.
(b) f es inyectiva. Si x ∈ ker f entonces f (x) = x1 − x2 = 0 es decir,
x1 = x2 lo cual implica que x1 y x2 pertenecen a H ∩ H ⊥ = {0}. Por tanto
x1 = x2 = 0 y en consecuencia x = 0. Hemos demostrado que ker f = {0} o
equivalentemente que f es inyectiva.
(c) f es sobreyectiva. Por el teorema de las dimensiones para aplicaciones
lineales deducimos que dim Im f = dim E es decir, Im f , por tanto f es
sobreyectiva.
Hemos demostrado que f es isomorfismo, y por ende automorfismo, al ser
el espacio inicial igual al final.
(d ) Si x ∈ H entonces x = x + 0 con x ∈ H, 0 ∈ H ⊥ y si x ∈ H ⊥ entonces
x = 0 + x con 0 ∈ H, x ∈ H ⊥ . En consecuencia
f (x) = x − 0 = x ∀x ∈ H
f (x) = 0 − x = −x ∀x ∈ H ⊥
Finalmente veamos que f −1 = f o de forma equivalente, que f ◦ f = I.
Efectivamente, para todo x ∈ E se verifica
(f ◦ f )(x) = f (f (x))
= f (x1 − x2 )
= f (x1 ) − f (x2 )
= x1 − (−x2 )
= x1 + x2
=x
= I(x)
2. Los vectores de H ⊥ son los (x, y, z) ∈ R3 ortogonales al vector (−2, 0, 1),
es decir, H ⊥ ≡ −2x + z = 0. Una base de H ⊥ es {(1, 0, 2), (0, 1, 0)}. Dado
que R3 = H ⊕ H ⊥ , la unión de una base de H con otra de H ⊥ es una base
de R3 :
BR3 = {(−2, 0, 1), (1, 0, 2), (0, 1, 0)}
4.19. ENDOMORFISMO, FORMA CUADRÁTICA Y CONO
157
Expresemos ahora cualquier vector (x, y, z) ∈ R3 como suma de uno de H
y otro de H ⊥ :
(x, y, z) = λ1 (−2, 0, 1) + λ2 (1, 0, 2) + λ3 (0, 1, 0)
Resolviendo el sistema correspondiente obtenemos λ1 = (z − 2x)/5, λ2 (x +
2z)/5 y λ3 = −y. El sumando que pertenece a H es:
1
λ1 (−2, 0, 1) = (4x − 2z, 0, −2x + z)
5
(1)
y el sumando que pertenece a H ⊥ :
1
λ2 (1, 0, 2) + λ3 (0, 1, 0) = (−x + 2z, 5y, −2x − 4z)
5
(2)
Restando al sumando (1) el sumando (2) obtenemos el vector (x, −y, z), es
decir el automorfismo f es:
f : R3 → R3 ,
f (x, y, z) = (x, −y, z)
El transformado de F es por tanto f (F ) ≡ x + y + 2z = 0.
3. La simetrı́a g es un automorfismo que cumple
g(x) = x ∀x ∈ H
g(x) = −x ∀x ∈ H ⊥
Por la unicidad demostrada en el primer apartado se deduce que g = f .
4. Por ser g automorfismo, conserva la dimensiones de los subespacios en
consecuencia transforma planos en planos. La unicidad de cada plano es
consecuencia inmediata de la definición de aplicación.
4.19.
Endomorfismo, forma cuadrática y cono
En R3 con el producto escalar usual h , i y siendo B = {e1 , e2 , e3 } la base
canónica, se considera el endomorfismo T y la forma cuadrática f que cumplen las condiciones:
i ) ∀x∀y ∈ R3 hT (x), yi = hx, T (y)i .
ii ) T (e1 ) ∈ L[e1 − e3 ].
iii ) T (e2 ) ∈ L[e2 + 2e3 ].
iv ) T (e3 ) = −9e1 + 8e2 − 11e3 .
158
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
v ) ∀x ∈ R3
f (x) = hT (x), xi .
1. Hallar la matriz de T respecto a B. Estudiar si es un isomorfismo. Estudiar si es un isomorfismo isométrico.
2. Estudiar si T es diagonalizable. Hallar la suma, el producto y los signos
de los valores propios.
3. Obtener la matriz de f respecto a B, y una expresión polinómica de
f (x1 , x2 , x3 ). Reducir esta expresión a suma de cuadrados.
4. Estudiar que figura geométrica es la curva C de ecuaciones x3 = 1,
f (x1 , x2 , 1) = 0. Hallar una ecuación no paramétrica, respecto de B del
cono de vértice (0, 0, 0) y directriz C. [2]
Resolución. 1. De T (e1 ) ∈ L[e1 − e3 ] deducimos que T (e1 ) = λe1 − λe3 , y
de T (e2 ) ∈ L[e2 + 2e3 ] que T (e2 ) = µe2 + 2µe3 . Si A es la matriz pedida:




T (e1 ) = λe1 − λe3
λ 0 −9
8
T (e2 ) = µe2 + 2µe3
⇒A= 0 µ

−λ 2µ −11
T (e3 ) = −9e1 + 8e2 − 11e3
La condición i ) indica que T es un endomorfismo simétrico. Como la base
canónica B es ortonormal con respecto del producto escalar usual, la matriz
A es simétrica. Es decir, λ = −9 y µ = 4. En consecuencia:


9 0 −9
8
A= 0 4
−9 8 −11
Se verifica det A = −1296 6= 0 lo cual implica que T es isomorfismo. Dado
que la base canónica es ortonormal con el producto escalar usual, T será isomorfismo isométrico si y sólo si A es ortogonal, y claramente no lo es.
2. La matriz real A es simétrica, y por tanto diagonalizable en R (teorema
espectral). Como consecuencia, T lo es. Sea D = diag (λ1 , λ2 , λ3 ) (con λi
valores propios de A) una matriz semejante con A. Teniendo en cuenta que
matrices semejantes tienen la misma traza y el mismo determinante:
λ1 λ2 λ3 = det D = det A = −1296
λ1 + λ2 + λ3 = trD = trA = 2
4.19. ENDOMORFISMO, FORMA CUADRÁTICA Y CONO
159
De las igualdades anteriores se deduce inmediatamente que un valor propio
es negativo y los dos restantes positivos.
3. Llamando x = (x1 , x2 , x3 )t se verifica
f (x) = hT (x), xi = hAx, xi = (Ax)t x = xt At x = xt Ax
En consecuencia, la matriz de f en la base B es A. Además:
 
9 0 −9
x1



0 4
8
x2 
f (x1 , x2 , x3 ) = (x1 , x2 , x3 )
−9 8 −11
x3

= 9x21 + 4x22 − 11x23 − 18x1 x3 + 16x2 x3
Descompongamos ahora f (x1 , x2 , x3 ) en suma de cuadrados independientes
usando el método de Gauss:
f (x1 , x2 , x3 ) = 9(x21 − 2x1 x3 ) + 4x22 − 11x23 + 16x2 x3
= 9(x1 − x3 )2 − 9x23 + 4x22 − 11x23 + 16x2 x3
= 9(x1 − x3 )2 + (4x22 − 20x23 + 16x2 x3 )
4x22 − 20x23 + 16x2 x3 = 4(x22 + 4x2 x3 ) − 20x23
= 4(x2 + 2x3 )2 − 16x23 − 20x23
= 4(x2 + 2x3 )2 − 36x23
Queda por tanto
f (x1 , x2 , x3 ) = 9(x1 − x3 )2 + 4(x2 + 2x3 )2 − 36x23
4. Tenemos f (x1 , x2 , 1) = 9(x1 − 1)2 + 4(x2 + 2)2 − 36, por tanto la curva C
tiene por ecuaciones:

 (x1 − 1)2 (x2 + 2)2
+
=1
C≡
4
9

x3 = 1
En consecuencia es una elipse contenida en el plano x3 = 1, de centro
(1, −2, 0) y semiejes a = 2, b = 3. Hallemos la ecuación del cono. La rectas que pasan por el origen y que no son paralelas al plano x3 = 1 son
de la forma X1 /λ = X2 /µ = X3 /1 o equivalentemente de la forma X1 =
λX3 , X2 = µX3 . Obligando a que corten a la directriz:
160
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR

 (λX3 − 1)2 (µX3 + 2)2
+
=1
4
9

X3 = 1
Eliminando X3 de las dos igualdades anteriores obtenemos 9(λ − 1)2 + 4(µ +
2)2 = 36. Esta última relación proporciona la condición que han de cumplir
las rectas X1 = λX3 , X2 = µX3 para que pertenezcan al cono. Sustituyendo
en esta relación λ por X1 /X2 y µ por X2 /X3 , obtenemos la ecuación del
cono:
9(X1 − X3 )2 + 4(X1 + 2X3 )2 − 36X32 = 0
4.20.
Matriz normal
Sea A ∈ Cn×n una matriz normal, es decir AA∗ = A∗ A (A∗ = A¯ t , traspuesta de la conjugada de A).
a) Demostrar que ∀x ∈ Cn es kAxk2 = kA∗ xk2 .
b) Sea λ ∈ C, estudiar si la matriz A − λI es normal razonando la respuesta. Sea ahora λ un valor propio de A, estudiar si λ̄ es valor propio de A∗ ,
razonando la respuesta.
c) Sean λ y µ dos valores propios distintos de A. Sean u y v dos vectores
propios de A asociados a λ y µ respectivamente. Estudiar si u y v son siempre
ortogonales, razonando la respuesta. [2]
Resolución. a) Usando las definiciones de norma euclı́dea, producto escalar, conocidas propiedades del operador ∗ , y que A es normal:
kA∗ xk22 = hA∗ x, A∗ xi = (A∗ x)∗ (A∗ x) = x∗ (A∗ )∗ A∗ x
= x∗ AA∗ x = x∗ A∗ Ax = (Ax)∗ (Ax) = hAx, Axi = kAxk22
Es decir, kAxk2 = kA∗ xk2 .
b) Desarrollando (A − λI)∗ (A − λI) y (A − λI)(A − λI)∗ :
(A − λI)∗ (A − λI) = (A∗ − λ̄I)(A − λI) = A∗ A − λ̄A − λA∗ + |λ|2 I
(A − λI)(A − λI)∗ = (A − λI)(A∗ − λ̄I) = AA∗ − λA∗ − λ̄A + |λ|2 I
Dado que AA∗ = A∗ A, deducimos que (A−λI)∗ (A−λI) = (A−λI)(A−λI)∗
y por tanto la matriz A − λI es normal.
4.20. MATRIZ NORMAL
161
Si λ es valor propio de A entonces existe un vector w ∈ Cn no nulo tal que
Aw = λw o de forma equivalente, (A − λI)w = 0. Como A − λI es normal,
usando el apartado a):
0 = k(A − λI)wk2 = k(A − λI)∗ wk2
Deducimos que 0 = (A − λI)∗ w = (A∗ − λ̄I)w o equivalentemente que
A∗ = λ̄w con w 6= 0. Por tanto, λ̄ es valor propio de A∗ .
c) Por hipótesis Au = λu y Av = µv. Multiplicando por v ∗ en la primera igualdad obtenemos v ∗ Au = λv ∗ u y tomando ∗ en ambos miembros,
u∗ A∗ v = λ̄u∗ v. Ahora bien, por el apartado b) se verifica A∗ v = µ̄v y por
tanto:
u∗ µ̄v = λ̄u∗ v ⇒ (λ̄ − µ̄)u∗ v = 0 ⇒ (λ̄ − µ̄) hu, vi = 0
Como λ 6= µ, también λ̄ 6= µ̄ y ha de ser hu, vi = 0. Los vectores u y v son
ortogonales.
162
CAPÍTULO 4. FORMAS BILINEALES, PRODUCTO ESCALAR
Capı́tulo 5
Miscelanea algebraica
5.1.
Finura de las relaciones de orden
Sea E un conjunto y Ω el conjunto de todas las relaciones de orden definidas
en E. Diremos que la relación de orden ŵ es mas fina que la relación w si y
sólo si (∀x, y ∈ E)(x w y ⇒ x w
b y)
a) Sea E = N, compárese la finura de las dos relaciones siguientes:
x w1 y ⇔ x | y ,
x w2 y ⇔ x ≤ y
b) Demuéstrese que la relación ser más fina que definida en Ω, es una relación
de orden.
c) Compruébese la existencia de un máximo en Ω para ésta relación de
orden.
d ) Sea E un conjunto de dos elementos. Constrúyase el conjunto de todas
las relaciones de orden en E y ordénese por finura. [2]
Resolución. a) Se verifica x w1 y ⇒ x | y ⇒ ∃p ∈ N : y = px ⇒ x ≤ y ⇒
x w2 y, lo cual implica que w2 es más fina que w1 .
b) Denotemos por ≤∗ la relación en Ω ser más fina que, es decir
w1 ≤∗ w2 ⇔ [(∀x, y ∈ E)(x w2 y ⇒ x w1 y)]
(i ) Reflexiva. Para cada par de elementos x, y ∈ E y para cada w ∈ Ω se
verifica trivialmente x w y ⇒ x w y, es decir w ≤∗ w.
(ii ) Antisimétrica. Se verifica:
w1 ≤∗ w2
(∀x, y ∈ E)(x w2 y ⇒ x w1 y)
⇒
w2 ≤∗ w1
(∀x, y ∈ E)(x w1 y ⇒ x w2 y)
⇒ (∀x, y ∈ E)(x w1 y ⇔ x w2 y)
⇒ w1 = w2
163
164
CAPÍTULO 5. MISCELANEA ALGEBRAICA
(iii ) Transitiva. Se verifica:
w1 ≤∗ w2
(∀x, y ∈ E)(x w2 y ⇒ x w1 y)
⇒
w2 ≤∗ w3
(∀x, y ∈ E)(x w3 y ⇒ x w2 y)
⇒ (∀x, y ∈ E)(x w3 y ⇒ x w1 y)
⇒ w1 ≤∗ w3
Concluimos que ≤∗ es relación de orden en Ω.
c) Sea w0 ∈ Ω la relación de orden identidad, es decir x w0 y ⇔ x = y. Si
w ∈ Ω, al ser w relación de orden verifica la propiedad reflexiva, por tanto
x w x para todo x ∈ E. Entonces:
x w0 y ⇒ x = y ⇒ x w y ⇒ w ≤∗ w0
En consecuencia, w0 es elemento máximo en Ω para ≤∗ .
d ) Sea E = {a, b} con a 6= b. Es claro que sólo existen tres relaciones de
orden en E :

a w0 a , b w0 b
w0 :
w1 : a w1 a , b w1 b , a w1 b

w2 : a w2 a , b w2 b , b w2 a
Por tanto Ω = {w0 , w1 , w2 } y ordenado por finura serı́a w1 <∗ w0 y w1 <∗
w0 .
5.2.
Tres relaciones en N
En el conjunto N de los números naturales (0 6∈ N) se definen las siguientes
relaciones:
a) La relación R tal que aRb ⇔ a es divisible por b
b) La relación S tal que aSb ⇔ a + b es múltiplo de 2
c) La relación T tal que aT b ⇔ ab es múltiplo de 2
Se pide:
1. Estudiar si las relaciones R, S, T tienen las propiedades reflexiva, transitiva, simétrica, o antisimétrica.
2. Señalar cual o cuales de las relaciones R, S y T son de equivalencia o de
orden.
3. Para las posibles relaciones de equivalencia señalar las clases de equivalencia; para las posibles de orden, indı́quese si se trata de una relación de
orden parcial o total. [1]
5.2. TRES RELACIONES EN N
165
Resolución. 1. a) Analicemos las propiedades de la relación R :
(i ) Reflexiva. Para todo a ∈ N se verifica a = 1a lo cual implica que a es
divisible por a, es decir R es reflexiva.
(ii ) Simétrica. Elijamos a = 2, b = 1, entonces se verifica aRb, pero no que
bRa, por tanto R no es simétrica.
(iii ) Transitiva. Sean a, b, c ∈ N tales que aRb y bRc. Entonces existen
p, q ∈ N tales que a = pb y b = qc lo cual implica que a = pqc con pq ∈ N o
lo que es lo mismo, aRc y en consecuencia R es transitiva.
(iv ) Antisimétrica. Si a, b ∈ N cumplen aRb y bRa, entonces existen p, q ∈ N
tales que a = pb y b = qa lo cual implica que a = pqa. Necesariamente es
pq = 1 y al ser p, q naturales, p = q = 1, de lo cual se deduce a = b. La
relación R es antisimétrica.
b) Propiedades de la relación S :
(i ) Reflexiva. Para todo a ∈ N se verifica a + a = 2a lo cual implica que a
es múltiplo de 2, es decir S es reflexiva.
(ii ) Simétrica. Si aSb entonces a + b es múltiplo de 2. Como b + a = a + b,
también b + a es múltiplo de 2, es decir bSa. La relación S es simétrica.
(iii ) Transitiva. Sean a, b, c ∈ N tales que aSb y bSc. Entonces existen
p, q ∈ N tales que a+b = 2p y b+c = 2q lo cual implica que a+c = 2(p+q−b),
y por tanto aSc. La relación S es transitiva.
(iv ) Antisimétrica. Para a = 1, b = 3 tenemos aSb, bSa y sin embargo a 6= b.
La relación S no es antisimétrica.
c) Propiedades de la relación T :
(i ) Reflexiva. Para a = 1 tenemos aa = 1, que no es múltiplo de 2. La relación T no es es reflexiva.
(ii ) Simétrica. Si aSb entonces ab es múltiplo de 2. Como ba = ab, también
ba es múltiplo de 2, es decir bT a. La relación T es simétrica.
(iii ) Transitiva. Para a = 3, b = 2, c = 5 se verifica aT b y bT c, sin embargo
no se verifica aT c. La relación T no es transitiva.
(iv ) Antisimétrica. Para a = 1, b = 2 tenemos aT b, bT a y sin embargo a 6= b.
La relación T no es antisimétrica.
Concluimos que R es exactamente reflexiva, antisimétrica y transitiva; S
exactamente reflexiva, simétrica y transitiva y T exactamente simétrica.
2. Del apartado anterior, concluimos que R es relación de orden, S es de
equivalencia, y T no es ni de orden ni de equivalencia.
166
CAPÍTULO 5. MISCELANEA ALGEBRAICA
3. Para a = 2, b = 3 no se verifica ni aRb ni bRa, es decir R es relación de
orden parcial. Las clases de equivalencia de los elementos 1 y 2 asociadas a
la relación S son:
[1] = {1, 3, 5, 7, . . .} ,
[2] = {2, 4, 6, 8, . . .}
Dado que [1] ∪ [2] = N, las únicas clases de equivalencia son [1] y [2]. El
conjunto cociente es por tanto N/S = {[1] [2]}.
5.3.
Matrices mágicas
Todas las matrices con las que trabajamos en este problema serán matrices
3 × 3 con elementos aij reales. Una tal matriz se dice que es mágica sı́ y sólo
si son iguales la ocho sumas:
ai1 + ai2 + ai3 ,
a1j + a2j + a3j ,
a11 + a22 + a33 ,
a31 + a22 + a13
para todo i, j = 1, 2, 3. Es decir, si es común la suma de los elementos cada
fila, de cada columna y de cada una de las diagonales.
Se consideran las matrices:


−1
2 −1
0
0 ,
A= 0
1 −2
1
B = At ,


1 1 1
C = 1 1 1
1 1 1
1. Demostrar que cualquier matriz M es la suma de una simétrica M1 y de
una antisimétrica M2 y que esta descomposición es única.
2. Demostrar que la suma de dos matrices mágicas es mágica, que la traspuesta de una matriz mágica es mágica y que el producto de un escalar por
una matriz mágica es mágica. Demostrar que si M es mágica también lo son
M1 y M2 . Verificar que A, B, C son mágicas.
3. Contruir todas las matrices mágicas antisimétricas.
4. Construir todas las matrices mágicas simétricas, comenzando por estudiar
el caso en el que la suma común es nula.
5. Construir todas las matrices mágicas. Demostrar que forman un espacio
vectorial sobre R. ¿Cúal es la dimensión de este espacio?
5.3. MATRICES MÁGICAS
167
6. Calcular A2 , B 2 , C 2 , AC, BC, CA, CB. Demostrar que AB + BA es combinación lineal de C y de I.
7. ¿Cúal es la condición necesaria y suficiente para que el producto de dos
matrices mágicas sea mágica?. Determinar todas las matrices mágicas que
son producto de dos mágicas.
8. Demostrar que el producto de una matriz mágica por una combinación
lineal de I y de C es mágica.
9. Demostrar que las potencias pares de una matriz mágica no son matrices
mágicas (salvo un caso particular a precisar), pero las potencias impares de
una matriz mágica son siempre mágicas.
10. ¿Cuando una matriz mágica es invertible? En su caso hallar la inversa
¿Es la inversa una matriz mágica? Estudiar si son mágicas las potencias
negativas de una matriz mágica.
Resolución. 1. Supongamos que M se puede descomponer en la forma
M = M1 + M2 con M1 simétrica y M2 antisimétrica. Transponiendo:
M = M1 + M2
M t = M1 − M2
Resolviendo, obtenemos necesariamente:
1
M1 = (M + M t ),
2
1
M2 = (M − M t )
2
Es claro que M = M1 + M2 . Veamos que la matriz M1 es simétrica y que
M2 es antisimétrica:
M1t = [(1/2)(M + M t )]t = (1/2)[M t + (M t )t ] = (1/2)[M t + M ] = M1
M2t = [(1/2)(M − M t )]t = (1/2)[M t − (M t )t ] = (1/2)[M t − M ] = −M2
2. La verificación de estas propiedades es inmediata a partir de la definición
de matriz mágica. Claramente A, B, C son mágicas.
3. Cualquier matriz antisimétrica M2 de orden 3 × 3 es de la forma:


0 −γ
β
0 −α (α, β, γ ∈ R)
M2 =  γ
−β
α
0
La matriz será mágica sı́, y solamente si:
168
CAPÍTULO 5. MISCELANEA ALGEBRAICA
β−γ =γ−α=α−β =γ−β =α−γ =β−α=0
Resolviendo el sistema obtenemos:


0
1 −1
0
1
M2 = λ −1
0 −1
0
(λ ∈ R)
4. Escribiendo una matriz simétrica mágica, obligando que tenga suma
común cero y resolviendo el correspondiente sistema, obtenemos las matrices
de la forma:


1 −1
0
0
1
µ −1
0
1 −1
(µ ∈ R)
Las matrices mágicas simétricas de suma común s se obtendrán sumando
s/3 a cada elemento de las matrices encontradas anteriormente. Llamando
ν = s/3 obtenemos la forma de todas las matrices mágicas simétricas:




1 −1
0
1 1 1
0
1  + ν 1 1 1
M1 = µ −1
0
1 −1
1 1 1
(µ, ν ∈ R)
5. Toda matriz mágica es de la forma M = M1 + M2 :






0
1 −1
1 −1
0
1 1 1
0
1  + µ −1
0
1  + ν 1 1 1 =
M = λ −1
0 −1
0
0
1 −1
1 1 1
1
1
(λ − µ)A − (λ + µ)B + νC = αA + βB + νC
2
2
Denominando por M al conjunto de todas las matrices mágicas, hemos demostrado que M = L[A, B, C]. Esto implica que M es subespacio de R3×3 .
Es fácil demostrar que {A, B, C} es sistema libre, en consecuencia es base
de M y por tanto dim M = 3.
6. Operando obtenemos:
A2 = B 2 = AC = CA = BC = CB = 0, C 2 = 3C, AB + BA = 12I − 4C
7. Usando la base {A, B, C} y los resultados del apartado anterior podemos
escribir la forma del producto de dos matrices mágicas:
5.3. MATRICES MÁGICAS
169
(αA + βB
 + γC)(λA + µB + νC) = . . . =
2βλ + 6αµ −4βλ 2βλ − 6αµ

−4βλ
8βλ
−4βλ 
3γνC +
2βλ − 6αµ −4βλ 2βλ + 6αµ
La matriz 3γνC es mágica. Obligando a que el segundo sumando sea matriz
mágica obtenemos (12βλ + 12αµ = 0) ∧ (12βλ − 12αµ = 0) con lo cual
el producto de dos matrices mágicas es mágica sı́ y solamente si βλ = 0 y
αµ = 0 son nulos. Tenemos:
α = β = 0 ⇒ γC(λA + µB + νC) = 3γνC
α = λ = 0 ⇒ (βB + γC)(µB + νC) = 3γνC
β = µ = 0 ⇒ (αA + γC)(λA + νC) = 3γνC
λ = µ = 0 ⇒ γC(αA + βB + γC) = 3γνC
En consecuencia, las únicas matrices mágicas que son producto de dos mágicas son las de la forma ηC con η ∈ R.
8. Toda matriz mágica es de la forma αA + βB + γC y toda combinación
lineal de I y de C de la forma α0 I + β 0 C . Multiplicando:
(αA + βB + γC)(α0 I + β 0 C) = αα0 A + ββ 0 B + (γα0 + 3γβ 0 )C
es decir, el producto es una matriz mágica.
9. El cuadrado de una matriz mágica M es M 2 = (αA+βB+γC)2 . Del apartado 7 deducimos que M 2 es mágica sı́ y solamente si, αβ = 0. Calculando
M 2 obtenemos:
M 2 = . . . = 12αβI + (3γ 2 − 4αβ)C
M 3 es el producto de una mágica ( M ) por una combinación lineal de I y de
C ( M 2 ). Por el apartado 8 concluimos que M 3 es mágica. Por recurrencia
obtenemos:
M 2n−1 mágica ⇒ M 2n = hI + kC ⇒ M 2n+1 mágica
Si αβ = 0 entonces M n = 3n−1 γ n C, que es mágica. Para αβ 6= 0 obtenemos:
M 2n = (12αβ)n I + (1/3)[(3γ)2n − (12αβ)n ]C
M 2n+1 = (12αβ)n (αA + βB) + γ(3β)n C
10. Operando obtenemos det(M ) = −36αβγ, entonces M es invertible sı́ y
solamente si los escalares det(M )α, β, γ son no nulos. Calculando obtenemos:
170
CAPÍTULO 5. MISCELANEA ALGEBRAICA
M −1
1
=
36
3
3
4
A+ B+ C
β
α
γ
= α0 A + β 0 B + γ 0 C
que es una matriz mágica. Dado que α0 β 0 6= 0 los resultados del apartado 9
se mantienen:
M −2p = (M −1 )2p no es mágica y M −(2p+1) = (M −1 )2p+1 es mágica
5.4.
Matriz de Markov
Un vector de Rn X = (x1 , . . . , xn )t es un vector probabilı́stico cuando sus
componentes son mayores o iguales que cero y suman uno, es decir xi ≥ 0 y
P
n
i=1 xi = 1. Una matriz cuadrada n × n es una matriz de Markov cuando
sus columnas son vectores probabilı́sticos. Se pide:
(a) Demostrar que una matriz cuadrada (n × n) A es de Markov cuando y
sólo cuando para cualquier vector probabilı́stico (de Rn ) X el vector AX es
también probabilı́stico.
(b) Si A y B son matrices de Markov (n × n) ¿Es A + B de Markov? ¿Es
AB de Markov¿ Dar las demostraciones o construir contraejemplos. [1]
Resolución. (a) Consideremos las matrices:

a11
 ..
A= .
an1

 
. . . a1n
x1
..  , X =  ..  .
 . 
. 
. . . ann
xn
Supongamos que A es matriz de Markov y que X es vector probabilı́stico.
Entonces


a11 x1 + . . . + a1n xn


..
AX = 

.
an1 x1 + . . . + ann xn
Por ser A de Markov, aij ≥ 0 para todo i, j y por ser X probabilı́stico, xi ≥ 0
para todo i. Esto implica que todas las componentes de AX son mayores
o iguales que cero. Por otra parte, teniendo en cuenta que la suma de las
componentes de cada columna de A es 1 y que la suma de las componentes
de X también es 1 obtenemos que la suma de todas las componentes de AX
es
(a11 +. . .+an1 )x1 +. . .+(a1n +. . .+ann )xn = 1x1 +. . .+1xn = x1 +. . .+xn = 1
5.5. INVERSA GENERALIZADA O G-INVERSA
171
Es decir, AX es vector probabilı́stico. Recı́procamente, supongamos que para
todo vector probabilı́stico X se verifica que AX es probabilı́stico. Elijamos
los vectores de la base canónica de Rn
 
 
1
0
 .. 
 .. 
E1 =  .  , . . . , En =  . 
0
1
Claramente estos vectores son probabilı́sticos y por hipótesis también lo son




a11
an1
 


AE1 =  ...  , . . . , AEn =  ... 
an1
ann
Pero estos vectores son las columnas de A, lo cual implica que A es matriz
de Markov.
(b) Consideremos las matrices A = B = I2 (matriz identidad de orden
2), claramente A y B son de Markov, sin embargo A + B = 2I2 no es de
Markov. El primer enunciado es falso. Sean ahora A y B matrices de Markov siendo B1 , . . . , Bn las columnas de B. Entonces AB = A[B1 , . . . , Bn ] =
[AB1 , . . . , ABn ]. Pero por lo demostrado en el apartado anterior, AB1 , . . . , ABn
son vectores probabilı́sticos lo cual implica que AB es de Markov. El segundo
enunciado es cierto.
5.5.
Inversa generalizada o g-inversa
1. Sea A una matriz (cuadrada o rectangular). Se dice que una matriz G
es una g-inversa (o inversa generalizada) de A cuando AGA = A. Naturalmente que G ha de ser de tipo n × m en el caso de ser A del tipo m × n.
Si A es cuadrada e invertible, entonces es fácil comprobar que la inversa
A−1 es (la única) g-inversa de A, de manera que el concepto de g-inversa
es una generalización del concepto de inversa. Lo que sigue es, además de
una prueba de evaluación una invitación al estudio de las matrices g-inversas.
(a) Cálculo de las g-inversas en un caso particular. Se à la matriz m × n
que escrita por cajas presenta la forma
Ir 0
à =
0 0
172
CAPÍTULO 5. MISCELANEA ALGEBRAICA
donde la submatriz Ir es la matriz unidad de orden r, y siendo nulas las
otras tres submatrices. Comprobar que la traspuesta Ãt es una g-inversa de
Ã. Hallar todas las matrices G que son g-inversas de Ã.
(b) Existencia de g-inversas. Si A es una matriz m×n y de rango r, entonces
se sabe (y el alumno lo puede admitir si no lo sabe) que existen matrices
cuadradas e invertibles P y Q tales que P AQ = Ã, donde à es precisamente
la matriz del apartado anterior. Comprobar que G = QÃP es una g-inversa
de A. Esto demuestra que toda matriz A posee alguna g-inversa, y en general
no es única como se habrá comprobado en el apartado anterior.
(c) Relación de simetrı́a. Comprobar que con los datos del apartado anterior
A es también g-inversa de G. Se pregunta si esto es general, es decir ¿si G
es g-inversa de A, entonces A es g-inversa de G?. Dar una demostración o
construir un contraejemplo.
2. Aplicación de las g-inversas al estudio de los sistemas de ecuaciones. Sea
G una g-inversa de A, y sea Ax = b un sistema de ecuaciones, donde A es la
matriz m × n de coeficientes, x es el vector columna n × 1 de las incógnitas
y b es el vector columna m × 1 de los términos independientes.
(a) Compatibilidad. Demostrar que la igualdad AGb = b es condición necesaria para que el sistema sea compatible. ¿Es también condición suficiente?
Dar una demostración o construir un contraejemplo.
(b) Resolución Si el sistema es compatible, demostrar que x = Gb + (In −
GA)z es solución (donde In es la matriz unidad de orden n, y z es un vector
columna n × 1 arbitario). [1]
Resolución. 1. (a) Veamos que Ãt es g-inversa de à es decir que ÃÃt à = Ã.
Para ello usamos la multiplicación por cajas. Escribimos en cada caso el
orden de las matrices nulas que aparecen para comprobar que el producto
por cajas tiene sentido.
Ir
0r×(n−r)
Ir
0r×(m−r)
t
ÃÃ =
=
0(m−r)×r 0(m−r)×(n−r) 0(n−r)×r 0(n−r)×(m−r)
Ir
0r×(m−r)
0(m−r)×r 0(m−r)×(m−r)
Ir
0r×(m−r)
Ir
0r×(n−r)
t
ÃÃ Ã =
=
0(m−r)×r 0(m−r)×(m−r) 0(m−r)×r 0(m−r)×(n−r)
Ir
0r×(n−r)
= Ã
0(m−r)×r 0(m−r)×(n−r)
5.5. INVERSA GENERALIZADA O G-INVERSA
173
Hallemos ahora todas las matrices G que son g-inversas de Ã. Si G es ginversa de à entonces G tiene orden n × m y podemos expresarla por cajas
en la forma
G=
o abreviadamente G =
Xr×r
Yr×(m−r)
Z(n−r)×r T(n−r)×(m−r)
X Y
.
Z T
Entonces, G es g-inversa de à si y sólo si ÃGà = Ã. Equivalentemente
Ir 0 X Y Ir 0
Ir 0
=
⇔
0 0 Z T
0 0
0 0
X Y Ir 0
I 0
= r
⇔
0 0
0 0
0 0
X 0
I 0
= r
⇔ X = Ir
0 0
0 0
En consecuencia, todas las matrices g-inversas de à son todas las matrices
n × m de la forma
Ir Y
G=
Z T
(b) Usando el apartado anterior tenemos
AGA = A(QÃt P )A = (AQ)Ãt (P A) =
(P −1 Ã)Ãt (ÃQ−1 ) = P −1 (ÃÃt Ã)Q−1 =
P −1 ÃQ−1 = A
Es decir, G = QÃt P es g-inversa de A.
(c) Veamos que A es g-inversa de G, es decir GAG = A. Tenemos
GAG = (QÃt P )A(QÃt P ) = (QÃt )(P AQ)(Ãt P )
Q(Ãt ÃÃt )P = Q(ÃÃt Ã)t P = QÃP = G
El resultado no es general. Elijamos por ejemplo las matrices de órdenes
n × n : A = 0 (matriz nula) y G = I (matriz unidad). Entonces
AGA = 0I0 = 0 = A , GAG = I0I = 0 6= G
174
CAPÍTULO 5. MISCELANEA ALGEBRAICA
Es decir, G es g-inversa de A pero A no es g-inversa de G.
2. (a) Por hipótesis AGA = A. Si el sistema Ax = b es compatible, existe
x0 ∈ Rn×1 tal que Ax0 = b. Entonces Ax0 = b ⇒ AGAx0 = b ⇒ AGb = b.
La condición también es suficiente pues si AGb = b, entonces x0 = Gb es
solución del sistema.
(b) Tenemos
A(Gb + (In − GA)z) = AGb + Az − AGAz = AGb + Az − Az = AGb = b
lo cual demuestra que todo vector de la forma Gb + (In − GA)z es solución
del sistema Ax = b.
5.6.
Determinate por inducción y sistema lineal
Para cada n ∈ N∗ y para cada par a, b ∈ C se considera la matriz

1+a
1
0
 a
1
+
a
1

 0
a
1
+
a

An (a) =  .
 ..

 0
0
0
0
0
0
...
...
...
0
0
0
0
0
0
..
.





 ∈ C(n,n)


... 1 + a
1 
...
a
1+a
y el sistema An (a)X = (0, 0, . . . , 0, b)t , donde X ∈ C(n,1) . Se pide:
1. Calcular los determinantes de A1 (a), A2 (a) y A3 (a).
2. Obtener una relación lineal entre los determinantes de An (a), An+1 (a) y
An+2 (a).
3. Hallar, en función de a y n, una expresión del determinante de An (a) y
demostrar su validez.
4. Determinar todos los valores de a y b para los que el sistema dado es
compatible determinado, indeterminado e incompatible. [2]
Resolución. 1. Los determinantes pedidos son
1 + a
1
= 1 + a + a2
det A1 (a) = 1 + a, det A2 (a) = a
1 + a
1 + a
1
0
1+a
1 = 1 + a + a2 + a3
det A3 (a) = a
0
a
1 + a
5.6. DETERMINATE POR INDUCCIÓN Y SISTEMA LINEAL
175
2. Desarrollando por los elementos de la primera columna
1 + a
1
...
0
0 a
1 + a ...
0
0 ..
.. −
det An+2 (a) = (1 + a) .
. 0
0
... 1 + a
1 0
0
...
a
1 + a
1
0
...
0
0 a 1 + a . . .
0
0 ..
.. = (1 + a) det A
a .
n+1 − a det An (a)
. 0
0
... 1 + a
1 0
0
...
a
1 + a
Esta igualdad equivale a
det An+1 (a) = (1 + a) det An − a det An−1 (a) (n ≥ 2)
(1)
3. El cálculo de los determinantes del primer apartado permite conjeturar
la fórmula
det An (a) = 1 + a + a2 + . . . + an
(2)
Veamos que la fórmula (2) es cierta aplicando el método de inducción.
Paso base La fórmula (2) es cierta para n = 1, 2, 3 como se vio en el primer
apartado.
Paso de inducción Supongamos que (2) es cierta para todo k ≤ n. Veamos
que es cierta para n + 1. Usando (1):
det An+1 (a) = (1 + a)(1 + a + a2 + . . . + an ) − a(1 + a + a2 + . . . + an−1 ) =
1 + a + a2 + . . . + an + a + a2 + a3 + . . . + an+1 − a − a2 − a3 − . . . − an =
1 + a + a2 + a3 . . . + an+1
La fórmula (2) es también cierta para n + 1.
4. Usando la fórmula de la suma de los términos una progresión geométrica
tenemos
det An (a) = 1 + a + a2 + . . . + an =
an+1 − 1
a−1
(a 6= 1)
es decir, los valores que anulan a det An (a) son las raı́ces de orden n + 1 de
la unidad excluida la raı́z 1:
176
CAPÍTULO 5. MISCELANEA ALGEBRAICA
det An (a) = 0 ⇔ a = wk = cos
2kπ
2kπ
+ i sin
n+1
n+1
(k = 1, 2, . . . , n)
Llamemos B a la matriz ampliada. Si a 6= wk se verifica rgAn (a) = n = rgB
siendo n el número de incógnitas con lo cual el sistema es compatible y
determinado. Si a = wk entonces det An (a) = 0 pero det An−1 (a) 6= 0 pues
salvo la raı́z 1 las raı́ces de orden n + 1 de la unidad son distintas de las
de orden n (corresponden a los vértices de un polı́gono regular de n + 1 y
n lados respectivamente con centro el origen). Es decir, rgAn (a) = n − 1.
Hallemos el rango de la matriz ampliada
1 + a
1
0
a
1+a
1
0
a
1
+
a
..
.
0
0
0
0
0
0
0
0
0
.. = b det An−1 (a)
. . . . 1 + a 0
...
a
b
...
...
...
0
0
0
Si b 6= 0 el rango de B es n y si b = 0 el rango de B es n − 1. Podemos
concluir:

 a 6= wkcomp. determinado
b = 0 incompatible
a = wk
b 6= 0 indeterminado.
5.7.
Determinante con números combinatorios
Calcular el determinante de orden p + 1
m
m
m
0 1 2 ...
m+1
m+1
m+1
...
0
1
2
∆(m, p) = .
.. m+p
m+p
m+p
0
...
1
2
m p m+1 p
.. . m+p p
(m ≥ p)
[8]
Resolución.
Restando
na cada fila
la anterior y usando la conocidas fórmulas
n
n−1
n−1
n
=
+
,
=
1
y
k
k−1
k
0
1 = n obtenemos
∆(m, p) = m
0
0
0
..
.
0
m
1
m
0 m+1
0
m
2
m
1 m+1
1
m+p−1
0
m+p−1
1
...
...
...
...
m
p m
p−1 m+1
p−1
=
..
. m+p−1 p−1
5.8. DETERMINANTE E INVERSA DE ORDEN N
1 · m
0 m+1
0
m
1 m+1
1
..
.
m+p−1
0
...
...
m+p−1
1
...
177
= ∆(m, p − 1)
..
. m+p−1 p−1
m
p−1 m+1
p−1
Por tanto
∆(m, p) = ∆(m, p − 1) = ∆(m, p − 2) = . . . = ∆(m, 1) =
m
m 1
m
0 1 m+1
= 1
m+1 = 1 m + 1
0
1
5.8.
Determinante e inversa de orden n
Se considera la matriz

a1 + a2
−a2
0
0
 −a2
a2 + a3
−a3
0

 0
−a
a
+
a
−a
3
3
4
4

Mn =  .
 ..

 0
0
0
0
0
0
0
0
...
...
...
0
0
0
0
0
0
. . . −an−1 an−1 + an
...
0
−an
siendo a1 , a2 , . . . , an números reales no nulos y sea Dn = det Mn .
1. Calcular D1 , D2 , D3 . ( Nótese que M1 = [a1 ] )
2. Encontrar una relación entre Dn y Dn+1 .
3. Calcular Dn .
4. Sean b1 =
1
1
, bi = bi−1 + , i = 2, 3, . . . n y sea
a1
ai


b1 b1 b1 . . . b1
b1
b1 b2 b2 . . . b2
b2 


b1 b2 b3 . . . b3
b3 


An =  .
.. 
 ..
. 


b1 b2 b3 . . . bn−1 bn−1 
b1 b2 b3 . . . bn−1 bn
Hallar |An | en función de a1 , a2 , . . . , an .
5. Calcular el producto Mn · An y deducir Mn−1 . [2]
0
0
0
..
.








−an 
an
178
CAPÍTULO 5. MISCELANEA ALGEBRAICA
Resolución. 1. Para hallar D2 sumamos a la primera fila la segunda y para
D3 sumamos a la segunda fila la tercera.
a1 + a2 −a2 a1
0 = a1 a2 ,
=
D1 = det[a1 ] = a1 , D2 = −a
a2 −a2 a2 2
a1 + a2
−a2
0 a1 + a2 −a2 0 a2 + a3 −a3 = −a2
a2
0 = a3 D2 = a1 a2 a3
D3 = −a2
0
−a3
a3
0
−a3 a3 2. Sumando a la penúltima fila la última:
Dn+1 =
a1 + a2
−a
0
0
...
0
0
0 2
−a2
a2 + a3
−a3
0
...
0
0
0 0
−a3
a3 + a4 −a4 . . .
0
0
0 ..
.. =
.
. 0
0
0
0
. . . −an an + an+1 −an+1 0
0
0
0
...
0
−an+1
a
n+1
a1 + a2
−a2
0
0
...
0
0
0 −a2
a2 + a3
−a3
0
...
0
0
0 0
−a3
a3 + a4 −a4 . . .
0
0
0 ..
.. = an+1 Dn
.
. 0
0
0
0
. . . −an
an
0 0
0
0
0
...
0
−an+1 an+1 3. Los cálculos efectuados en el primer apartado sugieren la fórmula Dn =
a1 a2 . . . an . Demostrémosla por inducción. Está demostrado que es cierta
para n = 1. Se cierta para n, entonces por el apartado anterior, Dn+1 =
an+1 Dn = a1 a2 . . . an an+1 es decir, la fórmula es cierta para n + 1.
4. Sumando a la penúltima fila la
números aj y bj obtenemos
b1
b1
b1
0 b2 − b1 b2 − b1
0
0
b3 − b2
|An | = .
.
.
0
0
0
0
0
0
última y usando las relaciones entre los
=
. . . bn−1 − bn−2 bn−1 − bn−2 ...
0
bn − bn−1 1 1 1
1
b1 (b2 − b1 )(b3 − b2 ) . . . (bn−1 − bn−2 )(bn − bn−1 ) =
· ... ·
a1 a2 a3
an
...
...
...
b1
b2 − b1
b3 − b2
b1
b2 − b1
b3 − b2
..
.
5. Usando de nuevo las relaciones entre los números aj y bj fácilmente obtenemos Mn · An = In de lo cual se deduce que Mn−1 = An .
5.9. RAÍZ CUÁDRUPLE SEGÚN PARÁMETROS
5.9.
179
Raı́z cuádruple según parámetros
Determinar m, n, p ∈ R para que el polinomio f (x) = x6 +mx4 +10x3 +nx+p
admita una raı́z cuádruple.
Resolución. Si x es una raı́z cuádruple, ha de verificar f (x) = f 0 (x) =
f 00 (x) = f 000 (x) = 0, es decir
 5
6x + 4mx3 + 30x2 + n = 0
30x4 + 12mx2 + 60x = 0

120x3 + 24mx + 60 = 0
Simplificando:
 5
6x + 4mx3 + 30x2 + n = 0
5x4 + 2mx2 + 10x = 0

10x3 + 2mx + 5 = 0
No puede ser x = 0 pues no verifica la tercera ecuación. Dividiendo la
segunda ecuación entre x :
√
5x3 + 2mx + 10 = 0
⇒ 5x3 − 5x = 0 ⇒ x = 3 1
10x3 + 2mx + 5 = 0
Los únicos posibles valores de x son por tanto x = 1 o cualquiera de las
otras dos raı́ces cúbicas ω, ω̄ no reales de la unidad. Esto último no puede
ser, pues al tener f (x) coeficientes reales, si tiene una raı́z también tiene
la conjugada y f (x) serı́a de grado 8. Concluimos que la única posible raı́z
cuádruple de f (x) es x = 1. Entonces:


f (1) = 0
1 + m + 10 + n + p = 0




 0

f (1) = 0
6 + 4m + 30 + n = 0
⇔
00
5 + 2m + 10 = 0
 f (1) = 0



 000

f (1) = 0
10 + 2m + 5 = 0
Resolviendo el sistema anterior, obtenemos m = −15/2, n = −6, p = 5/2.
5.10.
Familia de polinomios p(x2 ) = p(x)p(x + 1)
Se considera el conjunto
E = { p(x) ∈ R[x] − {0} : p(x2 ) = p(x)p(x + 1) }
180
CAPÍTULO 5. MISCELANEA ALGEBRAICA
1. Demostrar que todo polinomio de E es normalizado, es decir el coeficiente
de mayor grado es 1.
2. Demostrar que toda constante de E es igual a 1.
3. Demostrar que si a ∈ C es raı́z de un polinomio p(x) ∈ E entonces también
lo son a2 y (a − 1)2 .
4. Calcular las posibles raı́ces complejas de cualquier p(x) ∈ E.
5. Aplicando el resultado anterior, determinar el conjunto E. [2]
Resolución. 1. Todo polinomio p(x) ∈ E es de la forma p(x) = a0 + a1 x +
. . . + an xn con an 6= 0. Además
p(x2 ) = a0 + a1 x2 + a2 x4 + . . . + an x2n
p(x + 1) = a0 + a1 (x + 1) + a2 (x + 1)2 + . . . + an (x + 1)n
Si p(x2 ) = p(x)p(x + 1) entonces (igualando los coeficientes de x2 ) se verifica
an = a2n o de forma equivalente an (an − 1) = 0. Se deduce que an = 0 o
an = 1. Como an 6= 0, ha de ser an = 1, es decir todo polinomio de E es
mónico o normalizado.
2. Si p(x) ∈ E es constante entonces es de la forma p(x) = a0 . Como p(x)
es normalizado, ha de ser necesariamente a0 = 1.
3. Si a es raı́z de p(x) entonces p(a) = 0. Usando p(x2 ) = p(x)p(x + 1)
obtenemos
p(a2 ) =p(a)p(a − 1) = 0 · p(a + 1) = 0
p (a − 1)2 = p(a − 1)p(a) = p(a − 1) · 0 = 0
es decir, a2 y (a − 1)2 son también raı́ces de p(x).
4. Del apartado anterior deducimos que si a es raı́z de p(x) entonces: (i )
a2 , a4 , a8 , . . . son tambı́én raı́ces de p(x). (ii ) (a − 1)2 , (a − 1)4 , (a − 1)8 , . . .
son también raı́ces de p(x). Como el número de raı́ces de un polinomio no
nulo es finito, se ha de verificar
(a = 0 ∨ |a| = 1) ∧ (a = 1 ∨ |a − 1| = 1)
Es decir, a = 0, a = 1 o a cumple |a| = 1 y |a − 1| = 1. Llamando a = x + iy
con x, y ∈ R las condiciones |a| = 1 y |a − 1| = 1 equivalen al sistema
x2 + y 2 = 1
(x − 1)2 + y 2 = 1
5.11. EXPRESIÓN P (X) = C0 +
PN
K=1 CK (X
− X1 ) . . . (X − XK )
181
√
Resolviendo obtenemos las soluciones x = 1/2, y = ± 3. Podemos concluir
que las√únicas posibles raı́ces de cualquier polinomio p(x) ∈ E son 0 o 1 o
1/2 ± 3i.
5. Sea p(x) un elemento de E. De los apartados
que p(x) es
√ 1. y 4. se deduce
√ γ
de la forma p(x) = xα (x−1)β x2 − 1/2 − 3i x2 − 1/2 + 3i
con α, β
y γ enteros no negativos. Operando obtenemos p(x) = xα (x−1)β (x2 −x+1)γ .
Por otra parte
p(x)p(x + 1) = xα (x − 1)β (x2 − x + 1)γ (x + 1)α xβ (x2 + x + 1)γ =
xα+β (x − 1)β (x + 1)α (x2 − x + 1)γ (x2 + x + 1)γ
p(x2 ) = x2α (x + 1)β (x − 1)β (x4 − x2 + 1)γ
El polinomio p(x)p(x + 1) lo tenemos expresado como producto de irreducibles. Para expresar p(x2 ) en la misma forma, vamos a factorizar x4 − x2 + 1
en producto de irreducibles
√
√
√
x4 − x2 + 1 = (x2 + 1)2 − ( 3x)2 = (x2 + 3x + 1)(x2 − 3x + 1)
Ahora la igualdad p(x2 ) = p(x)p(x + 1) la podemos expresar:
xα+β (x − 1)β (x + 1)α (x2 √
− x + 1)γ (x2 + x√+ 1)γ =
2α
β
β
2
x (x + 1) (x − 1) (x + 3x + 1)γ (x2 − 3x + 1)γ
Todos los polinomios que aparecen en la última igualdad son irreducibles
en R[x]. Como R[x] es dominio de factorización única se deduce que γ =
0, α = β y α + β = 2α, o de manera equivalente β = α y γ = 0. Podemos
pues concluir que los polinomios de E son exactamente los del tipo p(x) =
xα (x − 1)α o bien p(x) = (x2 − x)α con α entero no negativo.
5.11.
Expresión p(x) = c0 +
Pn
k=1 ck (x − x1 ) . . . (x − xk )
Se consideran n elementos x1 , x2 , . . . , xn de un cuerpo K y un polinomio
p(x) con coeficientes en K y de grado menor o igual que n. Se desea estudiar
la existencia y unicidad de unos coeficientes c0 , c1 , . . . , cn en K tales que
p(x) = c0 + c1 (x − x1 ) + c2 (x − x1 )(x − x2 ) + . . . + cn (x − x1 ) . . . (x − xn )
(∗)
1. Demostrar la unicidad de c0 y a continuación la de c1 .
2. Demostrar la unicidad de todos los ci .
3. Demostrar la existencia de los ci .
4. Encontrar un algoritmo que permita el cálculo sucesivo de los ci mediante
operaciones racionales.
5. Aplicación al caso K = Q, p(x) = x5 + 32, x1 = −2, x2 = −1, x3 = 1,
x4 = 1, x5 = 2. [2]
182
CAPÍTULO 5. MISCELANEA ALGEBRAICA
Resolución. 1. Supongamos que se verifica la igualdad (∗). Entonces, p(x1 ) =
c0 lo cual implica que c0 está unı́vocamente determinado. Queda por tanto:
p(x) − p(x1 ) = c1 (x − x1 ) + c2 (x − x1 )(x − x2 ) + . . . + cn (x − x1 ) . . . (x − xn )
Consideremos el polinomio
p1 (x) =
p(x) − p(x1 )
= c1 + c2 (x − x2 ) + . . . + cn (x − x2 ) . . . (x − xn )
x − x1
Entonces, p1 (x2 ) = c1 lo cual implica que c1 está unı́vocamente determinado.
2. Tenemos
p1 (x) − c1 = p1 (x) − p1 (x2 ) = c2 (x − x2 ) + . . . + cn (x − x2 ) . . . (x − xn )
Consideremos el polinomio
p2 (x) =
p1 (x) − p1 (x2 )
= c2 + c3 (x − x3 ) + . . . + cn (x − x3 ) . . . (x − xn )
x − x2
Entonces, p2 (x2 ) = c2 lo cual implica que c2 está unı́vocamente determinado.
Reiterando, obtenemos los polinomios p1 , p2 , . . . , pk , . . . con
pk−1 (x) − pk−1 (xk )
=
x − xk
ck + ck+1 (x − xk+1 ) + . . . + cn (x − xk+1 ) . . . (x − xn )
pk (x) =
Por tanto, pk (xk+1 ) = ck lo cual implica que ck está unı́vocamente determinado, siendo cn = an (el coeficiente de xn en p(x)).
3. La existencia de los ci se deduce inmediatamente del apartado anterior,
ya que estos se han ido construyendo recursivamente. Otra forma de demostrarlo es considerar la aplicación lineal Kn+1 → Kn [x] :
(c0 , c1 , . . . , cn ) → c0 + c1 (x − x1 ) + . . . + cn (x − x1 ) . . . (x − xn )
Es fácil demostrar que es inyectiva, y por ser los espacios inicial y final de
la misma dimensión, también es biyectiva.
4. De la construcción de los coeficientes ci deducimos:
c0 : resto de la división de p(x) entre x − x1
c1 : resto de la división de p1 (x) entre x − x2
c2 : resto de la división de p2 (x) entre x − x3
...
cn = an
5.12. SENO DE 72o
183
5. Combinando los apartados primero segundo y cuarto obtenemos:
1
0 0
0 0
32
−2 4 −8 16 −32
−2
1 −2 4 −8 16
0
−1
1
1 −2 4 −8 16
−1 3 −7 15
1 −3 7 −15 31
1 −3
7 −15
1 −2
5
1 −2
5 −10
1 −2
5
1
1 −1
1 −1
4
2
1 −1
2
1
1
⇒ c0 = 0
⇒ c1 = 31
⇒ c2 = −10
⇒ c3 = 4
⇒ c4 = 1, c5 = 1
Podemos por tanto expresar:
x2 + 32 = 31(x + 2)
− 10(x + 2)(x + 1)
+ 4(x + 2)(x + 1)(x − 1)
+ (x + 2)(x + 1)(x − 1)2
+ (x + 2)(x + 1)(x − 1)2 (x − 2)
5.12.
Seno de 72o
Se considera la ecuación z 2 + z + 1 +
1
1
=0
+
z z2
1) Multiplicar por z − 1 dicha ecuación.
1
2) Efectuar un cambio w = z + en la citada ecuación reduciéndola a otra
z
cuya única variable sea w.
3) Aplicar lo anterior a obtener razonadamente sin 720 en la forma
sin 720 =
p
pm
√
e + f n g + i(1 − β)
q
184
CAPÍTULO 5. MISCELANEA ALGEBRAICA
determinamdo el número real β y los enteros p, q, m, e, f, n, g. [2]
Resolución. 1) Multiplicando ambos miembros por z − 1
(z − 1)
z2
1
1
+z+1+ + 2
z z
= . . . = z3 −
1
=0
z2
Ecuación equivalente a la dada salvo por la raı́z z = 1.
2) Tenemos w2 = (z + 1/z)2 = z 2 + 2 + 1/z 2 por consiguiente
1
z 2 +z+1+ +
z
1
=
z2
1
1
2
+1 = w2 −2+w+1 = w2 +w−1 = 0
z + 2 + z+
z
z
3) La ecuación z 3 − 1/z 2 = 0 es equivalente a z 5 − 1 = 0. Hallemos sus raı́ces
zk =
√
5
1=
p
3600 k
3600 k
5
1(cos 00 + i sin 00 ) = cos
+ i sin
(k = 0, 1, 2, 3, 4)
5
5
Para k = 1 obtenemos la raı́z z1√= cos 720 + i sin 720 = a + bi. Las raı́ces de
w2 + w − 1 = 0 son w = (−1 ± 5)/2 = z + 1/z. Entonces
−1 ±
2
√
5
1
a − bi
a
1
= a+bi+
= a+bi+ 2
= a+ 2
+b 1 − 2
i
a + bi
a + b2
a + b2
a + b2
Como la parte imaginaria es nula obtenemos b = 0 o a2 + b2 = 1. Si b =
0 entonces a = ±1 y no coinciden las partes reales, √
por tanto ha de ser
a2 + b2 = 1. Igualando
partes
reales
obtenemos
(−1
±
5)/2 = 2a. Es decir
√
0
a = cos 72 = (−1 + 5)/4 (elegimos el signo + pues cos 720 > 0 ). Hallemos
sin 720
r
q
√
√ 2
√
1p
5
0
b = sin 72 = 1 − −1+4 5 = 10+2
=
10 + 2 5
16
4
Además, p = 1, q = 4, m = 2, e = 10, f = 2, n = 2, g = 5, β = 1.
5.13.
Forma bilineal y sistema diferencial
Sea E el espacio vectorial de las matrices reales y cuadradas de orden 2. Se
define la aplicación:
f :E×E →R,
(A, B) → det(A + B) − det(A − B)
5.13. FORMA BILINEAL Y SISTEMA DIFERENCIAL
185
1. Probar que f es una forma bilineal simétrica.
2. Encontrar una base B = (B1 , B2 , B3 , B4 ) de E de vectores conjugados
dos a dos respecto de f tal que
f (B1 , B1 ) = f (B2 , B2 ) = −f (B3 , B3 ) = −f (B4 , B4 ) = 1
3. Sea M la matriz de f respecto de B. Encontrar una matriz real N tal que
N 2 = M. Sea x ≥ 0 y la función g(x) = x1/2 . ¿Existe g(M )?
4. Determinar la solución φ del sistema de ecuaciones diferenciales X 0 = N X
sabiendo que φ(0, 0, 0, 0) = (1, 0, 1, 0). [2]
Resolución. 1. Consideremos la matrices genéricas de E :
x1 x2
A=
,
x3 x4
y1 y2
B=
y3 y4
Operando obtenemos
x1 + y1 x2 + y2
x − y1
f (A, B) = det
− det 1
x3 + y3 x4 + y4
x3 − y3

0
0
2x4 y1 − 2x2 y3 − 2x3 y2 = x1 x2 x3 x4 
0
2
x 2 − y2
x 4 − y4
0
0
0 −2
−2
0
0
0
= 2x1 y4 +


2
y1


0
  y2 


0
y3 
0
y4
Sabemos que toda función de Rn × Rn en R de la forma X t M Y con X =
(x1 , . . . , xn )t , Y = (y1 , . . . yn )t vectores de Rn y M simétrica, representa una
forma bilineal simétrica. En consecuencia lo es f , pues basta tener en cuenta
que en nuestro caso A y B están representadas por sus coordenadas una base
de E (en concreto la canónica).
2. Tenemos que encontrar una matriz P de cambio de base tal que P t M P =
D, siendo D = diag (1, 1, −1, −1). Para ello aplicaremos el teorema espectral. Valores propios de M :
−λ + 2 0
−λ 0
0
2
0
2
0 −λ −2 0 0
−λ −2 0 =
det(M − λI) = =
−2 −λ 0 0 −2 −λ 0 0
2
0
0 −λ
0
0 −λ 2 − λ
−λ + 2 0
0
2 0
−λ −2
0 2
2
2
0
= (−λ + 2)(−λ − 2)(λ − 4) = (λ − 2) (λ + 2)
−2
−λ
0
0
0
0 −λ − 2
186
CAPÍTULO 5. MISCELANEA ALGEBRAICA
Es decir, 2 (doble) y -2 (doble). Los subespacios propios son:


−2x1 + 2x4 = 0
2x1 + 2x4 = 0






−2x2 − 2x3 = 0
2x2 − 2x3 = 0
V2 ≡
V−2 ≡
−2x2 − 2x3 = 0
−2x2 + 2x3 = 0






2x1 − 2x4 = 0
2x1 + 2x4 = 0
Unas bases ortogomales de V2 y V−2 con respecto del producto escalar usual
son
B2 = {(1, 0, 0, −1), (0, 1, −1, 0)} ,
B−2 = {(1, 0, 0, 1), (0, 1, 1, 0)}
Como la matriz M es simétrica, vectores propios asociados a valores propios
distintos son ortogonales dos a dos. Esto implica que los cuatro vectores
anteriores forman una base ortogonal y de vectores propios asociados a M.
Dividiendo entre la norma de cada uno de los vectores, obtenemos una base
ortonormal y de vectores propios de R4 :
o
n
C = √12 (1, 0, 0, −1), √12 (0, 1, −1, 0), √12 (1, 0, 0, 1), √12 (0, 1, 1, 0)
La matriz P de cambio de la base canónica a la C es por tanto ortogonal y
satisface
P −1 M P = P t M P = D = diag (2, 2, −2, −2)
Es decir, ( √12 P )t M ( √12 P ) = diag (1, 1, −1, −1). Teniendo en cuenta que estamos trabajando en coordenadas respecto de la base canónica de E, deducimos que los vectores de la base B pedida son:
1 1
1
1 1 0
1 0 1
0
0 1
B1 =
, B2 =
, B3 =
, B4 =
2 0 −1
2 −1 0
2 0 1
2 1 0
Para hallar una matriz N tal que N 2 = M tengamos en cuenta que M se
puede expresar en cajas de la siguiente manera
M1 0
cos π − sin π
M=
con M1 = I2 , M2 =
0 M2
sin π cos π
Dado que M2 representa un giro de ángulo π, es el
ángulo π/2. Teniendo en cuenta esto, hallamos N :

 
1 0
0
0
1
0 1


0
0
 0
N =
0 0 cos π/2 − sin π/2 = 0
0 0 sin π/2 cos π/2
0
cuadrado de un giro de
0
1
0
0

0
0
0
0

0 −1
1
0
5.14. MÉTODO DEL SIMPLEX: MÁXIMO DE UNA INTEGRAL
187
4. Los valores propios de N son 1 (doble) y ±i (simples). Los subespacios
propios asociados a 1 e i son


 (1 − i)x1 = 0

−x3 − x4 = 0
(1 − i)x2 = 0
V1 ≡
Vi ≡
x3 − x4 = 0
−ix

3 − x4 = 0


x3 − ix4 = 0
Unas bases de estos subespacios propios son
B1 = {e1 = (1, 0, 0, 0)t , e2 = (0, 1, 0, 0)t }
Bi = {e3 = (0, 0, i, 1)t }
Dado que N es real, una base el subespacio propio asociado al valor propio
−i se obtiene conjugando e3 . Por tanto, la matriz P = [e1 e2 e3 e¯3 ] cumple
P −1 N P = D = diag (1, 1, i, −i)
La función φ pedida es por tanto

 
1

 0 
 = P etD P −1 
φ(t) = etN 

 1 
0

 t

e 0 0
0
1 0
1 0 0
0
  0 et 0
 0 1
0 1 0
0
0



0 0 i −i  0 0 eit
0  0 0
0 0 0 e−it
0 0
0 0 1
1

1
0 
=
1 
0
−1 
0
0

0
0
 
i −i 
1
1

1
0 

1 
0
Teniendo en cuenta que P es diagonal por cajas, fácilmente obtenemos:
 t 
e
 0 

φ(t) = 
 cos t 
sin t
5.14.
Método del simplex: máximo de una integral
Hallar el valor máximo de la integral
Z 1
1
2
I=
x p
dx
x
0
entre todos los polinomios de grado menor o igual que 2 de coeficientes no
negativos y que cumplen p(1) ≤ 2 y p0 (1) ≤ 3. [1]
188
CAPÍTULO 5. MISCELANEA ALGEBRAICA
Resolución. Todo polinomio de grado menor o igual que dos es de la forma
p(x) = x1 + x2 x + x3 x2 con x1 , x2 , x3 ∈ R. Hallemos explicitamente la
integral:
Z 1 x1 x3 x2 x1 +
I=
+ 2 dx
x
x
0
Z 1
(x1 x2 + x2 x + x3 )dx =
=
0
x1 x3 x2 x2
+
+ x3 x
3
2
1
1
= x1 + x2 + x3
3
2
1
=
0
La condición p(1) ≤ 2 equivale a x1 + x2 + x3 ≤ 2 y p0 (1) ≤ 3 a x2 + 2x3 ≤ 3.
Queda pues planteado el problema de programación lineal consistente en
maximizar la función I = x1 /3 + x2 /3 + x3 sometida a las restricciones

 x1 + x2 + x3 ≤ 2
x2 + 2x3 ≤ 3

x1 ≥ 0, x2 ≥ 0, x3 ≥ 0
Introducimos las variables de holgura xi ≥ 0 (i = 4, 5) y expresamos el
problema en forma estándar:

x1 + x2 + x3 + x4 = 2
x2 + 2x3 + x5 = 3

xi ≥ 0 (i = 1, . . . , 5)
Expresemos el problema en forma matricial escribiendo ordenadamente en
filas los coeficientes de x1 , . . . , x5 , I y los términos constantes:


1
1
1 1
0 0 2

0
1
2 0
1 0 3 
−1/3 −1/2 −1 0
0 1 0
Una solución factible básica es x = (0, 0, 0, 2, 3) para la cual I = 0. La solución no es máxima al existir algún coeficiente negativo para las xi . Eliminemos el menor coeficiente negativo es decir, −1. Como 2/3 > 1/2, elegimos
como pivote a23 = 2 y fabricamos ceros es la tercera columna:


1
1
1 1 0 0 2

0
1/2
1 0 1/2 0 3/2 
−1/3 −1/2 −1 0 0 1 0
5.15. MÉTODO DEL SIMPLEX: APLICACIÓN

1

0
−1/3
1/2
1/2
0
0
1
0
1
0
0
189

−1/2 0 1/2
1/2 0 3/2 
1/2 1 3/2
Una solución factible básica es x = (0, 0, 3/2, 1/2, 0) para la cual I = 3/2.
La solución no es máxima al existir algún coeficiente negativo para las xi .
Eliminemos el único coeficiente negativo es decir, −1/3. Como 1/(1/2) >
0/(3/2) elegimos como pivote a11 = 1 y fabricamos ceros es la primera
columna:

1
 0
0
1/2
1/2
1/6
0
1
0

1 −1/2 0 1/2
0
1/2 0 3/2 
1/3
1/3 1 5/3
Una solución factible básica es x = (1/2, 0, 3/2, 0, 0) para la cual I = 5/3.
La solución es máxima al no existir coeficientes negativos para las xi .
Solución: Imáx
5.15.
1 3 2
+ x
2 2
=
5
3
Método del simplex: aplicación
En el proceso semanal de fabricación de una empresa se producen 43, 46
y 42 T m de unas substancias S1 , S2 , S3 que no se pueden venderse directamente al mercado, pero permiten obtener unos productos P1 , P2 , P3 que
reportan unos beneficios unitarios de 3, 5, 2 respectivamente. Para cada T m
de P1 se necesitan 1, 3 y 1 T m de S1 , S2 , S3 respectivamente y analogamente
1, 2, 0 por T m de P2 y 2, 0, 4 por T m de P3 . Se pide:
(a) Plantear y resolver un problema de programación lineal para organizar
la producción de P1 , P2 , P3 de manera que se maximicen los beneficios.
(b) Para evitar la contaminación existen disposiciones legales que obligan a
consumir cada semana la totalidad de la substancia S3 producida. Calcular
la pérdida de beneficios que el cumplimiento de dichas disposiciones supone
para la empresa. [1]
Resolución. (a) Llamemos x1 , x2 , x3 al número de Tm a fabricar de los
productos P1 , P2 , P3 respectivamente. Se trata de maximizar la función z =
3x1 + 5x2 + 2x3 sujeta a las restricciones:
190
CAPÍTULO 5. MISCELANEA ALGEBRAICA

x1 + x2 + 2x3 ≤ 43



3x1 + 2x2
≤ 46
2x
+
4x

3 ≤ 42

 1
x1 ≥ 0, x2 ≥ 0, x3 ≥ 0
Introducimos las variables de holgura xi ≥ 0 (i = 4, 5, 6) y expresamos el
problema en forma estándar:

x1 + x2 + 2x3 + x4 = 43




+ x5 = 46
 3x1 + 2x2
2x1
+ 4x3 + x6 = 42


−3x1 − 5x2 − 2x3 + z = 0



x1 ≥ 0, x2 ≥ 0, x3 ≥ 0
Expresemos el problema en forma matricial escribiendo ordenadamente en
filas los coeficientes de x1 , . . . , x6 , z y los términos constantes:

1
1
2
 3
2
0

 2
0
4
−3 −5 −2
0
1
0
0
1
0
0
0
0
0
1
0

0 43
0 46 

0 42 
1 0
Una solución factible básica es x = (0, 0, 0, 43, 46, 42)t para la cual z = 0.
La solución no es máxima al existir algún coeficiente negativo para las xi .
Eliminemos el menor coeficiente negativo es decir, −5. Como 2/46 > 1/46 >
0/42 elegimos como pivote a22 = 2 y fabricamos ceros es la segunda columna:

1
1
2
 3/2
1
0


2
0
4
−3 −5 −2
−1/2
 3/2


2
9/2

0
1
0
0
2
0
4
−2

1 0 0 0 43
0 1/2 0 0 23 

0 0 1 0 42 
0 0 0 1 0
1
0
0
0
−1/2
1/2
0
5/2
0
0
1
0

0 20
0 23 

0 42 
1 115
Una solución factible básica es x = (0, 23, 0, 20, 0, 42)t para la cual z = 115.
La solución no es máxima al existir algún coeficiente negativo para las xi .
Eliminemos el único coeficiente negativo es decir, −2. Como 2/20 > 4/42 >
0/23 elegimos como pivote a13 = 2 y fabricamos ceros es la primera columna:
5.16. FAMILIA UNIPARAMÉTRICA DE CÓNICAS

−1/4
 3/2


2
9/2
−1/4
 3/2


3
4

0
1
1
0
0
4
0 −2
0
1
0
0
1
0
0
0
191

1/2 −1/4 0 0 10
0
1/2 0 0 23 

0
0 1 0 42 
0
5/2 0 1 115
1/2 −1/4
0
1/2
−2
1
1
2
0
0
1
0

0 10
0 23 

0 2 
1 135
Una solución factible básica es x = (0, 23, 10, 0, 0, 2)t para la cual z = 135.
La solución es máxima al no existir coeficientes negativos para las xi . En
consecuencia, se optimizan los beneficios fabricando 0 T m de P1 , 23 T m de
P2 y 10 T m de P3 , siendo el beneficio máximo de 135.
(b) Basta imponer que 2x1 +4x3 = 42. Despejando obtenemos x1 = 21−2x3
con lo cual el problema se reduce a usar el método gráfico en el plano x2 x3 .
5.16.
Familia uniparamétrica de cónicas
Clasificar las siguientes cónicas según los distintos valores de λ ∈ R.
λx2 + y 2 + 2xy + 2λx + y = 0
[1]
Resolución. La matriz correspondiente a la familia de cónicas dada es:


λ 1
λ
A =  1 1 1/2
λ 1/2 0
Los invariantes lineal, cuadrático y cúbico son:
s = a11 + a22 = λ + 1, δ = A33 = λ − 1, ∆ = det A = −λ(λ − 43 )
Primer caso: δ > 0. Esto ocurre cuando λ > 1. La cónica es de tipo elı́ptico.
Dado que en este caso δ > 0 y ∆ < 0, se verifica s∆ < 0 y por tanto la
cónica es una elipse real. Veamos si alguna de estas elipses es circunferencia.
Los valores propios asociados a la cónica son las soluciones de la ecuación:
λ − α
1 = α2 − (λ + 1)α + λ − 1 = 0
1
1 − α
192
CAPÍTULO 5. MISCELANEA ALGEBRAICA
Existe un valor propio doble si y sólo si el discriminante (λ + 1)2 − 4(λ − 1)
es nulo. Esto equivale a α2 − 2α + 5 = 0, ecuación que no tiene soluciones
reales, es decir no hay circunferencias.
Segundo caso: δ < 0. Esto ocurre cuando λ < 1. La cónica es de tipo hiperbólico. Es una hipérbola salvo cuando ∆ se anula (λ = 0 o λ = 3/4), en
los que tenemos pares de rctas reales secantes.
Tercer caso: δ = 0. Esto ocurre cuando λ = 1. La cónica es de tipo parabólico. Además en este caso ∆ 6= 0, con lo cual se trata de una parábola.
Agrupando los resultados obtenidos:
Hipérbola : λ ∈ (−∞, 0) ∪ (0, 3/4) ∪ (3/4, 1)
Rectas reales secantes : λ = 0 ∨ λ = 3/4
Parábola : λ = 1
Elipse real : λ ∈ (1, +∞)
5.17.
Cuádrica como lugar geométrico
Hallar la ecuación cartesiana del lugar geométrico de los puntos del espacio
tales
√ que la razón de sus distancias al plano x + y + z = 9 y al punto (1, 1, 1)
es 3. Comprobar que se trata de una cuádrica (ecuación de segundo grado),
clasificarla y hallar su ecuación reducida. [1]
Resolución. Llamemos P0 al punto (1, 1, 1), π al plano x + y + z = 9,
P (x, y, z) a cualquier punto del espacio, y L al lugar geométrico pedido.
Entonces:
√
√
d(P, π)
P ∈L⇔
= 3 ⇔ d(P, π) = 3 d(P, P0 ) ⇔
d(P,P0 )
x + y + z − 9 √ p
= 3 (x − 1)2 + (y − 1)2 + (z − 1)2
√
3
Elevando al cuadrado ambos miembros de la última igualdad:
(x + y + z − 9)2 = 9[(x − 1)2 + (y − 1)2 + (z − 1)2 ]
Operando y simplificando obtenemos el lugar geométrico pedido:
L ≡ 4x2 + 4y 2 + 4z 2 − xy − xz − yz − 27 = 0
Escribamos ahora la matriz A de la cuádrica. Podemos multiplicar ambos
miembros de la ecuación por 2 para evitar fracciones, obteniendo:
5.18. CIRCUNFERENCIA, CÓNICA Y FORMA CUADRÁTICA
193


8 −1 −1
0
−1
8 −1
0

A=
−1 −1
8
0
0
0
0 −54
Hallemos los valores propios asociados a la cuádrica, para ello restamos a la
segunda y tercera fila la primera y a continuación, a la primera columna le
sumamos las demás:
8 − λ −1
−1 8 − λ
−1
−1 6 − λ −1
−1 −1 8 − λ −1 = −9 + λ 9 − λ
0 = 0
9−λ
0 −1
−1 8 − λ
−9 + λ
0
9−λ
0
0
9 − λ
2
= (6 − λ)(9 − λ) = 0 ⇔ λ = 6 (simple) ∨ λ = 9 (doble)
Para δ = A44 y ∆ = det(A) y λ1 , λ2 , λ3 los valores propios asociados a la
cuádrica, sabemos que una ecuación reducida de la misma es:
λ1 X 2 + λ2 Y 2 + λ3 Z 2 +
∆
=0
δ
(si δ 6= 0)
Dado que ∆ = −54δ, una ecuación reducida de L es 6X 2 + 9Y 2 + 9Z 2 − 54 =
0, que la podemos escribir en la forma X 2 /9 + Y 2 /6 + 9Z 2 /6 = 1. En
consecuencia:
X2
Z2
Y2
√
√
+
=1
+
32
( 6)2 ( 6)2
√ √
Se trata de un elipsoide de semiejes 3, 6, 6.
L≡
5.18.
Circunferencia, cónica y forma cuadrática
Se considera la circunferencia x2 +y 2 = a2 , la cónica a11 x2 +a22 y 2 +2a12 xy =
a2 y la forma cuadrática Q(x, y) = (a11 − 1)x2 + (a22 − 1)y 2 + 2a12 xy.
1. Demostrar que si la forma cuadrática Q(x, y) es definida positiva, entonces la circunferencia y la cónica no se cortan. Enunciar el recı́proco y
estudiar su validez, dar una demostración en caso afirmativo o construir un
contraejemplo en caso negativo.
2. Estudiar y describir geométricamente las cónicas a11 x2 +a22 y 2 +2a12 xy =
a2 para las cuales la forma cuadrática Q(x, y) es definida positiva. [1]
Resolución. 1. Supongamos que existiera un punto (α, β) que perteneciera
a la circunferencia y cónica dadas. Entonces se verificarı́a
194
CAPÍTULO 5. MISCELANEA ALGEBRAICA
a11
α2
α2 + β 2 = a2
+ a22 β 2 + 2a12 αβ = a2
Restando a la segunda ecuación la primera obtenemos
(a11 − 1)α2 + (a22 − 1)β 2 + 2a12 αβ = 0
o de forma equivalente Q(α, β) = 0. Como Q definida positiva, ha de ser
necesariamente (α, β) = (0, 0), pero esto es absurdo pues (0, 0) no satisface
la ecuación de la circunferencia. Concluimos pues que si Q es definida positiva, la circunferencia y la cónica no se cortan.
Veamos que el recı́proco es falso. En efecto, consideremos la circunferencia
x2 + y 2 = 1 y la cónica x2 /2 + y 2 /2 = 1. Es claro que no se cortan y la forma
cuadrática Q es
Q(x, y) =
1
1
1
1
2
−1 x +
− 1 y 2 = − x2 − y 2
2
2
2
2
que no es definida positiva.
2. Sea (x, y) un punto de la cónica. Este punto no puede ser el origen pues
a 6= 0. Si Q es definida positiva:
Q(x, y) = (a11 − 1)x2 + (a22 − 1)y 2 + 2a12 xy
= a11 x2 + a22 y 2 + 2a12 xy − x2 − y 2
= a2 − (x2 + y 2 ) > 0
Es decir, todo punto de la cónica ha de estar en el cı́rculo D ≡ 0 < x2 + y 2 <
a2 y recı́procamente, si la cónica está contenida en D, la forma cuadrática Q
es definida positiva. Concluimos que las cónicas para las cuales Q es definida
positiva son aquellas contenidas en el disco abierto D.
5.19.
Curva plana
Averiguar si es plana la curva de ecuaciones paramétricas
x = t, y =
t2 + t + 2
−t2 − t + 3
, z=
t
t
(t > 0)
En caso afirmativo, hallar la ecuación cartesiana del plano que la contiene.
[1]
5.20.
SUPERFICIE DE REVOLUCIÓN Y CÓNICA
195
Resolución. La curva es plana si y sólo si y existe un plano que la contiene
es decir, si y sólo si existe un plano π ≡ Ax + By + Cz + D = 0 tal que
At + B
t2 + t + 2
t
+
−t2 − t + 3
t
+D =0
(∀t > 0)
Multiplicando por t y agrupando términos semejantes obtenemos equivalentemente
(A + B − C)t2 + (B − C + D)t + 2B + 3C = 0
(∀t > 0)
Las funciones t2 , t, 1 son linealmente independientes en el espacio de las
funciones reales en (0, +∞) como fácilmente se puede demostrar, en consecuencia la igualdad anterior se verifica exclusivamente para los A, B, C, D
que satisfacen el sistema lineal homogéneo

A + B − C = 0
B−C +D =0

2B + 3C = 0
Resolviendo obtenemos A = D, B = −3D/5, C = 2D/5, D = D. Entonces, para todo D ∈ R se verifica Dx−(3D/5)y +(2D/5)z +Dz = 0. Si D = 0
no obtenemos ningún plano, si D 6= 0, dividiendo entre D y multilicando
por 5 obtenemos el plano 5x − 3y + 2z + 5 = 0
Podemos por tanto concluir que la curva es plana y el plano que la contiene
es π ≡ 5x − 3y + 2z + 5 = 0.
5.20.
Superficie de revolución y cónica
Se consideran las rectas
r : x = y = z , s : −x + z = 0, x + 4y + z − 6 = 0
Se pide:
1) Obtener la ecuación de la superficie que engendra la recta s al girar alrededor de la recta r.
2) Se corta la superficie anterior por el plano z = 1. Clasificar la cónica resultante, indicando los elementos notables (centro, ejes y ası́ntotas si las tiene),
si no es degenerada o calcular las rectas que la forman si es degenerada. [4]
196
CAPÍTULO 5. MISCELANEA ALGEBRAICA
Resolución. 1) La superficie de revolución R pedida está formada por las
circunferencias que son perpendiculares al eje r, con centro un punto de este
eje y que además cortan a s. Las circunferencias C perpendiculares al eje
r con centro un punto del eje se obtienen por la intersección de todas las
esferas con centro un punto del eje (por ejemplo el origen) con todos los
planos perpendiculares al eje. Es decir
2
x + y 2 + z 2 = λ1
C≡
x + y + z = λ2
La recta s la podemos expresar en la forma z = x, y = 3/2−x/2. Obliguemos
a que la circunferencias C corten a s
2
x + (3/2 − x/2)2 + x2 = λ1
x + 3/2 − x/2 + x = λ2
Despejando x en la segunda ecuación y sustituyendo en la primera, obtenemos la relación que han de cumplir λ1 y λ2 para que las circunferencias C
pertenezcan a la superficie R
λ22 + 2λ2 − λ1 + 6 = 0
Sustituyendo λ1 y λ2 por sus valores en C
(x + y + z)2 + 2(x + y + z) − x2 − y 2 − z 2 + 6 = 0
Simplificando obtenemos la ecuación de la superficie pedida
R ≡ xy + xz + yz + x + y + z + 6 = 0
2) Para z = 1 obtenemos la cónica xy + 2x + 2y + 7 = 0, su matriz es


0 1/2 1
A = 1/2 0 1
1
1 7
Tenemos ∆ = det A = −3/4 6= 0 y δ = A33 = −1/4 < 0. Se trata pues de
una hipérbola. Hallando las parciales respecto de x e y obtenemos el centro
de la cónica
y+2=0
x = −2
⇔
x+2=0
y = −2
El centro es por tanto el punto (−2, −2). Las ecuaciones de los ejes de una
cónica f (x, y) = 0 en el caso elipse o hipérbola no degenerada con a12 6= 0
sabemos que son
5.20.
SUPERFICIE DE REVOLUCIÓN Y CÓNICA
y − y0 =
αi − a11
(x − x0 ) (i = 1, 2)
a12
197
(1)
siendo (x0 , y0 ) el centro de la cónica y αi (i = 1, 2) los valores propios de la
matriz correspondiente a A33
−α 1/2
2
1/2 −α = 0 ⇔ α − 1/4 = 0 ⇔ α = ±1/2
Sustituyendo en (1) obtenemos las ecuaciones de los ejes: x − y = 0, x +
y + 4 = 0. Para hallar las ası́ntotas homogeneizamos la ecuación xy + 2xt +
2yt + 7t2 = 0. Si t = 0, entonces xy = 0. Es decir los puntos del infinito
de la cónica son (1, 0, 0) y (0, 1, 0). Las ecuaciones de las ası́ntotas son por
tanto x = −2 e y = −2. Teniendo en cuenta que la cónica está contenida en
el plano z = 1 podemos concluir que sus elementos notables son
Centro: (−2, −2, 1)
x+y+4=0
x−y =0
Ejes:
z=1
z=1
x = −2
y = −2
Ası́ntotas:
z=1
z=1
198
CAPÍTULO 5. MISCELANEA ALGEBRAICA
Referencias de examen
[1] Propuesto en examen, ETS de Ingenieros de Montes de la UPM.
[2] Propuesto en examen, ETS de Ingenieros Industriales de la UPM.
[3] Propuesto en examen, ETS de Ingenieros Aeronaúticos de la UPM.
[4] Propuesto en examen, ETS de Ingenieros de Caminos de la UPM.
[5] Propuesto en examen, ETS de Ingenieros Agrónomos de la UPM.
[6] Propuesto en examen, ETS de Arquitectura de la UPM.
[7] Propuesto en hojas de problemas, ETS de Ingenieros Aeronáuticos de
la UPM.
[8] Propuesto en hojas de problemas, ETS de Ingenieros de Caminos de la
UPM.
[9] Propuesto en hojas de problemas, ETS de Ingenieros Agrónomos de la
UPM.
[10] Propuesto en hojas de problemas, ETS de Arquitectura de la UPM.
199
Descargar