UN TEOREMA DE FROBENIUS SOBRE EL RANGO Y LA

Anuncio
UN TEOREMA DE FROBENIUS SOBRE EL RANGO Y LA SIGNATURA
DE UNA FORMA CUADRÁTICA REAL
CARLOS D’ANDREA
1.
Introducción y motivación del problema
Sea K un cuerpo. Una forma cuadrática en n variables con coeficientes en K es una función
φ : Kn → K de la forma
(1)
φ(x1 , . . . , xn ) =
n
X
aij xi xj ,
i,j=1
con aij = aji ∈ K ∀i, j = 1, . . . , n. Suele ser de interés considerar la forma cuadrática como una
transformación geométrica del espacio vectorial Kn en el cuerpo K, por ello se buscan invariantes
de la misma tras cambios lineales de coordenadas. En este tema, las formas cuadráticas ψ : Kn →
K para las cuales existe un cambio lineal de coordenadas

 

x1
y1
 x2   y2 

 

(2)
M ∈ Mn×n (K),
M  ..  =  ..  ,
 .   . 
xn
yn
con M invertible, tal que
φ(x1 , . . . , xn ) = ψ(y1 , . . . , yn ).
se consideran equivalentes a φ. Y el resultado que se tiene es el clásico teorema que se aprende
en los cursos básicos de álgebra lineal. Llamemos
Aφ := (aij )1≤i,j≤n ∈ Mn×n (K)
a la matriz asociada a φ y Aψ respectivamente a la matriz asociada a ψ. Claramente, tanto
Aφ como Aψ son matrices simétricas. Para L = Lij 1≤i≤p, 1≤j≤q ∈ Mp×q (K), denotamos con
Lt ∈ Mq×p (K) a su transpuesta, que se define como
Lt i,j := Lji , 1 ≤ i ≤ p, 1 ≤ j ≤ q.
El siguiente resultado es casi inmediato, y puede encontrarse en cualquier texto básico de álgebra
lineal como [Kur68].
Teorema 1.1. Sean φ, ψ, Aφ y Aψ definidos más arriba. Entonces


x1
 x2 


φ(x1 , . . . , xn ) = (x1 . . . xn ) A  ..  .
 . 
xn
Date: 15 de abril de 2010.
1
2
CARLOS D’ANDREA
Si (y1 , . . . , yn ) y (x1 , . . . , xn ) están relacionados como en (2), y φ(x1 , . . . , xn ) = ψ(y1 , . . . , yn ),
entonces se tiene
t
Aψ = M−1 Aφ M−1 .
(3)
Se desprende entonces de (3) que para buscar invariantes asociados a formas cuadráticas, se
ha de estudiar algo “parecido” a lo que se hace cuando uno busca diagonalizar matrices o
transformaciones lineales. Aquı́ la pregunta es:
Dada una matriz simétrica A ∈ Mn×n (K), que tan “simple” se puede hacer la matriz Mt AM
haciendo variar M entre las matrices invertibles de Mn×n (K)?
El teorema de clasificación de cuádricas esencialmente resuelve este problema. No es de sorprender que la respuesta venga dada nuevamente en términos de una matriz diagonal. A diferencia
del proceso de diagonalización de transformaciones lineales, lo sorprendente es que el resultado
es independiente del cuerpo K, y que incluso los elementos no nulos de la diagonal no están univocamente determinados. En el caso real, solo será necesario conocer los signos de los elementos
no nulos en la diagonal, y eso conducirá a un teorema de clasificación.
2.
Reducción ‘a la Frobenius”
Casi todo el contenido de esta sección puede encontrarse muy bien explicado en [Boc19]. Llamaremos rango de la forma cuadrática φ al rango de la matriz simétrica Aφ que la define. Lo
denotaremos con r(φ). Para i = 1, . . . , n, definimos como ∆k = ∆k (Aφ ) como el k-ésimo menor
principal
∆k := det aij 1≤i,j≤k .
Notar que ∆n = det(Aφ ).
Proposición 2.1. Si r0 := r(φ) > 0, entonces hay un cambio lineal de coordenadas M que hace
que el r-ésimo menor principal de Mt AM sea distinto de cero.
Demostración. Como el rango de Aφ es r0 , se puede conseguir por medio de operaciones elementales entre las columnas de esta matriz llevarla a la forma


∗ ... ∗ 0 ... 0
 ∗ ... ∗ 0 ... 0 


A0φ :=  .. .. .. .. .. ..  ,
 . . . . . . 
∗ ... ∗ 0 ... 0
donde las primeras r0 columnas son linealmente independientes, y las últimas n − r0 columnas
son nulas. Operaciones en columnas corresponden a multiplicaciones a derecha por matrices
elementales. Sea entonces M ∈ M(K) invertible tal que
Aφ M = A0φ .
Consideramos entonces Mt Aφ M, que es una matriz simétrica, de rango r0 y por otro lado, sigue
teniendo las últimas (n − r0 ) columnas iguales a cero. Por lo tanto, también tiene las últimas
(n − r0 ) filas iguales a cero (ya que es simétrica), y eso implica que el menor principal de tamaño
r0 × r0 de esta matriz es distinto de cero.
Teorema 2.1. Si r0 := r(φ) > 0 y ∆r0 6= 0, entonces existen nuevas variables y1 , . . . , yn de tal
manera que
yi = xi , i = r + 1, . . . , n,
TEOREMA DE FROBENIUS
3
y la forma cuadrática se reduce a
φ(x1 , . . . , xn ) = ψ(y1 , . . . , yn ) =
X
aij yi yj .
1≤i,j≤r0
Demostración. Como el rango de Aφ es r0 y ∆r0 6= 0, podemos resolver el sistema

  
c1
0
 c2   0 

  
Aφ  ..  =  .. 
 .   . 
cn
0
en función de cr0 +1 , . . . , cn . Supongamos tener una (la única) solución del tipo (c1 , . . . , cr0 , 0, . . . , 0, 1).
Es fácil ver que se cumple
φ(x1 + λc1 , . . . , xr + λcr0 , xr0 +1 , . . . , xn−1 , xn + λ) = φ(x1 , . . . , xn )
para cualquier λ ∈ K,dado que







Aφ 





c1
c2
..
.
cr0
0
..
.
0
1


 
 
 
 
 
 
=
 
 
 
 

0

..
.
..
.
..
.





.





0
Si hacemos λ = −xn , resulta
φ(x1 − c1 xn , . . . , xr − cr0 xn , xr0 +1 , . . . , xn−1 , 0) = φ(x1 , . . . , xn ).
Ası́ que el cambio de variables propuesto es
yi := xi − ci xn ,
yi := xi ,
i = 1, . . . , r0 ,
i = r0 + 1, . . . , n.
Bajo este cambio de variables, la forma cuadrática φ se reduce a
φ(x1 , . . . , xn ) =
n−1
X
aij yi yj .
i=1
El razonamiento ahora se completa por inducción.
Observación 2.2. Notar que si el rango de Aφ es igual a r0 , la Proposición 2.1 garantiza que
hay un cambio lineal de coordenadas que hace ∆r0 6= 0.
Teorema 2.3. Si ∆n−1 (Aφ ) 6= 0, entonces existe un cambio lineal de coordenadas y1 , . . . , yn
que verifica
yn = xn
y tal que
φ(x1 , . . . , xn ) =
X
1≤i,j≤n−1
aij yi yj +
∆n
yn 2 .
∆n−1
4
CARLOS D’ANDREA
Demostración. Sean
ψ(x1 , . . . , xn ) =
X
1≤i,j≤n
aij xi xj −
∆n 2
x ,
∆n−1 n
y Aψ su matriz asociada. Se tiene

a11
...
a1(n−1)
a1n
..
..
..
..


.
.
.
.
Aψ = 
 a(n−1)1 . . . a(n−1)(n−1)
a(n−1)n
n
an1
...
an(n−1)
ann − ∆∆n−1



,

y por lo tanto
∆n
det Aψ = det(Aφ ) −
∆n−1 = ∆n − ∆n = 0.
∆n−1
Como ∆n−1 (Aψ ) = ∆n−1 (Aφ ) 6= 0, se concluye que ψ tiene rango n − 1. Aplicando el Teorema
2.1 con r0 = n − 1, tenemos un cambio lineal de coordenadas tal que yn = xn y
X
X
∆n 2
aij xi xj −
aij yi yj ,
xn =
∆n−1
1≤i,j≤n
1≤i,j≤n−1
y de aquı́ se concluye fácilmente.
Aplicando recursivamente este teorema se tiene el siguiente enunciado que será de utilidad para
el cálculo de la signatura de la forma cuadrática en el caso real.
Corolario 2.4. Si ∆1 6= 0, ∆2 6= 0, . . . , ∆n 6= 0, entonces existe un cambio lineal de coordenadas
(y1 , . . . , yn ) tal que
∆2 2
∆n 2
(4)
φ(x1 , . . . , xn ) = ∆1 y12 +
y2 + . . . +
y .
∆1
∆n−1 n
El Teorema 2.3 se podrı́a utilizar para demostrar la reducción de toda forma cuadrática a suma de
cuadrados. Para ello uno necesitarı́a
demostrar un resultado análogo, que se consigue utilizando
P
n
la forma ψ(x1 , . . . , xn ) = 1≤i,j≤n aij xi xj − A2∆
xn−1 xn , donde Ai,j es el adjunto de aij en
n,n−1
i+j
Aφ (es decir, (−1)
por el menor que resulta de calcular el determinante de Aφ a la que se le
han quitado la fila i y la columna j), y aplicando las mismas técnicas que en la demostración
anterior.
Teorema 2.5. Si ∆n−1 = An−1,n−1 = 0 y An,n−1 6= 0, entonces se puede hacer un cambio
lineal de coordenadas de tal manera que yn−1 = xn−1 , yn = xn , y que la transformación sea de
la forma
X
2∆n
yn−1 yn .
φ(x1 , . . . , xn ) =
aij yi yj +
An,n−1
1≤i,j≤n−2
3.
El teorema de Frobenius sobre cuádricas reales
Es sabido
forma cuadrática en n variables de rango r0 puede reducirse a una de la
P 0 que toda
forma ri=1
ci x02
por
medio de un cambio lineal de coordenadas. Si la forma cuadrática es real
i
(es decir, si K = R), el número de ci ’s positivos (que llamaremos P (φ)) y el número N (φ) de
coeficientes negativos, es independiente de la reducción particular utilizada.
La diferencia σ(φ) := P (φ) − N (φ) se denomina la signatura. Claramente, r(φ) = P (φ) + N (φ)
ası́ que r y σ determinan P y N . Nuestro primer enunciado es una consecuencia inmediata del
Corolario 2.4.
TEOREMA DE FROBENIUS
5
Teorema 3.1. Si r(φ) = r0 y ∆i 6= 0 ∀i = 1, . . . , r0 , entonces
P (φ) es igual al número de permanencias de signo en la secuencia 1, ∆1 , . . . , ∆r0 ,
N (φ) es igual al número de variaciones de signo en la secuencia 1, ∆1 , . . . , ∆r0 .
σ(φ) = sgn(∆1 ) + sgn(∆1 ∆2 ) + . . . + sgn(∆r0 −1 ∆r0 ).
Demostración. La demostración es inmediata a partir de (4).
Corolario 3.2. Si ∆i 6= 0 para todo i = 1, . . . , n entonces
φ es definida positiva si ∆i > 0, ∀i = 1, . . . , n.
φ es definida negativa si sgn(∆i ) = (−1)i , ∀i = 1, . . . , n.
El teorema de Frobenius es un caso más general de esta situación. Diremos que una forma
6 0 y no hay dos ∆i ’s consecutivos
cuadrática de rango r0 está regularmente arreglada si ∆r0 =
que sean cero. Definimos sgn(0) := 0.
Teorema 3.3. [Fro95] Si una forma cuadrática está regularmente arreglada, entonces
σ = sgn(∆1 ) + sgn(∆1 ∆2 ) + . . . + sgn(∆n−1 ∆n ).
La demostración de este teorema se basa en el siguiente resultado de álgebra lineal elemental:
Lema 3.4.
(5)
A
An−1,n
∆n−2 ∆n = n−1,n−1
An−1,n
∆n−1
.
En particular, si ∆n−1 = 0, entonces ∆n y ∆n−2 tienen distinto signo.
Demostración. Notar que ∆n−1 = An,n . Sea In−2 la matriz identidad de tamaño (n−2)×(n−2).
Calculamos el producto




a11
a12
...
a1(n−1)
a1n
0
0


..
..
..
..
..




..
..
.
.
.
.
.




In−2
.
.

 At =  a(n−2)1 a(n−2)2 . . . a(n−2)(n−1) a(n−2)n  ,


 An−1,1 . . .
An−1,n−1 An−1,n 


0
0
...
det(A)
0
An,1
...
An,n−1
An,n
0
0
...
0
det(A)
y el lema sale tomando determinantes a ambos lados de esta igualdad.
Este enunciado de hecho le quita ambigüedad al cálculo del signo del 0, ya que si algún ∆i es
nulo, entonces el anterior y el posterior tendrán signos opuestos, lo cual hace que el signo del ∆i
que es igual a cero realmente no afecte al cálculo total del número de variaciones o permanencias.
Demostración del Teorema de Frobenius. Supongamos ∆n−1 = 0 Entonces, de (5) y el hecho
que la forma cuadrática está regularmente arreglada, resulta que ∆n−2 ∆n = −A2n,n−1 < 0. En
particular, ambos son distintos de cero.
Si An−1,n−1 es distinto de cero, entonces intercambiando las dos últimas filas y columnas de la
matriz Aφ obtenemos una nueva matriz A∗φ cuyos menores principales son los mismos que los
de Aφ excepto ∆n−1 A∗φ ), que ahora resulta ser An−1,n−1 6= 0. Usando dos veces el Teorema 2.3
sobre la forma cuadrática definida por A∗φ , tenemos que existe un cambio lineal de coordenadas
y1 , . . . , yn tal que
X
An−1,n−1 2
∆n
yn−1 +
y2 .
φ(x1 , . . . , xn ) =
aij yi yj +
∆n−2
An−1,n−1 n
1≤i,j≤n−2
6
CARLOS D’ANDREA
De aquı́ se deduce inmediatamente que
An−1,n−1
∆n
sgn
= −sgn
,
∆n−2
An−1,n−1
con lo cual se tiene
An−1,n−1
∆n
+ sgn
= sgn(∆n−2 ∆n−1 ) + sgn(∆n−1 ∆n ) = 0.
sgn
∆n−2
An−1,n−1
Si An−1,n−1 = 0, entonces estamos en las hipótesis del Teorema 2.5, y podemos encontrar un
cambio lineal de coordenadas que hace lo siguiente
X
2∆n
yn−1 yn ,
aij yi yj +
φ(x1 , . . . , xn ) =
An,n−1
1≤i,j≤n−2
y de aquı́ se consigue de manera estandar otro cambio de variables z1 , . . . , zn tal que
X
2∆n
aij zi zj +
φ(x1 , . . . , xn ) =
(z 2 − zn2 ),
An,n−1 n−1
1≤i,j≤n−2
que nuevamente tiene dos cuadrados de signos opuestos. El razonamiento ahora se completa por
inducción.
4.
ejemplos
Estudiar rango y signatura de la forma cuadrática
φ(x1 , x2 , x3 ) = 3x21 + x22 + 5x23 + 4x1 x2 − 8x1 x3 − 4x2 x3 .
La matriz A asociada a φ en este caso es


3
2 −4
1 −2  ,
A= 2
−4 −2 5
y se tienen ∆1 = 3, ∆2 = −1, ∆3 = −1. Ası́ que tenemos r = 3 y
σ = sgn(3) + sgn(−3) + sgn(1) = 1.
Para verificar esto, hacemos la reducción estandar a suma de cuadrados:
1
− 4x1 − 2x2 + 5x3 )2 ,
φ1 (x1 , x2 , x3 ) = φ(x1 , x2 , x3 ) −
5
y resulta
1
1
4
φ1 (x1 , x2 , x3 ) = − x21 + x22 + x1 x2 .
5
5
5
Hacemos ahora
2
2
1
φ2 (x1 , x2 ) = φ1 (x1 , x2 , x3 ) − 5
x1 + x2 = −x21 .
5
5
O sea
φ(x1 , x2 , x3 ) = φ1 (x1 , x2 , x3 ) + 51 − 4x1 − 2x2 + 5x3 )2
2
= φ2 + 5 52 x1 + 15 x2 + 15 − 4x1 − 2x2 + 5x3 )2
2
= −x21 + 5 25 x1 + 15 x2 + 15 − 4x1 − 2x2 + 5x3 )2 .
Y aquı́ efectivamente se comprueba que el rango es 3 y la signatura 1.
TEOREMA DE FROBENIUS
7
Estudiar rango y signatura de φ(x1 , x2 , x3 ) = x21 + x22 + x23 + 2x1 x2 − 2x1 x3 + 4x2 x3 .
Aquı́ se tiene


1 1 −1
A =  1 1 2 ,
−1 2 1
y se tiene ∆1 = 1, ∆2 = 0, ∆3 = −9. Ası́ que tenemos r = 3 y
σ = sgn(1) + sgn(0) + sgn(0) = 1.
Confirmemos este resultado. Como antes,
φ1 (x1 , x2 , x3 ) := φ(x1 , x2 , x3 ) − − x1 + 2x2 + x3 )2 = 6x1 x2 − 3x22 .
Hacemos ahora
φ2 (x1 , x2 ) = φ1 (x1 , x2 , x3 ) + 3(x2 − x1 )2 = 3x21 .
O sea que se tiene
φ(x1 , x2 , x3 ) = − x1 + 2x2 + x3 )2 − 3(x2 − x1 )2 + 3x21
y nuevamente hemos verificado que el rango es 3 y la signatura 1.
Otra opción si uno no conoce el teorema de Frobenius es “perturbar” la matriz A para
estar en la situación del Teorema 2.3. Esto puede hacerse por ejemplo multiplicando por
una matriz B invertible genérica. Desde un punto de vista computacional esto es muy
rápido, pero las cuentas “a mano” pueden ser complicadas. En este caso, elegimos como
B a la matriz siguiente:


1 0 0
B =  0 1 0 .
−1 0 1
Y al hacer la multiplicación Bt AB obtenemos


4 −1 −2
 −1 1
2 
−2 2
1
(básicamente lo que hemos hecho con la matriz A es restar a la fila 1 la fila 3, y a la
columna 1 la columna 3). Esta nueva matriz tiene ∆1 = 4, ∆2 = 3, ∆3 = −9, con lo que
se deduce que el rango es 3 y la signatura σ = sgn(4) + sgn(12) + sgn(−27) = 1 como
era de esperarse.
5.
Una aplicación al cálculo de raı́ces reales de un polinomio
Consideremos dos polinomios a coeficientes reales
f (t) = a0 tn + a1 tn−1 + . . . + an
g(t) = b0 tm + b1 tm−1 + . . . + bm .
Supongamos que f y g no tienen ningún factor común de grado positivo en x, lo cual se puede
verificar por ejemplo calculando la resultante entre f y g. Sean λ1 , . . . , λn las raı́ces de f (x)
contadas con multiplicidad en C.
Problema: Encontrar el número de raı́ces reales de f (x) que satisfacen la condición g(x) > 0.
Para resolver el problema, construyamos dos formas cuadráticas reales en las variables x :=
(x0 , . . . , xn−1 ):
8
CARLOS D’ANDREA
2
x0 + x1 λj + . . . + xn−1 λjn−1 = x S xt ,
2
P
H(x) := nj=1 g(λj ) x0 + x1 λj + . . . + xn−1 λjn−1 = x H xt ,
S(x) :=
Pn
j=1
donde
S =
H =
Aquı́ se tiene sk =
Pn
k
j=1 λj
hk =
sj+k 0≤j,k≤n−1 ,
hj+k 0≤j,k≤n−1 .
es la k-ésima suma de Newton, y
n
X
g(λj )λkj = b0 sk+m + b1 sk+m−1 + . . . + bm sk .
j=1
Como las funciones sk yhk son polinomios simétricos en los λj ’s, se pueden escribir como funciones racionales en términos de los coeficientes a0 , . . . , an . En particular, se tienen las fórmulas
recursivas

n
si k = 0,








si k = 1,
 − aa01

sk =
a s
+a s
+...+ak−1 s1 +kak


− 1 k−1 2 k−2a0
si 2 ≤ k ≤ n,







 − a1 sk−1 +a2 sk−2 +...+an sk−n
si k > n,
a0
o también se pueden usar las fórmulas de Waring
k X (j1 + j2 + . . . + jn − 1)!
sk =
(−1)j1 +j2 +...+jn aj11 . . . ajnn ,
a0
j1 !j2 ! . . . jn !
donde la suma se extiende sobre todos los (j1 , . . . , jn ) que satisfacen j1 + 2j2 + . . . + njn = k.
Los siguientes resultados son clásicos, y tienen una demostración elemental que puede verse por
ejemplo en [US92].
Teorema 5.1 (Jacobi). El número de raı́ces complejas de f (t) es igual a r(S), y el número de
raı́ces reales es igual a σ(S).
Teorema 5.2 (Hermite, Sylvester). Sea q := r(S)−σ(S)
(el número de pares de raı́ces no reales
2
conjugadas de f (t)). El número de raı́ces reales y distintas de f (t) que satisfacen la condición
g(t) > 0 (o g(t) < 0) es igual a P (H) − q (resp. N (H) − q).
Claramente, el Teorema 5.1 es una consecuencia de este último enunciado.
Demostración del Teorema 5.2. Supongamos primero que todas las raı́ces de f (t) son reales y
distintas, entonces de la expresión que define a H:
H(x) =
n
X
2
g(λj ) x0 + x1 λj + . . . + xn−1 λn−1
,
j
j=1
se tiene que -haciendo yi := x0 + x1 λj + . . . + xn−1 λn−1
, i = 0, . . . , n − 1- H se escribe como
j
una suma de cuadrados donde los coeficientes positivos son los g(λj ) > 0 y los negativos son
TEOREMA DE FROBENIUS
9
g(λj ) < 0. El cambio lineal de variables viene

1
 λ1

(6)
M =  ..
 .
λn−1
1
dado por la matriz de Vandermonde de los λi :

1
...
1
λ2 . . . λn 

..
..  ,
.
...
. 
λ2n−1 . . . λnn−1
que es inversible por ser los λi ’s distintos dos a dos.
Si hubieran raı́ces de f (t) con multiplicidades, digamos λ1 , . . . , λk con multiplicidades m1 , . . . , mk
con λi 6= λj si i 6= j, entonces se tiene
H(x) =
k
X
2
mj g(λj ) x0 + x1 λj + . . . + xn−1 λn−1
,
j
j=1
y se tiene una nueva reducción de H a una suma de j cuadrados, donde el signo de g(λj ) no
cambia al ser multiplicado por una constante positiva.
Resta ver qué ocurre cuando tenemos un λj ∈
/ R. Supongamos sin pérdida de generalidad que
entonces λj+1 = λj , y ambos tendrán la misma multiplicidad mj (esto es asi porque f (`) (λj ) =
0 ⇐⇒ f (`) (λj ) = 0).
Escribimos entonces
x0 + x1 λj + . . . + xn−1 λn−1
= α(x) + i β(x),
j
con α(x), β(x) ∈ R[x], β(x) 6= 0. También escribimos g(λj ) = a + ib, con a, b ∈ R. Entonces se
tiene
n−1 2
mj g(λj )(x0 + x1 λj + . . . + xn−1 λn−1
)2 + mj+1 g(λj+1 )(x0 + x1 λj+1 + . . . + xn−1 λj+1
)
j
=
mj g(λj )(x0 + x1 λj + . . . + xn−1 λjn−1 )2 + g(λj )(x0 + x1 λj + . . . + xn−1 λjn−1 )2
=
2 mj Re g(λj )(x0 + x1 λj + . . . + xn−1 λjn−1 )2
=
2 mj Re (a + ib)(α(x) + iβ(x))2
=
2 mj a(α(x)2 − β(x)2 ) − 2b α(x)β(x) .
Notar que no puede ocurrir que simultáneamente tengamos a = b = 0 ya que g(λj ) 6= 0. Si
a = 0, entonces la expresión de arriba queda reducida a
2
2 ,
(7)
−4 mj b α(x)β(x) = mj b α(x) − β(x) − α(x) + β(x)
que es una suma de cuadrados de signos opuestos. Es fácil ver que el cambio (complejo) de
variables que transforma la matriz M en una en la cual se han reemplazado las columnas
indexadas por λj y λj+1 por las coordenadas de α(x) − β(x) y α(x) + β(x) es invertible, con
lo cual el rango de la matriz modificada seá igual al rango de M. Esto demuestra que cada par
de raı́ces complejas con a = 0 produce un elemento positivo y otro negativo en el cálculo de la
signatura.
Si a 6= 0, entonces se tiene
2 mj a(α(x)2 − β(x)2 ) − 2b α(x)β(x)
=
2
2
b
2 mj a α(x) − a β(x) − a + ba β(x)2 ,
10
CARLOS D’ANDREA
o sea que nuevamente puedo escribir esta expresión como una suma de cuadrados cuyos coeficientes tienen distinto signo. También es fácil de ver que la matriz que resulta de transformar
M cambiando las columnas indexadas por λj y λj+1 por las coordenadas de α(x) − ab β(x) y
β(x) sigue siendo inversible. Este proceso se aplica para todos los pares de raı́ces complejas
conjugadas, y al final terminaremos con una matriz del mismo rango que la original dada en (6),
pero con coeficientes reales, a partir de la cual se podrá hacer un cambio lineal de coordenadas
que coloque a H en suma de cuadrados donde por cada raı́z real de f (t), el coeficiente será o
bien positivo o negativo dependiendo del valor de g en esa raı́z, y por cada par de raı́ces complejas conjugadas, habrá exactamente un coeficiente positivo y otro negativo. De aquı́ se concluye
fácilmente la demostración.
5.1. Ejemplo de Aplicación. Supongamos tener f (t) = t3 − 2t + 1 y g(t) = t3 − t2 + 1. Con
la notación de arriba, se tiene
s0
s1
s2
s3
=
3
=
0
=
4
= −3
s4
s5
s6
s7
=
8
= −10
=
19
= −28
h0
h1
h2
h3
h4
s3 − s2 + s0
s4 − s3 + s1
s5 − s4 + s2
s6 − s5 + s3
s7 − s6 + s4
=
=
=
=
=
= −4
= 11
= −14
= 26
= −39,
y nos queda




3
0
4
−4
11 −14
4 −3 
S= 0
H =  11 −14 26  .
4 −3
8
−14 26 −39
Calculamos los menores principales, y tenemos
∆1 (S) = 3
∆1 (H) = −4
∆2 (S) = 12
∆2 (H) = −65
∆3 (S) = 5
∆3 (H) = −25.
De aquı́ concluimos lo siguiente:
r(S) = 3, σ(S) = 3, de lo que se deduce que f (t) tiene tres raı́ces reales distintas.
q = 0, y r(H) = 3, σ(H) = 1. De aquı́ se deduce que P (H) = 2, N (H) = 1. El número
de raı́ces reales que tiene f (t) satisfaciendo g(t) > 0 es igual a dos.
Esto se puede confirmar numéricamente ya que se tiene que las raı́ces de f (t) son
√
√
1
5
1
5
,− −
,
1, − +
2
2
2
2
que verifican
g(1)
= 1
> 0,
√ √
g − 21 +
g − 12 −
5
2
√ 5
2
= − 25 +
= − 25 −
3 5
2
√
3 5
2
> 0,
< 0.
Referencias
[Boc19]
[Fra27]
[Fro95]
[Kur68]
Bôcher, M. Introduction to Higher Algebra. The MacMillan Company, New York, 1919.
Franklin, Philip. A theorem of Frobenius on quadratic forms. Bull. Amer. Math. Soc. 33 (1927), no.
4, 447–452.
Frobenius, G. Ueber das Trägheitsgesetz der quadratischen Formen. Journal für Mathematik, vol.
114 (1895), 187–232.
Kurosch, A.G. Curso de Álgebra Superior. Traducido del ruso por Emiliano Aparicio Bernardo.
Editorial MIR, 1968.
TEOREMA DE FROBENIUS
[US92]
11
Uteshev, Alexei Yu.; Shulyak, Sergei G. Hermite’s method of separation of solutions of systems
of algebraic equations and its applications. Linear Algebra Appl. 177 (1992), 49–88.
Universitat de Barcelona, Departament d’Àlgebra i Geometria. Gran Via 585, 08007 Barcelona,
Spain.
E-mail address: [email protected]
URL: http://carlos.dandrea.name/
Descargar