UNIVERSIDAD NACIONAL DE INGENIERÍA FACULTAD DE

Anuncio
UNIVERSIDAD NACIONAL DE INGENIERÍA
FACULTAD DE CIENCIAS
SECCIÓN DE POSGRADO Y SEGUNDA ESPECIALIZACIÓN
PROFESIONAL
Tésis para Optar el Grado de Maestro en Ciencias con Mención en
Matemática Aplicada
TITULO
Solución de una Ecuación Polinomial Matricial por el Método de
Newton
Por
Julio César Barraza Bernaola
Asesor
Msc. William Carlos Echegaray Castillo
Lima-Perú
2012
Tabla de Contenido
1 Preliminares
1.1 Producto de Kronecker . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Diagonalización Por Transformaciones Similares . . . . . . . . . . . . .
1.2.1 Descomposición de Schur . . . . . . . . . . . . . . . . . . . . . .
2
2
8
8
2 Cálculo Diferencial en Espacios Vectoriales Normados
2.1 Diferenciabilidad de Funcionales . . . . . . . . . . . . . . . . . . . . . .
2.1.1 Diferencial de Gateaux . . . . . . . . . . . . . . . . . . . . . . .
2.1.2 Diferencial de Fréchet . . . . . . . . . . . . . . . . . . . . . . . .
13
13
13
15
3 Teoría de Polinomios Matriciales
24
4 Cálculo de la Solvente de la Ecuación
4.1 Método de Newton . . . . . . . . . .
4.2 Convergencia del Método de Newton
4.3 Ejemplos Numéricos . . . . . . . . .
Polinomial Matricial
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . .
5 Aplicación
5.1 Grados de Libertad . . . . . . . . . . . . . . . . . .
5.2 Vibración Libre de un Edi…cio Simple . . . . . . . .
5.2.1 Ecuación de Rigidez para un Edi…cio Simple
5.2.2 Frecuencias Naturales . . . . . . . . . . . . .
6 Conclusiones
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
30
30
34
46
49
49
50
50
52
56
ii
Dedicatoria
El presente trabajo se la dedico a mi familia por todo el apoyo y las palabras de aliento.
A mi madre, que Dios la tenga en su gloria, por sus enseñanzas y amor. A mi padre por
brindarme los recursos para obtener una carrera y aconsejarme siempre. A mi esposa
por estar a mi lado apoyándome siempre para cumplir mis objetivos.
iii
Agradecimientos
Mi más sincero agradecimiento al Profesor Asesor Magister William Carlos Echegaray
Castillo, al Ing. Leonardo Flores Gonzalez por su apoyo y colaboración en los problemas
de vibraciones que aparecen en el campo de la ingeniería Civil.
iv
Resumen
Sea P (X) = X m + A1 X m 1 +
+ Am 1 X + Am ; un polinomio matricial con Ai ; X
matrices complejas de orden n n (i = 1;
; m) :
En el presente trabajo de tesis implementaremos el método de Newton basado en
la descomposición de Schur y la derivada de Fréchet para la resolución númerica de
la ecuación polinomial matricial P (X) = 0; se da un teorema de existencia de la
solvente de dicha ecuación y se prueba la convergencia del método cuando el punto
inicial es próximo a una solvente simple. Presentamos un algoritmo y el programa que
lo implementa, …nalmente utilizaremos el método propuesto para resolver un problema
donde se presenta este tipo de ecuaciones
v
Abstract
Let P (X) = X m + A1 X m 1 +
+ Am 1 X + Am ; a polynomial matrix with Ai ; X of
complex matrices n n (i = 1;
; m) :
This thesis will implement the Newton method based on the decomposition Schur
and the derivative of Fréchet for the numerical resolution of equation polynomial matrix
P (X) = 0; we give an existence theorem that the solvent equation and proves the
convergence of especially when the point initial is close to a simple solvent. We present
an algorithm and program that implements it, …nally we use the method proposed to
resolve an issue where this type of equations.
vi
Notación
A
La conjugada transpuesta de A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
coli A
Columna i esima de la matriz A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
diag (u)
matriz diagonal formado por los elementos del vector u . . . . . . . . . . . . . . 29
DG T (x; h)
Diferencial de Gateaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Fm n
Espacio de matrices de orden m n en el campo C ó R . . . . . . . . . . . . . . . . . 2
0
Derivada de Frechet de G en X y la dirección H . . . . . . . . . . . . . . . . . . . . 30
G (X) H
Lf (x; h)
Diferencial de frechet de la función f . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
L (X; Y )
Espacio de las transformaciones lineales del espacio X al espacio Y . . 17
P (X)
Polinomio con coe…cientes matriciales con variable X . . . . . . . . . . . . . . . . . . 24
P( )
Matriz en lambda asociada al polinomio de matrices P (X). . . . . . . . . . . . . .24
[q1 ; q2 ;
; qn ]
Matriz cuyas columnas son los elementos de los vectores
qi : i = 1 n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
T raz A
Traza de la matriz A . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
vec A
Vector formado por las columnas de la matriz A . . . . . . . . . . . . . . . . . . . . . . . . . 2
El producto de Kronecker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
k kF
Norma de Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
vii
Introducción
En el presente trabajo estudiamos las ecuaciones polinomiales matriciales del tipo:
P (X) = A0 X m + A1 X m
1
+
+ Am 1 X + Am = 0
donde A0 ; A1 ;
; Am ; X 2 Cn n :
Este tipo de ecuaciones polinomiales aparece en la teoría de sistemas de ecuaciones
diferenciales, en el análisis dinámico de vibraciones [10], el estudio de los procesos casi
aleatorio de nacimiento-muerte [8], en el problema con ruidos de Wiener-Hopf de las
cadenas de Markov [3].
En el capítulo (1) y (2) introducimos los conceptos del producto de Kronecker y
la descomposición de Schur, así como la derivada deFrechet en la cuál está basado
el algoritmo del método de Newton para el cálculo de la solución de las ecuaciones
polinomiales matriciales.
En el capítulo (3) desarrollamos la teoria de los polinomios matriciales y su relación
con las ecuaciones matriciales del tipo
P ( ) = A0
m
+ A1
m 1
+
+ Am
1
+ Am = 0
en la cuál se basa la aplicación que presentamos en la última parte de este trabajo
En el capítulo (4) desarrollamos el Método de Newton para encontrar una solución
de la ecuación polinomial matricial y hacemos el estudio de su convergencia.
En el capítulo (5) se presenta un aporte del método propuesto para hallar el periodo
de vibración de un edi…cio simple.
1
Capítulo 1
Preliminares
1.1
Producto de Kronecker
Una noción que es bastante usado en el estudio de matrices y otras aplicaciones, es el
producto Kronecker, producto directo ó producto tensor de matrices. Este producto
es de…nido para dos matrices de tamaños arbitrarios sobre cualquier anillo. Estamos
interesados en matrices sobre el campo de los escalares F = R ó C
De…nición 1.1 ([1]). Sea la matriz A 2 F m
n
se de…ne el operador vec como
0
que pertenece a F nm
1
col1 A
B
C
..
C
vecA = B
.
@
A
coln A
Notamos que vecA es un vector columna de tamaño nm obtenido por el apilamiento
de las columnas de la matriz A
Proposición 1.1 ([1]). Sea A 2 F m
n
y B 2 Fn
T raz (AB) = vecAT
T
m
: Entonces,
vecB = vecB T
T
vecA
Prueba. De la de…nición de traza se tiene que
T raz (AB) =
T raz (AB) =
n
X
f ili (A) coli (B)
i=1
n
X
i=1
2
coli AT
T
coli (B)
T raz (AB) =
col1 AT
T raz (AB) =
vecAT
T
Proposición 1.2 ([1]). Sea A; B 2 F m
n
coln AT
vecB
2
3
col1 (B)
6
7
..
6
7
.
4
5
coln (B)
: Entonces,
vec (A + B) = vecA + vecB
Prueba. De la de…nición
0
1
col1 (A + B)
B
C
..
C
vec (A + B) = B
.
@
A
coln (A + B)
0
1
col1 A + col1 B
B
C
..
C
vec (A + B) = B
.
@
A
coln A + col1 B
0
1 0
col1 A
col1 B
B
C B
.
..
C+B
..
vec (A + B) = B
.
@
A @
coln A
col1 B
vec (A + B) = vecA + vecB
1
C
C
A
Ahora de…niremos el producto Kronecker
De…nición 1.2. Sea A 2 F n m y B 2 F l k : Entonces, el producto Kronecker es
denotado por A B y es de…nido por la matriz por bloques
A
a menudo denotaremos A
2
6
B=6
4
3
a11 B a12 B
a1m B
..
..
.. 7
..
.
.
.
. 7
5
an1 B an2 B
anm B
B = (aij B)
A diferencia del producto de matrices, el producto Kronecker A
acerca del tamaño de la matriz A o de la matriz B.
Observación 1.1. En general A
B 6= B
3
A
B no restringe
Proposición 1.3 ([1]). Sea A; B 2 F n
(A + B)
C
m
y C 2 F l k : Entonces
C = A
B+B
C
(A + B) = C
A+C
B
Prueba. De la de…nición
(A + B)
C = ((aij + bij ) C)
(A + B)
C = (aij C + bij C)
(A + B)
C = (aij C) + (bij C)
(A + B)
C = A
de manera análoga se prueba C
(A + B) = C
Proposición 1.4 ([1]). Sea A 2 F n
A
B+B
(B
m
,B 2 F l
C
A+C
k
C) = (A
B
y C 2 F p q : Entonces
B)
C
Prueba. De la de…nición
2
b11 C b12 C
6 .
..
.
C=6
.
4 .
bl1 C bl2 C
B
luego t (B
3
b1k C
.. 7
..
.
. 7
5
blk C
C) viene dado por
t (B
t (B
2
tb11 C tb12 C
6 .
..
.
C) = 6
.
4 .
tbl1 C tbl2 C
C) = (tB)
C
3
tb1k C
.. 7
..
.
. 7
5
tblk C
(1.1)
tambien tenemos que
A
(B
2
6
C) = 6
4
a11 (B
..
.
C) a12 (B
..
.
C)
an1 (B
C) an2 (B
C)
4
..
.
a1m (B
..
.
C)
anm (B
C)
3
7
7
5
usando la ecuación (1.1)
A
(B
A
(B
A
(B
2
(a11 B) C (a12 B) C
6
..
..
C) = 6
.
.
4
(an1 B) C (an2 B) C
2
a11 B a12 B
a1m B
6 .
.
..
.
.
..
..
C) = 6
.
4 .
an1 B an2 B
anm B
C) = (A
B)
C
Proposición 1.5 ([1]). Sea A 2 F n
(A
m
,B 2 F l
B) (C
k
..
.
3
7
7
5
(a1m B)
..
.
C
(anm B)
C
3
7
7
5
C
y C 2 F m q ; y D 2 F k p : Entonces
D) = AC
BD
Prueba. De la de…nición, tenemos
(A
B) (C
0
a11 B
B .
.
D) = B
@ .
an1 B
entonces el bloque ij de la matriz (A
((A
((A
B) (C
B) (C
10
a1m B
c11 D
B .
.. C
..
B .
.
. C
A@ .
anm B
cm1 D
D) es
B) (C
D))ij =
h
D))ij =
m
X
2
3
c
D
1j
i6
.. 7
7
aim B 6
4 . 5
cmj D
ai1 B
aik Bckj D =
k=1
m
X
((A
B) (C
D))ij =
((A
B) (C
D))ij = AC
1
c1p B
.. C
..
.
. C
A
cmp D
aik ckj
k=1
!
m
X
aik ckj BD
k=1
BD = (AC)ij BD
BD
lo cual prueba este teorema.
Proposición 1.6. Si A 2 F n
n
y B 2 Fm
(A
B)
1
m
=A
5
son matrices no singulares. Entonces
1
B
1
Prueba. Usando la proposición (1.5) tenemos
(A
B) A
1
B
1
=
(A
B) A
1
B
1
= I
Proposición 1.7 ([1]). Sea x 2 F n
1
1
AA
BB
1
I=I
y y 2 F m 1 : Entonces
xy T = x
yT = yT
x
y
vec xy T = y
; xn )T ; y = (y1 ; y2 ;
Prueba. Sea x = (x1 ; x2 ;
entonces
xy
xy
T
T
0
B
B
= B
B
@
0
B
B
= B
B
@
(1.2)
x
; ym )T
x1 y 1 x1 y 2
x2 y 1 x2 y 2
..
.
x1 ym
x2 ym
..
.
xn y 1 xn y 2
1
x1 y T
C
x2 y T C
.. C
C=x
. A
xn ym
1
C
C
C
C
A
(1.3)
yT
xn y T
tambien de (1.3)
xy T =
y1 x y 2 x
= yT
ym x
x
aplicando la función vec a la última ecuación
vec xy
T
Proposición 1.8 ([1]). Sea A 2 F n
0
B
B
=B
B
@
m
y1 x
y2 x
..
.
ym x
1
C
C
C=y
C
A
,B 2 F m
vec (ABC) = C T
Prueba. Considerando ei 2 Rl
1
con 1 en la i
6
l
x
y C 2 F l k : Entonces
A vecB
esima componente y ceros en los
demas entonces
coli BeTi =
h
0
coli B
0
i
de orden m
l
luego
B=
l
X
coli BeTi
(1.4)
i=1
por lo que
ABC = A
l
X
coli BeTi
i=1
ABC =
l
X
!
C=
l
X
A coli BeTi
i=1
A coli BeTi C
i=1
aplicando la función vec tenemos
l
X
vec (ABC) = vec
A coli BeTi C
i=1
!
de la proposición (1.2) tenemos
vec (ABC) =
vec (ABC) =
l
X
i=1
l
X
vec A coli BeTi C
vec A coli B C T ei
T
i=1
usando la ecuación (1.2)
vec (ABC) =
l
X
C T ei
(A coli B)
i=1
usando la proposición (1.5) tenemos
vec (ABC) =
l
X
CT
A (ei
coli B)
i=1
vec (ABC) =
C
T
A
l
X
i=1
7
(ei
coli B)
!
C
de (1.2)
vec (ABC) =
C
T
A
l
X
vec coli BeTi
i=1
vec (ABC) =
C
T
A vec
l
X
coli BeTi
i=1
usando la ecuación (1.4) concluimos que
vec (ABC) = C T
1.2
A vecB
Diagonalización Por Transformaciones Similares
Escoger o cambiar a un sistema de coordenadas mas apropiado es siempre deseable en
el algebra lineal. Para un operador lineal L sobre un espacio de dimensión …nita V , el
objetivo es encontrar una base B de V tal que la representación de L con respecto de
la base B sea tan simple como sea posible.
De…nición 1.3 ([14]). Dos matrices A y B de orden n n; se dice que son similares
siempre que exista una matriz no-singular P tal que P 1 AP = B
El problema fundamental es dada una matriz A, reducirla a la forma mas simple
posible por medio de una transformación de similaridad.
1.2.1
Descomposición de Schur
La descomposición de Schur usa una transformación de similaridad unitaria para
transformar una matriz cuadrada arbitraria en una matriz triangular superior
De…nición 1.4 ([13]). Sea A una matriz de orden m
A es una matriz de orden n m
0
B
B
A =B
B
@
T
a11 a21
a12 a22
..
..
.
.
a1n a2n
8
am1
am2
..
.
amn
n. La transpuesta de la matriz
1
C
C
C
C
A
la conjugada transpuesta de A es la matriz
0
B
B
A =A =B
B
@
T
a11 a21
a12 a22
..
..
.
.
a1n a2n
am1
am2
..
.
amn
1
C
C
C
C
A
De…nición 1.5 ([13]). Sea u1 ; u2 ;
; uk 2 Cn : entonces los vectores ui son
ortonormales si
(
0 si i =
6 j
ui uj =
1 si i = j
equivalentemente si U = [u1 u2
uk ] entonces
U U = Ik
donde Ik es la matriz identidad de orden k
ortonormal.
k: A la matriz U se le llama matriz
De…nición 1.6 ([14]). Sea A una matriz de orden n
n y sea U una matriz
no-singular de orden n n: Entonces las matrices A y B = U 1 AU se dicen que son
similares. También decimos que B es obtenido por una transformación de similardad.
Teorema 1.9 ([14]). Sea A una matriz de orden n y B = U 1 AU similar a A. Entonces
los valores propios de A y B son los mismos y tienen las mismas multiplicidades. Si
; x son un valor propio y vector propio correspondiente de A, entonces ; U 1 x son
el valor propio y vector propio correspondiente de B.
Prueba. Tenemos que det (U
1
1
) det (U ) = det (U
det ( I
A) = det U
det ( I
A) = det
det ( I
A) = det ( I
1
U ) = det (I) = 1; luego
det ( I
I
1
U
A) det (U )
AU
B)
Esto es, A y B tienen el mismo polinomio característico, y por tanto tienen los mismos
valores propios y las mismas multiplicidades.
Si ; x son un valor propio y vector propio correspondiente de A, entonces
B U
1
x
=
1
B U
1
x
= U
1
B U
1
x
=
U
U
9
AU
Ax = U
1
x
1
U
1
x
x
así, de este modo ; U
1
x son el valor propio y vector propio correspondiente de B.
Teorema 1.10 ([14]). Sea A 2 Cn n . Entonces existe una matriz unitaria U 2 Cn
y una matriz triangular superior B 2 Cn n tal que
n
(1.5)
A = U BU
y los elementos de la diagonal de B son los valores propios de A
Prueba. Sea 1 ; 2 ;
; n un ordenamiento de los valores propios de A. Sea x1 el
vector propio correspondiente normalizado, esto es x x = 1: Podemos extender a una
base de Cn ; y aplicando el proceso de Gram-Schmidt, obtener una matriz unitaria
X = (x1 X2 ) : Entonces
!
X AX =
x1
X2
X AX =
x1
X2
X AX =
x1 Ax1 x1 AX2
X2 Ax1 X2 AX2
X AX =
A
!
x1 X 2
Ax1 AX2
1 x1 x1
1 X 2 x1
x1 AX2
X2 AX2
!
!
Dado que la matriz X es unitaria entonces x1 x1 = 1 y X2 x1 = 0; vector nulo de orden
(n 1) 1: Luego
!
AX
x
1
2
1
X AX =
0
A1
Por tanto los valores propios de A1 son 2 ;
; n ; aplicando el mismo proceso a la
matriz A1 2 C(n 1) (n 1) ; podemos obtener una matriz unitaria U2 tal que
2
U2 A1 U =
0
A2
1 0
0 U2
!
y haciendo
V2 =
!
tenemos que V2 es unitaria puesto que
V2 V2 =
1
0
0 U2 U2
!
=
10
1 0
0 In 1
!
= In
también XV2 es unitaria, puesto que
(XV2 ) XV2 = V2 X XV2
(XV2 ) XV2 = I
por lo que V2 X AXV2 es de la forma
0
B
V2 X AXV2 = @
1
1
0
2
0
A3
C
A
Continuando con la reduccón obtenemos matrices unitarias V3 ; V4 ;
U = XV2 V3 ;
; Vn
; Vn
1
donde
1
es la matriz unitaria buscada y
B = U AU
Una versión estrictamente real del teorema (1.10) es enunciado en el siguiente
teorema
Teorema 1.11 ([14]). Si A 2 Rn
0
B
B
QT AQ = B
B
@
n
; existe una matriz ortogonal Q 2 Rn
1
A1
A2
0
donde cada Ai es una matriz real 1
propios complejos conjugados.
...
Ak
C
C
C 2 Rn
C
A
n
;1
1; o una matriz real 2
k
n
tal que
n
2 con un par de valores
Prueba. Supongamos que la matriz A tiene un valor propio 2 C; y su vector propio correspondiente x 2 Cn ; por tanto
y x son también valor y vector propio
correspondiente de A; puesto que A 2 Rn n :
Sea = + i ; x = u + iv: Entonces
x+x
;
2
+
=
;
2
vi =
u =
i=
11
x
x
2
2
(1.6)
(1.7)
luego
Au = A
Au =
x
2
Au = u
Au =
u
x
x
x+x
=A
+A
2
2
2
x
+
= (u + iv) + (u
2
2
2
+
+ iv
2
2
v (de 1.7)
iv)
también
x
A (vi) = A
2
x
2
x
2
A (vi) =
A (vi) =
x
2
(u + iv)
2
(u
iv)
+
2
(de 1.7)
A (vi) = u
+ iv
2
A (vi) = u i + iv
de donde Av = u + v : Tenemos entonces
Au =
u
v
Av = u + v
luego
A
u v
=
A
u v
=
u
v
A
u v
=
u v
L
Au Av
donde
!
L=
notamos que los valores propios de L son
u+ v
=
12
+i y
=
i
Capítulo 2
Cálculo Diferencial en Espacios
Vectoriales Normados
2.1
Diferenciabilidad de Funcionales
En este capítulo, trataremos la generalización de los conceptos de diferenciales,
gradientes, para espacios normados, se introduce el diferencial de Gateaux de una
transformación de un espacio vectorial a un espacio vectorial normado.
2.1.1
Diferencial de Gateaux
Sea X un espacio de Banach, Y un espacio normado y T : D ! R una
transformación de…nido sobre un dominio D X con rango R Y:
De…nición 2.1 ([7]). Si T es una transformación de D hacia R; x 2 D
X y sea
h 2 X un elemento arbitrario, el diferencial de Gateaux DG T de T en x en la dirección
h 2 X se de…ne como
DG T (x; h) = lim
T (x + h)
!0
T (x)
(2.1)
cuando el límite existe.
La existencia de la derivada Gateaux requiere la existencia de la diferencial de
Gateaux. Pero también requiere que la derivada de…na un operador que sea lineal y
acotada en la dirección que se toma la derivada.
De…nición 2.2 ([7]). Sea T : X ! Y una transformación de un espacio vectorial X
hacia un espacio vectorial normado Y: Una función DG T : X X ! Y es la derivada
Gateaux en x 2 X y en la dirección y 2 X si
13
1. El diferencial de Gateaux
DG T (x; h) = lim
T (x + h)
T (x)
!0
existe para todo h 2 X
2. DG T (x; ) es lineal, y
3. La transformación DG T (x; ) es acotada
La transformación T que usamos en el presente trabajo, actua desde un espacio
vectorial normado X hacia un espacio vectorial normado Y
T :X!Y
y el diferencial de Gateaux DG T ( ; ) transforma
DG T ( ; ) : X
X!Y
para cualquier x 2 X; la transformación
DG T (x; ) : X ! Y
es lineal y acotado. Frecuentemente usaremos la notación
DG T (x; ) 2 L (X; Y )
Ejemplo 2.1. Se da X = Rn ; Y = R y f : X ! Y; si f (x) = f (x1 ; x2 ;
; xn )
con x = (x1 ; x2 ;
; xn ) 2 X es una funcional sobre Rn que tiene derivadas parciales
continuas con respecto a cada variable xi .
Entonces
DG f (x; h) = lim
f (x + h)
f (x)
!0
DG f (x; h) = rf (x) h
por lo tanto la diferencial de Gateaux de f es
DG f (x; h) =
n
X
@f (x)
i=1
14
@xi
hi
2.1.2
Diferencial de Fréchet
El diferencial de Gateaux generaliza el concepto de derivada direccional de las funciones
reales en un espacio …nito-dimensional. La existencia del diferencial de Gateaux es
un requerimento bastante débil dado que el diferencial de Gateaux puede existir y la
derivada de Gateaux no, mientras que para que exista la derivada de Gateaux tiene que
existir el diferencial de Gateaux, además el producto de dos funciones diferenciables
Gateaux no necesariamente es diferenciable Gateaux , sin embargo, debido a que su
de…nición no requiere de ninguna norma sobre X, es por lo que las propiedades del
diferencial de Gateaux no son fácilmente relacionados con la continuidad. Cuando X
es normado, una de…nición mas apropiada es dada por la diferencial de Fréchet.
De…nición 2.3 ([7]). Sea T la transformación de…nida sobre un dominio abierto
D
X en un espacio vectorial normado X hacia un espacio vectorial normado Y:
Si para un x 2 D …jo y para cada h 2 X existe una transformación lineal y acotada A
tal que
para todo
> 0 existe
> 0 = khk <
=) kT (x + h)
T (x)
Ahk < khk (2.2)
entonces se dice que T es diferenciable Fréchet en x y A se dice que es el diferencial
Fréchet en x con incremento h:
Esta de…nición es equivalente a decir que
lim
khk!0
kT (x + h)
T (x)
khk
Ahk
=0
(2.3)
Proposición 2.1 ([9]). Si la transformación T tiene una diferencial de Fréchet, esta
es única.
Prueba. Supongamos que A1 y A2 son dos diferenciales de Fréchet de T: Como A1 y
A2 son lineales y acotados entonces de la de…nicón (2.2) se tiene que para cada > 0
existe un > 0 tal que
kT (x + h)
T (x)
A1 hk <
khk
kT (x + h)
T (x)
A2 hk <
khk
siempre que khk <
15
haciendo d (h) = T (x + h)
T (x) tenemos
kA1 h
A2 hk = kd (h)
kA1 h
A2 hk
k(d (h)
kA1 h
A2 hk
2 khk
entonces
A2 h
(d (h)
A1 h)k
A1 )k + kd (h)
A2 xk
kA1 h A2 hk
=0
h!0
khk
lim
Si u 2 D
X; entonces tu ! 0; cuando t ! 0; donde u 6= 0; entonces
kA1 (tu) A2 (tu)k
=0
t!0
ktuk
lim
por la linealidad de A1 y A2 , A1
A2 es lineal
kA1 (tu) A2 (tu)k
ktuk
kt (A1 A2 ) (u)k
k(A1 A2 ) (tu)k
= lim
0 = lim
t!0
t!0
ktuk
ktuk
k(A1 A2 ) (u)k
jtj k(A1 A2 ) (u)k
= lim
0 = lim
t!0
t!0
jtj kuk
kuk
k(A1 A2 ) (u)k
0 =
kuk
0 = lim
t!0
k(A1
A2 ) (u)k = 0
esto es para cualquier u 2 D X
como T es acotado entonces T es continua ver [2] pag 25, entonces
A1
A2 = 0
por tanto A1 = A2 :
Teorema 2.2 ([2]). Si T es una transformación acotada en D una vecindad de x y si
una transformación lineal A tiene la propiedad de la ecuación (2.3),entonces A es una
transformación lineal y acotada, esto es, A es la derivada de Fréchet.
Prueba. Como T es acotado existe un M > 0 tal que kT (x)k M para todo x 2 D:
De la de…nición (2.2) se tiene que para = 1, existe un > 0 tal que
k(T (x + h)
T (x)
16
A (h))k
khk
entonces
kAhk = kT (x + h)
T (x)
(T (x + h)
T (x)
kAhk
kT (x + h)k + kT (x)k + k(T (x + h)
kAhk
2M + khk
ahora para kuk
A (h))k
T (x)
A (h))k
(2.4)
2M +
1, tenemos que k uk
entonces
kA ( u)k = kAuk
2M +
luego tenemos
kAuk
2M +
(2.5)
como
kAk = sup (kAxk)
kAxk
kxk=1
tomando el supremo en la ecuación (2.5) sobre kuk
kAk
1
2M +
esto es, A es acotada.
Teorema 2.3 ([2]). Si T es diferenciable en x, entonces es continua en x.
Prueba. Sea A = T 0 (x) : entonces A 2 L (X; Y ) : Dado un > 0; elegimos un
que < 1+kAk ; de aqui tenemos
khk <
entonces
k(T (x + h)
T (x)
> 0 tal
A (h))k < khk
dado que T es diferenciable, luego
kT (x + h)
T (x)k = kT (x + h)
T (x)
Ah + Ahk
kT (x + h)
T (x)k
kT (x + h)
T (x)
Ahk + kAhk
kT (x + h)
T (x)k
khk + kAhk
kT (x + h)
T (x)k = khk (1 + kAk) < (1 + kAk) <
khk + kAk khk
por tanto T es continua en x:
Teorema 2.4 ([2]). Sea f : Rn ! R Si cada derivada parcial Di f existe en un entorno
17
de x y es continuo en x entonces f 0 (x) existe y una fórmula para ello es
f 0 (x) h =
n
X
Di f (x) hi
; hn ) 2 Rn
h = (h1 ; h2 ;
i=1
Prueba. Sea ei = (0; 0;
0) el i-ésimo vector unitario y
; 1; 0;
v0 = x
vi = vi
de aqui tenemos que los vectores v i y v i
1
1
+ hi ei
di…eren en una sola coordenada, entonces
f (x) = f (v n ) f v 0
n
X
f vi
f (x) =
f vi
f (x + h)
f (x + h)
1
i=1
por el teorema del valor medio para funciones de una variable
donde 0 <
khk
1
i
f vi
f vi
1
= f vi
f vi
f vi
1
= hi Di f v i
f vi
+ hi ei
1
1
+ i hi ei
< 1; entonces
f (x + h)
f (x)
n
X
Di f (x) hi
=
i=1
khk
khk
1
1
f (x + h)
f (x)
n
X
1
n
X
hi Di f v
i 1
+ i hi ei
i=1
Di f (x) hi
n
X
Di f (x) hi
i=1
=
i=1
khk
1
n
X
i=1
18
hi Di f v i
1
+ i hi ei
Di f (x)
usando la desigualdad triangular de Cauchy-Schwarz
1
khk
f (x + h)
n
X
f (x)
Di f (x) hi
i=1
v
u n
uX
1
khk khk t
[Di f (v i
1
+ i hi ei )
Di f (x)]2
i=1
1
khk
f (x + h)
n
X
f (x)
v
u n
uX
t
[Di f (v i
Di f (x) hi
i=1
1
khk
f (x + h)
n
X
f (x)
Di f (x) hi
+ i hi ei
1
+ i hi ei
Di f (x)]2
x)]2
i=1
como
1
+ i hi ei )
i=1
v
u n
uX
t
[Di f (v i
i=1
vi
1
x = k(h1 ;
; hi 1 ; i hi ; 0;
; 0)k
khk
cuando khk ! 0 y por la continuidad de Di f en x tenemos
khk
por tanto
entonces
n
P
1
f (x + h)
f (x)
n
X
i=1
"
1
lim
f (x + h)
h!0 khk
f (x)
Di f (x) hi ! 0
n
X
#
Di f (x) hi = 0
i=1
Di f (x) es la derivada de Fréchet.
i=1
Teorema 2.5 ([2]). Sea f : Rn ! Rm ; y sea f1 ; f2 ;
; fn las componentes de la
función f . Si todas las derivadas parciales Di f existen en un entorno de x y son
continuas en x, entonces f 0 (x) existe, y
0
(f (x) h)i =
n
X
Dj fi (x) hj
j=1
para todo h 2 Rn
Prueba. Sea J la matriz derivada de Fréchet en x : Jij = Di fj (x)
Por la de…nición de la norma tenemos
kf (x + h)
f (x)
khk2
Jhk2
"
n
1 X
=
fi (x + h)
khk2 i=
19
fi (x)
n
X
j=1
Dj fi (x) hj
#2
ahora como
fi (x + h)
fi (x)
khk
Pn
j=1
Dj fi (x) hj
entonces
kf (x + h)
por tanto
lim
h!0
Jhk2
f (x)
khk2
kf (x + h)
! 0 para i = 1;
f (x)
khk
!0
Jhk
=0
esto es J es la derivada de Fréchet de f en x
La derivada de Fréchet para una matriz de funciones f : Cn
X es una transformación lineal L
Cn
n L
! Cn
;n
n
! Cn
n
en el punto
n
E ! L (X; E)
tal que para todo E 2 Cn
n
f (X + E)
f (X)
(2.6)
L (X; E) = o (kEk)
que es la derivada de Fréchet en X en la dirección E
En adelante Lf denota la derivada de Frechet de la función f:
A continuación demostraremos dos teoremas para obtener la suma y el producto
de funciones f; g; h 2 Cn n
Teorema 2.6 ([4]). Si g y h son diferenciable Fréchet en X entonces f = g + h es
diferenciable Fréchet y
Lf (X; E) = Lg (X; E) + Lh (X; E)
Prueba. De la ecuación (2:6)
f (X + E)
f (X) = ( g + h) (X + E)
f (X + E)
f (X) =
g (X + E) + h (X + E)
f (X + E)
f (X) =
(g (X + E)
f (X + E)
f (X) =
(o (kEk) + Lg (X; E)) + (o (kEk) + Lh (X; E))
f (X + E)
f (X) =
o (kEk) + o (kEk) + Lg (X; E) + Lh (X; E)
20
( g + h) (X)
g (X)
g (X)) + (h (X + E)
h (X)
h (X))
entonces tenemos
f (X + E)
f (X)
( Lg (X; E) + Lh (X; E)) =
o (kEk) + o (kEk)
= o (kEk)
por tanto existe la derivada de Fréchet y
Lf (X; E) = Lg (X; E) + Lh (X; E)
Teorema 2.7 ([4]). Si g; h son diferenciables Fréchet en X entonces f = gh es
diferenciable Fréchet y
Lf (X; E) = Lg (X; E) h (X) + g (X) Lh (X; E)
Prueba. Tenemos
f (X + E) = (gh) (X + E)
f (X + E) = g (X + E) h (X + E)
como g y h son diferenciable Fréchet entonces
f (X + E) = (g (X) + Lg (X; E) + o (kEk)) (h (X) + Lh (X; E) + o (kEk))
f (X + E) = g (X) h (X) + g (X) Lh (X; E) + Lg (X; E) h (X) + o (kEk)
f (X + E) = f (X) + g (X) Lh (X; E) + Lg (X; E) h (X) + o (kEk)
por tanto
f (X + E)
f (X)
(g (X) Lh (X; E) + Lg (X; E) h (X)) = o (kEk)
por lo tanto f es diferenciable Fréchet y
Lf (X; E) = Lg (X; E) h (X) + g (X) Lh (X; E)
Proposición 2.8 ([6]). Sea f (X) = A0 X m + A1 X m 1 +
Am donde Ai ; X 2 Cn
con 0 i m: Entonces el diferencial de Fréchet viene dado por
Lf (X; H) =
m
X
i=1
(
m i
X
Aj X m
j=0
Prueba. Lo haremos por inducción sobre m
21
(j+i)
!
HX i
1
)
n
(2.7)
para m = 1; de la ecuación (2.7)
Lf (X; H) = A0 H
por lo tanto es verdadero
Supongamos que se cumple para n = m, por tanto asumimos que
Lf (X; H) =
m
X
i=1
(
m i
X
Aj X m
(j+i)
j=0
!
HX i
)
1
(2.8)
probaremos que es cierto para n = m + 1: Esto es para
f (X) = A0 X m+1 + A1 X m +
Am X + Am+1
probaremos que
Lf (X; H) =
m+1
X
i=1
(
m+1
Xi
Aj X m+1
(j+i)
j=0
!
HX i
1
)
(2.9)
de la ecuación polinómica
f (X) = A0 X m+1 + A1 X m +
f (X) =
A0 X m + A1 X m
1
Am X + Am+1
+
usando el teorema (2.6) con g = (A0 X m + A1 X m
Am X + Am+1
1
+
Am ) X y h = Am+1 : Entonces
Lf (X; H) = Lg (X; H) + Lh (X; H)
Lf (X; H) = Lg (X; H)
ahora sea r = (A0 X m + A1 X m
1
Am ) y s = X; usando el teorema (2.7) tenemos
+
Lf (X; H) = Lr (X; H) s (X) + r (X) Ls (X; H)
de la ecuación (2.8)
Lr (X; H) =
m
X
i=1
(
m i
X
Aj X m
j=0
22
(j+i)
!
HX i
1
)
además Ls (X; H) = H: entonces
m
X
Lf (X; H) =
i=1
m
X
Lf (X; H) =
i=1
(
m i
X
Aj X m
(j+i)
j=0
(
m i
X
Aj X m
(j+i)
j=0
!
!
HX i
1
HX i
)
)
X + A0 X m + A1 X m
+ A0 X m + A1 X m
1
1
+
+
Am H
Am H
haciendo un cambio de índice l = i + 1; tenemos
Lf (X; H) =
m+1
X
l=2
(
m+1
Xl
(j+l)
!
m+1 (j+i)
!
Aj X m+1
j=0
1
)
+ A0 X m + A1 X m
1
+
Am H
i 1
)
+ A0 X m + A1 X m
1
+
Am H
HX l
entonces
Lf (X; H) =
m+1
X
i=2
(
m+1
Xi
Aj X
j=0
HX
(2.10)
ahora de (2.9) tenemos que el primer término, esto es cuando i = 1; viene dado por
m
X
j=0
m
X
j=0
m
X
Aj X m j HX 0 =
m
X
Aj X m j H
j=0
Aj X m j HX 0 = A0 X m H + A1 X m 1 H +
Aj X m j HX 0 =
A0 X m + A1 X m
1
+
Am H
Am H
j=0
entonces en la ecuación (2.10) se tiene
Lf (X; H) =
m+1
X
i=2
Lf (X; H) =
(
m+1
X
i=2
Lf (X; H) =
(
m+1
X
i=1
(
m+1
Xi
Aj X
m+1 (j+i)
j=0
m+1
Xi
Aj X m+1
(j+i)
j=0
m+1
Xi
Aj X m+1
(j+i)
j=0
!
!
!
con lo cual queda probado la proposición.
23
HX
i 1
HX i
HX i
1
1
)
)
)
+
m
X
Aj X m j HX 0
j=0
+
m+1
X1
j=0
Aj X m+1
(j+1)
HX 1
1
Capítulo 3
Teoría de Polinomios Matriciales
P
m
En este capítulo se estudian los polinomios matriciales de la forma P (X) = m
i=0 Ai X
y la ecuación P (X) = 0; donde A0 ; A1 ;
; Am ; X son matrices de orden n n:
Aquí se estudia algunos aspectos de la solución de la ecuación P (X) = 0, así como
P
m i
su relación con la matriz de polinomios P ( ) = m
i=0 Ai
De…nición 3.1 ([11]). Una ecuación polinomial matricial se de…ne como sigue
P (X) = A0 X m + A1 X m
1
+
+ Am 1 X + Am = 0
donde A0 ; A1 ;
; Am ; X 2 Cn n :
Si A0 = I donde I es la matriz identidad de orden n
es mónico.
(3.1)
n; entonces diremos que P (X)
De…nición 3.2 ([11]). Una matriz S que satisface la ecuación (3.1) es llamado una
solvente, o mas precisamente solvente derecha de P (X).
En relación con el polinomio P (X) tenemos el polinomio matricial
P ( ) = A0
m
+ A1
m 1
+
+ Am
1
+ Am
(3.2)
el cuál nos lleva al problema de valores propios asociado a P ( )
P ( ) v = A0
m
+ A1
m 1
+
+ Am
1
+ Am v = 0
(3.3)
Si P ( 0 ) es singular, 0 es llamado valor propio polinomial y el vector propio v0
correspondiente a 0 es llamado vector propio polinomial de P ( ) ; esto es
P ( 0 ) v0 = 0
24
(3.4)
i
Teorema 3.1 ([11]). Si un problema de valores propios polinomial (3.3) tiene un
conjunto de n vectores propios linealmente independientes v1 ; v2 ;
; vn
correspondientes a distintos valores propios 1 ; 2 ;
; n ; entonces Q Q 1 es una
solvente de la matriz polinomial (3.1), donde Q
=
[v1 ; v2 ;
; vn ] y
= diag ( 1 ; 2 ;
; n)
Prueba. De la de…nición de P (X)
P Q Q
1
= A0 Q Q
P Q Q
1
= A0 Q
P Q Q
1
=
m
Q
m
A0 Q
1 m
1
+ A1 Q Q
+ A1 Q
+ A1 Q
m 1
m 1
1 m 1
1
Q
+
+
+
+ Am
Q Q
1
1
+ Am 1 Q Q
+ Am 1 Q + Am Q Q
1
+ Am
+ Am QQ
1
1
Por otro lado tenemos que
Am p Q
p
= [Am
p
p
p 1 v1 ; Am p 2 v2 ;
p
p n vn ]
; Am
para
0
p
m
entonces
m
X
Am p Q
p
p=0
=
"
m
X
Am
p
p 1 v1 ;
p=0
m
X
Am
p
p 2 v2 ;
p=0
;
m
X
Am
p=0
p
p n vn
#
luego usando las ecuaciones (3.2) y (3.4) tenemos
m
X
Am p Q
p
= A0 Q
m
+ A1 Q
m 1
+
+ Am 1 Q + Am Q = 0
p=0
por lo tanto
P Q Q
1
=0
El siguiente teorema nos da información sobre el número de solventes de P (X)
Teorema 3.2 ([11]). Supongamos que P ( ) en (3.3) tiene p valores propios
distintos f i gpi=1 ; con n
p
mn; y el correspondiente conjunto de vectores
p
propios fvi gi=1 satisface la condición de Haar (cada conjunto de n vectores es
linealmente independiente), entonces existe al menos np solventes diferentes de P (X) ;
y exactamente igual si p = mn; que vienen dados por
S = Qdiag ( i ) Q 1 ;
Q = [q1 ; q2 ;
; qn ]
donde el conjunto de valores y vectores propios f i ; qi gni=1 son elegidos de entre el
conjunto de valores y vectores propios f i ; vi gpi=1 de P ( )
25
Prueba. Como v1 ; v2 ;
; vp satisfacen la condición de Haar, entonces sean vi1 ; vi2 ;
un subconjunto de n vectores propios asociados a los valores propios i1 ; i2 ;
;
De…nimos la matrices Q y como
Q = [vi1 ; vi2 ;
; vin ]
= diag (
i1 ;
i2 ;
;
; vin
in
in )
entonces del teorema (3.1) se tiene que Q Q 1 es una solvente de P (X)
Ahora existen np conjuntos distintos de valores propios por tanto el polinomio
P (X) tiene al menos np solventes. Si p = mn entonces P (X) tiene exactamente mn
n
solventes.
Lema 3.1 ([11]). Sea el polinomio N ( ) =
m
P
Rp
m p
; Si Rp es una matriz triangular
p=0
superior de orden n
n, para p = 0; 1;
; m entonces
n
Y
det (N ( )) =
fj;j ( )
j=1
donde fj;j (t) =
m
P
p=0
[Rp ]jj tm
p
Prueba. Como Rp es una matriz triangular superior entonces N ( ) es una matriz
triangular superior, luego el det (N ( )) es el producto de los elementos de la diagonal,
es decir
n
Y
det (N ( )) =
[N ( )]j;j
j=
además
[N ( )]i;j =
m
X
[Rp ]ij
m p
(3.5)
p=0
para i = j tenemos
[N ( )]j;j =
m
X
[Rp ]jj
m p
p=0
[N ( )]j;j = fj;j ( )
por tanto
det (N ( )) =
n
Y
fj;j ( )
j=1
Teorema 3.3 ([11]). Sea P (X) = A0 X m + A1 X m 1 +
+ Am 1 X + Am una matriz
polinomial con Ap = U Rp U para p = 0; 2;
; m; donde U es una matriz unitaria y
las matrices Rp son triangulares superiores. Entonces, si para i; j = 1; 2;
; n; si;j
26
es una solución del polinomio de coe…cientes escalares fi;j (t) =
m
P
p=0
[Rp ]ij tm
p
yi>j
implica que fj;j (si;i ) 6= 0; entonces existe un solvente S de P (X) = 0 de la forma
S = U RU para alguna matriz triangular superior R
Prueba. De…namos
N (X) =
m
X
Rp X m
p
p=0
Si R es un solvente de N (X) = 0; esto es N (R) = 0
entonces
P (U RU ) = A0 (U RU )m + A1 (U RU )m
P (U RU ) = A0 U Rm U + A1 U Rm 1 U +
1
+
+ Am 1 U RU + Am
+ Am 1 U RU + Am U U
por otro lado tenemos que Ap U = U Rp ; entonces
P (U RU ) = U R0 Rm U + U R1 Rm 1 U +
+ U Rm 1 RU + U Rm U
!
m
X
P (U RU ) = U
Rp Rm p U = U (N (R)) U = 0
p=0
por lo tanto U RU es solución de P (X) = 0
Por tanto es su…ciente demostrar que existe una solvente de N (X) = 0
Para el problema de valores polinomial asociado N ( ) ; del lema (3.1) tenemos
det (N ( )) =
n
Y
fj;j ( )
j=1
luego la matriz N ( ) es singular si y solo si det (N ( )) = 0
esto es, el conjunto de todas las soluciones de fj;j ( ) = 0 para j = 1;
; n es tambien
un conjunto de los valores propios de N ( ) :
Para cada valor propio elegido i = si;i para i = 1; 2;
; n tenemos un vector
propio asociado xi ; luego de la ecuación (3.3) podemos encontrar un vector propio xi
resolviendo el sistema
N ( i ) xi = 0
27
de la ecuación (3.5), obtenemos
0
B
B
B
B
N ( i ) xi = B
B
B
@
10
f1;1 ( i ) f1;2 ( i )
0
..
.
f2;2 ( i )
..
.
0
..
. fn
2;n 1
( i)
..
. fn
1;n 1
( i)
0
0
..
.
fn;n ( i )
CB
CB
CB
CB
CB
CB
CB
A@
(i)
x1
(i)
x2
..
.
(i)
xn
1
0
C B
C B
C B
C B
C=B
C B
C B
A @
0
0
..
.
0
1
C
C
C
C
C
C
C
A
ahora como para i > j implica que fj;j (si;i ) 6= 0 entonces
fjj ( i ) 6= 0 para j = 1;
;i
1
Como la matriz N ( i ) es triangular superior, podemos encontrar la solución del sistema
usando el método de sustitución hacia atras.
entonces
fn;n ( i ) x(i)
n = 0
(i)
que xn = 0 es una solución trivial, continuando
(i)
fn
1;n 1
+ fn
( i ) xn
1
fn
( i ) xn
1;n
( i ) x(i)
n = 0
por lo anterior se tiene que
(i)
así xn
1
(i)
1;n 1
1
=0
= 0 es solución trivial, continuando de esta manera, obtenemos
(i)
xk = 0
en la ecuación i
para k = i + 1;
;n
(3.6)
esima tenemos
(i)
(i)
fi;i ( i ) xi + fi;i+1 ( i ) xi+1 +
+ fi;n ( i ) x(i)
n = 0
usando (3.6) se tiene
(i)
fi;i ( i ) xi = 0
como
i
es valor propio de N ( ) ; se tiene que fi;i ( i ) = 0; luego
(i)
0 xi = 0
(i)
(i)
luego xi es un escalar arbitrario, elegimos xi = 1
(i)
para las ecuaciones k = i 1; i 2;
; 1 usando (3.6) y xi = 1; obtenemos el
28
sistema
0
B
B
B
B
B
@
f1;1 ( i ) f1;2 ( i )
..
..
.
.
0
..
..
.
.
0
0
0 fi
0
..
.
1;i 1
(i)
x1
1B
B ...
B
(i)
CB
xi 1
CB
B
CB
CB 1
..
CB
.
AB 0
fi 1;n ( i ) B
B ..
@ .
..
.
( i)
0
1
C 0
C
C B
C B
C B
C B
C=B
C B
C B
C @
C
C
A
0
0
..
.
0
1
C
C
C
C
C
C
C
A
ahora como por hipótesis fk;k ( i ) 6= 0; entonces el sistema tiene rango igual a (i 1)
(i)
por lo que podemos obtener xk para k = i 1; i 2;
; 1. Por lo tanto para cada
i = 1; 2;
; n el vector propio xi ; tiene la forma
xi =
(i)
x1
(i)
1
(i)
xi
x2
Ahora con el conjunto de vectores x1 ; x2 ;
formamos la matriz Q
T
1 0
0
; xn hallados por el método de arriba,
Q = [x1 ; x2 ;
; xn ]
0
1
B
B 0 1
B
B . .
Q = B .. . . 1
B
. . ..
B
. .
@
0 0
0 1
1
C
C
C
C
C
C
C
A
el cual es no singular y por tanto los vectores fx1 ; x2 ;
; xn g forman un conjunto
linealmente independiente.
Por el teorema (3.1), la matriz triangular superior R el cual es solvente de N (X) = 0
puede ser obtenido por R = Qdiag( 1 ; 2 ;
; n )Q 1
Corolario 3.1 ([11]). Sea la ecuación polinomial matricial el cual tiene todos sus
coe…cientes matriciales triangulares superiores ( o triangulares inferiores) y se cumplen
las hipótesis del teorema (3.3). Entonces existe una solvente.
Prueba. La prueba se induce directamente, pues en este caso Ap = Rp para
p = 1; 2;
; m:
29
Capítulo 4
Cálculo de la Solvente de la
Ecuación Polinomial Matricial
Este capítulo trata de la resolución númerica de la ecuación
P (X) = A0 X m + A1 X m
1
+
+ Am 1 X + Am = 0
El algoritmo utilizado es el método de Newton, el cálculo está basado en la derivada
de Frechet y la descomposición de Schur, también trata acerca de la convergencia del
método.
4.1
Método de Newton
El método de Newton para una función real f : R ! R; es un proceso iterativo para
resolver la ecuación f (x) = 0; basado en la existencia de la derivada de f en cada paso
y en la elección de un punto inicial próximo que garantice la convergencia, esto es
Dado x0
f (xk ) + f 0 (xk ) hk = 0
xk+1 = xk + hk
9
>
=
>
;
k = 0; 1;
El método iterativo de Newton, es también utilizado para encontrar la solución de
la ecuación matricial no lineal
G (X) = 0
(4.1)
donde G : Cn
n
! Cn
n
: De…nimos Hk 2 C n
n
como la solución de la ecuación lineal
G (Xk ) + G0 (Xk ) Hk = 0
30
(4.2)
donde el operador lineal G0 (X) H : Cn n ! C n n es la derivada de Fréchet de G en X
y la dirección H. Entonces el método iterativo de Newton para la ecuación matricial
no lineal (4.1) puede ser de…nido por
9
>
Dado X0
=
0
k = 0; 1;
G (Xk ) + G (Xk ) Hk = 0
>
;
Xk+1 = Xk + Hk
Por lo tanto, cada paso del método de Newton implica encontrar la solución H 2 Cn n
de la ecuación lineal
G0 (Xk ) Hk = G (Xk )
(4.3)
Para la ecuación polinomial matricial P (X) = 0; usando la ecuación (2.7), se tiene que
la ecuación (4.2) puede ser reemplazada por
P 0 (X) H =
m
X
i=1
(
m i
X
Aj X m
(j+i)
j=0
!
HX i
1
)
=
(4.4)
P (X)
Encontraremos las solventes de la matriz polinomial resolviendo la ecuación lineal
(4.4). Usaremos el producto de Kronecker y la función vec:
Usando el operador vec, entonces vec (P 0 (X) H) es representado por
+ Bm HX m
vec (P 0 (X) H) = vec B1 H + B2 HX +
1
usando la proposición (1.2)
vec (P 0 (X) H) = vec (B1 HI) + vec (B2 HX) +
+ vec Bm HX m
1
usando la proposición (1.8)
vec (P 0 (X) H) =
(I
vec (P 0 (X) H) =
0
vec (P (X) H) =
vec (P 0 (X) H) =
B1 ) vec (H) + X T
I
B1 + X T
m
X
XT
i=1
m
X
X
i 1
T i 1
i=1
B2 vec (H) +
+ XT
B2 +
!
Bi
+
m 1
XT
m 1
Bm vec (H)
Bm vec (H)
vec (H)
m i
X
Aj X m
(j+i)
j=0
!!
(4.5)
vec (H)
donde
Bp = A0 X m
p
+ A1 X m
(p+1)
+
31
+ Ap ;
p = 1; 2;
;m
(4.6)
y
D=
m
X
X
m i
X
T i 1
i=1
Aj X m
(j+i)
j=0
!
entonces
(4.7)
Dvec (H) = vec ( P (X))
el cual es un sistema lineal de n2 n2
En el siguiente paso reduciremos el tamaño de la ecuación (4.7) a n
Dado X 2 Cn n , calculamos la descomposición de Schur de X
n:
Q XQ = R
donde Q es una matriz unitaria y R es una matriz triangular superior. Entonces
QRk Q = X k
k2Z
sustituyendo esta ecuación en (4.4) tenemos
P 0 (X) H =
m
X
i=1
(
m i
X
Aj X m
(j+i)
j=0
!
HQRi 1 Q
)
=
P (X)
)
=
P (X)
haciendo H 0 = HQ
P 0 (X) H =
m
X
i=1
(
m i
X
Aj X m
(j+i)
j=0
!
H 0 Ri 1 Q
por tanto
B1 H 0 Q + B2 H 0 RQ +
+ Bm H 0 Rm 1 Q =
P (X)
de donde obtenemos
B1 H 0 + B2 H 0 R +
+ Bm H 0 Rm
1
=
P (X) Q
esto es
P 0 (R) H 0 = B1 H 0 + B2 H 0 R +
+ Bm H 0 Rm
P i
m (j+i)
donde C = P (X) Q; Bi = m
:
j=0 Aj X
Ahora tomamos la función vec en la ecuación (4.8)
1
vec (P 0 (R) H 0 ) = vec B1 H 0 + B2 H 0 R +
+ Bm H 0 Rm
m
X
i 1
0
0
RT
Bi vec (H 0 )
vec (P (R) H ) =
i=1
32
(4.8)
=C
1
haciendo
~=
D
m
X
RT
i 1
Bi
i=1
~ es una matriz de orden n2
donde D
~ =I
D
n2 ; tenemos
B1 + RT
+ RT
B2 +
m 1
Bm
luego
~ ij = Iij B1 + RT
D
ij
B2 +
~ ij = Iji B1 + [R]
D
B2 +
ji
0
~ ij = Rji
B1 + [R]ji B2 +
D
~ ij =
D
m
X
Rk
1
ji
+
h
RT
+ Rm
+ Rm
m 1
1
ji
i
ij
Bm
Bm
1
ji
Bm
Bk
k=1
~ es una matriz triangular inferior por bloques,
como R es triangular superior entonces D
luego
0
1
~ 11
D
C
B ~
~ 22
C
B D21 D
~
C
B
D=B .
...
C
.
A
@ .
~ n1
D
~ nn
D
por tanto nos queda el sistema
~
Dvec
(H 0 ) = vec (C)
usando la sustitución por bloques hacia adelante
~ 1 c1
h01 = D
11
0
~ 1 c2
h = D
~ 1 h0 1
D
21
..
.
~ nn1 cn
= D
~ n11 h0 1
D
2
h0n
donde h0i y ci son la i
22
1
1
esima columna de la matriz H 0 y C respectivamente.
Algoritmo 1. Dada las matrices R; B1 ; B2 ;
y (4.8) y números positivos i; j (i j y i; j
for r = 1 : m
~ ij
~ ij + Rr
D
D
~ n;n1 1 h0 n
D
(j; i) Br
33
; Bm las cuales estan de…nidas en (4.6)
~ ij
n) el siguiente algoritmo calcula D
end
Algoritmo 2. (Solución de la ecuación P 0 (X) H = P (X) por descomposición de
Schur). Dado A0 ;
; Am ; X 2 Cn n y usando la descomposición de Schur de X;
X = QRQ : El algoritmo encuentra H 2 Cn n el cual es solución de
P 0 (X) H = P (X) en (4.4)
Bm
A0 ; R1
I
for i = 1 : m 1
Bm i
Bm i+1 X + Ai
Ri+1
Ri R
end
C
(B1 X + Am ) Q
for i = 1 : n
d 0
for j = 1 : i 1
~ ij
Use el algoritmo (1) y calcule D
~ ij H(:; j)
d d+D
end
~ ii
Use el algoritmo (1) y calcule D
~ 1 (C (:; i) d)
H(:; j)
D
ii
end
H
HQ
4.2
Convergencia del Método de Newton
En este sección se muestra que el método de Newton converge cuadráticamente cuando
el punto inicial esta lo su…cientemente cerca de una solvente simple.
Estableceremos primero que k k es la norma de Frobenius si se trata de matrices y
la norma euclideana si se trata de vectores.
De…nición 4.1 ([6]). Diremos que P 0 (X) es regular, si la transformación P 0 (X) es
biyectiva.
Proposición 4.1. P 0 (X) es regular si y solo si inf kHk=1 kP 0 (X) Hk > 0
Prueba. Dado que el operador P 0 (X) es regular si y solo es inyectivo, esto es si y solo
si existe el operador inversa de P 0 (X) denotado por inv (P 0 (X)) entonces
inf
H2X
1
kP 0 (X) Hk
= inf kP 0 (X) Hk =
>0
kHk=1
kHk
kinv (P 0 (X))k
34
Lema 4.1 ([6]). Dada las matrices Aj ; Bj ; A; B 2 Cn
polinomial de…nido en (3.1) tenemos
n
y la correspondiente matriz
1. (a) kAk = kvec (A)k
(b) vec ( A + B) = vec (A) + vec (B) para todo ;
!
n
n
P
P
(c) vec
Aj XBj =
BjT Aj vec (X)
j=1
2C
j=1
2
(d) vec (P 0 (X) H) = P (X) vec (H) donde la matriz P (X) 2 Cn
dado por
!
m i
m
X
X
i
1
Aj X m (j+i)
P (X) =
XT
n2
y esta
j=0
i=1
(e) P 0 (X) es regular si y solo si P (X) es una matriz no singular, y entonces
c = inf kP 0 (X) Hk = min kP (X) vec (H)k > 0
kHk=1
Prueba.
kHk=1
1. (a) De la de…nición de norma de frobenius tenemos
kAk =
por otro lado
n X
n
X
a2ij
i=1 j=1
! 12
0
1
col1 A
B
C
..
C
vec (A) = B
.
@
A
coln A
tomando la norma euclideana
! 21
kvec (A)k =
n
X
kvec (A)k =
n X
n
X
kaij k
! 12
kvec (A)k =
n X
n
X
kaij k2
! 12
j=1
kcolj Ak2
j=1 i=1
i=1 j=1
2
(b) Tenemos que vec ( A) = vec (A) y usando la proposición (1.2)
vec ( A + B) = vec ( A) + vec( B)
vec ( A + B) =
35
vec (A) + vec(B)
(c) Usando la proposición (1.2) tenemos que
vec
n
X
Aj XBj =
j=1
n
X
vec (Aj XBj )
j=1
por otro lado de la proposición (1.8) se tiene que
vec (ABC) = C T
entonces
n
X
n
X
vec (Aj XBj ) =
j=1
A vecB
BjT
Aj
j=1
!
vec (X)
con lo que se prueba que
vec
n
X
n
X
Aj XBj =
j=1
BjT
Aj
j=1
!
vec (X)
(d) Este item ya fue probado, ver la ecuación (4.5)
(e) De la de…nición P 0 (X) H es regular si y solo si la transformación P 0 (X) es
biyectiva esto es si y solo si la transformación P 0 (X) tiene inversa
si y solo si la ecuación
vec (P 0 (X) H) = P (X) vec (H) =
P (X)
tiene una única solución, esto es si y solo si P (X) es una matriz no-singular,
entonces
c = inf kP 0 (X) Hk > 0
kHk=1
de la proposición (4.1).
Proposición 4.2 ([6]). Sean m 2 N; y A; B; C 2 Cn
1. (a) kAm
(b)
Am
Bmk
Bm
c kA
m
P
Cj
Bk donde c =
m
P1
(A
B) C m
j
kA
j=1
con
m
X
m
c1 =
kA
j
j=2
Bk
j 2
kAk
36
m j
matrices. Entonces
kAkj kBkm
j=0
1
n
;
1 j
Bk (c1 kA
c2 = m
m
X2
j=0
Bk + c2 kA
kCkj kAkm
j 2
Ck)
Prueba. El primer item lo haremos por inducción matemática sobre m
para m = 1; tenemos que
kAm
B m k = kA
kA
Bk
Bk con c = 1
Suponiendo que se cumple para m entonces debemos probar que se cumple para m + 1
Am+1
B m+1 =
1
2Am+1
2
2B m+1
sumando y restando los términos Am B; B m A y agrupando convenientemente
Am+1
Am+1
Am+1
Am+1
B m+1
=
1
Am+1 Am B B m+1 B m A + Am+1 + Am B B m+1 + B m A
2
1
m+1
B
=
kAm (A B) B m (B + A) + Am (A + B) + B m (A B)k
2
1
m+1
=
k(Am + B m ) (A B) + (Am B m ) (A + B)k
B
2
1
m+1
B
k(Am + B m )k k(A B)k + k(Am B m )k k(A + B)k
2
usando la hipótesis de inducción
Am+1
B m+1
Am+1
B m+1
Am+1
B m+1
Am+1
B m+1
Am+1
B m+1
1
k(Am + B m )k k(A B)k + c kA Bk k(A + B)k
2
1
k(A B)k (kAm + B m k + c kA + Bk)
2
1
k(A B)k (kAkm + kBkm + (kAk + kBk) c)
2
m
X1
1
k(A B)k kAkm + kBkm + (kAk + kBk)
kAkj kBkm
2
j=0
1
k(A
2
B)k kAkm +
1
k(A
=
2
1
=
k(A
2
1
k(A
=
2
B)k
m
X1
j=0
m
X
j=0
B)k
m
X
j=0
B)k
m
X
j=0
kAkj kBkm
kAkj kBkm
kAkj kBkm
j
j
j
m j
kAk kBk
37
j
+ kBkm +
+ kBkm +
+ kBkm +
+
m
X
j=0
j
m
X1
j=0
m
X1
j=0
m
X
j=1
kAkj+1 kBkm
kAkj+1 kBkm
kAkj kBkm
m j
kAk kBk
!
j
1 j
!
1 j
1 j
!
!
!
de donde
Am+1
B m+1
k(A
m
X
B)k
j=0
kAkj kBkm
j
!
con lo cuál queda establecido el item (a)
Ahora probaremos el item (b)
Sea E = B A; entonces desarrollando el binomio de Newton
B m = (A + E)m
tenemos que
término 1 : Am
X
término 2 :
términos que contienen a E
X
término 3 :
términos que contienen a E; E
y todos los demás términos, entonces
B m = (A + E)m = Am +
m
X1
Ai EAm
1 i
i=0
+
X
Al EAi EAj +
l+i+j=m 2
luego
m
m
A
B =
m
X1
Ai EAm
X
1 i
i=0
Am
Bm
m
X
Cj
1
(A
Al EAi EAj +
l+i+j=m 2
B) C m
j
m
X1
=
j=1
Ai EAm
1 i
i=0
X
m
X
Cj
1
B) C m
(A
j
j=1
Al EAi EAj +
l+i+j=m 2
m
A
B
m
m
X
C
j 1
(A
B) C
m j
=
j=1
m
X1
i
A (A
m 1 i
B) A
i=0
X
m
X
A
B
m
X
Cj
1
(A
j=1
38
B) C m
j
(A
A EAi EAj +
tomando la norma de Frobenius
m
1
j=1
l
l+i+j=m 2
m
Cj
r1 + r2
B) C m
j
donde
m
X1
r2 =
Ai (A
B) Am
m
X
1 i
i=0
Cj
1
(A
B) C m
j
Cj
1
(A
B) C m
j
Aj
1
+ Aj
j=1
haciendo j = i + 1
m
X
r2 =
A
j 1
m
X
m j
(A
B) A
j=1
m
X
r2 =
j 1
A
(A
j=1
B) A
m
X
m j
j=1
m
X
r2 =
Cj
1
1
(A
Aj
1
B) C m
j
j=1
j 1
A
(A
B) A
m
X
m j
j=1
Aj
1
B) C m
j
B) C m
(A
j
j=1
m
X
Cj
1
Aj
1
(A
j=1
m
X
r2 =
Aj
1
(A
B) Am
j
Cm
m
X
j
j=1
Cj
1
(A
B) C m
(A
B) C m
j
j=1
entonces tenemos
r2
m
X
Aj
1
B) Am
(A
j
Cm
j
+
j=1
r2
kA
m
X
Cj
1
Aj
1
j
j=1
Bk
m
X
j=1
kAkj
1
Am
j
Cm
j
+ kA
Bk
m
X
Aj
1
Cj
j=1
usando la parte (a) de esta proposición convenientemente, tenemos que
m j 1
A
m j
Aj
1
C
m j
Cj
1
kA
Ck
kA
Ck
X
l=0
j 2
X
l=0
39
kCkl kAkm
kCkl kAkj
2 l
j 1 l
1
kCkm
j
entonces
r2
kA
Bk kA
Ck
m
X
j=1
+ kA
r2
kA
Bk kA
Ck
m
X
j=1
m j 1
kAkj
X
1
l=0
Bk kA
"m j 1
X
l=0
Ck
kA
Bk kA
m
X2
+
t=m j
r2
kA
kCkl kAkm
+
m
X2
l=m j
r2
donde c2 = m
kA
Ck
m
X
j=1
Ck
j=1
Ck
#
j=1
Bk kA
Ck m
r2
kA
Bk kA
Ck c2
l=0
#
m
X
kA
kCkl kAkm
m j
j 2
X
l=0
+
j 2
X
l=0
40
l=0
m
X2
m
X2
l=0
2 l
l=0
"m j 1
X
2 l
r2
m
P2
2 l
"m j 1
X
2 t
m
X
kCkl kAkm
Bk kA
kCk
j 1 l
l
kCk kAk
kCkl+m
j; tenemos
kCkt kAkm
Bk kA
m
X
j=1
haciendo el cambio de variable t = l + m
r2
kCkl kAkm
!
l=0
kCkl kAkm
2 l
kCkl kAkm
2 l
l
m 2 l
kCk kAk
kCkl kAkm
2 l
!
j
j 2 l
kAkj
!
2 l
#
tambien
X
r1 =
Al EAi EAj +
l+i+j=m 2
X
r1
l+i+j=m 2
X
r1
l+i+j=m 2
kAkl kEk kAki kEk kAkj +
kAkl+i+j kEk2 +
r1
kA
Bk kA
r1
kA
Bk (c1 kA
donde c1 =
Pm
j=2
m
j
kAkm
j
m
X
Bk
l+i+j=m 3
m
kAkm
j
j=2
kA
X
kAkl+i+j kEk3 +
j
Bkj
2
P 0 (Y ) Hk
m
P
Am i X i y las matrices
i=0
X; Y; H 2 Cn n y b = max fkXk ; kY k ; kHkg.
Si el max1 l m kAl k = a entonces
P (X)
2
Bk)
Teorema 4.3 ([6]). Dada la matriz polinomial P (X) =
kP (X + H)
Bkj
kA
!
2m+1 abm
2
kHk (kHk + kX
Y k) si b
1
y
P (X + H) = P (X) + P 0 (Y ) H + O kHk2
cuando kHk ! 0
Prueba. Tenemos que
P (X + H)
P (X) =
m
X
Am
i
(X + H)i
Xi
i=1
además
P 0 (Y ) H =
m
X
Am
i=1
i
i
X
Y j 1 HY i
j
j=1
luego entonces
kP (X + H)
kP (X + H)
P (X)
0
P (Y ) Hk =
m
X
Am
i
i
(X + H)
X
i
X
i
i=1
P (X)
P 0 (Y ) Hk =
m
X
=
Am
i
i=2
Am
i
(X + H)i
i
X
Xi
Y j 1 HY i
j
j=1
X
i
i
(X + H)
i
X
j=1
41
HY
i j
j=1
i=2
m
X
Y
j 1
Y
j 1
( H) Y
i j
!
!
!
kP (X + H)
P (X)
P 0 (Y ) Hk
m
X
i=2
Xi
kAm i k
i
X
(X + H)i
Yj
1
Yj
1
( H) Y i
j
j=1
aplicando la proposición (4.2) con A = X;
Xi
(X + H)
i
X
i
B = X + H;
( H) Y i
j
C=Y
kHk (c1 kHk + c2 kX
j=1
!
Y k)
entonces
kP (X + H)
0
P (X)
a kHk
P (Y ) Hk
m
X
i=2
"
i
X
i
kHk
kHkj
j
j=2
+ kX
como kXk ; kY k ; kHk
kP (X + H)
ahora bi
P (X)
Y ki
i 2
X
j=0
2
kXki
j
kY kj kXki
j 2
#
b con b > 1 entonces
P 0 (Y ) Hk
a kHk
m
X
i=2
"
i
X
i i
kHk
b
j
j=2
2
+ kX
Y ki
i 2
X
bi
2
j=0
#
bn 2 , luego
2
kP (X + H)
P (X)
P 0 (Y ) Hk
a kHk bn
a kHk bn
a kHk bn
2
2
m
X
i=2
2
m
X
i=2
"
"
"
i
X
i
kHk
j
j=2
i
X
i
kHk
j
j=2
m X
i
X
i
kHk
j
i=2 j=2
+ kX
+ kX
+ kX
Yk
Y ki
i 2
X
j=0
Y k i (i
m
X
i (i
#
1
#
1)
#
1)
i=2
por propiedades de sumatorias
i
X
i
j
j=2
y que i (i
1)
kP (X + H)
2i para todo i
P (X)
P 0 (Y ) Hk
= 2i
1
i
1 entonces
a kHk bn
42
2
"
kHk
m
X
i=2
2i
1
i + kX
Yk
m
X
i=2
2i
#
como
m
X
m
X
i
2
i=2
m
X
2i
1
i=0
m
X
i
i=2
2i = 2m+1
2i
1
2m+1
y
2m+1
i=2
entonces
kP (X + H)
P (X)
P 0 (Y ) Hk
kP (X + H)
P (X)
P 0 (Y ) Hk
a kHk bn
kHk 2m+1 + kX
2
abn 2 2m+1 kHk (kHk + kX
Y k 2m+1
Y k)
para la otra aseveración hacemos Y = X; entonces
kP (X + H)
P 0 (X) Hk
P (X)
abn 2 2m+1 kHk2
con lo que queda probado el teorema.
Teorema 4.4 ([6]). Supongase que S 2 Cn n es una solvente simple de la ecuación
polinomial P (X) = 0 y P0 (S) es regular. Entonces, si la matriz inicial X0 esta
su…cientemente cerca de S, el algoritmo
Xk+1 = Xk
Q (Xk ) con
P 0 (Xk ) Q (Xk ) = P (Xk )
converge cuadraticamente a S. Mas precisamente. Si
kX0
SkF = "0 < " = min
n
c0 o
;
c
donde c = 2m+1 a (1 + kSk)m 2 con a = maxr=1;:::;m fkAr kg y
c0 = inf fkP 0 (Xk ) Hk ; kHkF = 1; kX Sk
g > 0 para 2 (0; 1] su…cientemente
pequeño, entonces tenemos
1. (a)
i. lim Xk = S
k!1
ii. kXk
iii. kXk+1
Sk
Sk
"0 q k con q =
c
c0
kXk
Prueba. Sea b = 1 + kSkF y X 2 Cn
Por propiedad de normas
kX
SkF = kvec (X
c
"
c0 0
2
< 1 para k = 0; 1; 2; : : : ;
Sk para k = 0; 1; 2; : : : ;
n
tal que kX
SkF < "
S)k = kvec (X)
43
vec (S)k
"
tambien
jkvec (X)k
vec kSkj < kvec (X)
vec (S)k
"
por lo tanto
kvec (X)k
vec kSk + "
luego
kXkF
kSkF + "
1 + kSkF = b
Como c0 > 0, por la proposición (4.1) la derivada de Fréchet es regular en
fX 2 Cn n = kX SkF < "g ; luego la función (X) está bien de…nido por
(X) = X
P 0 (X) Q (X) = P (X)
Q (X) ;
para toda X tal que kX SkF < "
Como S es solvente de P (X) ; usando el lema (4.1) y el teorema (4.3)
k (X)
Sk = kX
Q (X)
= kX
k (X)
S
Sk
Q (X)k
= kvec (X
S
= kvec (X
S)
vec (Q (X))k
=
vec (X
S)
vec P 0 (X)
=
vec (X
S)
P (X)
Sk =
P (X)
1
Q (X))k
1
1
P (X)
vec (P (X))
(P (X) vec (X
S)
vec (P (X)))
usando la proposición (4.1)
k (X)
Sk
k (X)
Sk
k (X)
Sk
k (X)
Sk
k (X)
Sk
1
c0
1
c0
1
c0
1
c0
1
c0
kP (X) vec (X
S)
kvec (P 0 (X) (X
S))
kvec (P 0 (X) (X
S)
P (S)
P 0 (X) (X
vec (P (X))k
P (X))k
kP 0 (X) (X
S)
P (X)kF
kP 0 (X) (X
S)
P (X) + P (S)kF
usando el teorema (4.3) con H = (X
kP (X)
vec (P (X))k
S) entonces
c kX
S)kF
c kX
44
Sk (kX
Sk2
Sk + kX
Xk)
por tanto
k (X)
c
kX
c0
Sk
Sk2
(4.9)
La prueba del item (ii) y (iii) se sigue por inducción sobre i:
Por hipótesis, kX0 SkF = "0 < " y por lo tanto
X1 = X0
Q (X0 )
c
"0 ; como por de…nición
c0
esta bien de…nido, sea q =
"0 <
c
c0
! "0 < 1 ! q < 1
c
c0
de la ecuación (4.9) se tiene que
k (X0 )
Sk
kX1
Sk
c
kX0
c0
c
kX0
c0
Sk2
Sk2
y tambien tenemos que
kX1
Sk =
kX1
Sk
c
c
kX0 Sk2 = "20
c0
c0
c
"0 "0 = "0 q < " 0
c0
Suponiendo que la a…rmación del item (ii) y (iii) es valida para i probaremos que es
valida para i + 1
kXi+1 SkF = k (Xi ) SkF
ahora por la ecuación (4.9)
kXi+1
como
c
kXi
c0
c
kXi
c0
SkF
Sk2
c
kXi
c0
Sk2
Sk kXi
Sk
por hipotesis de inducción
c
kXi
c0
Sk kXi
Sk
c
kXi Sk "0 q i
c0
q kXi Sk q"0 q i = "0 q i+1
entonces
kXi+1
SkF
45
"0 q i+1
esto prueba los item (ii) y (iii)
Ahora para la prueba del item (i), teniendo en cuenta que q < 1
kXi+1
"0 q i+1 < "0 < "
SkF
lo cuál prueba que la sucesión de matrices fXi+1 g es convergente y converge a S
4.3
Ejemplos Numéricos
En esta sección presentamos algunos resultados de la solución de ecuaciones
polinomiales matriciales, los cuales fueron hechos con Matlab, las iteraciones para el
método de Newton son terminados cuando el error residual de P (Xk )
kA0 kF kXk km
F
donde u = 1:1 (10
16
kP (Xk )kF
+ kA1 kF kXk km
F
1
+ kAm kF
+
< nu
) y n es el orden de las matrices.
Ejemplo 4.1. Sea el polinomio matricial
1
2
2
P (X) = X +
6
9
!
0 12
2 14
X+
!
utilizando el punto inicial
11:6517
0
0
11:6517
X0 =
se obtiene la solución
S1 =
4 0
2 2
!
y S2 =
!
1 2
0 3
!
respectivamente, ambos con 10 iteraciones.
Ejemplo 4.2. Sea el polinomio matricial
P (X) =
10000
10000
!
193638:3089074608
0
0
193638:3089074608
!
51:6 0
0 100
!
X2
17500
10000
utilizando el punto inicial
X0 =
46
se obtiene la solución
S=
17:6255
3:8341
7:4304
8:4564
!
la cual converge con 21 iteraciones.
Ejemplo 4.3. Sea el polinomio
0
1
0
1
0
0 0 1
1 1 0
B
C
B
C
B
P (X) = X 4 + @ 0 0 0 A X 2 + @ 0 1 1 A X + @
1 0 0
1 0 1
20
2
1
2
20
0
1
1
C
0 A
20
utilizando el punto inicial
X0 =
0
1
38:6488
0
0
B
C
0
38:6488
0
@
A
0
0
38:6488
se obtiene la solución
0
2:056
B
S1 = @ 0:057
0:088
0:113
2:054
0:003
0
1
0:149
2:170
B
C
0:063 A y S2 = @ 0:048
2:062
0:197
1
0:142
C
0:049 A
2:169
0:004
2:170
0:00003
respectivamente, ambos con 16 iteraciones.
Usando los puntos iniciales
0
38:6488
0
B
X0 = @
0
38:6488
0
0
1
0
C
0
A
38:6488
0
38:6488
B
X0 = @
0
0
0
38:6488
0
1
0
C
0
A
38:6488
se obtiene la solución
0
0:797 3:736
B
S3 = @ 0:067 1:673
1:616 4:674
1
0
2:170
0:545
C
B
0:137 A y S4 = @ 0:197
0:390
1:941
respectivamente, ambos con 30 iteraciones.
47
0:065
2:176
0:055
1
2:150
C
0:157 A
0:365
Ejemplo 4.4. Sea el polinomio
P (X) = X
2
0
B
B
327:35 B
B
@
2
1
0
0
1
2
1
0
0
1
2
1
0
0
1
1
1
C
C
C
C
A
utilizando el punto inicial
X0 =
0
B
B
B
B
@
1
108:841
0
0
0
0
108:841
0
0
0
0
108:841
0
0
0
0
108:841
C
C
C
C
A
se obtiene la solución
S1
S2
0
B
B
= B
B
@
0
B
B
= B
B
@
24:5502
7:0714
1:2673
0:6140
7:0714 23:2829
7:6853
1:8813
1:2673
7:6853 22:6689
8:9527
0:6140
1:8813
8:9527 15:5976
24:5502
7:0714
1:267 3
0:6140
7:071 4
23:283
7:685 3
1:881 3
respectivamente ambos con 10 iteraciones
48
1:267 3
7:685 3
22:669
8:952 7
1
C
C
C y
C
A
0:6140
1:881 3
8:952 7
15:598
1
C
C
C
C
A
Capítulo 5
Aplicación
5.1
Grados de Libertad
En dinámica estructural [10], el número de coordenadas independientes necesario para
especi…car la con…guración o posición de un sistema en cualquier instante de tiempo
se conoce como el número de grados de libertad. Toda estructura continua tiene
un número in…nito de grados de libertad. En la idealización mediante un modelo
matemático el número de grados de libertad es …nito. A continuación mostramos
algunas estructuras con diversos grados de libertad
Ejemplo 5.1. Estructuras que pueden ser representadas con un grado de libertad
Y
Estructura con un grado de libertad
Ejemplo 5.2. Grá…co que representa a una estructura con dos grados de libertad
Y2
Y1
Estructura con dos grados de libertad
49
5.2
Vibración Libre de un Edi…cio Simple
Cuando una estructura no está sometida a excitación externa (fuerza o desplazamiento
del soporte) y su movimiento esta gobernado solo por las condiciones iniciales, se
considera que esta en vibración libre. Existen, ocasionalmente, circunstancias en la
que es necesario determinar el movimiento de la estructura en condiciones de vibración
libre, pero son casos especiales. No obstante, el análisis de la estructura en movimiento
libre proporciona las propiedades dinámicas más importantes de la estructura que son
las frecuencias naturales y los correspondientes modos normales
5.2.1
Ecuación de Rigidez para un Edi…cio Simple
Un edi…cio simple puede ser de…nido como un edi…cio en el cuál no se producen
rotaciones en los mienbros horizontales a la altura de los pisos. Para obtener la
deformación horizontal en un edi…cio debemos suponer las siguientes condiciones
1. Toda la masa de la estructura esta concentrada al nivel de los pisos
2. Las viga en los pisos son in…nitamente rigidas, con relación a la rigidez de las
columnas
3. La deformación de la estructura es independiente de las fuerzas axiales presentes
en las columnas.
La primera condición transforma el problema, de un sistema de in…nitos grados de
libertad (debido a la masa uniformemente distribuido) a un sistema que tiene solamente
tantos grados de libertad como números de masas concentradas a nivel de los pisos
La segunda condición introduce el requisito de que las uniones entre las vigas y las
columnas estén …jas sin rotación
La tercera condición establece que las vigas rígidas en los pisos permanezcan
horizontales durante el movimiento de la estructura
La …gura representa el modelo de un edi…cio
50
Y3
m3
F3(t)
k3
F2(t)
Y2
m2
k2
F1(t)
Y1
m1
k1
Una alternativa para representar un edi…cio simple es adoptar un modelo de resortes
y masas como se muestra en el grá…co (5.1)
y1
F 3 (t)
y2
F 2 (t)
m1
F 2 (t)
m2
k2
k1
y3
m3
k3
Grá…co 5.1: Modelo de masas concentradas y resortes para representar un edi…cio
F 1 (t)
k1y1
y3
y2
y1
F 2 (t)
m1y´´
F 3 (t)
m2y´´
k 2 (y 2 -y 1 )
m3y´´
k 3 (y 3 -y 2 )
Debe tenerse en cuenta que las representaciones que aparecen en las …guras son
equivalentes. En consecuencia, las ecuaciones del movimiento, se pueden obtener de
cualquiera de ellos, así tenemos:
m1 y•1 + k1 y1
m2 y•2 + k2 (y2
k2 (y2
y1 )
F1 (t) = 0
k3 (y3
y2 )
F2 (t) = 0
m3 y•3 + k3 (y3
y2 )
F3 (t) = 0
y1 )
este sistema de ecuaciones constituye la formulación de rigidez de las ecuaciones del
movimiento de un edi…cio simple de tres pisos. Utilizando la forma matricial este
sistema puede escribirse como
M y• + Ky = F (t)
51
donde M y K son respectivamente las matrices de masas y de rigidez, dadas por
0
1
m1 0
0
B
C
M = @ 0 m2 0 A
0
0 m3
0
k1 + k2
k2
B
K=@
k2
k2 + k3
0
k3
1
0
C
k3 A
k3
y donde y; y•; F; son, respectivamente, los vectores de desplazamiento, aceleración y
fuerzas dadas por
0
1
y1
B
C
y = @ y2 A ;
y3
5.2.2
0
1
y•1
B
C
y• = @ y•2 A ;
y•3
0
1
F1 (t)
B
C
F = @ F2 (t) A
F3 (t)
Frecuencias Naturales
El problema de vibración libre requiere que el vector fuerza [F ] sea igual a cero en
cualquiera de las formulaciones de las ecuaciones del movimiento. La ecuación que
modela este comportamiento es la siguiente
M y• + Ky = F
entonces para la ecuación de la rigidez tenemos la ecuación
M y• + Ky = 0
Buscamos soluciones reales que representan la parte real de
p = qei
t
donde q es independiente de t. Luego tenemos que
p• =
q
2 i t
e
por lo tanto la ecuación queda determinado por
Mq
2 i t
e
+ Kqei t = 0
2
+ Kq ei t = 0
luego
Mq
52
el cuál tiene soloción si y solo si
2
M
K q=0
Proposición 5.1. Sea S una solvente de la ecuación polinomial matricial
P (X) = M X 2 K entonces el par ( ; q) valor y vector propio de S es solución de la
ecuación M 2 K q = 0
Prueba. Tenemos que Sv = v entonces reemplazando
M
2
K q = M
2
M
2
K q = M ( q)
Kq = M (Sq)
Kq
M
2
K q = M S ( q)
Kq = M S (Sq)
Kq
M
2
K q = M S 2q
q
Kq
Kq = M S 2
K q
como S es solvente de la ecuación polinomial entonces
2
M
K q=0
Por tanto proponemos resolver la ecuación polinomica matricial, para encontrar el
par ( ; q) que resuelve el problema de la ecuación diferencial
Algoritmo 3. Dada la ecuación diferencial M y• + Ky = F (t)
Paso 1. Resolver M X 2 K = 0
Paso 2. Calcular Xv = v
Paso 3. Hacer y = V u donde V = [v1 ; v2 ;
; vn ] es la matriz de vectores propios
de X
Paso 4 Resolver D1 u• + D2 u = c donde
D1 = V T M V;
D2 = V T KV;
c = V TF
Paso 6. La solución viene dado por
y = u1 (t) v1 + u2 (t) v2 +
+ un (t) vn
Los siguientes ejemplos determinan el cálculo de los valores y vectores propios que
determinan la solución
Ejemplo 5.3 ([10] pag 256). El grá…co (5.2) muestra un edi…cio simple, de iguales
propiedades en todos sus pisos. Para esta estructura hallaremos sus frecuencias
53
naturales
m
Y4
k
m
Y3
k
m
Y2
k
m
Y1
k
Grá…co 5.2: Edi…cio simple
donde
kp:seg 2
cm
kp
k = 327:25
cm
m = 1
y
para todos los pisos
para esta edi…cio la matriz de masa M y de rígidez K vienen dado por
0
B
B
M =B
B
@
1
0
0
0
0
1
0
0
0
0
1
0
0
0
0
1
1
C
C
C
C
A
0
B
B
K = 327:35 B
B
@
2
1
0
0
1
2
1
0
0
1
2
1
0
0
1
1
de acuerdo a la ecuación resolveremos el siguiente problema
M X2
K=0
el cual tiene como solución la matriz
0
24:5502
7:0714
1:2673
0:6140
B
B 7:0714 23:2829
7:6853
1:8813
X=B
B 1:2673
7:6853 22:6689
8:9527
@
0:6140
1:8813
8:9527 15:5976
54
1
C
C
C
C
A
1
C
C
C
C
A
hallando sus valores y vectores propios tenemos
0
0:2280
0:4285
0:5774
0:6565
0:5774
0:5774
0:0000
0:5774
0:6565
0:2280
0:5774
0:4285
0:4285
B
B
0:6565
V = B
B
0:5774
@
0:2280
0
1
6:2836
0
0
0
B
C
B
C
0
18:0928
0
0
B
C
D = B
C
0
0
27:7198
0
@
A
0
0
0
34:0034
donde las frecuencias naturales vienen dado por
1
f=
2
0
B
B
B
B
@
6:2836
18:0928
27:7198
34:0034
1
0
C B
C B
C=B
C B
A @
55
1:0001
2:8796
4:4118
5:4119
1
C
C
C
C
A
1
C
C
C
C
A
Capítulo 6
Conclusiones
La principal ventaja de este método es que es de convergencia cuadrática cuando el
punto inicial es próximo y la derivada de frechet es no-singular, sin embargo cada
iteración es bastante extensa.
Uno de los aspectos sensibles del método de Newton es la elección del punto inicial,
la aproximación inicial que se utiliza es empírica, se utilizó la regla establecida por [6]
la cuál establece iniciar como punto inicial la matriz kI; donde k es de…nida para el
caso cuadrático P (X) = AX 2 + BX + C como
k=
q
kBkF + kBk2F + 4 kAkF kCkF
2 kAkF
y en el caso general
k = maxf1;
m
X
i=1
kAi kF g
sin embargo, muchas veces el punto inicial es dado por el investigador.
El método propuesto trabaja correctamente cuando la derivada de Frechet es no
singular, hay estudios para casos particulares cuando la derivada de frechet es singular,
como en el cálculo de las solventes de la ecuación polinomial matricial para una matriz
simétrica y centro-simétrica generalizada ver [15]
56
Bibliografía
[1] Bernstein, Dennis S.Matrix Mathematics:Theory, Facts, and Formulas (Second
Edition) Published by Princeton University Press, 2009.
[2] Cheney, Ward. Analysis for Applied Mathematics, Springer 2001
[3] Chun-Hua Guo. On a quadratic matrix equation associated with an M-matrix,
IMA Journal of Numerical Analysis (2003) 23 (1): 11-27.
[4] Higham, Nicholas. Functions of Matrices, Siam 2008
[5] Horn Roger y Johnson Charles, Matrix Analysis, Cambridge University Press 1990
[6] Kratz y Stickel, Numerical Solution of matrix polynomial equations by Newton’s
method, IMA J. Numer. Anal., 7(1987), 355-369
[7] Kurdila Andrew y Zabarankin Michael. Convex Functional Analysis, Birkhäuser
Verlag 2005
[8] Latouche and Ramaswami, Introduction to Matrix Analytic Methods in Stochastic
Modeling, SIAM, Philadelphia, PA, 1999.
[9] Luenberger, David. Optimization by Vector Space Methods, John Wiley, New
York, 1969.
[10] Paz Mario, Structural Dynamics, Theory and Computation, Van Nostrand Reinhold Company, Second Edition,1985
[11] Seo Jong y Kim Hyun, Solving Matrix Polynomials by Newton’s Method With
Exact Line Searches.
[12] Spivak Michael, Calculus on Manifolds, Addison-Wesley Publishing Company 1965
[13] Stewart G.W. Matrix Algorithms Vol I, Siam Philadelphia 1998
[14] Stewart G. W. Matrix Algorithms Vol II, Siam Philadelphia 2001
57
[15] Yin Huan Han and Hyun Min Kim, Solving Matrix Polynomikal by Newton’s
Method, KSIAM Vol 14 No 12, 113-124, 2010
58
Descargar