Capítulo 5 Cálculo matricial

Anuncio
Capítulo 5
Cálculo matricial
5.1
Matrices
Una matriz de m filas y n columnas, en adelante matriz m × n, es una configuración rectangular
de elementos, con n entradas por cada fila, y m por cada columna, encerrada, usualmente, entre
paréntesis. A cada elemento de una matriz m × n nos referiremos indicando, con una pareja ordenada
de subíndices, la fila y la columna que ocupa.
Notación. Utilizaremos letras mayúsculas para nombrar a una matriz, A, B, C, . . . . A sus elementos
o entradas los nombraremos usualmente con la minúscula de su nombre y un par de subíndices para
indicar su posición: a1,2 sería el elemento de la 1a fila y 2a columna de la matriz A. En bloque
escribiremos expresiones como: A = (ai,j ), 1 ≤ 1 ≤ m, 1 ≤ j ≤ n; B = (bi,j )m×n ; . . . . Diremos
que una matriz es de tamaño m × n para referirnos a sus dimensiones. Si ambas coinciden, matriz
cuadrada, diremos simplemente matriz de tamaño n.
Si las entradas de una matriz, A, de tamaño m × n, se toman de un conjunto K, habitualmente
un cuerpo de números como Q, R o C, escribiremos A ∈ Mm×n (K). En lo que sigue K será siempre
un cuerpo.
Ejemplo 32 La matriz, A, de tamaño 2 × 3 con ai,j = i + j es:
µ
A=
2 3 4
3 4 5
¶
La matriz cuadrada, B, de tamaño 4 con elementos bi,j = ij−1 queda:

1
1
B=
1
1

2 4
8
3 9 27 

4 16 64 
5 25 125
La anterior pertenece a una familia especialmente interesante, las matrices de Vandermonde, V ,
que tienen entradas: vi,j = aj−1
, con un ai distinto por cada fila. Esta matrices aparecen en problemas
i
de interpolación polinómica.
Operaciones con matrices
Para cualquier tamaño la matriz, Im×n con entradas
la identidad de tamaño m × n. Son matrices identidad:



1
µ
¶
1 0 0 0

1 0
0
0 1 0 0 
0
0 1
0 0 1 0
0
5.2
ii,j = 1 si i = j pero ii,j = 0 si i 6= j, se dice
0
1
0
0

0
0

1
0


1 0 0
0 1 0 
0 0 1
Operaciones con matrices
Las principales operaciones con matrices son:
Suma: dadas dos matrices del mismo tamaño A = (ai,j ), B = (bi,j ) ∈ Mm×n (K) se define la matriz
suma A + B ∈ Mm×n (K) como la matriz C = (ci,j ) donde ci,j = ai,j + bi,j .
Producto por escalares: dada una matriz A = (ai,j ) ∈ Mm×n (K) y un número λ ∈ K, se define
la matriz λ A ∈ Mm×n (K) como la matriz (λ · ai,j ).
Producto de matrices: Dadas dos matrices A = (ai,j ) de tamaño m × n y B = (bj,k ) de tamaño
n × p, definimos la matriz producto AB = (ci,k ) como la matriz de tamaño m × p con entradas:
ci,k =
n
X
ai,j · bj,k .
j=1
Obsérvese que han de coincidir el número de columnas de la primera matriz A con el número
de filas de la segunda matriz B. Además, el resultado es una matriz con tantas filas como A y
tantas columnas como B. Sirva la siguiente como regla mnemotécnica:
(m × n) · (n × p) = (m × p) .
Traspuesta de una matriz: dada una matriz A = (ai,j ) ∈ Mm×n (K) se define la matriz traspuesta
At como la matriz (bk,` ) en Mn×m (K) con
bk,` = a`,k .
En otras palabras, la obtenida de A al intercambiar las filas por las columnas.
Propiedades y ejemplos. Salvo la conmutatividad del producto, el resto de las propiedades
de la suma y el producto en el cuerpo K se extienden a Mm×n (K):
1. Propiedades de la suma. En el conjunto Mm×n (K) la operación suma verifica las siguientes
propiedades:
(a) Asociativa: A + (B + C) = (A + B) + C, ∀ A, B, C ∈ Mm×n (K).
(b) Conmutativa: A + B = B + A, ∀ A, B ∈ Mm×n (K).
(c) Elemento neutro. Existe un elemento 0 ∈ Mm×n (K) tal que: A + 0 = A, ∀ A ∈ Mm×n (K).
76
Cálculo matricial
(d) Elemento opuesto. Para toda A ∈ Mm×n (K), existe otro elemento, que denotaremos
−A ∈ Mm×n (K), tal que A + (−A) = 0.
La existencia de un elemento neutro queda asegurada por la existencia del neutro para la suma
en el cuerpo K. Si llamamos 0 a este último, la matriz con todas las entradas 0 es un neutro
para la suma de matrices.
De igual manera, la existencia de opuestos para la suma en el cuerpo K nos permite, dada una
matriz A, construir una matriz opuesta: si A = (ai,j ) la matriz B = (−ai,j ) es opuesta de A.
2. Propiedades del producto por escalares. El producto por escalares tiene las siguientes
propiedades:
(a) Distributiva respecto a la suma de matrices: λ(A + B) = λA + λB, para cualesquiera
λ ∈ K y A, B ∈ Mm×n (K).
(b) Distributiva respecto a la suma de escalares: (λ + µ)A = λA + µA, para cualesquiera
λ, µ ∈ K y A ∈ Mm×n (K).
(c) Distributiva respecto al producto de escalares: (λµ)A = λ(µA), para cualesquiera λ, µ ∈ K
y A ∈ Mm×n (K).
(d) Producto por el escalar λ = 1 (el neutro del producto en el cuerpo K): 1A = A, ∀ A ∈
Mm×n (K).
3. Propiedades del producto. Por simplicidad vamos a enumerar las propiedades del producto de matrices cuadradas.
(a) Asociativa. Dadas cualesquiera tres matrices A, B y C ∈ Mn (K) se verifica:
A(BC) = (AB)C .
Escribiremos ABC para abreviar.
(b) Distributiva del producto respecto de la suma. Dadas cualesquiera tres matrices A, B y
C ∈ Mn (K) se verifica:
A(B + C) = AB + AC .
(c) Elemento neutro. Existe una matriz Idn ∈ Mn (K) (ó 1) tal que: 1A = A1 = A para
cualquier A ∈ Mn (K).
Demostremos la propiedad asociativa. Si llamamos D = BC, E = AD, F = AB y G = F C,
queremos comprobar que E = G. Ahora bien:
dk,j =
n
X
bk,` · c`,j
`=1
ei,j =
n
X
ai,k · dk,j =
k=1
fi,` =
n
X
n
X
k=1
ai,k
à n
X
!
bk,` · c`,j
`=1
=
n X
n
X
k=1 `=1
ai,k · bk,`
k=1
77
ai,k · bk,` · c`,j
Sistemas de ecuaciones lineales
gi,j =
n
X
fi,` · c`,j =
`=1
à n
n
X
X
`=1
!
ai,k · bk,`
c`,j =
k=1
n X
n
X
ai,k · bk,` · c`,j
`=1 k=1
donde hemos utilizado varias veces las propiedades asociativa del producto y distributiva del
producto respecto de la suma en el cuerpo K (¿dónde?).
Se pretende ver que siempre ocurre que ei,j = gi,j . Obsérvese que tanto en ei,j como en gi,j se
tienen un total de n2 sumandos de la misma forma: ai,k · bk,` · c`,j . De hecho son exactamente
los mismos, aunque aparecen en distinto orden. Por ejemplo, el sumando ai,2 · b2,5 · c5,j , si lo
hubiere, aparece en el lugar n + 5 para ei,j , y en el lugar 4n + 2 para gi,j 1 . Es evidente, por
tanto (por las propiedades de la suma en el cuerpo K), la igualdad buscada.
Sobre el elemento neutro, basta mostrar una matriz con esta propiedad, y la matriz de orden
n con unos en la diagonal principal y ceros en el resto de entradas lo es.
3. (Ejercicio): Propiedades del producto de matrices. Enunciar y probar las propiedades
asociativa, distributiva del producto respecto de la suma, y existencia de elementos neutros
(por la derecha y por la izquierda) para el producto de matrices en general (no necesariamente
cuadradas).
4. Propiedades de la traspuesta.
(a) Traspuesta de una suma:
(A + B)t = At + B t .
(b) Traspuesta de un producto:
(AB)t = B t At .
(c) Traspuesta del producto de una matriz por un escalar:
(λA)t = λAt .
5.3
Sistemas de ecuaciones lineales
m
ecuaciones
n
incógnitas


a1,1 x1 + a1,2 x2 + · · · + a1,n xn


 a2,1 x1 + a2,2 x2 + · · · + a2,n xn
..
..
..

.
.
.


 a x + a x + ··· + a x
m,1 1
m,2 2
m,n n
= b1
= b2
.. ..
. .
= bm
Coeficientes: ai,j ∈ K, i = 1, . . . , m, j = 1, . . . , n, K cuerpo (que supondremos en este curso de
cardinal infinito, por ejemplo: Q, R, C, . . . ).
Términos independientes: bi ∈ K, i = 1, . . . , m. Si bi = 0 para todo índice i = 1, . . . , m, el sistema
se dice homogéneo.
Variables: xj , j = 1, . . . , m, también se denominan “ incógnitas”.
Soluciones: Una n–upla (s1 , s2 , . . . , sn ) ∈ Kn se dice una solución del sistema si al sustituir cada
variable xj por el correspondiente valor sj , todas las ecuaciones se verifican.
1
En general, el sumando ai,k · bk,` · c`,j aparece en el lugar (k − 1)n + ` en ei,j , y en el lugar (` − 1)n + k en gi,j .
78
Cálculo matricial
De un sistema diremos que es:
Incompatible, si no tiene ninguna solución.
Compatible, si tiene al menos una solución. En este caso, diremos que es:
Compatible determinado si existe exactamente una solución.
Compatible indeterminado si tiene al menos dos soluciones distintas. De hecho, para
cuerpos de cardinal infinito, se tendrán infinitas soluciones.
Matriz de coeficientes. A la configuración

a1,1 a1,2 · · ·
 a2,1 a2,2 · · ·

 ..
..
 .
.
am,1 am,2 · · ·
a1,n
a2,n
..
.
am,n





se le dice la matriz de coeficientes del sistema.
Matriz ampliada. Si añadimos a la matriz de coeficientes una columna a la derecha con los términos
independientes, obtenemos la matriz ampliada:


a1,1 a1,2 · · · a1,n b1
 a2,1 a2,2 · · · a2,n b2 


 ..
..
..
..  .
 .
.
.
. 
am,1 am,2 · · · am,n bm
Notación matricial. A una matriz de tamaño 1 × n se le dice un vector fila de dimensión n, a
menudo denotado v = (v1 , . . . , vn ). A una matriz de tamaño m × 1 se le dice un vector columna
de dimensión m; y usaremos indistintamente las siguientes notaciones:


v1
 v2 


v =  ..  = (v1 , v2 , . . . , vm )t
 . 
vm
y al ver el superíndice t leeremos “traspuesta”.
Si llamamos A a la matriz de coeficientes de un sistema (digamos de tamaño m × n), x al
vector columna (x1 , . . . , xn )t y b al vector columna (b1 , . . . , bn )t , reescribiremos el sistema en la
forma matricial:
Ax = b
y a veces, para referirnos a la matriz ampliada del sistema, escribiremos
(A | b) .
Sistemas equivalentes. Dos sistemas lineales, (A | b) y (B | c), se dicen equivalentes si tienen
el mismo tamaño y las mismas soluciones.
Dado un sistema (A | b), las siguientes operaciones elementales por filas en su matriz ampliada, producen un sistema equivalente:
79
Sistemas de ecuaciones lineales
1. intercambiar dos filas;
2. multiplicar una fila por una constante no nula;
3. sumar a una fila un múltiplo de otra.
Nota: Se pueden, de manera análoga, definir operaciones elementales por columnas. Para el objetivo
de resolver sistemas lineales, son más útiles las operaciones por filas al no cambiar, por ejemplo,
el orden en las variables. De hecho, cambia el espacio de soluciones, es decir, no quedan sistemas
equivalentes.
Ejemplo 33 Del siguiente sistema de ecuaciones
½
ax + by = e
con notación matricial:
cx + dy = f
veamos los sistemas equivalentes que
¶
µ
a b e
c d f
¶
µ
a b e
c d f
¶
µ
a b e
c d f
µ
a b
c d
¶µ
x
y
¶
µ
=
e
f
¶
podemos construir:
µ
¶
c d f
∼
a b e
¶
µ
λ·a λ·b λ·e
(λ 6= 0)
∼
c
d
f
µ
¶
a
b
e
∼
c+µ·a d+µ·b f +µ·e
“Dem.:” Veamos una idea de la demostración de la equivalencia al realizar la tercera operación. Si
sabemos que (x0 , y0 ) es una solución del sistema original, estamos diciendo que:
a · x0 + b · y 0 = e
al tiempo que
c · x0 + d · y 0 = f .
Veamos que también (x0 , y0 ) es solución del sistema:
µ
¶
a
b
e
.
c+µ·a d+µ·b f +µ·e
Para serlo tendría que verificar ambas ecuaciones. La primera:
a · x0 + b · y0 = e
ya estamos suponiendo que la verifica. Sobre la segunda tenemos:
(c + µ · a)x0 + (d + µ · b)y0 = cx0 + dy0 + µax0 + µby0
= f + µ(ax0 + by0 )
= f +µ·e
quedando probado que también es solución.
80
Cálculo matricial
Faltaría ver ahora que toda solución del segundo de los sistemas, también lo es del sistema original.
Pero en realidad nos sirve el mismo argumento, añadido a la observación de que podemos pasar del
segundo al primero (esto es invertir la operación) sin más que sumar a la segunda fila −µ veces la
primera:
µ
a
b
e
c + µa d + µb f + µe
¶
µ
∼
a
b
e
c + µa − µa d + µb − µb f + µe − µe
¶ µ
¶
a b e
=
c d f
Matrices escalonadas. Una matriz A, se dice escalonada si cumple las siguientes propiedades:
1. Las filas nulas, si las hay, ocupan las posiciones de más abajo.
2. En cada fila no nula, el primer elemento no nulo es 1 (se llama 1 dominante).
3. Dadas dos filas consecutivas (no nulas), el 1 dominante de la fila superior está más a la izquierda
del 1 dominante de la inferior.
Teorema. Toda matriz es equivalente por filas a una matriz escalonada.
5.4
Método de Gauss
Algoritmo de eliminación gaussiana (o Algoritmo de Gauss). Dado un sistema (A | b) el
algoritmo de eliminación gaussiana consta de:
1. Usando operaciones elementales, llevar la matriz ampliada a otra equivalente, (B | c) que sea
escalonada.
2. Resolver el sistema correspondiente a (B | c) por sustitución hacia atrás.
Ejemplo 34 Buscar un polinomio de grado 2, y = ax2 + bx + c, que pase por los puntos de coordenadas (2, 3), (1, 0) y (−1, 6).
Solución: Se trata de calcular los tres coeficientes indeterminados en las ecuaciones:
a ∗ 22 + b ∗ 2 + c = 3
a ∗ 12 + b ∗ 1 + c = 0
a ∗ (−1)2 + b ∗ (−1) + c = 6
de otra manera, se quiere resolver el siguiente sistema de ecuaciones lineales en las variables a, b y c:

 4a + 2b + c = 3
a+ b+c = 0

a− b+c = 6
81
Método de Gauss
Realicemos, paso a paso, el algoritmo de Gauss:

F3 − F1
∼
1
3
F3
∼
4 2 1
 1 1 1
1 −1 1

1 21 14

 0 12 34
3
0 −3
2
4

1
1 2 14

 0 1 32
0 0 1

3
0 
6

3
4
−3
4
21
4
3
4
−3
2


1
4
F1
∼
2F2
∼


1 21 14 34
 1 1 1 0 
1 −1 1 6


1 12 14 34


 0 1 32 −3
2 
3
21
0 −3
2
4
4


F2 − F1
∼
F3 + 32 F2
∼

1 12 41 34


 0 12 43 −3
4 
1 −1 1 6


1 12 14 34


 0 1 23 −3
2 
0 0 3 3


1
Podemos seguir para conseguir una matriz ampliada escalonada reducida (ver
na 83). Estaríamos realizando el algoritmo de Gauss-Jordan:




1
1
1
3
1
1
1
0
2
4
4
2
2
F2 − 23 F3 
 F1 − 14 F3 
 F1 − 12 F2
 0 1 0 −3 
 0 1 0 −3 
∼
∼
∼
0 0 1 1
0 0 1 1
definición en pági
1 0 0 2


 0 1 0 −3 
0 0 1 1

Si paramos el algoritmo tras conseguir la matriz escalonada, ahora podemos resolver el sistema

que nos ha quedado:
1
1
3

 a+ 2b+ 4c = 4
b + 32 c = −3
2


c = 1
por sustitución hacia atrás:
c=1
⇒
b+
3
−3
=
2
2
⇒
b = −3
⇒
a−
3 1
3
+ =
2 4
4
⇒
a=2 .
Como no podía ser de otra manera, esto coincide con las soluciones del último sistema al que llegamos
con el resto de operaciones (Gauss-Jordan). Puesto que este último sistema es equivalente al inicial,
hemos encontrado la solución al problema buscado, y así, el polinomio será: y = 2x2 − 3x + 1 .
Comprobémoslo: 2 ∗ 22 − 3 ∗ 2 + 1 = 3, 2 ∗ 12 − 3 ∗ 1 + 1 = 0, 2 ∗ (−1)2 − 3 ∗ (−1) + 1 = 6.
Tipos de Matrices. Recapitulemos un momento las definiciones y tipos de matrices que hemos ido
encontrando. Aprovechamos para introducir algunas más.
Matriz: Una matriz A de tamaño m × n es una tabla de números del cuerpo K formada por m
filas y n columnas. Si denotamos por ai,j el elemento de la i–ésima fila y la j–ésima columna,
escribiremos brevemente
A = (ai,j )1≤i≤m, 1≤j≤n
para referirnos a la matriz, o simplemente A = (ai,j ) si el tamaño es claro. El conjunto de todas
las matrices de tamaño m × n en el cuerpo K se denota Mm×n (K).
82
Cálculo matricial
Matriz cuadrada: es una matriz con el mismo número de filas que de columnas. A una tal matriz
la escribiremos por A = (ai,j )1≤i,j≤n , y diremos que tiene orden n. El conjunto de todas las
matrices cuadradas de orden n en el cuerpo K se denota Mn (K).
Llamamos diagonal principal de la matriz cuadrada A ∈ Mn (K), a los elementos ai,i :
Diagonal principal = (a1,1 , a2,2 , . . . , an,n ) .
Matriz triangular superior. Una matriz cuadrada A = (ai,j )1≤i,j≤n se dice triangular superior
si ai,j = 0 siempre que i > j.
Matriz triangular inferior. Una matriz cuadrada A = (ai,j )1≤i,j≤n se dice triangular inferior
si ai,j = 0 siempre que i < j.
Matriz diagonal. Una matriz cuadrada A = (ai,j )1≤i,j≤n se dice diagonal si es triangular superior
e inferior. De otra forma, ai,j = 0 siempre que i 6= j.
Matriz identidad. Llamamos así a la matriz diagonal con ai,i = 1 para todo i = 1, . . . , n. Se
denota también por In a la matriz identidad de orden n.
Matriz escalonada (por filas). Una matriz A, se dice escalonada si:
1. Las filas nulas, si las hay, ocupan las posiciones de más abajo.
2. En cada fila no nula, el primer elemento no nulo es 1 (se llama 1 dominante o pivote).
3. Dadas dos filas consecutivas (no nulas), el 1 dominante de la fila superior está más a la
izquierda del 1 dominante de la inferior.
Matriz escalonada reducida (por filas). Una matriz A = (ai,j )1≤i≤m, 1≤j≤n , de tamaño m×n
se dice escalonada reducida (por filas) si es escalonada (por filas) y además, por encima de todo
1 dominante (pivote) los elementos son 0.
Matriz fila: A ∈ M1×n (K). En otros contextos (espacios vectoriales) una matriz fila es un vector
(fila) en el espacio vectorial Kn .
Matriz columna. A ∈ Mm×1 (K). En el contexto de espacios vectoriales, una matriz columna es
un vector de Km , escrito en columna. Para la notación matricial de sistemas de ecuaciones es
habitual escribir los vectores en columnas.
Matriz elemental de orden n. Llamamos así a cualquier matriz cuadrada de orden n que
podemos obtener aplicando a la matriz identidad In una operación elemental (bien por filas,
bien por columnas).
83
Método de Gauss
Ejemplo 35 Las siguientes son las matrices elementales de las operaciones efectuadas en el ejemplo 34:
 1





0 0
1 0 0
1 0 0
4
E1 =  0 1 0  E2 =  −1 1 0  E3 =  0 1 0 
0 0 1
−1 0 1
0 0 1






1 0 0
1 0 0
1 0 0
E6 =  0 1 0 
E4 =  0 2 0  E5 =  0 1 0 
3
0 0 13
0 2 1
0 0 1






−1
1 0 −1
1
1 0 0
0
4
2
 E8 =  0 1 0  E9 =  0 1 0 
E7 =  0 1 −3
2
0 0 1
0 0 1
0 0 1
El producto de todas ellas, en el orden de derecha a izquierda en que han ido apareciendo:
E9 E8 E7 E6 E5 E4 E3 E2 E1
es una matriz de especial conexión con la matriz de coeficientes inicial. Realicemos el producto:
 1 −1 1 
3
2
1
2
−1
3
1

B := E9 · E8 · · · · · E1 =  0
6
−1
2
1
3


y comprobemos que:

1
3
−1
2
1
2
−1
3
1

B·A= 0
1
6
−1
2
1
3

 

4 2 1
1 0 0

 1 1 1 = 0 1 0 .
1 −1 1
0 0 1
Por último si tomamos la columna de términos independientes del sistema original, y su producto (a
la izquierda) por B:
 1 −1 1    

3
2
3
2
6

1
−1  
0  =  −3 
 0
2
2 
−1
1
6
1
1
3
3
se obtiene la solución (única) al sistema planteado.
Rango de una matriz De lo visto hasta ahora intuimos que se ha de verificar el siguiente resultado:
Teorema 1 Toda matriz es equivalente por filas a una matriz escalonada reducida.
Por otra parte, dado un sistema (A| b), el algoritmo de Gauss–Jordan nos permite calcular un
sistema equivalente, (B| c) ∼ (A| b), con matriz escalonada reducida. Es obvio, por otra parte, el
siguiente resultado:
Proposición 1 Dos matrices escalonadas reducidas son equivalentes (por filas) solo si son iguales.
84
Cálculo matricial
Dada una matriz A, podemos hablar por tanto de la matriz escalonada reducida (por filas)
equivalente a A. Llegamos así a la siguiente definición:
Definición 5.4.1. Llamamos rango (por filas) de una matriz A, rgf (A), al número de filas no nulas
de la matriz escalonada reducida B equivalente (por filas) con A, B ∼ A.
Observación. De igual manera que hemos partido de un sistema y por medio de operaciones elementales por filas hemos llegado a un sistema equivalente escalonado (o escalonado reducido) por
filas, podríamos haber realizado operaciones elementales por columnas para llegar a un sistema escalonado (o escalonado reducido) por columnas. Las matrices de las operaciones elementales oportunas
se usarían multiplicando por la derecha. Los resultados en esta línea son totalmente análogos a los
presentados (con los cambios oportunos de la frase “por columnas” en lugar de “por filas”). Se puede
definir así el rango por columnas de una matriz A, rgc (A), y es fácil comprobar que ambos rangos
coinciden2 . Se habla así del rango de una matriz A, y se denota rg(A), sin especificar nada más.
Para sistemas de ecuaciones lineales, este número nos da toda la información necesaria para
decidir el carácter del mismo, como se enumera en el siguiente resultado:
Teorema 2 [Rouché–Frobenius] Dado un sistema de ecuaciones lineales, con matriz de coeficientes
e se tiene que:
A ∈ Mm×n (K), y matriz ampliada A,
e En tal caso, será:
1. El sistema es compatible si y sólo si rg(A) = rg(A).
(a) compatible determinado si y sólo si rg(A) = n (número de variables);
(b) compatible indeterminado si y sólo si rg(A) < n (número de variables).
e
2. El sistema es incompatible si y sólo si rg(A) < rg(A).
Ejemplo 36 Resolver el sistema de ecuaciones lineales:

 x + y − 4z = −1
x − 3z = −1
(∗)

−x + 3y = 1
Desarrollamos, en primer lugar, el algoritmo de Gauss-Jordan para hallar un sistema equivalente
escalonado reducido:

 
 
 

1 1 −4 −1
1
1 −4 −1
1 1 −4 −1
1 0 −3 −1
 1 0 −3 −1  ∼  0 −1
1
0  ∼  0 1 −1
0  ∼  0 1 −1
0 
−1 3
0
1
0
4 −4
0
0 4 −4
0
0 0
0
0
Obsérvese que hemos realizado varios pasos del algoritmo a la vez. El sistema correspondiente a
la última matriz escalonada reducida que hemos escrito es:

 x − 3z = −1
y−z = 0
(∗∗)

0 = 0
2
O no tan fácil. Se puede consultar cualquier texto, serio, de Álgebra Lineal para ver una demostración.
85
Método de Gauss
que tiene rango 2 para la matriz de coeficientes, y el mismo rango para la matriz ampliada. Así el
sistema es compatible, 2 = 2, e indeterminado, 2 < 3. La solución general viene dada por el
subconjunto S ⊂ K3 :
S = {(x, y, z) : z = t, y = t, x = 3t − 1, ∀t ∈ K}
= {(3t − 1, t, t) : t ∈ K} ,
y cualquier solución particular se obtiene de esta descripción sin más que dar valores al parámetro t.
Así, si K = R:
√
√ √
(−1, 0, 0), (2, 1, 1), (3 5 − 1, 5, 5),
√
son soluciones particulares dadas por los valores para t, 0, 1 y 5 respectivamente.
Ejemplo 37 Resolver el sistema de ecuaciones lineales:

 x + y − 4z = 0
x − 3z = 0
(∗)

−x + 3y = 0
Observamos primero que la matriz de coeficientes de este sistema coincide con la del ejemplo anterior. Podemos por tanto aprovechar el trabajo ya realizado, y puesto que las operaciones elementales
antes realizadas corresponden a las matrices elementales:






1 0 0
1 0 0
1 0 0
E1 =  −1 1 0  E2 =  0 1 0  E3 =  0 −1 0 
1 0 1
0 0 1
0 0 1




1 0 0
1 −1 0
E4 =  0 1 0  E5 =  0 1 0 
0 0 1
0 −4 1
cuyo producto B = E5 E4 E3 E2 E1 es:


0
1 0
B =  1 −1 0 
−3 4 1
basta conocer el producto de B con la nueva columna
nuevo sistema. Así, el sistema es equivalente a:

 x − 3z
y−z
(∗∗)

0
de términos independientes para resolver este
= 0
= 0
= 0
con rango 2 < 3 tanto de la matriz de coeficientes como de la ampliada. El sistema es compatible
indeterminado con solución general:
S = {(x, y, z) : z = t, y = t, x = 3t, ∀t ∈ K}
86
Cálculo matricial
= {(3t, t, t) : t ∈ K} ⊂ K3 .
Algunas soluciones particulares para el caso K = R son:
(0, 0, 0),
(3, 1, 1),
(3π, π, π)
para t = 0, 1 y π respectivamente.
Ejemplo 38 Resuelve rápidamente el sistema:

1
 x + y − 4z =
x − 3z =
2
(∗)

−x + 3y = −1
Ya hemos visto cómo aprovechar los cálculos anteriores. Calculamos el producto de B por la matriz
columna de términos independientes:





0
1 0
1
2
 1 −1 0   2  =  −1 
−3
4 1
−1
4
que será la columna de términos independientes del sistema escalonado reducido:

2
 x − 3z =
y − z = −1
(∗∗)

0 =
4
Puesto que en este último el rango de la matriz ampliada es 3 mientras que el de la matriz de
coeficientes es 2, el sistema es incompatible (la última ecuación es rotunda a este respecto).
Observaciones sobre estos últimos ejemplos. Si tenemos varios sistemas de ecuaciones
lineales con la misma matriz de coeficientes, podemos resolverlos todos a un tiempo, “resolución
simultánea de sistemas”.
En el ejemplo 37 los términos independientes son nulos. Se llaman homogéneos los sistemas con
esta propiedad, y es directo ver que siempre son compatibles (¿por qué?).
Hay una relación entre los conjuntos solución de los ejemplos 36 y 37, en los que ambos sistemas
son compatibles:
Si a cualquier solución del sistema del ejemplo 37 le sumo (−1, 0, 0), obtengo una solución del
sistema del ejemplo 36.
Matrices invertibles. Una matriz cuadrada, A ∈ Mn (K), se dice invertible si existe otra matriz
B ∈ Mn (K) que verifica las igualdades:
AB = BA = Idn .
Denotaremos a una tal matriz por A−1 , y la llamaremos la inversa de A.
Ejemplos de matrices invertibles las tenemos en las matrices elementales.
87
Método de Gauss
Teorema 3 Una matriz A ∈ Mn (K) es invertible si y sólo si rg(A) = n.
Dem.: (⇐=). Si A ∈ Mn (K) tiene rango n entonces es equivalente por filas a la única matriz
escalonada reducida en Mn (K) de rango n, la matriz identidad: A ∼ Idn . Sabemos así que existen
matrices elementales, E1 , E2 , . . . , Ek ∈ Mn (K) de manera que:
Ek · · · · · E2 · E1 · A = Idn .
Si llamamos B al producto Ek · · · · · E2 · E1 , tenemos que existe una matriz, B ∈ Mn (K), tal que
BA = Idn , y por tanto A es invertible.
(=⇒). Supongamos ahora que A ∈ Mn (K) es invertible. En particular existe una matriz B ∈ Mn (K)
tal que:
AB = Idn .
Queremos ver que entonces rg(A) = n. Ahora bien, es fácil ver las siguientes desigualdades entre
rangos:
rg(AB) ≤ rg(A) ≤ n .
La segunda es evidente pues A ∈ Mn (K). Por otra parte, si rg(A) = k entonces A es equivalente por
filas a una matriz escalonada reducida, A0 , con las últimas n − k filas nulas. Pero entonces AB ∼ A0 B
y el producto A0 B tiene al menos las últimas n − k filas nulas, es decir rg(AB) ≤ k.
Esta desigualdad nos da el resultado buscado pues estamos suponiendo AB = Idn y así:
rg(AB) = rg(Idn ) = n ≤ rg(A) ≤ n ⇐⇒ rg(A) = n .
¥
Propiedades de la inversa. Si A, B ∈ Mn (K) son matrices invertibles y λ ∈ K es un escalar
no nulo, se tiene:
1. (A−1 )−1 = A;
2. (AB)−1 = B −1 A−1 ;
3. (λA)−1 = λ1 A−1 ;
4. (At )−1 = (A−1 )t .
Ejemplos.
i. Si A ∈ M2 (K) es la matriz
µ
A=
a b
c d
¶
y es invertible, su inversa es:
−1
A
1
=
ad − bc
µ
d −b
−c a
En particular A es invertible si y sólo si ad − bc 6= 0.
88
¶
.
Cálculo matricial
ii. Las inversas de las matrices:


1 3 3
A= 1 4 3 
1 3 4
son

1 2 3
B= 1 3 3 
2 4 3

A−1

7 −3 −3
1
0 
=  −1
−1
0
1


B −1
1 −2

−1
1
=
2
0
3

1
0 
−1
3
Comprobarlo y verificar la igualdad (AB)−1 = B −1 A−1 .
iii. Propiedades de cancelación: Si C es una matriz invertible, son válidas las siguientes propiedades:
(a) (Cancelación por la derecha): Si AC = BC entonces A = B.
(b) (Cancelación por la izquierda): Si CA = CB entonces A = B.
Ambas propiedades son directas usando necesariamente que C es invertible. Si C no es invertible
estas afirmaciones pueden ser falsas. Tómese el siguiente contraejemplo:
µ
¶
µ
¶
µ
¶
1 3
2 4
1 −2
A=
B=
C=
.
0 1
2 3
−1
2
Es directo ver que:
µ
AC =
−2 4
−1 2
¶
= BC
aún siendo A 6= B.
Problemas
1. Con las siguientes matrices:








1 −1
2
−1 2 1
2 −1
3
6 −5
2
0 −2  B =  −2 2 2  C =  5 −7
2  D =  7 −3 −1  .
A= 0
1
3
2
−1 0 1
−4 −3 −1
0
2
1
calcular: A + B, B + D, 2C, 2C − 5D, AB, BA, AB − BA, A(B + C + D), B(2A − 3B + D)
y At B t .
2. Escribe en notación matricial los siguientes sistemas de ecuaciones lineales:



x+ y− z = −1
 2 x+5 y−3 z = −1

 6 x+4 y+16 z = 0
x+2 y+ z = 0
2 x+4 y+8 z = 0
a) 4 x+7 y−4 z = 0
b)
c)



−6 x−3 y+ z = −5
− x−3 y−3 z = −1
−2 x−2 y−6 z = 0



 2 x+ y−3 z = 16
 3 x− y− z = 1
 x+2 y+ z = 6
x+ y− z = 1
2 x+ y+ z = 5
d) 3 x− y+2 z = 6
e)
f)



x−6 y+ z = −10
x− y+ z = 1
5 x+ y+2 z = 9
89
Problemas

 4 x− y−2 z = 0
g) 2 x+ y−2 z = 2

x− y+ z = 0

 3 x+2 y−2 z = 3
h) 3 x+6 y−3 z = 6

−3 x− y+4 z = 0

 2 x+2 y− z = 4
x+3 y+ z = 4
i)

2 x+3 y+4 z = 0
3. Usa el método de eliminación gaussiana para reducir los sistemas anteriores a sistemas escalonados equivalentes.
4. Decide el rango de cada una de las matrices de coeficientes de los sistemas del ejercicio 2.
5. Decide el rango de cada una de las matrices ampliadas de los sistemas del ejercicio 2, y, comparando con los rangos de las matrices de coeficientes, clasifícalos (incompatibles, compatibles
determinados o compatibles indeterminados).
6. Resuelve los sistemas compatibles determinados del ejercicio 2.
7. De cada sistema compatible indeterminado del ejercicio 2, resuelve el sistema homogéneo asociado (sustituye la columna de términos independientes por una columna de ceros).
8. De cada sistema compatible indeterminado del ejercicio 2 muestra 3 soluciones. Comprueba
que la diferencia de cada dos de estas soluciones es solución del sistema homogéneo asociado.3
9. Para cada una de las matrices de coeficientes de los sistemas compatibles determinados que
has encontrado en el ejercicio 2, encuentra —y comprueba— su inversa por el algoritmo de
Gauss–Jordan (ver página 82 y el Ejemplo 35).
3
En general, si v1 es solución de un sistema de ecuaciones lineales y v0 es solución del sistema homogéneo asociado,
cualquier combinación v1 + λv0 es solución del sistema original.
90
Descargar