Parte II Álgebra lineal y geometría

Anuncio
Parte II
Álgebra lineal y geometría
73
Capítulo 5
Cálculo matricial
5.1
Matrices
Una matriz de m filas y n columnas, en adelante matriz m × n, es una configuración rectangular
de elementos, con n entradas por cada fila, y m por cada columna, encerrada, usualmente, entre
paréntesis. A cada elemento de una matriz m × n nos referiremos indicando, con una pareja ordenada
de subíndices, la fila y la columna que ocupa.
Notación. Utilizaremos letras mayúsculas para nombrar a una matriz, A, B, C, . . . . A sus elementos
o entradas los nombraremos usualmente con la minúscula de su nombre y un par de subíndices para
indicar su posición: a1,2 sería el elemento de la 1a fila y 2a columna de la matriz A. En bloque
escribiremos expresiones como: A = (ai,j ), 1 ≤ 1 ≤ m, 1 ≤ j ≤ n; B = (bi,j )m×n ; . . . . Diremos
que una matriz es de tamaño m × n para referirnos a sus dimensiones. Si ambas coinciden, matriz
cuadrada, diremos simplemente matriz de tamaño n.
Si las entradas de una matriz, A, de tamaño m × n, se toman de un conjunto K, habitualmente
un cuerpo de números como Q, R o C, escribiremos A ∈ Mm×n (K). En lo que sigue K será siempre
un cuerpo.
Ejemplo 32 La matriz, A, de tamaño 2 × 3 con ai,j = i + j es:
µ
A=
2 3 4
3 4 5
¶
La matriz cuadrada, B, de tamaño 4 con elementos bi,j = ij−1 queda:

1
1
B=
1
1

2 4
8
3 9 27 

4 16 64 
5 25 125
La anterior pertenece a una familia especialmente interesante, las matrices de Vandermonde, V ,
que tienen entradas: vi,j = aj−1
, con un ai distinto por cada fila. Esta matrices aparecen en problemas
i
de interpolación polinómica.
75
76
CAPÍTULO 5. CÁLCULO MATRICIAL
Para cualquier tamaño la matriz, Im×n con entradas
la identidad de tamaño m × n. Son matrices identidad:



1
µ
¶
1 0 0 0

1 0
0
0 1 0 0 
0
0 1
0 0 1 0
0
5.2
ii,j = 1 si i = j pero ii,j = 0 si i 6= j, se dice
0
1
0
0

0
0

1
0


1 0 0
0 1 0 
0 0 1
Operaciones con matrices
Las principales operaciones con matrices son:
Suma: dadas dos matrices del mismo tamaño A = (ai,j ), B = (bi,j ) ∈ Mm×n (K) se define la matriz
suma A + B ∈ Mm×n (K) como la matriz C = (ci,j ) donde ci,j = ai,j + bi,j .
Producto por escalares: dada una matriz A = (ai,j ) ∈ Mm×n (K) y un número λ ∈ K, se define
la matriz λ A ∈ Mm×n (K) como la matriz (λ · ai,j ).
Producto de matrices: Dadas dos matrices A = (ai,j ) de tamaño m × n y B = (bj,k ) de tamaño
n × p, definimos la matriz producto AB = (ci,k ) como la matriz de tamaño m × p con entradas:
ci,k =
n
X
ai,j · bj,k .
j=1
Obsérvese que han de coincidir el número de columnas de la primera matriz A con el número
de filas de la segunda matriz B. Además, el resultado es una matriz con tantas filas como A y
tantas columnas como B. Sirva la siguiente como regla mnemotécnica:
(m × n) · (n × p) = (m × p) .
Traspuesta de una matriz: dada una matriz A = (ai,j ) ∈ Mm×n (K) se define la matriz traspuesta
At como la matriz (bk,` ) en Mn×m (K) con
bk,` = a`,k .
En otras palabras, la obtenida de A al intercambiar las filas por las columnas.
Propiedades y ejemplos. Salvo la conmutatividad del producto, el resto de las propiedades
de la suma y el producto en el cuerpo K se extienden a Mm×n (K):
1. Propiedades de la suma. En el conjunto Mm×n (K) la operación suma verifica las siguientes
propiedades:
(a) Asociativa: A + (B + C) = (A + B) + C, ∀ A, B, C ∈ Mm×n (K).
(b) Conmutativa: A + B = B + A, ∀ A, B ∈ Mm×n (K).
(c) Elemento neutro. Existe un elemento 0 ∈ Mm×n (K) tal que: A + 0 = A, ∀ A ∈ Mm×n (K).
5.2. OPERACIONES CON MATRICES
77
(d) Elemento opuesto. Para toda A ∈ Mm×n (K), existe otro elemento, que denotaremos
−A ∈ Mm×n (K), tal que A + (−A) = 0.
La existencia de un elemento neutro queda asegurada por la existencia del neutro para la suma
en el cuerpo K. Si llamamos 0 a este último, la matriz con todas las entradas 0 es un neutro
para la suma de matrices.
De igual manera, la existencia de opuestos para la suma en el cuerpo K nos permite, dada una
matriz A, construir una matriz opuesta: si A = (ai,j ) la matriz B = (−ai,j ) es opuesta de A.
2. Propiedades del producto por escalares. El producto por escalares tiene las siguientes
propiedades:
(a) Distributiva respecto a la suma de matrices: λ(A + B) = λA + λB, para cualesquiera
λ ∈ K y A, B ∈ Mm×n (K).
(b) Distributiva respecto a la suma de escalares: (λ + µ)A = λA + µA, para cualesquiera
λ, µ ∈ K y A ∈ Mm×n (K).
(c) Distributiva respecto al producto de escalares: (λµ)A = λ(µA), para cualesquiera λ, µ ∈ K
y A ∈ Mm×n (K).
(d) Producto por el escalar λ = 1 (el neutro del producto en el cuerpo K): 1A = A, ∀ A ∈
Mm×n (K).
3. Propiedades del producto. Por simplicidad vamos a enumerar las propiedades del producto de matrices cuadradas.
(a) Asociativa. Dadas cualesquiera tres matrices A, B y C ∈ Mn (K) se verifica:
A(BC) = (AB)C .
Escribiremos ABC para abreviar.
(b) Distributiva del producto respecto de la suma. Dadas cualesquiera tres matrices A, B y
C ∈ Mn (K) se verifica:
A(B + C) = AB + AC .
(c) Elemento neutro. Existe una matriz Idn ∈ Mn (K) (ó 1) tal que: 1A = A1 = A para
cualquier A ∈ Mn (K).
Demostremos la propiedad asociativa. Si llamamos D = BC, E = AD, F = AB y G = F C,
queremos comprobar que E = G. Ahora bien:
n
X
dk,j =
bk,` · c`,j
ei,j =
`=1
n
X
ai,k · dk,j =
k=1
fi,` =
n
X
gi,j =
`=1
ai,k
à n
X
k=1
!
bk,` · c`,j
=
`=1
n X
n
X
ai,k · bk,` · c`,j
k=1 `=1
ai,k · bk,`
k=1
n
X
n
X
fi,` · c`,j =
à n
n
X
X
`=1
k=1
!
ai,k · bk,`
c`,j =
n X
n
X
`=1 k=1
ai,k · bk,` · c`,j
78
CAPÍTULO 5. CÁLCULO MATRICIAL
donde hemos utilizado varias veces las propiedades asociativa del producto y distributiva del
producto respecto de la suma en el cuerpo K (¿dónde?).
Se pretende ver que siempre ocurre que ei,j = gi,j . Obsérvese que tanto en ei,j como en gi,j se
tienen un total de n2 sumandos de la misma forma: ai,k · bk,` · c`,j . De hecho son exactamente
los mismos, aunque aparecen en distinto orden. Por ejemplo, el sumando ai,2 · b2,5 · c5,j , si lo
hubiere, aparece en el lugar n + 5 para ei,j , y en el lugar 4n + 2 para gi,j 1 . Es evidente, por
tanto (por las propiedades de la suma en el cuerpo K), la igualdad buscada.
Sobre el elemento neutro, basta mostrar una matriz con esta propiedad, y la matriz de orden
n con unos en la diagonal principal y ceros en el resto de entradas lo es.
3. (Ejercicio): Propiedades del producto de matrices. Enunciar y probar las propiedades
asociativa, distributiva del producto respecto de la suma, y existencia de elementos neutros
(por la derecha y por la izquierda) para el producto de matrices en general (no necesariamente
cuadradas).
4. Propiedades de la traspuesta.
(a) Traspuesta de una suma:
(A + B)t = At + B t .
(b) Traspuesta de un producto:
(AB)t = B t At .
(c) Traspuesta del producto de una matriz por un escalar:
(λA)t = λAt .
5.3
Sistemas de ecuaciones lineales
m
ecuaciones
n
incógnitas


a1,1 x1 + a1,2 x2 + · · · + a1,n xn


 a2,1 x1 + a2,2 x2 + · · · + a2,n xn
..
..
..

.
.
.


 a x + a x + ··· + a x
m,1 1
m,2 2
m,n n
= b1
= b2
.. ..
. .
= bm
Coeficientes: ai,j ∈ K, i = 1, . . . , m, j = 1, . . . , n, K cuerpo (que supondremos en este curso de
cardinal infinito, por ejemplo: Q, R, C, . . . ).
Términos independientes: bi ∈ K, i = 1, . . . , m. Si bi = 0 para todo índice i = 1, . . . , m, el sistema
se dice homogéneo.
Variables: xj , j = 1, . . . , m, también se denominan “incógnitas”.
Soluciones: Una n–upla (s1 , s2 , . . . , sn ) ∈ Kn se dice una solución del sistema si al sustituir cada
variable xj por el correspondiente valor sj , todas las ecuaciones se verifican.
De un sistema diremos que es:
1
En general, el sumando ai,k · bk,` · c`,j aparece en el lugar (k − 1)n + ` en ei,j , y en el lugar (` − 1)n + k en gi,j .
5.3. SISTEMAS DE ECUACIONES LINEALES
79
Incompatible, si no tiene ninguna solución.
Compatible, si tiene al menos una solución. En este caso, diremos que es:
Compatible determinado si existe exactamente una solución.
Compatible indeterminado si tiene al menos dos soluciones distintas. De hecho, para
cuerpos de cardinal infinito, se tendrán infinitas soluciones.
Matriz de coeficientes. A la configuración





a1,1 a1,2 · · ·
a2,1 a2,2 · · ·
..
..
.
.
am,1 am,2 · · ·
a1,n
a2,n
..
.
am,n





se le dice la matriz de coeficientes del sistema. En general, toda configuración de elementos
A = (ai,j ), i = 1, . . . , m, j = 1, . . . , n, como la anterior se dice una matriz de tamaño m × n (m filas
y n columnas). Si el número de filas y el de columnas coinciden, m = n, la matriz se dice cuadrada
de tamaño n.
Matriz ampliada. Si añadimos a la matriz de coeficientes una columna a la derecha con los términos
independientes, obtenemos la matriz ampliada:





a1,1 a1,2 · · ·
a2,1 a2,2 · · ·
..
..
.
.
am,1 am,2 · · ·
a1,n b1
a2,n b2
..
..
.
.
am,n bm



.

Notación matricial. A una matriz de tamaño 1 × n se le dice un vector fila de dimensión n, a
menudo denotado v = (v1 , . . . , vn ). A una matriz de tamaño m × 1 se le dice un vector columna
de dimensión m; y usaremos indistintamente las siguientes notaciones:


v1
 v2 


v =  ..  = (v1 , v2 , . . . , vm )t
 . 
vm
y al ver el superíndice t leeremos “traspuesta”.
Si llamamos A a la matriz de coeficientes de un sistema (digamos de tamaño m × n), x al
vector columna (x1 , . . . , xn )t y b al vector columna (b1 , . . . , bn )t , reescribiremos el sistema en la
forma matricial:
Ax = b
y a veces, para referirnos a la matriz ampliada del sistema, escribiremos
(A | b) .
80
CAPÍTULO 5. CÁLCULO MATRICIAL
Sistemas equivalentes. Dos sistemas lineales, (A | b) y (B | c), se dicen equivalentes si tienen
el mismo tamaño y las mismas soluciones.
Dado un sistema (A | b), las siguientes operaciones elementales por filas en su matriz ampliada, producen un sistema equivalente:
1. intercambiar dos filas;
2. multiplicar una fila por una constante no nula;
3. sumar a una fila un múltiplo de otra.
Nota: Se pueden, de manera análoga, definir operaciones elementales por columnas. Para el objetivo
de resolver sistemas lineales, son más útiles las operaciones por filas al no cambiar, por ejemplo,
el orden en las variables. De hecho, cambia el espacio de soluciones, es decir, no quedan sistemas
equivalentes.
Ejemplo 33 Del siguiente sistema de ecuaciones
½
ax + by = e
con notación matricial:
cx + dy = f
veamos los sistemas equivalentes que
µ
¶
a b e
c d f
µ
¶
a b e
c d f
µ
¶
a b e
c d f
µ
a b
c d
¶µ
x
y
¶
µ
=
e
f
¶
podemos construir:
µ
¶
c d f
∼
a b e
µ
¶
λ·a λ·b λ·e
∼
(λ 6= 0)
c
d
f
µ
¶
a
b
e
∼
c+µ·a d+µ·b f +µ·e
“Dem.:” Veamos una idea de la demostración de la equivalencia al realizar la tercera operación. Si
sabemos que (x0 , y0 ) es una solución del sistema original, estamos diciendo que:
a · x0 + b · y 0 = e
al tiempo que
c · x0 + d · y 0 = f .
Veamos que también (x0 , y0 ) es solución del sistema:
¶
µ
a
b
e
.
c+µ·a d+µ·b f +µ·e
Para serlo tendría que verificar ambas ecuaciones. La primera:
a · x0 + b · y0 = e
ya estamos suponiendo que la verifica. Sobre la segunda tenemos:
(c + µ · a)x0 + (d + µ · b)y0 = cx0 + dy0 + µax0 + µby0
= f + µ(ax0 + by0 )
= f +µ·e
quedando probado que también es solución.
5.4. MÉTODO DE GAUSS
81
Faltaría ver ahora que toda solución del segundo de los sistemas, también lo es del sistema original.
Pero en realidad nos sirve el mismo argumento, añadido a la observación de que podemos pasar del
segundo al primero (esto es invertir la operación) sin más que sumar a la segunda fila −µ veces la
primera:
µ
a
b
e
c + µa d + µb f + µe
¶
µ
∼
a
b
e
c + µa − µa d + µb − µb f + µe − µe
¶ µ
¶
a b e
=
c d f
Matrices escalonadas. Una matriz A, se dice escalonada si cumple las siguientes propiedades:
1. Las filas nulas, si las hay, ocupan las posiciones de más abajo.
2. En cada fila no nula, el primer elemento no nulo es 1 (se llama 1 dominante).
3. Dadas dos filas consecutivas (no nulas), el 1 dominante de la fila superior está más a la izquierda
del 1 dominante de la inferior.
Teorema. Toda matriz es equivalente por filas a una matriz escalonada.
5.4
Método de Gauss
Algoritmo de eliminación gaussiana (o Algoritmo de Gauss). Dado un sistema (A | b) el
algoritmo de eliminación gaussiana consta de:
1. Usando operaciones elementales, llevar la matriz ampliada a otra equivalente, (B | c) que sea
escalonada.
2. Resolver el sistema correspondiente a (B | c) por sustitución hacia atrás.
Ejemplo 34 Buscar un polinomio de grado 2, y = ax2 + bx + c, que pase por los puntos de coordenadas (2, 3), (1, 0) y (−1, 6).
Solución: Se trata de calcular los tres coeficientes indeterminados en las ecuaciones:
a ∗ 22 + b ∗ 2 + c = 3
a ∗ 12 + b ∗ 1 + c = 0
a ∗ (−1)2 + b ∗ (−1) + c = 6
de otra manera, se quiere resolver el siguiente sistema de ecuaciones lineales en las variables a, b y c:

 4a + 2b + c = 3
a+ b+c = 0

a− b+c = 6
82
CAPÍTULO 5. CÁLCULO MATRICIAL
Realicemos, paso a paso, el algoritmo de Gauss:

F3 − F1
∼
1
3
F3
∼
4 2 1
 1 1 1
1 −1 1

1 21 14

 0 12 34
3
0 −3
2
4

1 12 14

 0 1 32
0 0 1

3
0 
6

3
4
−3
4
21
4
3
4
−3
2


F1
∼
2F2
∼


1 21 14 34
 1 1 1 0 
1 −1 1 6


1 12 14 34


 0 1 32 −3
2 
3
21
0 −3
2
4
4


1
4
F2 − F1
∼
F3 + 32 F2
∼

1 12 41 34


 0 12 43 −3
4 
1 −1 1 6


1 12 14 34


 0 1 23 −3
2 
0 0 3 3


1
Podemos seguir para conseguir una matriz ampliada escalonada reducida (ver
na 83). Estaríamos realizando el algoritmo de Gauss-Jordan:




1
1
3
1
1
1
1
0
2
4
4
2
2
F2 − 23 F3 
 F1 − 14 F3 
 F1 − 12 F2
 0 1 0 −3 
 0 1 0 −3 
∼
∼
∼
0 0 1 1
0 0 1 1
definición en pági

1 0 0 2


 0 1 0 −3 
0 0 1 1
Si paramos el algoritmo tras conseguir la matriz escalonada, ahora podemos resolver el sistema

que nos ha quedado:
1
1
3

 a+ 2b+ 4c = 4
b + 32 c = −3
2


c = 1
por sustitución hacia atrás:
c=1
⇒
b+
3
−3
=
2
2
⇒
b = −3
⇒
a−
3 1
3
+ =
2 4
4
⇒
a=2 .
Como no podía ser de otra manera, esto coincide con las soluciones del último sistema al que llegamos
con el resto de operaciones (Gauss-Jordan). Puesto que este último sistema es equivalente al inicial,
hemos encontrado la solución al problema buscado, y así, el polinomio será: y = 2x2 − 3x + 1 .
Comprobémoslo: 2 ∗ 22 − 3 ∗ 2 + 1 = 3, 2 ∗ 12 − 3 ∗ 1 + 1 = 0, 2 ∗ (−1)2 − 3 ∗ (−1) + 1 = 6.
Tipos de Matrices. Recapitulemos un momento las definiciones y tipos de matrices que hemos ido
encontrando. Aprovechamos para introducir algunas más.
Matriz: Una matriz A de tamaño m × n es una tabla de números del cuerpo K formada por m
filas y n columnas. Si denotamos por ai,j el elemento de la i–ésima fila y la j–ésima columna,
escribiremos brevemente
A = (ai,j )1≤i≤m, 1≤j≤n
para referirnos a la matriz, o simplemente A = (ai,j ) si el tamaño es claro. El conjunto de todas
las matrices de tamaño m × n en el cuerpo K se denota Mm×n (K).
5.4. MÉTODO DE GAUSS
83
Matriz cuadrada: es una matriz con el mismo número de filas que de columnas. A una tal matriz
la escribiremos por A = (ai,j )1≤i,j≤n , y diremos que tiene orden n. El conjunto de todas las
matrices cuadradas de orden n en el cuerpo K se denota Mn (K).
Llamamos diagonal principal de la matriz cuadrada A ∈ Mn (K), a los elementos ai,i :
Diagonal principal = (a1,1 , a2,2 , . . . , an,n ) .
Matriz triangular superior. Una matriz cuadrada A = (ai,j )1≤i,j≤n se dice triangular superior
si ai,j = 0 siempre que i > j.
Matriz triangular inferior. Una matriz cuadrada A = (ai,j )1≤i,j≤n se dice triangular inferior
si ai,j = 0 siempre que i < j.
Matriz diagonal. Una matriz cuadrada A = (ai,j )1≤i,j≤n se dice diagonal si es triangular superior
e inferior. De otra forma, ai,j = 0 siempre que i 6= j.
Matriz identidad. Llamamos así a la matriz diagonal con ai,i = 1 para todo i = 1, . . . , n. Se
denota también por In a la matriz identidad de orden n.
Matriz escalonada (por filas). Una matriz A, se dice escalonada si:
1. Las filas nulas, si las hay, ocupan las posiciones de más abajo.
2. En cada fila no nula, el primer elemento no nulo es 1 (se llama 1 dominante o pivote).
3. Dadas dos filas consecutivas (no nulas), el 1 dominante de la fila superior está más a la
izquierda del 1 dominante de la inferior.
Matriz escalonada reducida (por filas). Una matriz A = (ai,j )1≤i≤m, 1≤j≤n , de tamaño m×n
se dice escalonada reducida (por filas) si es escalonada (por filas) y además, por encima de todo
1 dominante (pivote) los elementos son 0.
Matriz fila: A ∈ M1×n (K). En otros contextos (espacios vectoriales) una matriz fila es un vector
(fila) en el espacio vectorial Kn .
Matriz columna. A ∈ Mm×1 (K). En el contexto de espacios vectoriales, una matriz columna es
un vector de Km , escrito en columna. Para la notación matricial de sistemas de ecuaciones es
habitual escribir los vectores en columnas.
Matriz elemental de orden n. Llamamos así a cualquier matriz cuadrada de orden n que
podemos obtener aplicando a la matriz identidad In una operación elemental (bien por filas,
bien por columnas).
84
CAPÍTULO 5. CÁLCULO MATRICIAL
Ejemplo 35 Las siguientes son las matrices elementales de las operaciones efectuadas en el ejemplo 34:
 1





0 0
1 0 0
1 0 0
4
E1 =  0 1 0  E2 =  −1 1 0  E3 =  0 1 0 
0 0 1
−1 0 1
0 0 1






1 0 0
1 0 0
1 0 0
E6 =  0 1 0 
E4 =  0 2 0  E5 =  0 1 0 
3
0 0 13
0 2 1
0 0 1






1 0 −1
1 −1
1 0 0
0
4
2
 E8 =  0 1 0  E9 =  0 1 0 
E7 =  0 1 −3
2
0 0 1
0 0 1
0 0 1
El producto de todas ellas, en el orden de derecha a izquierda en que han ido apareciendo:
E9 E8 E7 E6 E5 E4 E3 E2 E1
es una matriz de especial conexión con la matriz de coeficientes inicial. Realicemos el producto:
 1 −1 1 
3
2
1
2
−1
3
1

B := E9 · E8 · · · · · E1 =  0
6
−1
2
1
3


y comprobemos que:

1
3
−1
2
1
2
−1
3
1

B·A= 0
1
6
−1
2
1
3

 

4 2 1
1 0 0

 1 1 1 = 0 1 0 .
1 −1 1
0 0 1
Por último si tomamos la columna de términos independientes del sistema original, y su producto (a
la izquierda) por B:
 1 −1 1    

3
2
3
2
6

1
−1  
0  =  −3 
 0
2
2 
−1
1
6
1
1
3
3
se obtiene la solución (única) al sistema planteado.
Rango de una matriz De lo visto hasta ahora intuimos que se ha de verificar el siguiente resultado:
Teorema 1 Toda matriz es equivalente por filas a una matriz escalonada reducida.
Por otra parte, dado un sistema (A| b), el algoritmo de Gauss–Jordan nos permite calcular un
sistema equivalente, (B| c) ∼ (A| b), con matriz escalonada reducida. Es obvio, por otra parte, el
siguiente resultado:
Proposición 1 Dos matrices escalonadas reducidas son equivalentes (por filas) solo si son iguales.
5.4. MÉTODO DE GAUSS
85
Dada una matriz A, podemos hablar por tanto de la matriz escalonada reducida (por filas)
equivalente a A. Llegamos así a la siguiente definición:
Definición 5.4.1. Llamamos rango (por filas) de una matriz A, rgf (A), al número de filas no nulas
de la matriz escalonada reducida B equivalente (por filas) con A, B ∼ A.
Observación. De igual manera que hemos partido de un sistema y por medio de operaciones elementales por filas hemos llegado a un sistema equivalente escalonado (o escalonado reducido) por
filas, podríamos haber realizado operaciones elementales por columnas para llegar a un sistema escalonado (o escalonado reducido) por columnas. Las matrices de las operaciones elementales oportunas
se usarían multiplicando por la derecha. Los resultados en esta línea son totalmente análogos a los
presentados (con los cambios oportunos de la frase “por columnas” en lugar de “por filas”). Se puede
definir así el rango por columnas de una matriz A, rgc (A), y es fácil comprobar que ambos rangos
coinciden.2 Se habla así del rango de una matriz A, y se denota rg(A), sin especificar nada más.
Para sistemas de ecuaciones lineales, este número nos da toda la información necesaria para
decidir el carácter del mismo, como se enumera en el siguiente resultado:
Teorema 2 [Rouché–Frobenius] Dado un sistema de ecuaciones lineales, con matriz de coeficientes
e se tiene que:
A ∈ Mm×n (K), y matriz ampliada A,
e En tal caso, será:
1. El sistema es compatible si y sólo si rg(A) = rg(A).
(a) compatible determinado si y sólo si rg(A) = n (número de variables);
(b) compatible indeterminado si y sólo si rg(A) < n (número de variables).
e
2. El sistema es incompatible si y sólo si rg(A) < rg(A).
Ejemplo 36 Resolver el sistema de ecuaciones lineales:

 x + y − 4z = −1
x − 3z = −1
(∗)

−x + 3y = 1
Desarrollamos, en primer lugar, el algoritmo de Gauss-Jordan para hallar un sistema equivalente
escalonado reducido:

 
 
 

1 1 −4 −1
1
1 −4 −1
1 1 −4 −1
1 0 −3 −1
 1 0 −3 −1  ∼  0 −1
1
0  ∼  0 1 −1
0  ∼  0 1 −1
0 
−1 3
0
1
0
4 −4
0
0 4 −4
0
0 0
0
0
Obsérvese que hemos realizado varios pasos del algoritmo a la vez. El sistema correspondiente a
la última matriz escalonada reducida que hemos escrito es:

 x − 3z = −1
y−z = 0
(∗∗)

0 = 0
2
O no tan fácil. Se puede consultar cualquier texto, serio, de Álgebra Lineal para ver una demostración.
86
CAPÍTULO 5. CÁLCULO MATRICIAL
que tiene rango 2 para la matriz de coeficientes, y el mismo rango para la matriz ampliada. Así el
sistema es compatible, 2 = 2, e indeterminado, 2 < 3. La solución general viene dada por el
subconjunto S ⊂ K3 :
S = {(x, y, z) : z = t, y = t, x = 3t − 1, ∀t ∈ K}
= {(3t − 1, t, t) : t ∈ K} ,
y cualquier solución particular se obtiene de esta descripción sin más que dar valores al parámetro t.
Así, si K = R:
√ √
√
(−1, 0, 0), (2, 1, 1), (3 5 − 1, 5, 5),
√
son soluciones particulares dadas por los valores para t, 0, 1 y 5 respectivamente.
Ejemplo 37 Resolver el sistema de ecuaciones lineales:

 x + y − 4z = 0
x − 3z = 0
(∗)

−x + 3y = 0
Observamos primero que la matriz de coeficientes de este sistema coincide con la del ejemplo anterior. Podemos por tanto aprovechar el trabajo ya realizado, y puesto que las operaciones elementales
antes realizadas corresponden a las matrices elementales:






1 0 0
1 0 0
1 0 0
E1 =  −1 1 0  E2 =  0 1 0  E3 =  0 −1 0 
1 0 1
0 0 1
0 0 1




1 0 0
1 −1 0
E4 =  0 1 0  E5 =  0 1 0 
0 0 1
0 −4 1
cuyo producto B = E5 E4 E3 E2 E1 es:


0
1 0
B =  1 −1 0 
−3 4 1
basta conocer el producto de B con la nueva columna
nuevo sistema. Así, el sistema es equivalente a:

 x − 3z
y−z
(∗∗)

0
de términos independientes para resolver este
= 0
= 0
= 0
con rango 2 < 3 tanto de la matriz de coeficientes como de la ampliada. El sistema es compatible
indeterminado con solución general:
S = {(x, y, z) : z = t, y = t, x = 3t, ∀t ∈ K}
= {(3t, t, t) : t ∈ K} ⊂ K3 .
5.4. MÉTODO DE GAUSS
87
Algunas soluciones particulares para el caso K = R son:
(0, 0, 0),
(3, 1, 1),
(3π, π, π)
para t = 0, 1 y π respectivamente.
Ejemplo 38 Resuelve rápidamente el sistema:

1
 x + y − 4z =
x − 3z =
2
(∗)

−x + 3y = −1
Ya hemos visto cómo aprovechar los cálculos anteriores. Calculamos el producto de B por la matriz
columna de términos independientes:





0
1 0
1
2
 1 −1 0   2  =  −1 
−3
4 1
−1
4
que será la columna de términos independientes del sistema escalonado reducido:

2
 x − 3z =
y − z = −1
(∗∗)

0 =
4
Puesto que en este último el rango de la matriz ampliada es 3 mientras que el de la matriz de
coeficientes es 2, el sistema es incompatible (la última ecuación es rotunda a este respecto).
Observaciones sobre estos últimos ejemplos. Si tenemos varios sistemas de ecuaciones
lineales con la misma matriz de coeficientes, podemos resolverlos todos a un tiempo, “resolución
simultánea de sistemas”.
En el ejemplo 37 los términos independientes son nulos. Se llaman homogéneos los sistemas con
esta propiedad, y es directo ver que siempre son compatibles (¿por qué?).
Hay una relación entre los conjuntos solución de los ejemplos 36 y 37, en los que ambos sistemas
son compatibles:
Si a cualquier solución del sistema del ejemplo 37 le sumo (−1, 0, 0), obtengo una solución del
sistema del ejemplo 36.
Matrices invertibles. Una matriz cuadrada, A ∈ Mn (K), se dice invertible si existe otra matriz
B ∈ Mn (K) que verifica las igualdades:
AB = BA = Idn .
Denotaremos a una tal matriz por A−1 , y la llamaremos la inversa de A.
Ejemplos de matrices invertibles las tenemos en las matrices elementales.
Teorema 3 Una matriz A ∈ Mn (K) es invertible si y sólo si rg(A) = n.
88
CAPÍTULO 5. CÁLCULO MATRICIAL
Dem.: (⇐=). Si A ∈ Mn (K) tiene rango n entonces es equivalente por filas a la única matriz
escalonada reducida en Mn (K) de rango n, la matriz identidad: A ∼ Idn . Sabemos así que existen
matrices elementales, E1 , E2 , . . . , Ek ∈ Mn (K) de manera que:
Ek · · · · · E2 · E1 · A = Idn .
Si llamamos B al producto Ek · · · · · E2 · E1 , tenemos que existe una matriz, B ∈ Mn (K), tal que
BA = Idn , y por tanto A es invertible.
(=⇒). Supongamos ahora que A ∈ Mn (K) es invertible. En particular existe una matriz B ∈ Mn (K)
tal que:
AB = Idn .
Queremos ver que entonces rg(A) = n. Ahora bien, es fácil ver las siguientes desigualdades entre
rangos:
rg(AB) ≤ rg(A) ≤ n .
La segunda es evidente pues A ∈ Mn (K). Por otra parte, si rg(A) = k entonces A es equivalente por
filas a una matriz escalonada reducida, A0 , con las últimas n − k filas nulas. Pero entonces AB ∼ A0 B
y el producto A0 B tiene al menos las últimas n − k filas nulas, es decir rg(AB) ≤ k.
Esta desigualdad nos da el resultado buscado pues estamos suponiendo AB = Idn y así:
rg(AB) = rg(Idn ) = n ≤ rg(A) ≤ n ⇐⇒ rg(A) = n .
¥
Propiedades de la inversa. Si A, B ∈ Mn (K) son matrices invertibles y λ ∈ K es un escalar
no nulo, se tiene:
1. (A−1 )−1 = A;
2. (AB)−1 = B −1 A−1 ;
3. (λA)−1 = λ1 A−1 ;
4. (At )−1 = (A−1 )t .
Ejemplos.
i. Si A ∈ M2 (K) es la matriz
µ
A=
a b
c d
¶
y es invertible, su inversa es:
−1
A
1
=
ad − bc
µ
d −b
−c a
En particular A es invertible si y sólo si ad − bc 6= 0.
¶
.
5.4. MÉTODO DE GAUSS
89
ii. Las inversas de las matrices:


1 3 3
A= 1 4 3 
1 3 4
son

1 2 3
B= 1 3 3 
2 4 3

A−1

7 −3 −3
1
0 
=  −1
−1
0
1


B −1
1 −2

−1
1
=
2
0
3

1
0 
−1
3
Comprobarlo y verificar la igualdad (AB)−1 = B −1 A−1 .
iii. Propiedades de cancelación: Si C es una matriz invertible, son válidas las siguientes propiedades:
(a) (Cancelación por la derecha): Si AC = BC entonces A = B.
(b) (Cancelación por la izquierda): Si CA = CB entonces A = B.
Ambas propiedades son directas usando necesariamente que C es invertible. Si C no es invertible
estas afirmaciones pueden ser falsas. Tómese el siguiente contraejemplo:
µ
¶
µ
¶
µ
¶
1 3
2 4
1 −2
A=
B=
C=
.
0 1
2 3
−1
2
Es directo ver que:
µ
AC =
aún siendo A 6= B.
−2 4
−1 2
¶
= BC
90
CAPÍTULO 5. CÁLCULO MATRICIAL
Capítulo 6
Determinantes
6.1
Definición y propiedades
Definición 6.1.1. Dada una matriz cuadrada A = (ai,j ) ∈ Mn (K), de orden n, se define el determinante de A, denotado |A| como:
X
|A| :=
sign(σ)a1, σ(1) · a2, σ(2) · · · · · an, σ(n) ,
σ∈Sn
donde Sn es el grupo de permutaciones del conjunto {1, 2, . . . , n}.
µ
¶
a1,1 a1,2
Ejemplo 39 Matrices 2 × 2. Si A =
entonces:
a2,1 a2,2
|A| = a1,1 a2,2 − a1,2 a2,1 .
Ejemplo 40 Matrices 3 × 3. Si:


a1,1 a1,2 a1,3
A =  a2,1 a2,2 a2,3 
a3,1 a3,2 a3,3
entonces:
|A| =
a1,1 a2,2 a3,3
+a1,2 a2,3 a3,1
+a1,3 a2,1 a3,2
−a1,3 a2,2 a3,1
−a1,2 a2,1 a3,3
−a1,1 a2,3 a3,2
(σ
(σ
(σ
(σ
(σ
(σ
= (1)
= (1, 2, 3)
= (1, 3, 2)
= (1, 3)
= (1, 2)
= (2, 3)
=⇒
=⇒
=⇒
=⇒
=⇒
=⇒
sign(σ) = +1)
sign(σ) = +1)
sign(σ) = +1)
sign(σ) = −1)
sign(σ) = −1)
sign(σ) = −1) .
En lo que sigue, dada una matriz A = (ai,j ) ∈ Mn (K) denotaremos por fj al j–ésimo vector fila,
y por ωi al i–ésimo vector columna, es decir:
fj = (a1,j , a2,j , . . . , an,j ) ∀j = 1, 2, . . . , n ;
ωi = (ai,1 , ai,2 , . . . , ai,n ) ∀i = 1, 2, . . . , n .
91
92
CAPÍTULO 6. DETERMINANTES
De esta manera se tiene que:

f1


A = (ai,j ) =  ...  = [ω1 · · · ωn ]
fn

y nos referiremos a |A| con Det(f1 , . . . , fn ) o Det(ω1 , . . . , ωn ). Diremos que Det(f1 , . . . , fn ) es el
determinante de los n vectores filas de A, y Det(ω1 , . . . , ωn ) el de los n vectores columnas de A.
Obsérvese que
Proposición 2 Si A = (ai,j ) ∈ Mn (K), entonces |A| = |At |.
Dem.: La igualdad es directa de la definición, sin más que reordenar:
X
|A| =
sign(σ)a1, σ(1) · a2, σ(2) · · · · · an, σ(n)
(reordenamos cada producto)
σ∈Sn
=
X
sign(σ)aσ−1 (1),1 · aσ−1 (2),2 · · · · · aσ−1 (n),n
(cambiamos índices γ=σ −1 , donde sign(γ)=sign(σ))
σ∈Sn
=
X
γ∈Sn
t
= |A |
sign(γ)aγ(1),1 · aγ(2),2 · · · · · aγ(n),n
(por definición de matriz traspuesta) .
Nótese que hemos utilizado que la aplicación:
Φ : Sn −→ Sn
σ 7−→ Φ(σ) = σ −1
es biyectiva (¿dónde?).
¥
Vamos a enumerar a continuación propiedades del determinante de una matriz. El resultado
anterior nos permite deducir de las propiedades de los determinantes definidos para los vectores fila,
las mismas para el determinante para vectores columna (o viceversa).
Propiedades del determinante de una matriz Las propiedades fundamentales son las tres
siguientes:
1. Det(f1 , . . . , λfk , . . . , fn ) = λ · Det(f1 , . . . , fk , . . . , fn ) para todo λ ∈ K y todo k = 1, . . . , n.
Dem.: Sean B = (bi,j ) = [f1 , . . . , λfk , . . . , λn ]t y A = (ai,j ) = [f1 , . . . , fk , . . . , fn ]t . Se tiene
entonces que, para cualquier j = 1, . . . , n, bi,j = ai,j para cualquier índice i 6= k, y bk,j = λak,j ,
y así:
X
|B| =
sign(σ) b1,σ(1) · · · · · bk,σ(k) · · · · · bn,σ(n)
σ∈Sn
=
X
sign(σ) a1,σ(1) · · · · · (λak,σ(k) ) · · · · · an,σ(n)
σ∈Sn
= λ
³X
´
sign(σ)a1, σ(1) · a2, σ(2) · · · · · an, σ(n) = λ · |A| .
σ∈Sn
¥
6.1. DEFINICIÓN Y PROPIEDADES
93
2. Det(f1 , . . . , fk + fk0 , . . . , fn ) = Det(f1 , . . . , fk , . . . , fn ) + Det(f1 , . . . , fk0 , . . . , fn ), para cualquier
k = 1, . . . , n.
Dem.: Sean B = (bi,j ) = [f1 , . . . , fk + fk0 , . . . , fn ], A = (ai,j ) = [f1 , . . . , fk , . . . , fn ]t y A0 =
(a0i,j ) = [f1 , . . . , fk0 , . . . , fn ]t . Queremos probar que |B| = |A| + |A0 |; ahora bien , para cualquier
j = 1, . . . , n se tiene
bi,j = ai,j = a0i,j
bk,j = ak,j + a0k,j .
|B| =
X
si i 6= k
sign(σ) b1,σ(1) · · · · · bk,σ(k) · · · · · bn,σ(n)
σ∈Sn
=
X
sign(σ) b1,σ(1) · · · · · (ak,σ(k) + a0k,σ(k) ) · · · · · bn,σ(n)
σ∈Sn
=
X
sign(σ) b1,σ(1) · · · · · ak,σ(k) · · · · · bn,σ(n) +
σ∈Sn
=
X
X
sign(σ) b1,σ(1) · · · · · a0k,σ(k) · · · · · bn,σ(n)
σ∈Sn
sign(σ) a1,σ(1) · · · · · ak,σ(k) · · · · · an,σ(n) +
σ∈Sn
X
sign(σ) a01,σ(1) · · · · · a0k,σ(k) · · · · · a0n,σ(n)
σ∈Sn
0
= |A| + |A | .
¥
3. Det(f1 , . . . , fk , . . . , f` , . . . , fn ) = (−1) · Det(f1 , . . . , f` , . . . , fk , . . . , fn ), para cualesquiera índices
distintos k, ` ∈ {1, 2, . . . , n}.
Dem.: Para esta demostración realizaremos un cambio biyectivo en el índice del sumatorio
“σ ∈ Sn ”. Dada la trasposición τ = (k, `) ∈ Sn (k =
6 `), consideremos la aplicación:
Φ : Sn −→ Sn
γ 7−→ Φ(γ) = γτ .
Obsérvese que, para toda γ ∈ Sn , se tiene sign(Φ(γ)) = −sign(γ) y:

 γ(i) si i 6= k, `
γ(`) si i = k
Φ(γ)(i) = γτ (i) =

γ(k) si i = ` .
Por otra parte, es directo comprobar que la aplicación Φ es biyectiva:
inyectiva:
sobreyectiva:
Φ(γ1 ) = Φ(γ2 ) ⇐⇒ γ1 τ = γ2 τ ⇐⇒ γ1 τ τ −1 = γ2 ⇐⇒ γ1 = γ2 ;
∀σ ∈ Sn , Φ(στ −1 ) = στ −1 τ = σ .
Vayamos ahora a la demostración de la propiedad. Sean A = (ai,j ) = [f1 , . . . , fk , . . . , f` , . . . , fn ]t
y B = (bi,j ) = [f1 , . . . , f` , . . . , fk , . . . , fn ]t , es decir, para j = 1, . . . , n sean:
bi,j = ai,j siempre que i 6= k, `
b`,j = ak,j
bk,j = a`,j .
94
CAPÍTULO 6. DETERMINANTES
Se tiene entonces que:
X
sign(σ)a1,σ(1) · · · · · ak,σ(k) · · · · · a`,σ(`) · · · · · an,σ(n)
|A| =
σ∈Sn
=
X
sign(γτ )a1,(γτ )(1) · · · · · ak,(γτ )(k) · · · · · a`,(γτ )(`) · · · · · an,(γτ )(n)
(γτ )∈Sn
=
X
(−sign(γ))a1,γ(1) · · · · · ak,γ(`) · · · · · a`,γ(k) · · · · · an,γ(n)
γ∈Sn
= (−1) ·
³X
´
sign(γ)b1,γ(1) · · · · · b`,γ(`) · · · · · bk,γ(k) · · · · · bn,γ(n)
γ∈Sn
¥
= (−1) · |B| .
De estas tres propiedades fundamentales se deducen las siguientes:
4. Det(f1 , . . . , fn ) = 0 si fi = fj para dos índices distintos.1
Dem.: Por la propiedad (3) se tiene que:
Det(f1 , . . . , fi , . . . , fj , . . . , fn ) = −Det(f1 , . . . , fj , . . . , fi , . . . , fn ) .
Ahora bien, si fi = fj , esto equivale a decir:
2Det(f1 , . . . , fi , . . . , fj , . . . , fn ) = 0
y como 2 6= 0, se ha de tener Det(f1 , . . . , fi , . . . , fj , . . . , fn ) = 0.
¥
5. Para toda permutación σ ∈ Sn :
Det(fσ(1) , . . . , fσ(n) ) = sign(σ) · Det(f1 , . . . , fn ) .
Dem.: Esta propiedad se reduce a (3) si σ es una trasposición. En general, basta descomponer
σ en producto de trasposiciones y aplicar (3) reiteradamente.
¥
6. Si un vector fi = 0 entonces Det(f1 , . . . , fi , . . . , fn ) = 0.
Dem.: Basta aplicar la propiedad (1) con λ = 0, puesto que 0 = 0 · v, para todo v ∈ Kn . ¥
P
7. Si fj =
λk fk entonces Det(f1 , . . . , fj , . . . , fn ) = 0.
k6=j
Dem.: Aplicando las propiedades (1) y (2) se tiene:
X
Det(f1 , . . . , fj , . . . , fn ) =
λk Det(f1 , . . . , fk , . . . , fn ) .
k6=j
En cada sumando en el miembro derecho aparece fk en las posiciones j y k 6= j, y por la
propiedad (4) se anulan todos.
¥
1
Estamos suponiendo que el cuerpo base K tiene característica 6= 2, y por tanto 2 6= 0 en K.
6.1. DEFINICIÓN Y PROPIEDADES
8. Det(f1 , . . . , fi +
P
95
λk fk , . . . , fn ) = Det(f1 , . . . , fi , . . . , fn ).
k6=i
Dem.: Es consecuencia inmediata de (2) y (7).
¥
De las propiedades anteriores se deduce el siguiente resultado
Corolario 1 Si {f1 , . . . , fn } son vectores linealmente dependientes, entonces Det(f1 , . . . , fn ) = 0.
De hecho este resultado es una equivalencia. Para demostrarlo basta ver que si {f1 , . . . , fn } son
vectores linealmente independientes, entonces Det(f1 , . . . , fn ) 6= 0. Una manera de llegar a este
resultado pasa por definir el determinante de un conjunto de n vectores cualesquiera de un espacio
vectorial E sobre K de dimensión n. Este proceder escapa a los objetivos de este curso.
6.1.1
Regla de Laplace
Vamos a dar una nueva expresión para el determinante de una matriz, que permitirá, en muchas
ocasiones, calcularlo más cómodamente. También nos servirá para dar un algoritmo de cálculo de la
inversa de una matriz.
Ejemplo 41 (Matrices 3 × 3) Sea A una matriz 3 × 3, digamos


a1,1 a1,2 a1,3
A =  a2,1 a2,2 a2,3  .
a3,1 a3,2 a3,3
Entonces:
|A| = a1,1 a2,2 a3,3 − a1,1 a2,3 a3,2 + a1,2 a2,3 a3,1 − a1,2 a2,1 a3,3 + a1,3 a2,1 a3,2 − a1,3 a2,2 a3,1
que podemos reescribir como:
¡
¢
¡
¢
¡
¢
|A| = a1,1 a2,2 a3,3 − a2,3 a3,2 − a1,2 a2,1 a3,3 − a2,3 a3,1 + a1,3 a2,1 a3,2 − a2,2 a3,1
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯ a2,2 a2,3 ¯
¯ a2,1 a2,3 ¯
¯ a2,1 a2,2 ¯
= a1,1 ¯
¯ − a1,2 ¯
¯ + a1,3 ¯
¯
¯ a3,2 a3,3 ¯
¯ a3,1 a3,3 ¯
¯ a3,1 a3,2 ¯
Esta expresión se dice el desarrollo del determinante por la primera fila. Se pueden obtener expresiones
análogas para el desarrollo por cualquier otra fila o columna.
Introduzcamos algo de notación para probar una fórmula general para el cálculo del determinante
de una matriz desarrollando por una fila (columna) (cf Proposición 3).
Definición 6.1.2. (Menor de orden p) Dada una matriz A = (ai,j ) ∈ Mn (K), y subconjuntos de
p elementos H = {i1 , . . . , ip }, con i1 < · · · < ip , y L = {j1 , . . . , jp }, con j1 < · · · < jp , se define el
menor de orden p como la matriz obtenida de A tomando los elementos en las filas i ∈ H y en las
columnas j ∈ L. Denotaremos por ALH el determinante de un tal menor.
96
CAPÍTULO 6. DETERMINANTES
Definición 6.1.3. (Adjunto de un elemento) Llamaremos adjunto de un elemento ai,j de una
matriz A ∈ Mn (K) a:
0
Xi,j = (−1)i+j Aji0 ,
donde k 0 := {1, 2, . . . , n} \ k = {k}c (el complementario del conjunto {k} en {1, 2, . . . , n} para
k = 1, . . . , n).
Proposición 3 [Forma de Laplace] Dada una matriz A = (ai,j ) ∈ Mn (K) se tiene:
µ
n
X
0
|A| =
(−1)i+j ai,j Aji0
=
j=1
n
X
=
µ
ai,j Xi,j
=
j=1
n
X
¶
i+j
(−1)
i=1
n
X
0
ai,j Aji0
¶
ai,j Xi,j .
i=1
Dem.: [Forma de Laplace] Por la propiedad (3) de los determinantes, basta probar la igualdad para
el desarrollo por la primera fila (o columna).
Podemos reescribir la expresión del determinante |A|:
|A| =
X
σ∈Sn
=
sign(σ)a1,σ(1) a2,σ(2) · · · · · an,σ(n)
X
sign(σ)a 1,1 a2,σ(2) · · · · · an,σ(n)
σ∈Sn , σ(1)=1
+
X
sign(σ)a 1,2 a2,σ(2) · · · · · an,σ(n)
σ∈Sn , σ(1)=2
+
..
.
X
..
.
X
1
sign(σ)a 1,n a2,σ(2) · · · · · an,σ(n)
σ∈Sn , σ(1)=n
donde hemos separado los n! sumandos de
1
sign(σ)a 1,j a2,σ(2) · · · · · an,σ(n)
σ∈Sn , σ(1)=j
+
1
P
σ∈Sn
1
, en n sumatorios disjuntos,
P
para j = 1, . . . , n,
σ∈Sn , σ(1)=k
con (n − 1)! sumandos cada uno. Efectivamente, si σ(1) = k y γ(1) = ` 6= k, entonces σ 6= γ. Además,
para cualquier j ∈ {1, 2, . . . , n}, el cardinal del conjunto {σ ∈ Sn : σ(1) = j} es (n − 1)!.
6.1. DEFINICIÓN Y PROPIEDADES
97
En definitiva tenemos una nueva expresión para el determinante de A, y en cada uno de sus
sumandos podemos sacar un factor común. Concretamente:
µ
¶
X
|A| = a 1,1
sign(σ)a2,σ(2) · · · · · an,σ(n)
σ∈Sn , σ(1)=1
µ
¶
X
+a 1,2
sign(σ)a2,σ(2) · · · · · an,σ(n)
σ∈Sn , σ(1)=2
..
µ .
+a 1,j
¶
X
sign(σ)a2,σ(2) · · · · · an,σ(n)
σ∈Sn , σ(1)=j
..
µ.
+a 1,n
¶
X
sign(σ)a2,σ(2) · · · · · an,σ(n)
σ∈Sn , σ(1)=n
n
X
=
µ
a1,j ·
j=1
¶
X
sign(σ)a2,σ(2) · · · · · an,σ(n) .
σ∈Sn , σ(1)=j
Es ahora un simple ejercicio2 de observación el comprobar que:
X
sign(σ)a2,σ(2) · · · · · an,σ(n) = X1,j
σ∈Sn , σ(1)=j
¥
Corolario 2 Dada una matriz A = (ai,j ) ∈ Mn (K) se tiene:
µ X
¶
n
n
X
|A| =
ai,j Xi,j
=
ai,j Xi,j
j=1
n
X
ai,j Xk,j = 0
(6.1)
i=1
siempre que k 6= i .
(6.2)
j=1
Además, si |A| =
6 0, la matriz
B = (bi,j )
con bi,j =
1
Xj,i
|A|
es la inversa de A.
Dem.: La afirmación (6.1) es la Proposición 3.
Para probar (6.2), sean k 6= i dos índices en {1, 2, . . . , n}. Consideremos la matriz A = (ai,j ) con
ai,j = ai,j para i 6= k, y ak,j = ai,j . De otra manera, A es la matriz A en la que hemos sustituido
2
¡Compruébese!
98
CAPÍTULO 6. DETERMINANTES
la fila k–ésima, por la fila i–ésima; en particular, X k,j = Xk,j para j = 1, . . . , n. En A tenemos así
dos filas idénticas y por tanto |A| = 0. Ahora bien si desarrollamos |A| por los elementos de la fila
k–ésima:
0 = |A| =
n
X
ak,j X k,j
j=1
=
n
X
ai,j Xk,j
(por definición de A) .
j=1
Además podemos reinterpretar la igualdad
|A| =
n
X
ai,j Xi,j
(6.3)
j=1
como el producto de dos matrices. Explícitamente, sea C = (ci,j ) con ci,j = Xj,i (obsérvese el cambio
en el orden de los subíndices). Entonces utilizando (6.3) para i = 1, . . . , n, podemos escribir:
AC = |A|I
con I la matriz identidad3 . Si |A| = 0 entonces AC = 0; si |A| 6= 0 entonces A(|A|−1 C) = I.
Finalmente la matriz B del enunciado es B = |A|−1 C.
¥
Ejemplo 42 Calcular la inversa de la matriz

1

3
A=
−1

3
−1 
2
2
1
0
Calculemos los adjuntos:
¯
¯
¯
¯
¯
¯
¯
¯
¯ 3 −1 ¯
¯ 3 1 ¯
2 ¯ 1 −1 ¯
3¯
4¯
¯
¯ = 1;
X1,1 = (−1) ¯
= 2;
X1,2 = (−1) ¯
= −5 ; X1,3 = (−1) ¯
0
2 ¯
−1
2 ¯
−1 0 ¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
2
3
1
3
1
2
4¯
5¯
¯ = −4 ;
¯ = 5;
¯
X2,1 = (−1)3 ¯¯
X
=
(−1)
X
=
(−1)
2,2
2,3
¯ −1 2 ¯
¯ −1 0 ¯ = −2
0 2 ¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯
2
3
1
3
1
2
6¯
¯ = −5 ; X3,2 = (−1)5 ¯
¯ = 10 ;
¯
X3,1 = (−1)4 ¯¯
X
=
(−1)
3,3
¯ 3 −1 ¯
¯ 3 1 ¯ = −5 .
1 −1 ¯
Por otro lado el determinante de A es:
|A| = 1X1,1 + 2X1,2 + 3X1,3 = 2 − 10 + 3 = −5 .
Por tanto:

A−1 = 
3
Ejercicio: Comprobar esta afirmación.
−2
5
4
5
1
−1
−1
5
2
5

1
−2 
1
6.1. DEFINICIÓN Y PROPIEDADES
99
Ejemplo 43 (Regla de Cramer) Consideremos el sistema de ecuaciones lineales:

 x + 2y + 3z = 3
3x + y − z = 1

−x
+ 2z = 6
que podemos escribir matricialmente como
   
x
3



1  con
A y
=
z
6

1

3
A=
−1
2
1
0

3
−1 
2
(6.4)
Como rg(A) = 3, el sistema es compatible determinado. Además |A| = −5 6= 0, y su inversa es:

A−1 = 
−2
5
4
5
1
−1
−1
5
2
5

1
−2  .
1
Usando esta inversa, podemos resolver la ecuación matricial

   
 
 
x
3
x
3

A  y  =  1  ⇐⇒  y  = A−1  1  ⇐⇒

z
6
z
6
(6.4):
x = −2
· 3 + 45 · 1 + 1 · 6 = 28
5
5
y = 1 · 3 + (−1) · 1 + (−2) · 6 = −10
z = −1
· 3 + 25 · 1 + 1 · 1 = 45
5
Como viene siendo habitual en este tema, reescribamos esto de otra manera:
 
 −2 
 4 


x
1
5
5
 y  = 3  1  + 1  −1  + 6  −2 
−1
2
z
1
5 
 5



2
−4
−5
1  
=
3 −5  + 1  5  + 6  10 
|A|
1
−2
−5
 





X1,1
X2,1
X3,1
1  
=
3 X1,2  + 1  X2,2  + 6  X3,2 
|A|
X1,3
X2,3
X3,3


3X1,1 + 1X2,1 + 6X3,1
1 
3X1,2 + 1X2,2 + 6X3,2 
=
|A|
3X1,3 + 1X2,3 + 6X3,3
donde Xi,j es el adjunto del elemento ai,j en la matriz de coeficientes del sistema A. En estas igualdades simplemente se ha usado la descripción de la inversa de A dada en el corolario 2. Estas
manipulaciones son pues válidas en cualquier caso general en que se tenga un sistema de ecuaciones
lineales con una matriz de coeficientes cuadrada y con determinante no nulo. Recogemos este cálculo
en el siguiente resultado.
100
CAPÍTULO 6. DETERMINANTES
Proposición 4 (Regla de Cramer) Sea A ∈ Mn (K) la matriz de coeficientes de un sistema lineal
de n ecuaciones con n incógnitas x1 , . . . , xn , con vector de términos independientes (b1 , . . . , bn ).
Si |A| 6= 0, entonces el sistema es compatible determinado y
xj =
1
bj |
· |A
|A|
bj es la matriz con todas las columnas como las de A salvo la j–ésima que se sustituye por el
donde A
vector de términos independientes.
Ejemplo 44 La mejor manera de ilustrar la Regla de Cramer es verla actuar. Considerar el sistema

 2x + y + z = 3
x+y−z = 0

3x + 2y − z = 2
cuya matriz de coeficientes:


2 1
1
A =  1 1 −1 
3 2 −1
tiene determinante:
¯
¯
¯
¯
¯
¯
¯ 1 −1 ¯
¯ 1 −1 ¯
¯ 1 1 ¯
det(A) = 2¯
¯ − 1¯
¯ + 1¯
¯ = 2 · 1 − 1 · 2 + 1 · (−1) = −1 .
2 −1
3 −1
3 2
Puesto que es 6= 0, el rango es 3 (máximo), y en particular el sistema es compatible determinado
(cf. Teorema de Rouché-Frobenius, página 85). Las soluciones las calculamos por la Regla de Cramer.
Con la notación utilizada en la Proposición 4, se tiene:
¯
¯ 3 1
¯
b
|A1 | = ¯ 0 1
¯
2 2
¯
¯ 2 3
¯
b
|A2 | = ¯ 1 0
¯
3 2
¯
¯ 2 1
b3 | = ¯¯ 1 1
|A
¯
3 2
1
−1
−1
1
−1
−1
3
0
2
¯
¯
¯
¯
¯
¯
¯
¯
1 ¯
1 ¯
¯
¯ 1 −1 ¯
¯ 1
¯ 1
¯= 3·¯
¯ − 0¯
¯ + 2¯
¯ = 3 − 4 = −1
2 −1
2 −1
1 −1
¯
¯
¯
¯
¯
¯
¯
¯
¯
1 ¯
1 ¯
¯
¯ 1 −1 ¯
¯ 2
¯ 2
¯= 3·¯
¯ − 0¯
¯ + 2¯
¯=6−6=0
3 −1
3 −1
1 −1
¯
¯
¯
¯
¯
¯
¯
¯
¯
¯ 2 1 ¯
¯ 2 1 ¯
¯ 1 1 ¯
¯
+
2
−
0
=
3
·
¯
¯ = −3 + 2 = −1
¯
¯
¯
¯
¯
1 1
3 2
3 2
¯
Y así, aplicando la Regla de Cramer, tenemos la siguiente solución del sistema:
x=
e1 |
|A
−1
=
= 1;
det(A)
−1
y=
e2 |
|A
0
=
= 0;
det(A)
−1
z=
e3 |
|A
−1
=
= 1.
det(A)
−1
Descargar